Vous êtes sur la page 1sur 140

Licence de Physique et Applications Université Paris-Sud

Méthodes Mathématiques pour la


Physique I

!
!
!!!!!!!!!!!!!!!!
!
! !
1$%234&5$"+%23'+%6+)$%'57)'5#%*&)%&"$%*$&8$%9$&'88$%)$4+3:($)*3;%$"
!
&$'-&!O¶8QLYHUVLWp3DULV"#$%!±!&'(&)*'+,)'!(-&!*.+!/&)*0%'+,!12!3
<@A!&$'!3'.&B'*!5C'D'+E'-$!±!=<?>@!E'%'F!',!-B0**-+,!(.$&!C'!E.D
!
!GH8!I&.0,!9E.+.D0'!3'*,0.+!! !GH8!#E0'+E'*!
!GH8!/K-&D-E0'! !3RO\WHFK¶3DULV"#$%!!
A.! Abada et W. Herreman
&'!C¶RUJDQL*D'!.$!O¶'+,&'(&0*'!G¶DFFXHLO!;!
– 2017 - 2018–
!
8-0*.+!*.E0-C'!;!
J%&'**'!;!+N! !!!!O.0'!
P0CC'!;!!
8'(&)*'+,)Q'R!(-&!;! !1-%-D'! !1.+*0'$&!
M.D!;! /&)+.D!;!
!
&'!O¶p,$%0-+,!*,-B0-0&'!;!
M.D!;! /&)+.D!;!
2

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
Table des matières

I Algèbre 7

1 Algèbre linéaire 9
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Rudiments d’algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Vecteurs et Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Produit de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Définition d’un espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Dimension de l’espace de Hilbert et base hilbertienne . . . . . . . . . . . . 16
1.4 Opérateurs et représentation matricelle d’opérateurs . . . . . . . . . . . . . . . . 19
1.4.1 Représentation matricielle d’un opérateur . . . . . . . . . . . . . . . . . . 19
1.4.2 Éléments de matrice d’un opérateur . . . . . . . . . . . . . . . . . . . . . 20
1.4.3 Adjoint et Transposé d’un opérateur . . . . . . . . . . . . . . . . . . . . . 21
1.4.4 Produit d’opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.5 Décomposition d’un opérateur en opérateur élémentaires . . . . . . . . . . 23
1.4.6 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4.7 Trace d’un opérateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 Inversion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6 Matrices utiles et leurs propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6.1 Matrices scalaires, triangulaires, nilpotentes et unipotentes . . . . . . . . 27
1.6.2 Matrices unitaires et matrices orthogonales . . . . . . . . . . . . . . . . . 28
4 TABLE DES MATIÈRES

1.7 Résolution d’un système d’équations linéaires . . . . . . . . . . . . . . . . . . . . 30


1.7.1 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.8 Diagonalisation d’un opérateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.8.1 Valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.8.2 Vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.8.3 Retour sur les invariants . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2 Bases non orthonormées, Métriques et Changement de Base 35


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2 Métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Changement de base et matrice de passage . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Notation avec la convention de sommation d’Einstein . . . . . . . . . . . 37
2.3.2 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.3 Conséquences du changement de base sur la métrique g . . . . . . . . . . 39

II Équations Différentielles 41

1 Équations Différentielles Ordinaires 43


1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.2 EDO’s linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.2.1 Définition & principe de superposition . . . . . . . . . . . . . . . . . . . 45
1.2.2 EDO’s linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . 46
1.2.3 EDO’s linéaires à coefficients non-constants . . . . . . . . . . . . . . . . . 50
1.3 EDO’s non-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.3.2 Quelques EDO’s non-linéaires dont on connait la solution . . . . . . . . . 57

2 Systèmes d’Equations Différentielles Ordinaires 63


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2 Systèmes d’EDO’s linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.1 Definition & principe de superposition . . . . . . . . . . . . . . . . . . . . 65

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
TABLE DES MATIÈRES 5

2.2.2 Systèmes linéaires à coefficients constants . . . . . . . . . . . . . . . . . . 67


2.3 Systèmes d’EDO’s non-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
2.3.1 Analyse locale autour d’un état équilibre . . . . . . . . . . . . . . . . . . 78
2.3.2 Exemple physique : le pendule . . . . . . . . . . . . . . . . . . . . . . . . 80

3 Équations Différentielles Partielles 85


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2 Le problème de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.2.2 Théorème min-max . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.2.3 Solutions séparables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.3 Fonctions propres du Laplacien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.2 Fonction propres séparables . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.3.3 Propriétés générales des modes propres de ∆ . . . . . . . . . . . . . . . . 105
3.4 Autres EDP’s fréquemment rencontrées en physique . . . . . . . . . . . . . . . . 107
3.4.1 Le problème de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.4.2 L’équation de diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.4.3 L’équation d’onde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.4.4 L’équation de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

4 Annexes : Rappels sur les coordonnées cylindriques & sphériques 113


4.1 Coordonnées cylindriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.2 Coordonnées sphériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

III Transformation de Fourier 121

1 Transformation de Fourier au sens des fonctions 123


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
1.2 Intégrale de Lebesgue et mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1.2.1 Mesure de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
6 TABLE DES MATIÈRES

1.2.2 Intégrale de Lebesgue et fonctions sommables . . . . . . . . . . . . . . . . 126


1.3 Transformation de Fourier dans L1 (R) . . . . . . . . . . . . . . . . . . . . . . . . 127
1.3.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
1.4 Dérivation et transformée inverse . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.4.1 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.4.2 Transformée de Fourier Inverse . . . . . . . . . . . . . . . . . . . . . . . . 132
1.5 Transformée de Fourier d’une convolution de fonctions . . . . . . . . . . . . . . . 133
1.5.1 Propriété de la convolution . . . . . . . . . . . . . . . . . . . . . . . . . . 134
1.6 Transformation de Fourier dans L2 (R) . . . . . . . . . . . . . . . . . . . . . . . . 136
1.7 Transformées de Fourier dans S(R) . . . . . . . . . . . . . . . . . . . . . . . . . . 138
1.8 Transformée de Fourier de fonctions à plusieurs variables . . . . . . . . . . . . . . 139
1.9 Application aux EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
Première partie

Algèbre
1

Algèbre linéaire
1.1 Introduction

Les lois de la physique se présentent souvent sous forme de relations linéaires : lois fonda-
mentales du mouvement, systèmes électriques, etc. De manière générale, on appelle équation
linéaire dans les variables xi , i = 1, n, toute relation de la forme
n
X
ai xi = c , (1.1)
i=1

où ai , i = 1, n et b sont des coefficients réels.


Ces équations linéaires décrivent des relations entre les variables xi sans donner directement les
valeurs que ces dernières peuvent prendre (solutions) - on dit qu’elles sont implicites.
Définitions
a. Un ensemble fini d’équations linéaires dans les variables xi , i = 1, n s’appelle un système
d’équations linéaires.
b. Tout n-uplet de nombres si , i = 1, n, satisfaisant chacune des équations s’appelle solution
du système d’équations linéaires.
c. Un système d’équations linéaires est dit incompatible ou inconsistent s’il n’admet pas de
solutions.

Exemple : considérons le système



a11 x1 + a12 x2 = b1
(1.2)
a21 x2 + a22 x2 = b2
où a11 · a12 6= 0 et a22 · a21 6= 0. Ces deux équations représentent deux droites (D1) et
(D2) du plan x1 x2 . Une solution de ce système est un point (s1 , s2 ) appartenant aux deux
droites. Si les droites se coupent en un seul point, le système est compatible, si elles sont
parallèles, le système est incompatible, enfin si les droites sont confondues, le système a
une infinité de solutions.
Avant de pouvoir écrire les systèmes d’équations linéaires sous forme matricielle, un rappel
sur les matrices, plus généralement sur l’algèbre linéaire, est nécessaire.
10 1. ALGÈBRE LINÉAIRE

1.2 Rudiments d’algèbre linéaire

L’algèbre linéaire est la branche des mathématiques consacrée à l’étude des espaces vectoriels,
des transformations linéaires et des systèmes d’équations linéaires.
Nous avons besoin de quelques définitions afin de fixer le langage.
I Un anneau A est un ensemble non vide muni d’une loi d’addition (+)- groupe commutatif -
et d’une loi de multiplication (notée (×) ou ·) - associative -, possédant un élément neutre (1),
et distributive par rapport à l’addition.

I Un corps K est un anneau dans lequel tout élément non nul est inversible. Citons par exemple
le corps R des nombres réels, le corps C des nombres complexes, le corps Q I des nombres ration-
nels, etc,. Un corps est dit commutatif si la multiplication est une opération commutative.

I Un espace vectoriel V sur un corps K est un groupe commutatif pour une loi +, muni d’une
action de K, c’est à dire une application linéaire de K × V dans V : (λ, x) → λ · x, vérifiant pour
tout x, y ∈ V et pour tout λ, µ ∈ K les propriétés suivantes :

λ · (x + y) = (λ · x) + (λ · y), (λ + µ) · y = (λ · y) + (µ · y), λ · (µ · x) = (λ µ) · x . (1.3)

Un espace vectoriel est donc un ensemble muni d’une structure permettant d’effectuer des com-
binaisons linéaires. Il est défini sur un corps. Les éléments de l’espace vectoriel (du corps) sont
appelés vecteurs (scalaires).
Dans un premier temps, on considère des espaces vectoriels définis sur le corps des réels
qu’on généralisera ensuite aux espaces vectoriels définis sur le corps des complexes (espaces de
Hilbert).

1.2.1 Vecteurs et Bases

~ de V se décompose
Considérons un espace vectoriel V sur Rn (de dimension n). Tout vecteur V
sur des vecteurs de base ~ui , i = 1, n, comme suit

n
X
~ =
V ci ~ui , avec ci ∈ R. (1.4)
i=1

~.
On appelle ci les composantes du vecteur V
On note en général la base canonique de V sur laquelle tout vecteur de V se décompose
comme suit

{~u1 , ~u2 , ..., ~un }, (1.5)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. RUDIMENTS D’ALGÈBRE LINÉAIRE 11

avec
     
1 0 0
0 1 0
     
~u1 = 0 ; ~u2 = 0 ; · · · ; ~un =  ...  . (1.6)
     
 ..   ..   
. . 0
0 0 1

S’il s’agit d’une base orthonormée de V, les vecteurs ~ui vérifient



0 si i 6= j
~ui · ~uj = = δij . (1.7)
1 si i = j

Dans Eq. (1.7), le symbole δij qui permet une écriture compacte des expressions (δij = 1 si i = j,
δij = 0 si i 6= j) est appelé symbole de Kronecker.

1.2.2 Produit de vecteurs

Soient ~a, ~b et ~c trois vecteurs quelconques de V et soit λ un nombre réel, alors


(toutes les relations suivantes peuvent être facilement démontrées) :
i) ~a + ~b = ~b + ~a ;
ii) ~a + (~b + ~c) = (~a + ~b) + ~c ;
iii) λ(~a + ~b) = λ~a + λ~b.

I Produit scalaire

Soit V un espace vetoriel de dimension n et soient ~a = (a1 , a2 , ..., an )t et ~b = (b1 , b2 , ..., bn )t


deux vecteurs quelconques de V. On définit leur produit scalaire par le scalaire réel (on
rappelle qu’on travaille pour le moment avec des espaces vectoriels définis sur le corps des
réels) :

n
X
~a · ~b = ai bi . (1.8)
i=1

Le produit scalaire ainsi défini vérifie les propriétés suivantes :


quelques soient ~a, ~b et ~c trois vecteurs quelconques de V et λ un scalaire quelconque, λ ∈ R :

i) ~a · ~b = ~b · ~a (commutatif) ;
ii) ~a · (~b + ~c) = ~a · ~c + ~b · ~c ;
iii) λ(~a) · ~b = λ(~a · ~b) ;
iv) ~a · ~a ≥ 0 ;
v) ~a · ~a = 0 si et seulement si ~a = ~0.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
12 1. ALGÈBRE LINÉAIRE

I Norme et distance euclidienne

On définit la norme ou la norme euclidienne d’un vecteur ~a ∈ V par


v
u n
√ p uX
||~a|| = ~a · ~a ≡ ha|ai = t (ai )2 . (1.9)
i=1

La distance ou distance euclidienne entre deux vecteurs ~a et ~b de V est définie par


v
u n
uX
~ ~
d(~a, b) = ||~a − b|| = t (ai − bi )2 . (1.10)
i=1

On peut démontrer grâce aux différentes définitions et propriétés déjà abordées que ∀ ~a, ~b ∈ V
et ∀ λ ∈ R, alors

— ||~a|| ≥ 0 ;
— ||λ~a|| = |λ| ||~a|| ;
— ||~a + ~b|| ≤ ||~a|| + ||~b|| (inégalité du triangle) ;
— |~a · ~b| ≤ ||~a||||~b|| (inégalité de Cauchy-Schwarz).

I Produit vectoriel de vecteurs

C’est ici l’occasion de rappeler comment calculer le produit vectoriel de deux vecteurs d’un
espace vectoriel à trois dimensions. En physique, de nombreux vecteurs sont construits à par-
tir du produit vectoriel de deux vecteurs physiques. Par exemple le vecteur de Poynting en
électromagnétisme, défini par produit vectoriel du champ électrique par le champ magnétique
divisé par la permitivité magnétique du vide, E ~ ∧ B/µ
~ 0 , ou le vecteur moment cinétique orbi-
tal en mécanique défini par le produit vectoriel du vecteur position par le vecteur quantité de
mouvement ou impulsion, ~r ∧ p~ , etc. Soient ~a = (a1 , a2 , a3 )t et ~b = (b1 , b2 , b3 )t deux vecteurs
quelconques de V (de dimension 3). On définit le produit vectoriel de ces deux vecteurs par le
vecteur ~c = ~a ∧ ~b (de composantes réelles, V étant un espace vectoriel défini sur R3 ). Il s’écrit
dans la base la base orthonormée {~ui }, i = 1, 3, comme suit :
     
a1 b1 a2 b3 − a3 b2
~a ∧ ~b = ~c = a2  ∧ b2  = a3 b1 − a1 b3  . (1.11)
a3 b3 a1 b2 − a2 b1

On peut vérifier que le produit vectoriel d’un vecteur par lui-même est nul et que produit
vectoriel est anticommutatif :

~a ∧ ~b = − ~b ∧ ~a. (1.12)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. RUDIMENTS D’ALGÈBRE LINÉAIRE 13

Relations utiles : soient quatre vecteurs quelconques ~a, ~b, ~c, d. ~ Les relations ci-dessous seront
très utiles et sont faciles à démontrer :
   
~a ∧ ~b ∧ ~c + ~b ∧ (~c ∧ ~a) + ~c ∧ ~a ∧ ~b = ~0 ; (1.13)
   
~a ∧ ~b ∧ ~c = (~a · ~c) ~b − ~a · ~b ~c ; (1.14)
        
~a ∧ ~b · ~c ∧ d~ = (~a · ~c) ~b · d~ − ~a · d~ ~b · ~c ; (1.15)
    h  i h  i
~a ∧ ~b ∧ ~c ∧ d~ = ~a ∧ ~b · d~ ~c − ~a ∧ ~b · ~c d~ (1.16)
h  i h  i
= ~c ∧ d~ · ~a ~b − ~c ∧ d~ · ~b ~a . (1.17)

Ces relations sont encore plus faciles à démontrer avec l’outil suivant.

I Le tenseur antisymétrique de Lévi-Civita

Soit {~e1 , ~e2 , ~e3 } une base orthonormée directe d’un espace vectoriel à trois dimensions. On
peut définir un tenseur antisymétrique, dit de Lévi-Civita, comme

ijk = (~ei ∧ ~ej ) · ~ek . (1.18)

Grâce à la définition du produit vectoriel, on peut immédiatement vérifier que


a) 123 = 1,
b) ijk est complètetment antisymétrique : ijk = −jik = +jki .
Cet outil permet souvent de compacter des expressions lourdes. Par exemple, on peut montrer
que le produit vectoriel de deux vecteurs A ~ et B
~ appartenant à un espace vectoriel définit sur
3
R peut s’écrire à l’aide du tenseur ijk comme
 
X X
~∧B
A ~ =  ijk Ai Bj  ~ek , (1.19)
k i,j

où {~ek }, k = 1, 3 est une base directe.

I Convention de sommation d’Einstein

En utilisant la convention de sommation d’Einstein :


“dans une expression, tout indice répété est sommé”, on peut écrire - entre autres - le
produit vectoriel précédent comme
X  
A~∧B ~ = (ijk Ai Bj ) ~ek = ijk Ai Bj ~ek =⇒ A~∧B
~ = ijk Ai Bj . (1.20)
k
k

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
14 1. ALGÈBRE LINÉAIRE

Exercice 1
— En utilisant le tenseur de Lévi-Civita, calculer les composantes cartésiennes du moment
~ = ~r ∧~
cinétique orbital L p, où ~r et p~ sont les vecteurs position et impulsion d’une particule
ponctuelle.
— Refaire le même exercice et retrouver les coordonnées cylindriques et sphériques de ce
même vecteur L.~
Exercice 2
Utilisez le tenseur de Lévi-Civita pour démontrer les relations (1.13) à (1.17).

I Le produit scalaire qu’on a rappelé dans cette section concernait des espaces vectoriels définis
sur Rn . En mécanique quantique, les vecteurs qu’on utilise (vecteurs caractérisant l’état quan-
tique d’un système) ont des composantes complexes (à cause de l’interprétation probabiliste).
Ces vecteurs appartiennent à des espaces vectoriels définis sur le corps des complexes qu’on
appelle “espaces de Hilbert”. On note - notation de Dirac - ces vecteurs ψ ~ : “|ψi” et on
les appelle “ket” en mécanique quantique. C’est ce que nous allons aborder dans la section qui
suit.

1.3 Définition d’un espace de Hilbert

Définition 1 : Un espace de Hilbert est un espace vectoriel défini sur le corps des
complexes, complet, muni d’un produit scalaire complexe hermitien (et dont la norme définie
positive découle de ce produit scalaire).

En plus d’être complet 1 , on suppose l’espace de Hilbert également séparable - il existe une suite
partout dense 2 dans V.

1.3.1 Notations
— Dans toute la suite, on notera x∗ le complexe conjugué de x, quelque soit le nombre
complexe x.
— Un vecteur V~ de V (défini sur C) sera noté |V i pour bien se rappeler que ses composantes
sur une base peuvent être complexes.
— Dans une base canonique, le transposé d’un vecteur colonne |V i est un vecteur ligne,
dont les composantes sont les complexes conjuguées de celles du vecteur colonne. On le
notera hV | (qu’on appelle “bra” en mécanique quantique).

1. Complet : un espace vectoriel V est complet si toute suite de Cauchy de V est convergente dans V.
2. En topologie, un espace séparable est un espace topologique contenant un sous-ensemble dénombrable et
dense, c’est-à-dire contenant un ensemble dénombrable de points dont l’adhérence est égale à l’espace topologique
tout entier.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.3. DÉFINITION D’UN ESPACE DE HILBERT 15

1.3.2 Produit scalaire

Définition 2 : On appelle produit scalaire hermitien sur un espace vectoriel V, toute


forme sésquilinéaire
application
(x, y) −−−−−→ hx, yi (1.21)

I Ce produit scalaire vérifie par définition les propriétés suivantes :

i) Propriété d’hermiticité : hg, f i = hf, gi∗ ;


ii) Antilinéarité à gauche : ∀α, β ∈ C et f, g, h ∈ V , hαg + βf, hi = α∗ hg, hi + β ∗ hf, hi ;
Linéarité à droite : ∀α, β ∈ C et f, g, h ∈ V , hh, αg + βf i = αhh, gi + βhh, f i ;
iii) Norme positive : hf, f i ≥ 0 , ∀f ∈ V ;
iv) hf, f i = 0 si et seulement si f = 0.
Notation : soient |ψ1 i et |ψ2 i ∈ V, on notera leur produit scalaire comme suit :

(ψ1 , ψ2 ) −→ hψ1 , ψ2 i,
avec hψ1 , ψ2 i = hψ2 , ψ1 i∗ . (1.22)

La propriété d’hermiticité ainsi que la positivité du produit scalaire (1.22) impliquent que
la norme d’un vecteur est réelle et positive

hψ, ψi =k |ψi k2 = hψ|ψi∗ ≥ 0. (1.23)

I Définition de l’espace dual de V

En général, l’espace dual d’un espace vectoriel V est l’ensemble des formes linéaires sur V.
. On appelle donc V ∗ , le dual de V, l’espace vectoriel des formes linéaires (hω, ·i) ∈ V ∗ telles que
l’action de hω, ·i ∈ V ∗ sur un vecteur |vi ∈ V donne le nombre scalaire complexe hω, vi.
. On montre qu’il y a une correspondance bi-univoque et sesquilinéaire entre l’espace de
Hilbert V et son dual V ∗ , qui est l’ensemble des formes linéaires continues définies sur V (iso-
morphisme 3 ).

Définition 3 : A tout vecteur |ψi ∈ V, on associe un élément de V ∗ , le dual de l’espace


de Hilbert, noté hψ|, appelé vecteur ligne ou “bra”

ket −→ bra
|ψi ∈ V −→ hψ| ∈ V ∗ (1.24)

3. Isomorphisme : application bijective qui préserve la structure ; V est le dual de V ∗ .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
16 1. ALGÈBRE LINÉAIRE

Le produit scalaire dans l’espace des états (de Hilbert) de deux vecteurs |ψ1 i et |ψ2 i est
formé par la forme “bra, ket” - c’est à dire “vecteur ligne · vecteur colonne” :
hψ2 , ψ1 i ≡ hψ2 |ψ1 i . (1.25)

Résumé :
La notation de Dirac s’inspire de la relation bi-univoque entre l’espace de Hilbert et son dual.
I À tout vecteur |ψi ∈ V (vecteur colonne) −→ hψ| ∈ V ∗ (vecteur ligne dont les compo-
santes sont les conjuguées complexes de celles du vecteur colonne) ;

I L’action du vecteur ligne hψ| ∈ V ∗ sur le vecteur colonne |φi ∈ V est le produit scalaire
de |φi par |ψi, tel que (et pour assurer la positivité de la norme) :
hψ|φi = hφ|ψi∗ .

1.3.3 Dimension de l’espace de Hilbert et base hilbertienne

. La dimension d’un espace de Hilbert peut être finie comme dans le cas du traitement du spin :
l’espace des états de spin est discret. Dans ce cas on utilise des bases finies (dénombrables).
. La dimension peut être infinie comme c’est le cas de l’espace ∈ L2 (R3 ) des fonctions d’onde
de carré sommables (qu’on utilise en mécanique quantique ondulatoire) et auquel cas on utilisera
des bases continues.

I Projecteurs

Prenons le cas d’un espace vectoriel complet de dimension finie n. Soit {|ui i, i = 1, n} une
base orthonormée de V. Le projecteur sur le vecteur |ui i est défini par
Pbi = |ui i hui |. (1.26)
On peut vérifier que Pbi2 = Pbi (et que, voir plus loin, Pbi† = Pbi ). La somme de tous les projecteurs
sur les vecteurs |ui i donnera l’identité 11 (l’espace vectoriel en question étant “complet”). La
base {|ui i, i = 1, n} vérifie donc la relation de fermeture et la condition d’orthonormalisation :
n
X
|ui i hui | = 11 (fermeture) , (1.27)
i=1
hui |uj i = δij , ∀ i, j ∈ [1, n] (orthonormalisation) . (1.28)
Les vecteurs |u1 i, · · · , |un i sont vus comme des vecteurs colonnes (en métrique euclidienne), cf.
Eq. (1.6)      
1 0 0
0 1 0
     
|u1 i = 0 ; |u2 i = 0 ; · · · ; |un i =  ...  , (1.29)
     
 ..   ..   
. . 0
0 0 1
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.3. DÉFINITION D’UN ESPACE DE HILBERT 17

et les bra sont vus comme des vecteurs ligne

hu1 | = (1, 0, 0, · · · , 0) ; · · · ; hun | = (0, · · · , 0, 1); (1.30)



avec |ui i = (hui |) , (1.31)

de sorte que si |ψi et |φi sont deux vecteurs ∈ V, on peut les écrire sur la base choisie {|ui i} :
X
|ψi = ψi |ui i,
i
X
|φi = φi |ui i,
i

et leur produit scalaire est donné par


N
X N
X
hψ|φi = (ψi∗ hui |) (φj |uj i) = ψi∗ φj hui |uj i
i,j=1 i,j=1
N
X
= ψi∗ φi . (1.32)
i=1

Exercice

— Utiliser les propriétés du produit scalaire hermitien pour démontrer l’équation précédente
(ne pas oublier le caractère antilinéaire à gauche et linéaire à droite !).
— Calculer le produit scalaire de |ψi + i|φi par i|ψi − |φi.

Cas de bases de dimension infinie

En général, pour les cas étudiés en physique, on travaille toujours avec des bases dénombrables,
c’est à dire que l’on peut indexer par un nombre entier. De nombreux exemples se trouvent dans
les résolutions d’équations différentielles (ou systèmes d’équations différentielles linéaires) 4 . Par
exemple, la fonction d’onde de l’oscillateur harmonique (à une dimension) en mécanique quan-
tique se développe sur la base des fonctions polynômes de Hermite Hn (x), n ∈ N. Un autre
exemple concerne la description quantique de l’atome d’hydrogène, où du fait de la symétrie cen-
trale, la partie spatiale de la fonction d’onde ψ(~r, t) = ψ(r, θ, φ, t) se sépare en un produit d’une
fonction radiale f (r) par une fonction angulaire, φ(θ, φ) ; chacune de ces fonctions se développent
sur des bases dénombrables et continues, celle des polynômes de Laguerre Ln (r), n ∈ N pour la
fonction radiale, et celles des harmoniques sphériques Y`,m (θ, φ), ` ∈ N, −` ≤ m ≤ +` pour la
partie angulaire (direction). Ainsi, dans ce cas, la fonction d’onde s’écrit
∞ n−1
X X m=+`
X
ψ(~r, t) = ψ(r, θ, φ, t) = cn`m (t)Ln (r)Y`,m (θ, φ).
n=1 `=0 m=−`

4. Les équations différentielles seront traitées dans la deuxième partie du cours.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
18 1. ALGÈBRE LINÉAIRE

I Pour constituer une base complète, les éléments de la base {fn (x)} sont normés, orthogonaux
entre eux et la somme des projecteurs sur chacun des éléments doit donner l’opérateur identité.
Les relations d’orthonormalisation et de fermeture se généralisent dans le cas continu comme
suit : la fonction fn (x) est la représentation d’un vecteur |ni en fonction de la variable x, laquelle
correspond à un vecteur |xi : fn (x) = hx|ni, où {|xi} est une base infinie et continue de l’espace,
vérifiant (on suppose que x ∈ R) :
orthonormalisation : hx|yi = δ(x − y) (distribution de Dirac) , (1.33)
Z
fermeture : |xihx| dx = 11 . (1.34)
R
Grâce à ces relations, il s’ensuit que les fonctions fn (x) d’une base continue {fn (x)} vérifient les
conditions d’orthonormalisation et de fermeture suivantes :
Z
orthonormalisation : hn|mi = dx fn∗ (x) fm (x) = δnm , ∀ n, m ∈ N , (1.35)
R

X ∞ Z
X Z
fermeture : |nihn| = 11 = dx dy fn (x)fn∗ (y)|xihy| = 11 . (1.36)
n=0 n=0 R R
Remarque
Il est à noter que les vecteurs |xi ne constituent pas en général une base hilbertienne. Ils servent
de moyen d’expression (ou de représentation) des vecteurs d’état de l’epace de Hilbert. Ainsi
fn (x) = hx|ni représente la projection de l’état |ni qui lui appartient à une base hilbertienne
(de dimension finie ou pas) sur un état de position |xi (en mécanique quantique, on dit que les
fonctions d’onde sont une représentation ”position” des vecteurs d’états). En réalité, il existe
beaucoup d’autres descriptions équivalentes de ce vecteur |ni correspondant à des choix de
bases différents ; les descriptions correspondent à des composantes du vecteur sur ces bases
et dans l’exemple précédant, nous avons choisi la base des positions. En choisissant comme
représentation la base des “impulsions”, {|pi}, la base continue {f˜n (p)} sera obtenue à partir
de la base {fn (x)} par changement de base {|pi} → {|xi}, qui dans ce cas n’est rien d’autre
qu’effectuer une transformation de Fourier inverse 5 .
Ainsi, par exemple, les harmoniques sphériques sont la représentation d’un vecteur noté |`mi
dans l’espace des directions (angles θ et φ en coordonnées sphériques) et sont ainsi définies par
Y`,m (θ, ϕ) = hθ, ϕ|`mi, ` ∈ N, −` ≤ m ≤ +`, et vérifient :
. la relation d’orthonormalisation :
Z2π Zπ

dϕ sin θ dθ Y`,m (θ, ϕ) Y`0 ,m0 (θ, ϕ) = δ``0 δmm0 . (1.37)
0 0
. et la relation de fermeture :
∞ m=+`
X Z Z
0 0 0 0
X
dΩ dΩ0 Y`,m (θ, ϕ) Y`,m

(θ0 , ϕ0 ) |θ, ϕihθ0 , ϕ0 | = 11, où dΩ( ) = sin θ( ) dθ( ) dϕ( ) .
`=0 m=−` 4π 4π
(1.38)
5. La dernière partie de ce cours sera consacrée aux transformées de Fourier au sens des fonctions.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.4. OPÉRATEURS ET REPRÉSENTATION MATRICELLE D’OPÉRATEURS 19

I Dans le cas de dimension infinie, c’est par exemple le cas des fonctions d’onde ∈ L2 (R3 )
(fonctions de carré sommable) décrivant l’état quantique d’un système à un instant donné au
point ~r, tout élément de l’espace de Hilbert se décompose comme suit

X
f (~r, t) = cn (t)fn (~r) , (1.39)
n=0

les fonctions fn (~r) formant une base orthonormée, elles vérifient donc les relations (1.35) et
(1.36). Les coefficients cn (t) sont donnés par
Z
cn (t) = d3 rfn∗ (~r)f (~r, t) . (1.40)

Enfin, pour que la fonction f (~r, t) soit normée à l’unité, il faut et il suffit que les coefficients
cn (t) (complexes en général) satisfassent

X
|cn (t)|2 = 1 . (1.41)
n=0

1.4 Opérateurs et représentation matricelle d’opérateurs

Soient deux espaces vectoriels V1 et V2 définis sur un corps K (l’ensemble des nombres réels
Rn ou sur le corps des complexes) et considérons une application linéaire de V1 vers V2 , notée u
- appelée aussi morphisme u : V1 → V2 .
- Si l’application u est bijective, on parle d’isomorphisme d’espaces vectoriels.
- Si V1 = V2 , on parle d’endomorphisme ou opérateur et d’automorphisme si l’application u
est bijective.
I Ainsi, dans le cadre de l’algèbre linéaire, un opérateur est une application linéaire
de l’espace vectoriel dans lui même.
I Afin de pouvoir étudier le rôle des opérateurs sur les vecteurs d’un espace vectoriel, on les
représente par des matrices que l’on exprime sur une base orthonormée donnée de l’espace vec-
toriel. Le projecteur (cf. Eq. (1.26)) sur un des vecteurs de base de V est un exemple d’opérateur.

1.4.1 Représentation matricielle d’un opérateur

Soit un opérateur A : application linéaire de V dans lui-même, c’est-à-dire que son action
sur un vecteur |φi de V donnera un (autre) vecteur (image) de V,
|ψi = A|φi ∈ V. (1.42)
Dans le cas où V est de dimension finie N , on exprime A sur une base orthogonale {|ei i}, i = 1, N
de V par une matrice carrée A (N × N ). Les entrées de la matrice (les éléments de matrice de
l’opérateur) sont définies comme suit :
X
A|ei i = Aji |ej i. (1.43)
j

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
20 1. ALGÈBRE LINÉAIRE

Prenons le cas où la dimension N = 3 et représentons un vecteur |φi ∈ V et un opérateur A


dans une base canonique (orthonormée ) {|e1 i, |e2 i, |e3 i} :
     
1 0 0
~e1 = 0 ; ~e2 = 1 ; ~e3 = 0 , (1.44)
0 0 1
 
φ1
|φi = φ1 |e1 i + φ2 |e2 i + φ3 |e3 i → φ ~ = φ2  , (1.45)
φ3
 P     
Pk A1k φk A11 A12 A13 φ1
!
X X
A|φi = Aik φk |ei i = Pk A2k φk  = A21 A22 A23  · φ2  . (1.46)
i k k A3k φk A31 A32 A33 φ3
I On remarque que les colonnes de la matrice 3 × 3 de Eq. (1.46) ne sont rien d’autres que les
images des vecteurs de base |ei i, i = 1, 3 sous l’application (l’opérateur) A :
!
X X X
A|ei i = Ajk δki |ej i = Aji |ej i , (1.47)
j k j
P
où les composantes des vecteurs |ei i sont 0 ou 1, représentées par δki , i.e. |ei i = k δki |ek i.
Ainsi, par exemple, l’image de |e1 i sous A est :
     
A11 A12 A13 1 A11
A|e1 i = A11 |e1 i + A21 |e2 i + A31 |e3 i = A21 A22 A23  · 0 = A21  . (1.48)
A31 A32 A33 0 A31
I On peut remarquer que δki sont les composantes de l’opérateur identité 11 (à valeurs 1 sur la
diagonale et 0 partout ailleurs).

1.4.2 Éléments de matrice d’un opérateur

On vient de voir qu’un opérateur s’écrit dans une base orthonormée {|ei i}, i = 1, N de V (de
dimension finie) comme une matrice N × N .
- Dans cette base, un vecteur |φi est juste un vecteur colonne, donc une matrice colonne N ×1.
- La transposée d’un vecteur colonne |φi est un vecteur ligne, hφ| appartenant au dual de V,
V ∗ . Il est représenté par une matrice ligne 1 × N . Si l’espace vectoriel est un espace de Hilbert,
alors les composantes de hφ| sont les conjugées complexes de celles de |φi.
Dans une base orthogonale {|ei i}, i = 1, N , les composantes de l’opérateur A (éléments de
matrice) sont données par les nombres (scalaires)
Ajk = hej |A|ek i. (1.49)
On peut, par exemple, vérifier que l’élément de matrice A21 s’obtient comme suit :
   
 A11 A12 A13 1
A21 = he2 |A|e1 i = 0 1 0 · A 21 A 22 A 23  · 0 .
 (1.50)
A31 A32 A33 0
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.4. OPÉRATEURS ET REPRÉSENTATION MATRICELLE D’OPÉRATEURS 21

I De manière plus générale, soient deux vecteurs |ψi et |φi d’un espace vectoriel V défini sur
le corps des complexes ; on parle d’élément de matrice d’un opérateur A lorsqu’on projette le
vecteur A|ψi sur le bra de |φi (produit scalaire hermitien) :

hφ| · (A|ψi) = (hφ| · A) |ψi ≡ hφ|A|ψi . (1.51)

I Dans l’équation ci-dessus, on multiplie le vecteur ligne (bra) (1×N ) par une matrice N ×N par
un vecteur (ket) N × 1, de sorte que hφ|(A|ψi) soit un scalaire (1, N ) × (N, N ) × (N, 1) = (1, 1).

1.4.3 Adjoint et Transposé d’un opérateur

I Transposée d’un opérateur

Soient Aij les éléments de la matrice représentant un opérateur A. On définit la matrice


transposée de A par la matrice notée t A (ou At ), dont les lignes sont les colonnes de la matrice
A.
t A est la représentation matricielle de l’opérateur transposé de A, noté At .

B = At ⇐⇒ Bij = Aji , ∀ i, j . (1.52)

Exemple :
   
1 2 1+i 1 4 -1-i
t
A=  4 i -1  , A =  2 i 2  . (1.53)
-1-i 2 2 1+i -1 2

On remarque que les éléments diagonaux d’une matrice et de sa transposée sont les mêmes.

I Adjoint d’un opérateur

Soient Aij les éléments de la matrice représentant un opérateur A. On définit son opérateur
adjoint, noté A† par l’opérateur représenté par la matrice conjugée complexe de la matrice
transposée de A :
∗
B = A† = At = (A∗ )t ⇐⇒ Bij = (Aji )∗ , ∀ i, j . (1.54)

Exemple :
   
1 2 1+i 1 4 -1+i
A= 4 i -1  , A† =  2 -i 2  . (1.55)
-1-i 2 2 1-i -1 2

On remarque que les éléments diagonaux d’une matrice sont les conjugés complexes des éléments
diagonaux de la matrice adjointe.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
22 1. ALGÈBRE LINÉAIRE

I Si un opérateur vérifie A = A† , on dit qu’il est auto-adjoint ou hermitien.


I En reprenant Eq. (1.51), on peut définir l’adjoint d’un opérateur A comme suit :
soit A un opérateur agissant dans V. L’opérateur adjoint de A, A† , et défini par : ∀ |ψi et
|φi ∈ V, l’élément de matrice hφ|A|ψi vérifie :

hψ|A† |φi = hφ|A|ψi∗ (1.56)

Remarque : en mécanique quantique, les opérateur auto-adjoints (ou hermitiens) sont appelés
“ Observables ” dans le sens où leurs éléments de matrice diagonaux sont réels.
I Définition : un opérateur est auto-adjoint ou hermitien si sa valeur moyenne sur un
vecteur (ket) |ψi est réelle (on dit que cet opérateur est observable). En effet, en prenant |ψi = |φi
dans Eq. (1.51), on voit tout de suite que

hψ|A† |ψi = hψ|A|ψi∗ . (1.57)

Réciproquement, si la valeur moyenne hψ|A|ψi est réelle, alors

hψ|A|ψi∗ = hψ|A|ψi ⇒ A = A† . (1.58)

1.4.4 Produit d’opérateurs

Nous aurons souvent à calculer des produits d’opérateurs représentés dans une base ortho-
normée donnée par des matrices que nous aurons donc à multiplier entre elles.
I Le point le plus important à remarquer est que l’algèbre des opérateurs n’est pas commutative
en général. La composition des opérateurs A et B (deux applications linéaires successives)
correspond au produit matriciel AB qui est en général différent du produit BA. Les éléments de
matrice de la composition de deux opérateurs, représenté par la matrice produit C = AB, sont
donnés par
!
X X
Cij = Aik Bkj , ∀ i, j en général 6= Bik Akj ⇔ AB 6= BA . (1.59)
k k

I On généralise : le produit de plusieurs opérateurs n’est pas commutatif.


I Par contre, le produit d’opérateurs est associatif et distributif par rapport à l’addition du fait
que le produit des matrices qui rerésentent ces opérateurs le soit :

A (BC) = (AB) C , A (B + C) = AB + AC ; (A + B) C = AC + BC . (1.60)

Remarque 1 :
Ainsi, on peut remarquer, par exemple, que le produit matriciel étant associatif, dans Eq. (1.51)
on peut d’abord effectuer (hφ|A) puis faire le produit scalaire avec |ψi. La dernière expression
dans Eq. (1.51) constitue la notation“bra-ket” d’un élément de matrice d’un opérateur.
Remarque 2 : un projecteur sur un vecteur quelconque normé |φi ∈ V, noté |φihφ| (comme par
exemple le projecteur de Eq. (1.26)), a pour représentation une matrice. Il découle du produit

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.4. OPÉRATEURS ET REPRÉSENTATION MATRICELLE D’OPÉRATEURS 23

de deux matrices : (N, 1) × (1, N ) dans cet exemple.

I En notant par t A ou At la matrice transposée de la matrice A, on peut montrer que

(AB)t = B t At . (1.61)

I De Eq. (1.61), on peut facilement vérifier que l’opérateur adjoint d’un produit d’opérateurs
est l’opérateur obtenu en faisant le produit des opérateur adjoints dans l’ordre inverse :

(AB)† = B † A† . (1.62)

1.4.5 Décomposition d’un opérateur en opérateur élémentaires

Soit {|ui i, i = 1, n} une base orthonormée de l’espace vectoriel V (de dimension n) et soit
A un opérateur quelconque dont la représentation matricielle est la matrice carrée n × n, A. On
Pn Pi = |ui i hui |
peut toujours écrire un opérateur comme une combinaison linéaires des projecteurs b
sur les vecteurs de la base {|ui i, i = 1, n} en insérant la relation de fermeture i=1 |ui i hui | = 11
comme suit :
n
X n
X n
X n
X
A = 11 × A × 11 = Pbj A Pbi = |uj i huj |A|ui i hui | = Aji |uj i hui |. (1.63)
j=1 i=1 i,j=1 i,j=1

1.4.6 Déterminants

Pour calculer un produit vectoriel, pour résoudre des systèmes linéaires, pour calculer l’in-
verse d’une matrice, le produit vectoriel de deux vecteurs, ou même un volume dans un espace
à plusieurs dimensions, etc, nous avons besoin d’utiliser les déterminants. Nous allons dans la
suite rappeler la définition et souligner quelques propriétés utiles.

Définition

Soit B un tableau carré (B peut être une matrice carrée) de n colonne et n lignes dont les
entrées sont réelles ou complexes. Le déterminant, noté |B| de B est défini comme suit :

B11 B12 B13 ... B1n

B21 B22 B23 ... B2n X
(−1)sig(σ) Πi Bi

det(B) = |B| = = σ(i) , (1.64)
... ... ... ... ...
σ∈Gn
Bn1 Bn2 Bn3 ... Bnn
P
où la somme σ∈Gn se fait sur Gn qui est l’ensemble des permutations à n éléments, {1, 2, ..., n}
et où sig(σ) est la signature de la permutation σ :

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
24 1. ALGÈBRE LINÉAIRE

— elle vaut +1 si on effectue un nombre pair de permutations pour retrouver l’ordre initial
(1, 2, 3, ..., n) ;

— elle vaut −1 si on effectue un nombre impair de permutations pour retrouver l’ordre ini-
tial (1, 2, 3, ..., n) ;

— il y a n! permutations possibles dans un groupe à n éléments {1, 2, 3, ..., n}.

Exemples :

a. Cas d’un tableau 2 × 2 : il y a 2! = 2 permutations de l’ensemble {1, 2}, soit {1, 2} avec
sig(σ) = +1 ou {2, 1} avec sig(σ) = −1. Ce qui donne

B11 B12 X
det(B) = |B| = = (−1)sig(σ) Πi Bi σ(i) = B11 B22 − B12 B21 .
B21 B22
σ∈Gn

b. Cas d’un tableau 3 × 3 : il y a 3! = 6 permutations de l’ensemble {1, 2, 3}, sig(σ) = +1,


{2, 1, 3}, auquel cas sig(σ) = −1, ..., etc. Ce qui donne :


B11 B12 B13

det(B) = |B| = B21 B22 B23
B31 B32 B33
= B11 B22 B33 − B11 B23 B32 + B12 B23 B31 − B12 B21 B33 + B13 B21 B32 − B13 B22 B31
= B11 (B22 B33 − B23 B32 ) − B12 (B21 B33 − B23 B31 ) + B13 (B21 B32 − B22 B31 ) .

I On remarque grâce à ces deux exemples qu’on peut développer un déterminant d’ordre n
selon une ligne ou une colonne à partir d’un élément du tableau (en pratique , on choisit soit
la ligne, soit la colonne qui a le plus de zéros pour simplifier le calcul) en pondérant chaque
déterminant d’ordre n − 1 qu’on appelle déterminant mineur obtenu en supprimant la ligne et
la colonne correspondante.

Définition du déterminant mineur

Soit un déterminant |B| d’ordre n (voir Eq. (1.64)). On définit le déterminant mineur d’ordre
n − 1 par le déterminant de la matrice Mij obtenu à partir de la matrice B en supprimant la
ième ligne et jème colonne correspondant à l’entrée Bij tel que
n
X
det(B) = (−1)i+j Bij × det (Mij ) . (1.65)
i=1

I On appelle la matrice cofacteur de la matrice B, la matrice D telle que


n
X
det(B) = Bij Dij , Dij = (−1)i+j Mij . (1.66)
i=1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.4. OPÉRATEURS ET REPRÉSENTATION MATRICELLE D’OPÉRATEURS 25

Exemple : avec la matrice B ci-dessous, le calcul de son déterminant par ma méthode précédente
(celle des cofacteurs) sera rapide si on suivait soit la deuxième ligne, soit la deuxième colonne,
car toutes deux contiennent un zéro :

1 2 1
2 1 1 1 1 2
det(B) = |B| = 4 0 -1 = −4
+ 0 − (−1) = −4 ,
-1 2 2 2 2 -1 2 -1 2

ou alors,

4 -1 1 1 1 1
= −2 + 0
− 2 = −4.
-1 2 -1 2 4 -1
(1.67)

Conséquences : de la définition Eq. (1.65), on peut établir les propriétés suivantes (qu’on peut
démontrer) :
a. Le déterminant est nul si tous les termes d’une ligne ou d’une colonne sont nuls.
b. Si chaque élément d’une ligne ou d’une colonne est multiplé par un même nombre scalaire,
alors le déterminant est multiplié par ce scalaire.
c. Si deux lignes ou deux colonnes sont proportionnelles, alors le déterminant est nul. 6 .

I Une façon de montrer que des vecteurs sont indépendants : le déterminant d’une famille de
vecteurs est non nul si les vecteurs de cette famille sont indépendants et réciproquement.
I Le déterminant joue un rôle majeur en algèbre linéaire. On montrera que c’est un invariant.
Il a donc la même valeur quelque soit la base choisie pour exprimer la matrice (donc l’opérateur
qu’elle représente). S’il existe une base où la matrice est complètement diagonale 7 - base de vec-
teurs propres de l’opérateur -, le déterminant est le produit des valeurs propres de ce dernier
(le montrer).

Déterminant d’un produit d’opérateurs : Le déterminant d’un produit de deux matrices A


et B (représentant deux opérateurs dans une base canonique donnée) est donné par le produit
des déterminants des deux matrices (quelque soit l’ordre du produit, sachant que le produit
matriciel n’est pas commutatif) :

det(A B) = det(A)det(B) = det(B)det(A) = det(B A). (1.68)

Il s’ensuit que le déterminant d’un produit d’opérateur est le produit des déterminants de ces
opérateurs.

6. Une autre façon de dire est que si on identifie chaque ligne (colonne) par un vecteur colonne (vecteur ligne
- la transposée du vecteur colonne correspondant -), le déterminant d’une famille de vecteurs est non nul si les
vecteurs de cette famille sont indépendants. En pratique, pour montrer qu’un système est constitué d’équations
linéaires indépendantes, on montre que son déterminant est non nul.
7. Quand un opérateur est diagonalisable, il s’écrit dans la base de ses vecteurs propres sous forme d’une
matrice diagonale dont les éléments sont les valeurs propres de cet opérateur.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
26 1. ALGÈBRE LINÉAIRE

1.4.7 Trace d’un opérateur

Soit un opérateur A représenté par la matrice A dans une base orthogonale {|ui i}, i = 1, n.
La trace de la matrice A, que l’on note tr (A), est la somme de ses éléments diagonaux :
X
tr (A) = Aii . (1.69)
i

Propriétés : Il s’agit avant tout d’un invariant - comme c’est le cas du déterminant. La trace
d’une matrice est indépendante du choix de la base de vecteurs de l’espace vectoriel. S’il existe
une base où la matrice est complètement diagonale -base de vecteurs propres de l’opérateur, la
trace n’est rien d’autre que la somme des valeurs propres de ce dernier.

I La trace vérifie les propriétés suivantes (facile à démontrer) :


tr (A + B) = tr (A) + tr (B) , (1.70)
tr (AB) = tr (BA) , (1.71)
tr (ABC) = tr (CAB) = tr (BCA) . (1.72)

Remarque : la trace de la matrice identité (11) correspond à la dimension de l’espace vectoriel.

1.5 Inversion de matrice

L’inverse d’un opérateur a pour représentation dans une base orthonormée de l’espace vec-
toriel l’inverse de la matrice qui le repésente, lorsque celle-ci existe.
I Soit une matrice A, son inverse A−1 est une matrice telle que
A−1 A = AA−1 = 11 . (1.73)

I L’inverse de la matrice A n’est défini que si le déterminant de A est non nul. On démontre
qu’une matrice carrée à coefficients dans un corps commutatif est inversible si et
seulement si son déterminant est non nul.

Les éléments de la matrice B = A−1 peuvent être calculés grâce à Eq. (1.73) et sont donnés
par le rapport entre les éléments de la matrice transposée de la matrice cofacteur (définie dans
Eq. (1.66)) et le déterminant de la matrice A :

Dt ij
B = A−1 , B ij = . (1.74)
det(A)

 n × n, A. Appelons la matrice cofacteur de A, Cof (A), telle que


I Soit la matrice carrée
Cof (A) = (−1)i+j |Aij | i,j≤n et considérons sa matrice transposée t Cof (A) ansi que la trans-
posée de A. À l’aide de la définition du déterminant de A (voir Eq. (1.66)), on peut immédiatement

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.6. MATRICES UTILES ET LEURS PROPRIÉTÉS 27

voir que
t
Cof (A) × A = tA × Cof (A) = det(A) × 11n .
1 t
ainsi, si det(A) 6= 0, alors, A−1 = Cof (A). (1.75)
det(A)
Cette dernière équation permet de déterminer l’inverse de toute matrice carrée si son déterminant
n’est pas nul.

Exemple : Soit la matrice 3 × 3


 
1 0 2
A=  2 -1 3 
4 1 8
Pour être inversible, il faudrait calculer son déterminant et vérifier qu’il ne soit pas nul, et si
c’est bien le cas, on calcule la matrice des cofacteurs, ce qui donne
 
-11 -4 6
det(A) = +1, Cof (A) =  2 0 -1  ,
2 1 -1
 
t Cof (A) -11 2 2
enfin, A−1 = =  -4 0 1  .
det(A)
6 -1 -1
On peut vérifier enfin par le calcul que A−1 A = 113 .

1.6 Matrices utiles et leurs propriétés

1.6.1 Matrices scalaires, triangulaires, nilpotentes et unipotentes


— Une matrice de la forme
A = λ11n , (1.76)
où λ est un scalaire complexe quelconque est appelée matrice scalaire - à ne pas confondre
avec une matrice diagonale (voir plus bas). Son produit par une matrice B quelconque
m × n donnera la matrice λB. En effet,
si A = λ11n , alors AB = BA = λB, ∀ la matrice B et ∀ le nombre scalaire λ ∈ C.
— Une matrice diagonale est une matrice dont tous les éléments qui ne sont pas sur sa
diagonale sont nuls. Le produit de deux matrices A et B diagonales est aussi une matrice
diagonale C dont les éléments sont les produits des éléments diagonaux de A et de B,
Cii = Aii Bii ∀ i ∈ [1, n] . (1.77)
Dans l’équation ci-dessus, bien que les indices dans le membre de droite soient répétés,
ils ne sont pas sommés (C11 = A11 B11 , C22 = A22 B22 , · · · ).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
28 1. ALGÈBRE LINÉAIRE

— Si A est une matrice triangulaire supérieure (inférieure) alors sa transposée est une
matrice triangulaire inférieure (supérieure).
Exemple :
   
1 2 3 1 0 0
A =  0 2 4  , tA =  2 2 0  .
0 0 5 3 4 5

— Une matrice triangulaire A est dite nilpotente (unipotente) si ses coefficients diago-
naux sont nuls (égaux à 1).

— De manière générale, une matrice A est dite nilpotente s’il existe un entier naturel non
nul n ∈ N∗ tel que An = 0.

I Propriétés
À l’aide des définitions ci-dessus, on peut facilement démontrer que :
— le déterminant d’une matrice triangulaire (supérieure ou inférieure) est toujours égal au
produit de ses éléments diagonaux ;

— le déterminant d’une matrice nilpotente est nul ;

— le déterminant d’une matrice n × n unipotente est 1, ∀n.

Exercice 1 : Démontrer les propriétés ci-dessus.

Exercice 2 : Soit A une matrice n × n.

a. Montrer que s’il existe p ∈ N tel que Ap = 0, alors A est nilpotente.

b. Montrer que si A est unipotente, alors ∀p, (A − 11)p = 0.

1.6.2 Matrices unitaires et matrices orthogonales


— Une matrice inversible complexe A représente (relativement à une base orthonormée) un
opérateur unitaire U si et seulement si

A† = A−1 , autrement dit, A est unitaire ⇐⇒ A† A = AA† = 11. (1.78)

— Une matrice réelle A représente un opérateur orthogonal U (relativement à une base


orthonormée) si et seulement si

At = A−1 , autrement dit, A est orthogonale ⇐⇒ At A = AAt = 11. (1.79)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.6. MATRICES UTILES ET LEURS PROPRIÉTÉS 29

Remarques :

— On peut tout de suite remarquer que si A est une matrice unitaire (orthogonale) alors
les lignes ou les colonnes de A forment une base orthogonale.
— Notons aussi que toute matrice unitaire dont tous les éléments sont réels est une matrice
orthogonale.

Propriétés d’une matrice orthogonale

— Une matrice A est orthogonale si et seulement si : A est à coefficients réels, est


inversible et son inverse est égale à sa transposée : At = A−1 .

— Une matrice n × n est orthogonale si, et seulement si, tous ses vecteurs colonnes
sont orthogonaux entre eux et de norme 1.
Une matrice orthogonale représente ainsi une base orthonormale pour le produit
scalaire Euclidien.

— Une matrice carrée est orthogonale si, et seulement si, sa transposée l’est. Il en
découle qu’une matrice carrée est orthogonale si, et seulement si, ses vecteurs
lignes sont orthogonaux deux à deux et de norme 1.

— Le déterminant d’une matrice orthogonale est de carré 1, c’est-à-dire qu’il est égal
à +1 ou −1 (Attention, la réciproque est fausse). Une matrice orthogonale est dite
directe si son déterminant vaut +1 et indirecte s’il vaut −1.

— La multiplication d’un vecteur par une matrice orthogonale préserve sa norme


euclidienne.

— Les matrices orthogonales forment un groupe appelé groupe orthogonal et noté


O(n, R)8 . L’ensemble des matrices orthogonales directes (de déterminant égal à
1) forme un sous-groupe du groupe orthogonal, appelé groupe spécial orthogonal
et noté SO(n, R). En dimension 3, il s’interprète de manière géométrique comme
étant l’ensemble des rotations 8 9 de l’espace euclidien R3 .

Exercice :
Les matrices suivantes sont-elles orthogonales ? et si oui, de quel groupe orthogonal font-elle
partie ?
 
0 1 0  
cos θ − sin θ
A=  0 0 1  , B .
sin θ cos θ
1 0 0

8. Il s’interprète de manière géométrique comme étant l’ensemble des isométries vectorielles (automorphismes
orthogonaux), de l’espace euclidien Rn .
9. L’axe de rotation étant donné par le sous-espace propre associé à la valeur propre +1.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
30 1. ALGÈBRE LINÉAIRE

Propriétés d’une matrice unitaire

— Le déterminant d’une matrice unitaire U est de module carré 1 et la matrice


U diagonalisable et l’ensemble de ses vecteurs propres constituent une base
orthonormée (au sens du produit scalaire hermitien)11 .

— Les vecteurs colonnes d’une matrice unitaire forment une base orthonormée pour
le produit scalaire hermitien sur Cn Une matrice unitaire représente ainsi une base
orthonormale (pour le produit scalaire hermitien).

— Si U est une matrice unitaire, U ∗ l’est aussi et ses vecteurs colonnes constituent
aussi une (autre) base orthonormale.

— Une matrice unitaire peut se mettre sous la forme U = exp(iH), où H est une
matrice hermitienne H † = H.

Exercice : Montrer que pour toute matrice unitaire, il existe une matrice hermitienne H telle
que U = exp(iH).

1.7 Résolution d’un système d’équations linéaires

Un système d’équations linéaires dont les coefficients sont réels ou complexes possède soit
une solution unique, soit aucune solution soit une infinité de solutions. La notion de rang d’une
matrice permet de trancher cela.

1.7.1 Rang d’une matrice

Soit A une matrice quelconque.

Définition : Le rang d’une matrice A, noté r(A), est l’ordre de la plus grande sous-
matrice carrée de A dont le déterminant ne s’annule pas.

11. Nous allons aborder la diagonalisation des matrices plus loin mais on peut d’ores et déjà comprendre que
le déterminant étant invariant - et par conséquent égal au produit des valeurs propres de la matrice -, il n’existe
aucune valeur propre nulle pour une matrice unitaire.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.7. RÉSOLUTION D’UN SYSTÈME D’ÉQUATIONS LINÉAIRES 31

Exemple :

 
1 2 1
Soit la matrice A =
0 0 1
A a 3 sous-matrices dont les déterminants sont :
(1.80)

1 2 2 1 1 1

0 = 0, = 2, = 1 ⇒ r(A) = 2 .
0 0 1 0 1

Théorème général
Soit le système d’équations linéaires Ax = b où A est une matrice m × n, x est l’inconnue
- un vecteur m × 1 -, et b un vecteur connu m × 1. On note Ab la matrice m × n + 1 formée
par la matrice A augmentée d’une colonne supplémentaire constituée par les composantes
du vecteur b, alors,
a. si r(A) = r(Ab ) = n, le système Ax = b a une solution unique ;
b. si r(A) = r(Ab ) < n, le système Ax = b a une infinité de solutions ;
c. si r(A) ≤ r(Ab ), le système n’admet pas de solution.

Deux cas particuliers se présentent, les systèmes homogènes et les systèmes inhomogènes
carrés.

Cas des systèmes homogènes :


Dans ce cas (b = 0),
I si det(A) 6= 0 et r(A) = r(Ab ) = n, le système Ax = b a une solution unique donnée par
x = 0 (triviale) ;

I si det(A) = 0 , alors le système homogène a une solution unique non nulle.


Cas des systèmes inhomogènes carrés :
Dans ce cas (m = n) et b 6= 0,
I si det(A) 6= 0 et r(Ab ) = n, le système Ax = b a une solution unique donnée par x = A−1 b
(première condition du théorème).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
32 1. ALGÈBRE LINÉAIRE

Exemple : Soit à résoudre Ax = b :


    
1 1 1 x -2
 1 -1 1   y  =  2  ,
-1 1 -1 z -2
 
1 1 1 -2
On construit la matrice Ab , Ab =  1 -1 1 2 
-1 1 -1 -2
det(A) = 0 → r(A) = 2 = r(Ab ) → le système a donc une infinité de solutions.

1.8 Diagonalisation d’un opérateur

Définitions
a. Une matrice carrée A est diagonalisable s’il existe une matrice P inversible telle que 10

P −1 AP = D, (la matrice D étant diagonale). (1.81)

b. L’équation aux valeurs propres d’un opérateur dont la représentation matricielle est
une matrice carrée A diagonalisable est donnée par

A|vi = λ|vi, (1.82)

où |vi est un vecteur propre de A et λ (complexe en général) est la valeur propre corres-
pondante.

1.8.1 Valeurs propres

Diagonaliser un opérateur revient à chercher l’ensemble des valeurs propres et les vecteurs
propres associés de la matrice représentant cet opérateur dans une base orthonormée donnée.
Déterminer cet ensemble revient à résoudre le système homogème et linéaire

(A − λ11) |vi = 0 . (1.83)

Comme on a vu dans la section précédante, ce système n’admet de solution (non triviale) que
si le déterminant de la matrice A − λ11 est nul,

det (A − λ11) = 0 . (1.84)

Si la dimension de l’espace vectoriel est n, alors le déterminant de la matrice A − λ11 (Eq. (1.85))
est un polynôme de degrè n dont les racines sont les valeurs propres de A,

det (A − λ11) = P (λ) = 0 . (1.85)


10. On peut montrer dans ce cas que l’équation (1.81) peut s’appliquer à toute fonction régulière de la matrice
A, puisque, grâce à Eq. (1.77), P −1 An P = Dn , ∀n.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.8. DIAGONALISATION D’UN OPÉRATEUR 33

On appelle P (λ) le polynôme caractéristique d’ordre n.

Remarque sur la dégénérescence : s’il existe une valeur propre associée à plus de un vecteur
propre, on dira que cette valeur propre est dégénérée. Le polynôme caractéristique peut avoir des
racines λi mutiples gi fois (gi est le degré de multiplicité de la racine λi ). On dira que cette valeur
propre est gi fois dégénérée et il lui correspond gi vecteurs propres linéairement indépendants.

1.8.2 Vecteurs propres

Pour déterminer le vecteur propre |vi i associé à la valeur propre λi , il suffit de résoudre le
système linéaire pour chercher les n composantes du vecteur |vi i
A|vi i = λi |vi i . (1.86)
p
Une fois toutes les composantes trouvées, on norme le vecteur : |ui i = |vi i/ hvi |vi i.

I Si A est diagonalisable, tous les vecteurs propres |vi i sont linéairement indépendants, ils
constituent une base orthonormée de l’espace vectoriel et la matrice P qui diagonalise la ma-
trice A (D = P −1 AP ) a pour colonnes les vecteurs propres |vi i.

I On peut toujours décomposer toute matrice diagonalisable sur les projecteurs propres comme
suit
Xn n
X n
X n
X
A=A |vi ihvi | = (A|vi i) hvi | = λi |vi ihvi | = λi Pi , (1.87)
i=1 i=1 i=1 i=1

où Pi est le projecteur sur le vecteur propre |vi i.


Les points ci-dessous sont les conséquences de ce qui a été discuté plus haut. Il ont été
résumés sous forme de théorème facile à démontrer.

Théorème
Soit A une matrice carrée n × n.
a. Elle est diagonalisable si elle possède n vecteurs propres indépendants.
La matrice D a pour éléments les valeurs propres de A et la matrice P , telle que
P −1 AP = D, a pour colonnes les vecteurs propres correspondants.
b. Si toutes les valeurs propres sont distinctes (pas de dégénérescence), alors tous les
vecteurs propres sont indépendants.
c. Dans le cas où la matrice A est hermitienne (A = A† ) ou symétrique (A = At )
alors les vecteurs propres sont linéairement indépendants, même dans le cas de
dégénérescence d’une ou plusieurs des valeurs propres.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
34 1. ALGÈBRE LINÉAIRE

Conséquences

Comme on vient de le voir, si A est une matrice diagonalisable, alors on peut écrire les relations
pour les matrices conjuguée adjointe A† et transposée At :
t †
P −1 AP = Dt = D = P t At (P −1 )t , P −1 AP = D† = D = P † A† (P −1 )† .

I Si A est une matrice symétrique, (A = At ) alors la matrice P qui diagonalise A est une
matrice orthogonale : P −1 = P t .

I Si A est une matrice hermitienne (A = A† ) , alors la matrice P qui diagonalise A est une
matrice unitaire : P −1 = P † .

1.8.3 Retour sur les invariants

Soit A une matrice carrée n × n. Si A est diagonalisable, alors il existe une matrice P telle
que det(P )6= 0 et telle que D = P −1 AP , il s’ensuit que comme

det(D) = det P −1 AP = det P −1 det(A)det(P ) = det(A) (car det P −1 = 1/det(P )) ,


  

alors, le déterminant de A est égal au produit de ses valeurs propres.

det(A) = det(D) = Πni=1 λi . (1.88)

De même, on peut prendre la trace de la matrice A,

tr(D) = tr P −1 AP = tr AP P −1 = tr(A) ,
 

pour constater que la trace d’une matrice est bien un invariant (indépendant du choix de base)
et correspond à la somme des valeurs propres de A,
n
X
tr(A) = tr(D) = λi . (1.89)
i=1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2

Bases non orthonormées, Métriques


et Changement de Base

2.1 Introduction

Dans le chapitre précédent, nous avons toujours untilisé des bases orthonormées et très
souvent des espaces vectoriels définis sur le corps des complexes. Dans ce chapitre, nous allons
considérer des espaces vectoriels définis sur R et des bases non orthonormées, souvent utiles par
exemple dans la physique des milieux non continus.
I Soit un espace vectoriel EN sur R de dimension N (nous allons le plus souvent travailler
avec des espaces euclidiens de dimension 3). Il existe une infinité d’ensembles de vecteurs {~ei },
i = 1, N linéairement indépendants, pas forcément orthogonaux entre eux, formant une base de
EN . Nous allons dans ce chapitre aborder la notion de “métrique” ainsi que les changements de
base 1 .

2.2 Métrique

I On rappelle que tout espace vectoriel défini sur un corps commutatif peut être muni d’une
structure euclidienne dès lors qu’on y définit un produit scalaire. On parle alors d’espace vectoriel
euclidien.
— Un produit scalaire est une forme bilinéaire, symétrique et définie positive en métrique
euclidienne.
— Le produit scalaire de deux vecteurs ~x et ~y ∈ EN est noté
g(~x, ~y ) ≡ < ~x|~y >≡ ~x · ~y . (2.1)

1. L’étude des changements de base constitue le premier pas vers l’algèbre des tenseurs, ces derniers généralisant
la notion familière de vecteurs et d’opérateurs linéaires en les plaçant dans le cadre mathématique plus large
d’algèbre multilinéaire.
36 2. BASES NON ORTHONORMÉES, MÉTRIQUES ET CHANGEMENT DE BASE

Définition : Soit B = {~ei }, i = 1, N , une base de EN . On définit la métrique associée à cette


base par les N 2 quantités suivantes :

~ei · ~ej = gij . (2.2)

Notation : les indices i et j sont en bas dans l’équation précédente. On remarque que si B est
une base orthonormée, alors gij = δji .

I Propriétés :
a. gij = gji , la métrique g est symétique ;
P
b. ∀ ci ∈ R, i = 1, N, i,j ci cj gij ≥ 0 (pour assurer que la norme de tout vecteur est
positive ou nulle) .2

Remarque : le nom “métrique” vient du fait que la métrique (associée à une base) garde une
trace des notions de “longueurs” et d’angles entre les vecteurs de cette base.
I La métrique est donc une matrice carré (N × N ) symétrique définie pour une base donnée
B = {~ei } de manière unique (dans cette base) par :
 
~e1 · ~e1 ~e1 · ~e2 ~e1 · ~e3 ... ~e1 · ~eN
 ~e1 · ~e2 ~e2 · ~e2 ~e2 · ~e3 ... ~e2 · ~eN 
g=  ...
. (2.3)
... ... ... ... 
~e1 · ~eN ~e2 · ~eN ~eN · ~e3 ... ~eN · ~eN

I Pour un espace Euclidien de dimension 3 muni d’une base orthonormée, g est la métrique
euclidienne (de signature + + +) :
 
1 0 0
g= 0
 1 0 . (2.4)
0 0 1

I Dans le cadre de la relativité restreinte on travaille dans des espaces de dimension 4 (espace
euclidien avec la composante temporelle en plus), on utilise la métrique dite Minkowskienne (où
la signature est + − −−) :

 
1 0 0 0
0 −1 0 0
0 0 −1 0  .
g=  (2.5)
0 0 0 −1

2. En effet, soit un vecteur quelconque V ~ = P ci~ei ; sa norme au carré (donc définie positive) s’écrit :
i
~ ·V
V ~ =( P P P
ei ) · ( j cj ~ej ) = i,j ci cj gij .
i ci ~

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. CHANGEMENT DE BASE ET MATRICE DE PASSAGE 37

2.3 Changement de base et matrice de passage

2.3.1 Notation avec la convention de sommation d’Einstein

Soit EN un espace vectoriel réel de dimension N finie et soit B = {~ei }, i = 1, N , une base,
pas forcément orthonormée. Les composantes de tout vecteur V ~ ∈ EN sont notées Vi - avec
indice en bas - de sorte que
N
X
~ =
V Vk~ek ≡ Vk~ek (convention d’Einstein). (2.6)
k=1
I On appelle Vk la composante du vecteur V dans la base B.

Convention d’Einstein
On rappelle ici la convention : tout indice répété est sommé de sorte que l’on puisse écrire, par
exemple, tout vecteur sur une base comme V ~ = Vj ~ej .

2.3.2 Changement de base

Considérons deux bases différentes de l’espace vectoriel EN : B = {~ei } et B 0 = {e~0 i } et notons


α et son inverse, α−1 , les matrices de passage de la base B à la base B 0 , et de la base B 0 à la
base B, respectivement :
X
~ej 0 = αij ~ei , (2.7)
j
X
α−1 0

~ek = mk
~e m . (2.8)
m

Définition
La matrice de passage α de {~ei } à {~ei 0 } est telle que sa ième colonne est formée des
composantes de ~ei 0 par rapport à la base {~ei }, elle s’écrit donc dans la base B comme :
 
(e~0 1 )1 (e~0 2 )1 (e~0 3 )1 ... (e~0 N )1
 ~0
 (e ) (e~0 2 )2 (e~0 3 )2 ... (e~0 N )2 

α= 1 2  , autrement dit, αij = (e~0 j )i . (2.9)
 ... ... ... ... ... 
(e~0 1 )N (e~0 2 )N (e~0 3 ))N ... (e~0 N )N

I Cas des vecteurs

~ ∈ EN et écrivons-le dans les deux bases {~ei } et {~ei 0 } :


Considérons un vecteur V
N
X N
X
~ =
V Vk ~ek = Vi0 ~ei 0 . (2.10)
k=1 i=1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
38 2. BASES NON ORTHONORMÉES, MÉTRIQUES ET CHANGEMENT DE BASE

En exprimant les vecteurs ~ek dans la base B 0 , Eq. (2.8),

N
X N
X X
~ α−1 0

V = Vk ~ek = Vk mk
~e m
k=1 k=1 m
X
−1 0

= α mk
Vk ~e m (convention d’Einstein sur k)
m
N
X
= Vm0 ~e 0
m = Vm0 ~e 0
m (convention d’Einstein sur m) . (2.11)
m=1

De même, en exprimant les vecteurs ~ei 0 dans la base B, Eq. (2.7), on peut écrire les relations
~ exprimées dans les deux bases :
entre les composantes de V

N
X
Vi0 = (α−1 )ki Vk = (α−1 )ki Vk
k=1
XN
Vj = αkj Vk0 = αkj Vk0 , (2.12)
k=1

Résumé
0 ~0
P de base B = {~ei } → B = {e i } caractérisé par la matrice de passage
Lors d’un changement
0
α, telle que ~ei = j αij ~ej , les composantes des vecteurs dans les deux bases sont données
par les relations de l’équation (2.12) qu’on peut écrire sous la forme compacte suivante :

V ~0; V
~ =αV ~ 0 = α−1 V
~. (2.13)

I Cas des opérateurs

~ appartenant à l’espace vectoriel


Considérons à présent un opérateur linéaire A, tel que : ∀ V
~
EN , le vecteur A V appartient aussi à EN .
La représentation matricielle A de l’opérateur A dans la base B = {~ei } est une matrice carrée
N × N telle que sa ième colonne soit le vecteur A ~ei ,

N
X
A ~ei = Aji ~ej (2.14)
j=1
= Aji ~ej ( convention d’Einstein sur j) . (2.15)

Il en est de même pour n’importe quelle base B 0 = {~ei 0 }, obtenue par changement de base,
Eq. (2.7), à partir de la base B. En cherchant à exprimer les éléments de matrice de A dans les

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. CHANGEMENT DE BASE ET MATRICE DE PASSAGE 39

deux bases, on a :
N
X
A ~ei 0 = A0ji ~ej 0 = A0ji ~ej 0 (convention d’Einstein sur j) ,
j=1

N
!
X
0
A ~ei = A α`i ~e`
`=1
N
X N
X N X
X N
= α`i A ~e` = α`i Am` ~em = α`i Am` (α−1 )jm ~ej 0
`=1 `,m=1 j=1 `,m=1
−1
= α`i Am` (α )jm ~ej 0 (convention d’Einstein sur `, m, et j) ,
d’où,

A0ji = α`i Am` (α−1 )jm = (α−1 )jm Am` α`i .

De manière plus compacte, la relation entre la matrice dans B et dans B 0 est donnée par :

A0 = α−1 A α . (2.16)

Résumé :
Connaissant la matrice A dans une base B, elle s’écrit dans une base B 0 comme
A0 = α−1 A α . α étant la matrice de passage de B à B 0 .
Inversement, on peut écrire que A = α A0 α−1 .

En observant les équations (2.13) et (2.16), on remarque que les vecteurs ne mettent en jeu
qu’une seule matrice de passage lors d’un changement de base alors qu’il en faut deux (α−1 et
α) pour transformer un opérateur linéaire.

2.3.3 Conséquences du changement de base sur la métrique g

Considérons un changement de base donné par la matrice de passage α de la base B à la base


B 0 de EN et observons comment la métrique se transforme. Soit gij = ~ei · ~ej et gij e 0 i · ~e 0 j
0 = ~

(chaque métrique étant associée à sa propre base) :


0
gij ≡ ~ei 0 · ~ej 0 = αik αj` ~ek · ~e` = αik αj` gk` . (2.17)

I Contrairement aux matrices carrés, la métrique g se transforme lors d’un changement de base
selon Eq. (2.17) - nécessitant donc deux matrices α -( les matrices nécessitant α−1 et α).

I On dira que la métrique g est un tenseur de rang 2 : objet mathématique dont les composantes
caractérisées par deux indices se transforment lors d’un changement de base selon Eq. (2.17)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
40 2. BASES NON ORTHONORMÉES, MÉTRIQUES ET CHANGEMENT DE BASE

avec deux matrices α. Le vecteur quant à lui est un tenseur de rang 1 , nécessitant une seule
matrice α lors d’un changement de base. Enfin, les nombres scalaires (produit scalaire, ...) sont
invariants par changement de base, ils sont donc des tenseurs d’ordre 0 .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
Deuxième partie

Équations Différentielles
1

Équations Différentielles Ordinaires

Dans toute la suite EDO = équation différentielle ordinaire.

1.1 Généralités

EDO d’ordre n

Une EDO d’ordre n est une équation


h i
F x, y(x), y 0 (x), . . . , y (n) (x) = 0 (1.1)

qui met en relation une fonction y(x) et ses dérivées y 0 (x), y 00 (x),. . ., y (n) (x) par rapport à une
seule variable x ∈ R. L’ordre n de l’équation différentielle est fixé par la plus haute dérivée
présente dans l’équation. On notera aussi

dy d2 y dp y
y 0 (x) = , y 00 (x) = , y (p) (x) =
dx dx2 dxp
pour la première, la deuxième et la p-ième dérivée de y(x). D’autres cours peuvent utiliser
ẏ(x), ÿ(x) pour première et deuxième dérivées.

Solutions explicites & implicites

Une fonction y = φ(x) définie sur un intervalle I est une solution explicite d’une EDO
(1.1) si h i
F x, φ(x), φ0 (x), . . . , φ(n) = 0

pour tout x ∈ I. On imagine cette solution explicite comme dans la figure 1.1-(a).
Une relation g(x, y) = 0 est une solution implicite d’une EDO (1.1) sur un intervalle I, si
(a.) Il existe une fonction φ(x) définie sur I telle que g(x, φ(x)) = 0
44 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

(a) Solution explicite : pour une (b) Solution implicite : pour (c) Solution générale : une famille
valeur de x, une seule valeur y une valeur de x, plusieurs va- de solutions paramétrisée par une
leurs y (ou plusieurs) constante(s) arbi-
traire(s)

Figure 1.1 – Solution explicite, implicite & générale.

(b.) Si h i
F x, φ(x), φ0 (x), . . . , φ(n) (x) = 0
pour tout x ∈ I.
Cette définition est abstraite, mais on peut facilement imaginer un cas concret. Si pour un même
x, plusieurs solutions y(x) existent, comme illustré dans la figure 1.1-(b), il est souvent plus facile
d’écrire la solution comme g(x, y) = 0.

Solution générale & particulière

Une solution générale d’une EDO dépend d’une ou plusieurs constantes arbitraires C1 , C2 , C3 , . . .
et permet en les variant d’obtenir l’ensemble des fonctions qui satisfont l’équation différentielle.
On imagine cette solution comme dans la figure 1.1-(c), c.a.d. comme la collection de courbes
que l’on obtient en variant ici C.
Une solution est une solution particulière, si elle ne dépend pas de constantes arbitraires.
On l’imagine comme une des solutions contenues dans la solution générale.

Conditions initiales & conditions aux limites

Un problème aux Conditions Initiales (CI) est défini par une EDO d’ordre n ≥ 1
accompagnée de exactement n conditions supplémentaires de la forme :

CI : y(x0 ) = A0 , y 0 (x0 ) = A1 , y (n−1) (x0 ) = An−1

Les conditions initiales fixent la valeur de la fonction et de ses n − 1 premières dérivées en un


unique point initial x0 .
Un problème aux Conditions aux Limites (CL) est défini par une EDO d’ordre n ≥ 2
accompagnée de exactement n conditions supplémentaires de la forme

CL : y(x0 ) = B0 , y(x1 ) = B1 , y (n−1) (x2 ) − y (3) (x2 ) = Bn−1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 45

Les conditions aux limites fixent des combinaisons (pas forcément linéaires) de la fonction et/ou
ses n − 1 premières dérivées en plusieurs points x0 , x1 , x2 , . . ..

1.2 EDO’s linéaires

1.2.1 Définition & principe de superposition

EDO linéaire

Une EDO (1.1) est linéaire, si la fonction F est linéaire dans toutes les variables y et ses
dérivées. C’est à dire que ∀a, b ∈ R et toutes les fonctions y(x) et z(x) :
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)

On peut se convaincre qu’une EDO linéaire d’ordre n sera de la forme

y (n) + an−1 (x)y (n−1) + . . . + a1 (x)y 0 + a0 (x)y = b(x) (1.2)

avec ai (x), b(x) des fonctions arbitraires. Si b(x) 6= 0 on dit que l’équation est inhomogène, si
b(x) = 0 l’équation est homogène. Une équation homogène a toujours y = 0 comme solution,
on parle de la solution triviale. Si les fonctions ai (x) = ai sont plutôt des constantes, on parle
d’une EDO linéaire à coefficients constants.

Principe de superposition & forme générale de la solution

La linéarité d’une EDO permet d’appliquer le principe de superposition : si φ(x) et ψ(x)


sont deux solutions de l’EDO linéaire, alors toute combinaison linéaire de aφ(x) + bψ(x) restera
une solution. Ce principe a la conséquence suivante.
La solution générale d’une EDO linéaire d’ordre n quelconque (1.2), sera toujours de
la forme :
n
X
y(x) = Ci φi (x) +yp (x) (1.3)
|i=1 {z }
yh (x)

La solution homogène yh (x) est elle même une superposition arbitraire de n solutions linéairement
indépendantes φi (x), {i = 1, 2, . . . , n} de l’EDO homogène. Ces fonctions satisfont donc
(n) (n−1)
∀i ∈ {1, 2, . . . , n} : φi (x) + an−1 (x)φi (x) + . . . + a1 (x)φ0i (x) + a0 (x)φi (x) = 0

et
n
X
Di φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
46 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

La solution particulière sera une seule solution de l’EDO complet :

yp(n) + an−1 (x)yp(n−1) + . . . + a1 (x)yp0 + a0 (x)yp = b(x)

On vérifie aisément que dans ces conditions, la solution (1.3) satisfait l’EDO (1.2), quelque soit
les valeurs des n constantes arbitraires Ci , {i = 1, 2, . . . , n}.

1.2.2 EDO’s linéaires à coefficients constants

Ordre 1

L’EDO linéaire du premier ordre à coefficients constants est


dy
+ ay = b(x)
dx
avec a une constante et b(x) une fonction quelconque. On peut chercher les solutions homogènes
et particulières séparément, mais ici il vaut mieux faire tout à la fois. Pour trouver la solution,
on multiplie cette EDO avec eax , on voit alors que
d h ax i
ye = b(x) eax
dx
On intègre par rapport à x, pour trouver
Zx
ax
ye = C+ b(x̃) eax̃ dx̃
 x 
Z
−ax −ax 
⇔ y = |Ce{z }+e b(x̃) eax̃ dx̃
yh
| {z }
yp

La constante arbitraire C apparaı̂t comme une constante d’intégration.

Ordre n

Une EDO linéaire d’ordre n à coefficients constants est


dn y dn−1 y dy
+ an−1 + . . . + a1 + a0 y = b(x)
dx dx dx
avec ai des constantes et b(x) une fonction quelconque. On cherche yh (x) et yp (x) séparément.

• Solution homogène yh (x) :


Si on écrit l’EDO homogène comme
 n
dn−1

d d
+ an−1 + . . . + a1 + a0 yh = 0 (1.4)
dx dx dx
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 47

on peut tenter de factoriser l’opérateur différentiel comme


    
d d d
− λ1 − λ2 . . . − λn yh = 0
dx dx dx

Ici les λi , i ∈ {1, . . . , n} s’identifient alors aux racines du polynôme caractéristique :

λn + an−1 λn−1 + . . . + a1 λ + a0 = 0

Pour ai ∈ R, les racines λi , i ∈ {1, . . . , n} seront réelles où complexe conjuguées par pair.
Afin d’écrire la solution, on doit distinguer deux cas différents :

a. Si toutes les racines λi sont différentes, la solution de l’EDO sera une superposition
arbitraire de fonctions exponentielles :

yh (x) = C1 eλ1 x + C2 eλ1 x + . . . + Cn eλn x (1.5)

On remarque immédiatement que chaque terme est solution d’une EDO d’ordre 1 :
 
d
− λj eλj x = 0
dx

que l’on retrouve dans la factorisation (1.4). Comme on peut changer arbitrairement
l’ordre des opérateurs (d/dx − λj ) dans (1.4), on comprend d’où vient la solution (1.5).
b. S’il y a des racines multiples, la partie de la solution associée à ces racines ne sera pas
seulement composée de fonctions exponentielles. Regardons le cas spécifique de l’équation
archétype avec une racine double :
  
d d
−λ − λ y(x) = 0
dx dx
| {z }
= u(x)

Comme la notation le suggère, on résout cette équation en faisant une étape intermédiaire
passant par la fonction u(x), solution de
 
d
− λ u(x) = 0 ⇒ u(x) = C1 eλx
dx

Ensuite on trouve y(x) solution d’une EDO inhomogène d’ordre 1 à l’aide de la méthode
spécifiée au dessus :
 
d
− λ y(x) = C1 eλx ⇒ y(x) = (C1 x + C2 ) eλx
dx | {z }
P1 (x)

La solution est un polynôme arbitraire d’ordre 1 (noté P1 (x) ici) qui multiplie le facteur
exponentiel habituel.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
48 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

On généralise aisément à des cas de racines de multiplicités k > 2, en faisant k − 1 étapes


intermédiaires
 k
d  
− λ y(x) = 0 ⇒ y(x) = C1 + C2 x + . . . + Ck xk−1 eλx
dx | {z }
Pk−1 (x)

La solution associée à une racine λ de multiplicité k est un polynôme arbitraire d’ordre


k − 1 (noté Pk−1 (x) ici) qui multiplie le facteur exponentiel eλx .

Comme un polynôme arbitraire d’ordre 0, est une constante arbitraire on peut regrouper les
deux cas en une seule formule. La solution homogène se laisse toujours écrire sous la forme
X
yh (x) = Pkj −1 (x) eλj x
j

La somme parcourt les différentes valeurs propres λj et on note kj la multiplicité de la valeur


propre λj .

• Solution particulière yp (x) :


Trouver une solution particulière est immédiat dans 2 cas :

a. Cas constant ou polynômial : b(x) = c0 + c1 x + . . . + cp xp


On cherche yp (x) comme un polynôme du même ordre

yp (x) = D0 + D1 x + . . . + Dp xp

Injecté dans l’EDO, on trouvera p + 1 équations algébriques pour Di par l’identification


(membres de gauche, droite) des coefficients devant les différentes puissances en xi . Ces
équations peuvent être résolues en cascade : Dp → Dp−1 → . . . → D0 .

b. Cas d’une somme d’exponentielles : b(x) = p cp eαp x


P

Si b(x) est composé de exponentielles, ou de fonctions trigonométriques (sin, cos) ou


hyperboliques (sinh, cosh) qui se laissent écrire comme des sommes d’exponentielles, on
peut chercher la solution particulière comme
X
yp (x) = D p e αp x
p

On injecte cette solution dans l’EDO et on trouve des équations algébriques pour Di , i ∈
{1, . . . , p} par identification (membres de gauche, droite) des coefficients devant les différentes
exponentielles. Cette méthode ne marche pas si l’un des αi coı̈ncide avec une racine λi
de la solution homogène.

Dans le cas où b(x) est une fonction quelconque, il n’est pas si évident de trouver une
solution particulière. On apprendra une méthode systématique dans le chapitre suivant et on
pourra également utiliser l’analyse de Fourier (3ième partie de ce cours).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 49

Exemple :
On cherche à résoudre l’EDO
y 00 + 3y 0 + 2y = x2
Le polynôme caractéristique se factorise aisément

λ2 + 3λ + 2 = (λ + 1)(λ + 2) ⇒ λ1 = −1 , λ2 = −2

La solution homogène est donc

yh (x) = C1 e−x + C2 e−2x

On propose une solution particulière de la forme

yp (x) = Ax2 + Bx + C

Injecté dans l’EDO, ceci donne un système linéaire



 2A = 1
2A + 6Ax + 2Ax2 + 3B + 2Bx + 2C = x2 ⇒ 6A + 2B = 0
2A + 3B + 2C = 0

On trouve
1 3 7
A= , B=− , C=
2 2 4
La solution générale est donc
x2 3x 7
 
−x −2x
y(x) = C1 e + C2 e + − +
2 2 4

Imposer des conditions initiales

Si on munit l’EDO de CI, on exprimera ces conditions un par un. Ceci mènera à un système
linéaire algébrique pour les coefficients arbitraires, qui apparaissent dans la solution homogène.
Ce système algébrique a toujours une solution unique.
Exemple (suite) :
Au précédent problème, on ajoute

CI : y(0) = 1 , y 0 (0) = 0

On exprime ces deux conditions à l’aide de la solution générale


 
C1 + C2 + 7/4 = 1 C1 = 0

−C1 − 2C2 − 3/2 = 0 C2 = −3/4
La solution unique du problème aux CI est donc
 2 
3 −2x x 3x 7
y(x) = − e + − +
4 2 2 4

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
50 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Imposer des conditions aux limites

Si on munit l’EDO linéaire de CL, on va également trouver un système linéaire algébrique


pour les coefficients arbitraires Ci , {i = 1, 2, . . . , n}. Ce système algébrique peut avoir aucune,
une ou une infinité de solutions.
Exemple :
On considère le problème aux CL suivant

d2 y
+ k2 y = 0 , CL : y(0) = 0 , y(L) = 1
dx2
La solution générale de l’EDO est

y(x) = C1 eikx + C2 e−ikx = D1 sin kx + D2 cos kx

Les CL fixent 
D2 = 0 1
, D1 =
D1 sin kL = 1 sin kL
On trouve donc
sin kx
y(x) =
sin kL
comme solution du problème aux CL. Cette solution n’existe pas, si sin kL = 0, si k = nπ/L , n ∈
N0 .

1.2.3 EDO’s linéaires à coefficients non-constants

Plus compliquées, mais très répandues en physique. A l’ordre 1, on connait toujours la solu-
tion au moins formellement. A l’ordre 2, on liste quelques EDO’s, dont les solutions définissent
des fonctions ou des polynômes spéciaux, que l’on rencontre souvent en physique.

Ordre 1

Une EDO linéaire générale du premier ordre se présente sous la forme

dy
+ a(x) y = b(x)
dx
La solution homogène yh (x) s’obtient en séparant dépendances en x de dépendances en y :

Zx
 x 
Z
dyh
= −a(x)dx ⇒ lnyh = D − a(x̃)dx̃ ⇒ yh (x) = Cexp − a(x̃)dx̃
yh

On a renommé C = eD constante arbitraire.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 51

Si on ne trouve pas une solution particulière facilement (cas b(x) polynomiale ou exponen-
tielle), on peut appliquer la méthode de la variation de la constante. C.a.d. on propose

yp (x) = A(x) yh (x)

Injectée dans l’EDO, on trouvera une EDO pour le coefficient A(x), que l’on peut intégrer :
Zx
dA b(x) b(x̃)
= ⇒ A(x) = C0
dx̃ + |{z}
dx yh (x) yh (x̃)
=0

La solution générale s’écrit donc


Zx
 
b(x̃)
y(x) = C + dx̃ yh (x)
yh (x̃)

La constante arbitraire C 0 a été mise à zéro car elle ne reflète seulement qu’avec A(x) = C 0 on
retrouve la solution homogène du problème. On peut donc mettre C 0 = 0, sans que ça change
la solution générale.
Exemple :
On cherche la solution de l’EDO
y 0 + xy = x
Pour trouver la solution homogène on doit résoudre
dyh dyh 2 /2
+ xyh = 0 ⇒ = −xdx ⇒ yh (x) = Ce−x
dx yh
On voit immédiatement que yp = 1 est une solution particulière. La solution générale est donc
2 /2
y(x) = Ce−x +1

Montrons qu’on peut également retrouver la solution particulière à l’aide de la méthode de la


2
variation de constante. Cherchant yp = A(x)e−x /2 on obtiendrait

Zx Zx
x̃2 /2 2 /2 2 /2
A(x) = x̃ e dx̃ = ex̃ d(x̃2 /2) = ex

On peut donc bien écrire la solution générale comme


 2
 2
y(x) = C + ex /2 e−x /2

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
52 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Ordre 2 : fonctions de Bessel & fonctions de Bessel sphérique

L’équation de Bessel est :

d2 m2
 
1 d
+ − 2 + 1 y(x) = 0
dx2 x dx x
Ici m ∈ Q et x ∈ [0, +∞[. La solution de cette équation est

y(x) = C1 Jm (x) + C2 Ym (x)

On reconnait C1 et C2 des constantes arbitraires. Jm (x) et Ym (x) sont les fonctions de Bessel
du premier et deuxième type. Dans la figure 1.2, on montre ces fonctions pour différents m
entiers. On voit des oscillations qui décroissent en amplitude pour x croissant.
Il est utile de se souvenir des comportements pour grandes et petites valeurs de x.

• Au voisinage de x = 0, on voit que



1 , m=0
Jm (0) = , lim Ym (x) = −∞
6 0
0 , m= x→0

La fonction Ym (x) est toujours singulière pour x → 0.

• Pour de grands x, plus spécifiquement pour x  m2 − 1/4, les fonctions de Bessel se


comportent comme

r
2  π
Jm (x) ' cos x − (2m + 1)
πx 4
r
2  π
Ym (x) ' sin x − (2m + 1)
πx 4

c.a.d. des cosinus et des sinus, dont l’amplitude décroit progressivement en x−1/2 .

Les fonctions de Bessel sont des fonctions ”spéciales”, mais ont peu de spécial par rapport
aux fonctions élémentaires. Elles ont de nombreuses propriétés qui permettent de faire du calcul
formel. Elles apparaissent systématiquement dans des problèmes à symétrie cylindrique. Parfois
on utilise aussi les fonctions de Bessel modifiées, Im (x) et Km (x) que vous pouvez découvrir par
vous-même.
Similaire mais différent est l’équation de Bessel sphérique
 2 
d 2 d n(n + 1)
+ − + 1 y(x) = 0
dx2 x dx x2
Cette équation a comme solution

y(x) = C1 jn (x) + C2 yn (x)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 53

1 1
J (x) Y0(x)
0

J1(x) 0
J (x) Y1(x)
0.5 2 J3(x) Y (x)
2

−1
Y3(x)
0
−2

−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x

Figure 1.2 – Quelques fonctions de Bessel Jm (x) et Ym (x) pour m = 0, 1, 2, 3.

Les fonctions de Bessel sphérique jn (x) et yn (x) sont liées aux fonctions de Bessel :

r
π
jn (x) = J 1 (x)
2x n+ 2
r
π
yn (x) = Y 1 (x)
2x n+ 2

Mis à part un préfacteur ∼ x−1/2 , on retrouve ici des fonctions de Bessel ”normales” avec un
argument non-entier. Les fonctions de Bessel décroissent en x−1 pour x grand. Les formules de
Rayleigh donnent une forme alternative

1 d n sin x


n
jn (x) = (−x)
x dx x
 n
1 d cos x
yn (x) = −(−x)n
x dx x

Dans la figure 1.3, on peut voir quelques fonctions de Bessel sphérique. Mise à part d’une
décroissance plus rapide pour x grand, les fonctions de Bessel sphériques ressemblent beaucoup
au fonctions de Bessel normales.

1 1
j0(x)
y0(x)
0 y1(x)
0.5 j1(x)
j2(x) y3(x)
j3(x) y2(x)
−1

0
−2

−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x

Figure 1.3 – Quelques fonctions de Bessel sphériques jn (x) et yn (x) pour n = 0, 1, 2, 3.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
54 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Ordre 2 : polynômes de Legendre & ”polynômes” associés de Legendre

L’équation differentielle de Legendre est


 2 
2 d d
(1 − x ) 2 − 2x + n(n + 1) y(x) = 0 , x ∈ [−1, 1]
dx dx

Dans la plupart des applications en physique, le nombre n ∈ N et le domaine x ∈ [−1, 1]. La


solution de cette EDO est
y(x) = C1 Pn (x) + C2 Qn (x)
Les fonctions Qn (x) sont singulières dans le domaine x ∈ [−1, 1] et pour cette raison, on les écarte
souvent (mettantC2 = 0). Toute l’attention porte alors sur les fonctions Pn (x) : les polynômes
de Legendre. Vous pouvez vérifier que

P0 (x) = 1
P1 (x) = x
P2 (x) = (3x2 − 1)/2
P3 (x) = (5x3 − 3x)/2

sont les solutions pour n = 0, 1, 2, 3. De manière générale on définit

1 dn
(x2 − 1)n

Pn (x) = n n
2 n! dx

L’équation différentielle de Legendre généralisée est

d2 m2
 
2 d
(1 − x ) 2 − 2x + n(n + 1) − y(x) = 0 , x ∈ [−1, 1]
dx dx 1 − x2

Il s’ajoute donc un nouveau terme dans l’EDO. Dans la plupart des applications en physique, le
nombre n ∈ N, le domaine x ∈ [−1, 1] et et m un entier dans l’intervalle [−n, n]. La solution
de cette EDO est
y(x) = C1 Pnm (x) + C2 Qm
n (x)

Ici aussi, les fonctions Qm m


n (x) sont singulières sur x ∈ [−1, 1] et donc écartées. On appelle Pn (x)
les polynômes de Legendre associés, même si ce n’est que pour m pair qu’on a vraiment
des polynômes. Si m = 0 on retrouve les polynômes de Legendre Pn0 = Pn . Les autres fonctions
pour n = 1 sont :
p
P1±1 (x) ∼ 1 − x2

Pour n = 2 :
p
P2±1 (x) ∼ x 1 − x2
P2±2 (x) ∼ (1 − x2 )

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. EDO’S LINÉAIRES 55

On ne montre ici que la dépendance fonctionnelle à un facteur multiplicatif près. Vous pouvez
facilement trouver ces facteurs sur internet. On dispose d’une formule générale les fonctions
Pnm (x) aux polynômes de Legendre Pn (x) :
m/2 dm
Pnm (x) = (−1)m 1 − x2 (Pn (x))
dxm
On rencontrera les polynômes de Legendre dans le 3ième chapitre. Les fonctions

Pnm (cos θ) (1.6)

décriront la structure en latitude des harmoniques sphériques

Ordre 2 : autres familles de polynômes orthogonaux

Dans de nombreux domaines de la physique (théorique & numérique) on rencontre d’autres


familles de polynômes orthogonaux. Quelques familles avec les EDO’s dont ces polynômes sont
des solutions :

• Polynômes de Hermite : Hn (x) est un polynôme d’ordre n ∈ N, solution de


 2 
d d
− 2x + 2n Hn (x) = 0 , x ∈] − ∞, +∞[
dx2 dx
Ces polynômes sont utilisés en Mécanique Quantique, dans la description de l’oscillateur
harmonique.

• Polynômes de Laguerre Ln (x) est un polynôme d’ordre n ∈ N, solution de

d2
 
d
x 2 + (1 − x) + n Ln (x) = 0 , x ∈ [0, +∞[
dx dx
Ces polynômes apparaissent en Mécanique Quantique, pour décrire la structure radiale
des fonctions d’onde décrivant l’atome d’hydrogène.

• Polynômes de Chebychev Tn (x) est un polynôme d’ordre n ∈ N, solution de

d2
 
d
(1 − x2 ) 2 − 2x + n2 Tn (x) = 0 , x ∈ [−1, 1]
dx dx
Ces polynômes sont beaucoup utilisés en analyse numérique.

Exercice :
On vérifié aisément que le polynôme d’ordre 0 peut toujours être :

H0 (x) = P0 (x) = L0 (x) = T0 (x) = 1

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
56 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

Trouver les polynômes d’ordre 1, 2, 3 en injectant

H1 (x) = x + A , H2 (x) = x2 + Ax + B , H3 (x) = x3 + Ax2 + Bx + C

dans l’équation différentielle de Hermite (pareil pour les autres). Regroupant les coefficients
devant les différentes puissances en x, vous allez trouver des systèmes linéaires algébriques,
permettant à chaque fois de calculer les coefficients A, B, C, . . ..
n H0 (x) Pn (x) Ln (x) Tn (x)

0 1 1 1 1

Les polynômes trouvés seront à un facteur multiplicatif près, identiques à ceux que vous
pouvez trouver sur le web. L’exercice sur les polynômes d’Hermite sera fait en TD.

1.3 EDO’s non-linéaires

1.3.1 Définition

Toute EDO (1.1) générale qui ne satisfait pas la propriété de linéarité, c.a.d. pour qui
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
6= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)

est non-linéaire. Il suffit de vérifier que l’EDO ne prenne pas la forme d’une EDO linéaire (1.2),
afin reconnaitre son caractère non-linéaire.
La plus importante conséquence de la non-linéarité est que le principe de superposition
ne s’applique plus. Les méthodes apprises dans la section précédente ne s’appliquent
donc pas du tout aux EDO’s non-linéaires.
Ici on présente quelques catégories d’EDO’s non-linéaires pour lesquelles on dispose d’une
méthode qui trouve la solution. Apprenez à reconnaı̂tre ces EDO’s. Il existe des équations non-
linéaires, qui deviennent linéaires par un changement de variable : l’EDO de type Bernoulli en
est un exemple.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.3. EDO’S NON-LINÉAIRES 57

1.3.2 Quelques EDO’s non-linéaires dont on connait la solution

EDO séparable

Une EDO séparable est une EDO, qui peut s’écrire comme une forme différentielle

f (x) dx + g(y) dy = 0

qui sépare un terme en x, d’un terme en y. A cause de cette propriété, la solution se trouve
en intégrant séparément les formes différentielles indépendantes sur x et sur y
Zx Zy
f (x̃) dx̃ + g(ỹ) dỹ = C
| {z } | {z }
F (x) G(y)

On comprend immédiatement que cette solution générale sera implicite : on n’écrit pas y comme
une fonction explicite de x, car la fonction inverse F −1 , n’existe pas forcément.
Exemple :
On considère le problème aux conditions initiales
dy
− 2xy 2 = 0 , CI : y(0.5) = 1 (1.7)
dx
On cherche la solution sur l’intervalle x ∈ [0.5, 1]. La solution générale de cette équation séparable
se trouve comme
dy 1
2
+ 2x dx = 0 ⇔ + x2 = C
(−y ) y
La condition initiale fixe la constante arbitraire à
1
C= + (0.5)2 = 1.25
1
La solution est représentée graphiquement plus bas, dans la figure 1.4(a).

EDO exacte

Toutes les EDO’s d’ordre 1 peuvent se récrire comme une forme différentielle

f (x, y) dx + g(x, y) dy = 0 (1.8)

On appelle une EDO exacte, s’il existe une fonction ψ(x, y) qui a cette forme différentielle comme
différentielle totale. C’est à dire, si
∂ψ ∂ψ
dψ = dx + dy = f (x, y) dx + g(x, y) dy = 0
∂x ∂y
L’intégration est alors immédiate et donne

ψ(x, y) = C

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
58 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

C est une constante d’intégration arbitraire. Cette solution générale est implicite. En pratique,
on doit donc trouver ψ(x, y) et avant ça, il est nécessaire de tester si l’EDO est bien exacte. De
∂ψ ∂ψ
= f (x, y) , = g(x, y) (1.9)
∂x ∂y
on déduit que
∂2ψ ∂f ∂g
= =
∂x∂y ∂y ∂x
Ceci donne une condition nécessaire :
∂f ∂g
si = ⇒ EDO (1.8) est exacte
∂y ∂x
Une fois l’exactitude démontrée, on trouve la fonction ψ(x, y) en intégrant les équations (1.9)
séparément :
Zx
ψ(x, y) = f (x̃, y) dx̃ + B(y)
Zy
ψ(x, y) = g(x, ỹ) dỹ + A(x)

Comme on intègre des dérivées partielles, des fonctions A(x) et B(y) peuvent apparaı̂tre
comme ”constantes d’intégration”. Les deux expressions doivent être identiques et ceci fixe A(x)
et B(y) et donc la fonction ψ(x, y) recherchée.
Exemple :
On cherche la solution de l’EDO
dy
(x2 + 4y 3 ) + 2xy = 0 (1.10)
dx
Récrite comme une forme différentielle

(x2 + 4y 3 )dy + 2xydx = 0

on peut tenter d’y voir la différentielle totale


∂ψ ∂ψ
dψ(x, y) = dy + dx = 0
∂y ∂x
Ceci nécessite que
∂(x2 + 4y 3 ) ∂(2xy)
=
| ∂x
{z } | ∂y{z }
=2x 2x
ce qui est bien le cas : l’équation est exacte. Pour trouver la solution on intègre deux fois les
dérivées partielles
∂ψ
= (x2 + 4y 3 ) ⇔ ψ(x, y) = x2 y + y 4 + C(x)
∂y
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.3. EDO’S NON-LINÉAIRES 59

∂ψ
= 2xy ⇔ ψ(x, y) = x2 y + D(y)
∂x
Les deux solutions doivent être identiques. On peut choisir C(x) = 0 mais il faut D(y) = y 4 . La
solution de l’EDO est donc
x2 y + y 4 = C
On montre cette solution pour plusieurs valeurs de C dans la figure 1.4(b).

EDO non-exacte, mais qu’on rend exacte avec un facteur intégrant

La situation d’une équation exacte est très fragile. Donnons un exemple. L’EDO

∂(x y 2 + x) ∂(x2 y)
(x y 2 + x)dx + x2 y dy = 0 , = = 2xy
∂y ∂x
est exacte, mais si on la divise par x, elle ne l’est plus :

∂(y 2 + 1) ∂(x y)
(y 2 + 1)dx + x y dy = 0 , = 2y 6= =y
∂y ∂x
Plutôt que de voir cette situation comme un désavantage, on peut retourner la logique de 180
degrées : une EDO non-exacte peut le devenir après multiplication avec un facteur intégrant
M (x, y) :

∂(M f ) ∂(M g)
M (x, y) f (x, y)dx + M (x, y) g(x, y)dy = 0 , = ⇒ peut être exact ?
∂y ∂x
Trouver un facteur intégrant d’une EDO non-exacte est rarement une chose simple, mais si on
en trouve un, l’EDO est résolue ! On dispose d’une procédure systématique pour tester si des
facteurs intégrants M = M (x) où M = M (y) existent, mais pas d’une procédure pour un facteur
M (x, y) général.

EDO Bernoulli

Une EDO de Bernoulli se présente sous la forme :


dy
= a(x) y + b(x) y k
dx
On suppose l’exposant k 6= 1 et réel. L’équation peut être transformée en une EDO linéaire par
changement de variable. Divisons l’équation par y k
dy
y −k = a(x) y 1−k + b(x)
dx
Puis, en choisissant le changement de variable :
du dy
u = y 1−k ⇒ = (1 − k) y −k
dx dx
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
60 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

on reconnait que nous pouvons récrire l’EDO comme


du
= (1 − k) a(x) u + (1 − k) b(x)
dx
Cette équation est une EDO linéaire, que l’on a traitée en détail dans les sections de ci-dessus.
Après avoir trouvée la solution générale de cette EDO linéaire, il suffit de revenir sur la variable
y = u1/1−k .
Exemple :
On cherche à résoudre
dy
= y − y3 (1.11)
dx
On divise l’EDO par y 3 et on renomme y −2 = u. Comme
du dy
= −2y −3
dx dx
on récrit l’EDO de Bernoulli comme
du
= −2u + 2
dx
La solution est
u(x) = Ce−2x + 1
soit
1
y(x) = ± √
1 + Ce−2x
si on revient sur la variable y(x). En imposant une condition initiale, par exemple en x = 0 on
fixera la contante C et le signe ±. On montre la solution pour plusieurs conditions initiales dans
la figure 1.4(c)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.3. EDO’S NON-LINÉAIRES 61

10 10

8 8

6 6
C = 10000
y

y
5000
4 4

1000
2 2
100
10
0 0
0 0.5 1 1.5 0 20 40 60 80 100
x x

(a) Solution de l’équation séparable (1.7). La condition (b) Solution générale de l’équation exacte (1.10) pour
initiale est√marquée par un cercle. La solution diverge plusieurs de valeurs C
pour x → C

1.2

0.8
0.1
0.01
0.6 0.0001
y

y(0) = 1e−06
0.4

0.2

0
0 5 10 15 20
x

(c) Solution de l’équation de Bernoulli (1.11) pour


plusieurs conditions initiales y(0). On remarque que
toutes les courbes tendent vers y → 1 pour x crois-
sant

Figure 1.4 – Visualisation graphique des solutions de quelques équations différentielles non-
linéaires.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
62 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2

Systèmes d’Equations Différentielles


Ordinaires

2.1 Généralités

Système d’EDO’s d’ordre n

Un système d’EDO’s d’ordre n est un ensemble de m équations


 h i
(n) (n)
F
 1

 x, y1 (x), . . . , y 1 (x), . . . , y m (x), . . . , y m (x) = 0
...h i
 Fm x, y1 (x), . . . , y (n) (x), . . . , ym (x), . . . , ym (n)

(x) = 0

1

qui sont à satisfaire par un ensemble de m fonctions yi (x) et leurs dérivées yi0 (x), yi00 (x),. . .,
(n)
yi (x) , i ∈ {1, 2, . . . , m} par rapport à une seule variable x. L’ordre de ce système est fixé
par la plus haute dérivée présente dans les équations.

Réduction d’ordre

Dans le reste du chapitre nous allons concentrer notre attention sur les systèmes d’EDO’s
du premier ordre. Ceci n’est pas un aveux de notre incapacité à faire mieux, mais plutôt une
conséquence du fait que :
a. Toute EDO d’ordre n, peut s’écrire comme un système de n EDO’s d’ordre 1.
b. Tout système de m EDO’s d’ordre n, peut s’écrire comme un système de nm EDO’s du
premier ordre.
Ce processus est connu sous le nom de la réduction d’ordre. Donnons deux exemples des
opérations à suivre
Exemple 1 :
64 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

Une EDO linéaire d’ordre n s’écrit comme un système d’EDO’s d’ordre 1. L’équation originale
s’écrit
y (n) + an−1 (x)y (n−1) + . . . + a1 (x)y 0 + a0 (x)y = b(x)
On renomme
y1 (x) = y(x) , y2 (x) = y 0 (x) , . . . , yn (x) = y (n−1) (x)
Ainsi qu’on peut récrire l’EDO comme le système (linéaire)
y10 = y2


y20 = y3




...

 y 0 = yn
 n−10


yn = −a0 (x)y1 − a1 (x)y2 − . . . − an−1 (x)yn − b(x)

Exemple 2 :
Le position ~r(t) d’une masse m ponctuelle peut varier au cours du temps sous l’influence
d’une force F~ , suivant le principe fondamental de la dynamique
d2~r
 
~ d~r
m 2 = F t, ~r,
dt dt
En coordonnées Cartésiennes (x, y) et en 2D, on décompose
~r(t) = x(t)~ex + y(t)~ey
F~ (. . .) = Fx (. . .)~ex + Fy (. . .)~ey
et pareil pour la vitesse
~r 0 (t) = x0 (t)~ex + y 0 (t)~ey = u(t)~ex + v(t)~ey
Le PFD projeté sur ~ex , ~ey , dicte
x00 = m−1 Fx t, x, y, z, x0 , y 0 , z 0


y 00 = m−1 Fy t, x, y, z, x0 , y 0 , z 0


Ceci est un système de 2 EDO’s d’ordre 2. Le processus de réduction d’ordre, nous permet de
récrire ce système sous la forme de 4 équations d’ordre 1, à l’aide de 4 nouvelles variables au
lieu de 2 seulement. On choisit ces variables non par hasard comme
x(t) , y(t) , u(t) , v(t)
car intuitivement on comprend que ces variables donnent une spécification complète de l’état du
système : la position de la masse et sa vitesse. Si on fait une réduction d’ordre à l’aide de ces
variables, on doit à toute évidence avoir
x0 = u
y0 = v
u0 = m−1 Fx (t, x, y, u, v)
v 0 = m−1 Fy (t, x, y, u, v)
qui est un système d’EDO’s d’ordre 1.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 65

Systèmes considérés dans ce chapitre

La plupart des systèmes d’EDO’s que l’on rencontre en physique peuvent s’écrire sous une
forme canonique où on arrive à isoler la dérivée d’ordre 1 dans un membre de gauche :
   
y1 f1 (x, y1 , y2 , . . . , yn )
 y2   f2 (x, y1 , y2 , . . . , yn ) 
d    
 ..  =  ..
dx  .  

. 
yn fn (x, y1 , y2 , . . . , yn )
| {z } | {z }
Y F(x,Y)

On traitera uniquement ce genre de système dans le reste du chapitre. Un tel système d’EDO’s
se laisse écrire brièvement
dY
= F(x, Y) (2.1)
dx
Dans ce polycopié et au tableau, on notera avec des lettres majuscules et grasses ces vecteurs
colonnes. Parfois on appelle Y le vecteur d’état d’un système. Le vecteur d’état Y vit dans
un espace (vectoriel) à n dimensions appelé espace de phase. En écrivant le système d’EDO’s
précédent, on spécifie un système dynamique.
On peut définir un problème à conditions initiales, en ajoutant à un tel système d’EDO’s
(du premier ordre) un ensemble de conditions initiales en un même point x0 :
CI : Y(x0 ) = Y0
Le théorème de Cauchy-Lifschitz donne des conditions nécessaires pour qu’un problème aux
conditions initiales ait une solution et qu’elle soit unique. Ce théorème n’est pas traité dans le
polycopié.

2.2 Systèmes d’EDO’s linéaires

2.2.1 Definition & principe de superposition

Système linéaire

Un système de n EDO’s du premier ordre (2.1) est linéaire, si F(x, Y) est une fonction
linéaire dans l’argument vectoriel Y, c.a.d. :
∀Y, Z , ∀a, b : F(x, aY + bZ) = a F(x, Y) + b F(x, Z)
Sinon, le système est non-linéaire. Tout système linéaire peut s’écrire comme
      
y1 a11 (x) a12 (x) . . . a1n (x) y1 b1 (x)
 y2   a21 (x) a22 (x) . . . a2n (x)   y2   b2 (x) 
d       
 . = .. .. .. ..   ..  +  .. 
dx  ..   . . . .  .   . 
yn an1 (x) an2 (x) . . . ann (x) yn bn (x)
| {z } | {z } | {z } | {z }
Y A(x) Y B(x)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
66 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

soit
dY
= A(x) Y + B(x) (2.2)
dx
en format condensé. Ici on note A(x) une fonction matricielle avec n × n composantes. Si
A(x) = A ne dépend pas de x, on parle d’un système linéaire à coefficients constants. Si le
vecteur colonne B(x) 6= 0 le système est inhomogène. Si B(x) = 0, le système est homogène.

Principe de superposition & forme générale de la solution

La linéarité d’un système d’EDO permet d’appliquer le principe de superposition : si


Φ(x) et Ψ(x) sont des fonctions vectorielles solutions du système d’EDO’s, alors toute combi-
naison linéaire aΦ(x) + bΨ(x) restera une solution.
La conséquence est que pour tout système linéaire de n EDO’s d’ordre 1, on peut proposer
la solution générale sous forme d’une superposition :

n
X
Y(x) = Ci Φi (x) +Yp (x) (2.3)
i=1
| {z }
Yh (x)

La solution homogène Yh (x) est composée d’une combinaison linéaire arbitraire de n fonctions
vectorielles Φi (x), {i = 1, 2, . . . , n} linéairement indépendantes. Ces fonctions satisfont donc

dΦi (x)
∀i ∈ {1, 2, . . . , n} : = A(x) Φi (x)
dx

et
n
X
Di Φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1

La solution particulière sera une seule solution du système d’EDOs complet :

dYp (x)
= A(x) Yp (x) + B(x)
dx

On vérifie aisément que la solution générale (2.3) satisfait (2.2), quelque soient les valeurs des
constantes arbitraires Ci , {i = 1, 2, . . . , n}.
Remarque :
Pour une matrice A(x) générale, on ne dispose pas d’une méthode analytique pour trouver
la solution Y(x), mais le principe de superposition et les précédentes affirmations sur l’existence
d’une base de solution Φi (x) , i = 1, 2, . . . , n tiennent. On considèrera seulement des systèmes
linéaires à coefficients constants dans la suite de cette section.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 67

2.2.2 Systèmes linéaires à coefficients constants

On explique maintenant la méthode pour trouver la solution unique d’un problème

dY
= A Y + B(x) , CI : Y(x0 ) = Y0 (2.4)
dx
D’abord on trouve la solution homogène, puis la solution particulière et à la fin on fixe les
constantes arbitraires afin de satisfaire la CI.

Trouver la solution homogène Yh

On trouve d’abord la solution homogène Yh (x), c.a.d. la solution générale de

dYh (x)
= AYh (x) (2.5)
dx
avec A donc une matrice constante. La méthode générale passe par le calcul de l’exponentielle
de matrice, mais pour des matrices diagonalisables, il existe une méthode plus simple passant
par un calcul des valeurs et des vecteurs propres de la matrice A.

• Méthode valeurs/vecteurs propres : pour les matrices A diagonalisables

Une matrice A diagonalisable est une matrice dont on peut calculer valeurs et vecteurs
propres. On rappelle que les n valeurs propres λ1 , λ2 , . . . , λn sont calculées comme les
racines (complexes) du polynôme caractéristique

P (λ) = det(A − λI) = 0

et que les n vecteurs propres Q1 , Q2 , . . . , Qn , sont des vecteurs colonnes solution du


système algébrique
(A − λi I) Qi = 0
Ce système n’est jamais de rang plein et il faut le résoudre pour chaque i ∈ {1, 2, . . . , n}
séparément. Un vecteur propre est toujours déterminé à une constante multiplicative
près (parfois on normalise les vecteurs propres). De différents vecteurs propres sont
linéairement indépendants toujours.
On peut maintenant vérifier que les solutions recherchées sont tout simplement les fonc-
tions vectorielles
Φi (x) = Qi eλi x (2.6)
pour tout i ∈ {1, 2, . . . , n}. Injectées dans le système linéaire homogène (2.5), on trouve
en effet que
d  
Qi eλi x = λi Qi eλi x = AQi eλi x
dx
L’indépendance linéaire des vecteurs propres Qi implique l’indépendance linéaire des
fonctions vectorielles Φi (x) = Qi eλi x . En résumé, il suffit donc de calculer valeurs et

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
68 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

vecteurs propres, afin de pouvoir écrire la solution homogène comme


n
X
Yh (x) = C1 Q1 eλ1 x + C2 Q2 eλ2 x + . . . + Cn Qn eλn x = Ci Qi eλi x (2.7)
i=1

Si on organise les vecteurs propres et les fonctions exponentielles dans les colonnes d’une
matrice
q1,1 eλ1 x q2,1 eλ2 x . . . qn,1 eλn x
 
 q1,2 eλ1 x q2,2 eλ2 x . . . qn,2 eλn x 
M(x) = 
 
.. .. .. .. 
 . . . . 
q1,n e λ 1 x q e λ 2 x . . . qn,n e λ n x
| {z } 2,n | {z } | {z }
Q1 eλ1 x Q2 eλ2 x Qn eλn x

on crée ce que l’on appelle matrice d’un système fondamental de solutions. Suite à
l’indépendance linéaire des solutions, on sait que cette matrice est toujours inversible :
M−1 (x) existe donc pour tout x.

Exemple 1 : valeurs propres réelles

On considère le système d’EDO homogène :


    
d y1 0 1 y1
=
dx y2 1 −1 y2
| {z } | {z }
A Y

Le premier pas de la recette consiste à trouver les valeurs propres de A. On construit le


polynôme caractéristique et on trouve ses racines :

−λ 1 = (−λ)(−1 − λ) − (1)(1) = λ2 + λ − 1 = 0

P (λ) = det(A − λI) =
1 −1 − λ
√ √
−1 + 5 −1 − 5
⇒ λ1 = , λ2 =
2 2
Pour trouver les vecteurs propres Q1 , Q2 , on doit trouver des solutions du système
algébrique homogène
    
−λi 1 q1i 0
= , i = 1, 2
1 −1 − λi q2i 0
| {z }
Qi

Comme, par définition, les valeurs propres λi sont telles que les deux équations algébriques
de ci-dessus (les n en général) soient linéairement dépendantes, il suffira de satisfaire une
seule des deux équations (n − 1 des n en général) pour trouver les vecteurs propres. Par
exemple      
  q1i q1i 1
−λi 1 = 0 ⇒ Qi = = αi
q2i q2i λi
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 69

Dans cette expression αi ∈ C sont des constantes arbitraires qui n’ont aucune importance
car on multipliera ces vecteurs par d’autres constantes arbitraires C1 , C2 lorsqu’on écrit
la solution du problème. Choisissons αi = 1 ici. La solution homogène sera alors :
" # " #
√ √
1√ −1+ 5
x 1 √
−1− 5
x
Yh (x) = C1 −1+ 5 e 2 + C 2 −1− 5 e 2

2 2

Dans la figure 2.1(a), on affiche cette solution dans le plan de phase y1 − y2 . En fixant une
condition initiale, on fixera C1 , C2 et ceci revient à sélectionner une courbe spécifique.
En augmentant x, la dynamique évoluera le long de ces trajectoires, suivant le sens des
flèches. On reconnait qu’il s’agit d’une famille d’hyperboles.

Exemple 2 : valeurs propres complexes

Le système étudié est cette fois-ci :


    
d y1 0 1 y1
=
dx y2 −1 0 y2
| {z } | {z }
A Y

Le polynôme caractéristique et les valeurs propres sont donc :



2 λ1 = +i
P (λ) = λ + 1 = 0 ⇒
λ2 = −i
avec i l’unité imaginaire. On trouve des vecteurs propres
   
1 1
Q1 = , Q2 =
i −i
La solution homogène est donc
   
1 1
Yh (x) = C1 ix
e + C2 e−ix
i −i
Cette expression est tout à fait correcte, mais si la solution Yh doit être réelle, on doit
avoir C1 = C2∗ ∈ C. On peut alors obtenir deux formes équivalentes de la solution. En
choisissant C1 = C2∗ = C2 eiχ avec C, χ ∈ R amplitude et phase réelles, ou à l’aide de
C1 = C2∗ = α−iβ
2 on récrit la solution comme
     
cos(x + χ) cos x sin x
Yh (x) = C =α +β
− sin(x + χ) − sin x cos x
On peut préférer mettre la solution sous l’un de ces formes réelles, mais la première so-
lution sous forme complexe est toujours la plus facile à obtenir et à manipuler.

On affiche cette solution dans la figure 2.1(b). Dans le plan de phase y1 −y2 , la dynamique
évoluera le long de trajectoires circulaires, suivant le sens des flèches. Fixer C et χ revient
à sélectionner un cercle de rayon C et un angle χ initial.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
70 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

• Méthode générale : calculer l’exponentielle de matrice


Certaines matrices ne sont pas diagonalisables et pour ces dernières, on peut utiliser une
autre méthode qui passe par l’exponentielle de la matrice Ax. On définit
+∞
Ax x2 x3 X (Ax)p
e = I + Ax + AA + AAA + . . . =
2! 3! p!
p=0

I est la matrice identité de taille n × n et les produits AA . . . A sont des produits ma-
triciels et non des produits ordinaires ! On peut dériver cette expression par rapport à x,
pour trouver

d Ax  2x 3x2 4x3
e = 0 + A + AA + AAA + AAAA + ...
dx 2! 3! 4!
x2 x3
 
= A I + Ax + AA + AAA + . . .
2! 3!
= AeAx (2.8)

Si on compare avec le système (2.5), on reconnait immédiatement que eAx semble résoudre
le même système que Yh . Supposons que l’on arrive à calculer cette exponentielle de
matrice, on pourra noter
 
φ11 (x) φ12 (x) . . . φ1n (x)
 φ21 (x) φ22 (x) . . . φ2n (x) 
eAx = 
 
.. .. .. .. 
 . . . . 
φn1 (x) φn2 (x) . . . φnn (x)
| {z } | {z } | {z }
Φ1 (x) Φ2 (x) Φn (x)

et ainsi reconnaitre que les n colonnes forment un jeu de solutions Φi (x) , {i = 1, 2, . . . , n}


linéairement indépendants. En effet, il suffit de considérer eq. (2.8) colonne par co-
lonne, afin de reconnaitre que chaque colonne est une solution du problème homogène.
L’indépendance linéaire des fonctions vectorielles Φi (x) est d’ailleurs toujours assurée car
la matrice eAx est inversible ∀x car
−1
eAx = e−Ax (2.9)

Cette relation se démontre en deux étapes. Utilisant le règle de Leibniz et (2.8) on trouve
que
d Ax −Ax 
e e = eAx (A − A)e−Ax = 0.
dx
Le produit eAx e−Ax est donc indépendant de x. Afin de trouver la valeur de ce produit,
il suffit alors de choisir par exemple x = 0, dans la définition de eAx pour trouver que
eAx e−Ax = I. Ceci démontre (2.9) et donc l’indépendance linéaire des n solutions Φi (x)
contenues dans les colonnes de eAx .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 71

En conclusion, la solution homogène peut donc aussi s’écrire comme une superposition
arbitraire des colonnes de eAx :

Yh (x) = C1 Φ1 (x) + C2 Φ2 (x) + . . . + Cn Φn (x) (2.10)

Ici aussi, on peut introduire la matrice d’un système fondamental de solutions M(x), que
l’on choisit directement comme M(x) = eAx .

Remarque :

Si A est diagonalisable, la solution homogène (2.10) basée sur l’exponentielle de matrice


sera différente de celle basée sur les vecteurs propres (2.7), mais les deux formes de la
solution seront néanmoins linéairement dépendantes.

Exemple 3 :

Regardons l’exemple le plus simple d’une matrice A non-diagonalisable :


    
d y1 a 1 y1
=
dx y2 0 a y2
| {z } | {z }
A Y

La matrice à donc une valeur propre double λ = a et un des éléments non-diagonaux


est non-nulle. Le calcul des vecteurs propres de cette matrice pose problème, car si on
cherche abusivement à les calculer, le système AQi = a Qi sera

a qi,1 + qi,2 = a qi,1
a qi,2 = aqi,2

Une solution est  


1
Q1 =
0
mais on ne peut pas trouver une deuxième solution Q2 différente. Retournant au système
d’EDO, on aurait donc l’impression que la solution serait
 
1
Y h = C1 eax (Solution incomplète !)
0

et une deuxième solution linéairement indépendante (notée C2 Φ2 (x)) n’existerait donc


pas ? Face à ce problème d’une analyse clairement pas adaptée à la situation, faisons
confiance à notre exponentielle de matrice :
     2  3
Ax 1 0 a 1 1 a 1 1 a 1
e = + + + + ...
0 1 0 a 2! 0 a 3! 0 a
On constate que
2
a2 2a
     
a 1 a 1 a 1
= =
0 a 0 a 0 a 0 a2
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
72 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

2 1

1.5

1 0.5

0.5
y2

y2
0 0

−0.5

−1 −0.5

−1.5

−2 −1
−2 −1 0 1 2 −1 −0.5 0 0.5 1
y1 y1

(a) Les trajectoires sont hyperboliques dans (b) Les trajectoires sont elliptiques (circulaires
l’exemple 1. En fixant C1 , C2 par une CI, on ici) dans l’exemple 2. En fixant C, χ par une CI,
sélectionne une de ces trajectoires on sélectionne une de ces trajectoires

1.5

0.5
y2

−0.5

−1

−1.5

−2
−2 −1 0 1 2
y1

(c) Les trajectoires sont plus compliquées dans


dans l’exemple 3. Ici on a choisit a = −1

Figure 2.1 – Les solutions de systèmes linéaires sont parfois visualisées dans un plan (espace)
de phase

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 73

3
a2 2a a3 3a2
     
a 1 a 1
= =
0 a 0 a 0 a2 0 a3
tel que n
an nan−1 an ∂(an )/∂a
    
a 1
= =
0 a 0 an 0 an
Les termes diagonaux sont simplement mis à la puissance. Le terme qui n’est pas sur
la diagonale est toujours la dérivée de celui sur la diagonale. En sommant toutes ces
différents matrices, nous reconaissons les séries limitées de la fonction exponentielle et de
sa dérivée

1 1
eax = 1 + ax + a2 x2 + a3 x3 + . . .
2 3!
∂ eax 1 1 2 3
= 0 + x + 2ax + 3a x + . . . = xeax
2
∂a 2 3!

ce qui nous permet d’écrire l’exponentielle de matrice comme


 ax
xeax

Ax e
e =
0 eax

La solution du problème (homogène) est donc


 ax   ax 
e xe
Y(x) = C1 + C2
0 eax

avec C1 , C2 ∈ R deux constantes arbitraires. On teste facilement que cette deuxième


partie de la solution satisfait bien le système d’EDO de départ. On note, qu’il n’y a pas
seulement des fonctions exponentielles dans cette solution, l’unique conséquence du fait
que la matrice A n’est pas diagonalisable. On rappelle aussi avoir déjà rencontré ce type
de fonctions xeax lors du traitement des EDO’s d’ordre n avec des racines multiples.

La solution est visualisée dans l’espace de phase en figure (2.1(c)). On y a choisit a = −1.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
74 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

Généralisation :

Toutes les matrices A peuvent se réduire à la forme de Jordan, c.a.d. il existera toujours
une matrice P inversible et telle que :
J = P−1 A P , A = P J P−1
Cette matrice de Jordan J est identique à la matrice Λ si A est diagonalisable, sinon elle
est diagonale par bloc. Dans l’exemple précédent, la matrice A = J est une matrice de
Jordan. Sans vouloir détailler la forme générale d’une matrice de Jordan, on se contente
ici de savoir qu’on pourra toujours calculer facilement l’exponentielle de matrice eJ x .
Comme
An = (PJ P−1 )(P J P−1 )(P J P−1 ) . . . (PJ P−1 )(P J P−1 ) = PJ n P−1
| {z } | {z } | {z }
I I I
nous pouvons trouver que
eAx = Pexp(J x)P−1
ce qui se calcule connaissant P et J .

Trouver une solution particulière Yp

On regarde quelques cas particuliers et puis on propose une méthode générale qui étend la
méthode de la variation de la constante.

a. B(x) = B constant ou B(x) = B0 + x B1 + . . . + xp Bp polynomiale


Si B(x) = B ne dépend pas de x, il est facile de trouver une solution particulière au
problème car Yp = D un vecteur constant conviendra. En effet
dD
= AD + B ⇒ AD = −B
dx
|{z}
=0

Il suffit donc de résoudre ce système linéaire pour trouver la solution Yp = D.


La précédente méthode s’étend facilement vers des B(x) polynomiaux d’ordre p quel-
conque. On cherchera la solution particulière comme un polynôme du même ordre
Yp (x) = D0 + x D1 + . . . + xp Dp
Si on injecte cette solution dans l’EDO pour la solution particulière on trouvera que
(ADp + Bp ) xp + (ADp−1 + Bp−1 − pDp ) xp−1 + . . . + (AD0 + B0 − D1 ) = 0
| {z } | {z } | {z }
=0 =0 =0

Les équations devant les différentes puissances en x, doivent être satisfaits un a un et on


peut les résoudre en cascade, commençant par la puissance la plus élevée
Dp → Dp−1 → . . . → D0

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 75

αm x
P
b. B(x) = m Bm e composée d’exponentielles
Si dans B(x) on trouve des fonctions du type sin, cos, cosh, sinh, exp, on le sépare tout
d’abord en simples exponentielles. On peut alors trouver la solution particulière sous
cette même forme X
Yp (x) = Dm eαm x
m

Si on injecte cette proposition de solution dans l’équation, on trouve que les vecteurs Dm
doivent être les solutions des m problèmes

(A − αm I) Dm = −Bm

Que l’on doit résoudre séparément. Cette méthode ne fonctionne pas si l’un des αm est
identique à l’un des valeurs propres λi de la matrice A.

c. B(x) quelconque
Pour B(x) quelconque, on peut étendre la méthode de la variation de la constante, in-
troduite pour des EDO’s linéaires d’ordre 1 dans le premier chapitre. Connaissant la
solution homogène (c.a.d. n fonctions vectorielles Φi (x) , i = 1, 2, . . . , n linéairement
indépendantes) on cherche la solution particulière comme

Yp (x) = D1 (x)Φ1 (x) + D2 (x)Φ2 (x) + . . . + Dn (x)Φn (x)

Par un abus de langage on ”varie donc les constantes arbitraires” et si on injecte cette
proposition de solution dans le système (2.4) il restera un système linéaire algébrique
pour les dérivées Di0 (x) , i = 1, 2, . . . , n :
  0   
φ11 (x) φ12 (x) . . . φ1n (x) D1 (x) b1 (x)
 φ21 (x) φ22 (x) . . . φ2n (x)   D0 (x)   b2 (x) 
 2
 =  ..
   
 .. .. .. ..  .. 
 . . . .  .   . 
φn1 (x) φn2 (x) . . . φnn (x) 0
Dn (x) bn (x)
| {z }| {z } | {z }
M(x) D0 (x) B(x)

D’abord on doit résoudre ce système linéaire, ce qu’on peut écrire comme D0 (x) =
M−1 (x) B(x), puis on doit intégrer pour trouver D(x)

Zx
D(x) = M−1 (x̃) B(x̃) dx̃

Cette méthode fonctionne en principe toujours, mais elle est rarement facile à mettre
en œuvre, car nécessitant de calculer de nombreuses fonctions primitives et une matrice
inverse.

Exemple 2bis : système inhomogène

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
76 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

On reprend le système de l’exemple 2, précédent, mais cette fois ci avec un terme en plus
qui le rend inhomogène
      
d y1 0 1 y1 0
= +
dx y2 −1 0 y2 cos x

La solution homogène est déjà connue (exemple 2, plus haut). Afin d’appliquer la méthode
de la variation de la constante, on cherche une solution particulière de la forme
   
1 1
Yp (x) = D1 (x) ix
e + D2 (x) e−ix
i −i
Injectée dans le système, on trouve le problème
e−ix
 0
D10 (x) −ie−ix cos x
 ix       
e D1 (x) 0 1
= ⇔ =
ieix −ie−ix D20 (x) cos x D20 (x) 2 ie+ix cos x
Intégration donne
e−2ix e2ix
   
1 1
D1 (x) = −ix + , D2 (x) = ix +
4 2 4 2
et au final    
1 x sin x 1 cos x
Yp (x) = +
2 x cos x 4 sin x
La solution générale du système d’EDO inhomogène devient alors
       
1 1 1 x sin x 1 cos x
Y(x) = C1 eix + C2 e−ix + +
i −i 2 x cos x 4 sin x

Imposer une condition initiale

Si on impose une condition initiale.

CI : Y(x0 ) = Y0

celle-ci fixera les valeurs des constantes arbitraires. On exprime cette condition à l’aide de la
solution générale :
X n
Ci Φi (x0 ) + Yp (x0 ) = Y0
i=1
Ceci donne un système linéaire algébrique pour les constantes Cj qu’on devra résoudre afin
d’identifier la solution unique
    
φ11 (x0 ) φ12 (x0 ) . . . φ1n (x0 ) C1 y0,1 − yp,1 (x0 )
 φ21 (x0 ) φ22 (x0 ) . . . φ2n (x0 )   C2   y0,2 − yp,2 (x0 ) 
=
    
 .. .. .. ..  .. .. 
 . . . .  .   . 
φn1 (x0 ) φn2 (x0 ) . . . φnn (x0 ) Cn y0,n − yp,n (x0 )
| {z } | {z } | {z }
M(x0 ) C Y0 −Yp (x0 )

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. SYSTÈMES D’EDO’S NON-LINÉAIRES 77

Exemple 2tris : imposer une condition initiale


On ajoute au problème précédent (exemple 2bis) une condition initiale
 
0
CI : Y(0) =
1
A l’aide de la solution générale trouvée, on exprime la CI
         
1 1 1 0 1 1 0
C1 + C2 + + =
i −i 2 0 4 0 1
ce qui donne
        
1 1 C1 −1/4 C1 1 −1/4 − i
= ⇒ =
i −i C2 1 C2 2 −1/4 + i

La solution du problème aux conditions initiales est


     
sin x 1 x sin x 1 0
Y(x) = + +
cos x 2 x cos x 2 sin x

Remarque sur exemple 2 :


A l’inverse du processus de réduction d’ordre, le système d’EDO de ce deuxième exemple, se
découple ici en une EDO inhomogène d’ordre deux

y200 + y2 = cos x

muni de la condition initiale

CI : y2 (0) = 0 , y20 (0) = 0

Selon le chapitre précédent, la solution de ce problème est composé d’une solution homogène et
d’une solution particulière. Comme mentionné dans le chapitre précédent, cette solution parti-
culière peut être difficile à calculer. L’exemple 2 nous a montré qu’en écrivant cette EDO d’ordre
2, comme un système de 2 EDO’s d’ordre 1, on dispose toujours d’une méthode pour calculer
la solution particulière.

2.3 Systèmes d’EDO’s non-linéaires

Une grande partie des systèmes d’EDOs que l’on rencontre en physique classique, mais aussi
dans des systèmes industriels sont non-linéaires et de la forme canonique (2.1). Malheureusement,
la réalité est telle que peu de systèmes ont une solution tractable analytiquement.
La théorie des systèmes dynamiques est une branche des mathématiques très avancée. Il
existe de nombreux outils pour analyser le comportement des systèmes d’EDO’s non-linéaires.
Ici on se limitera à la discussion d’une méthode souvent utilisée pour comprendre la dynamique
au voisinage d’un état d’équilibre.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
78 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

2.3.1 Analyse locale autour d’un état équilibre

Système autonome

Supposons un système d’EDO’s de la forme canonique (2.1). Un tel système sera autonome
s’il est de la forme
dY
= F(Y) (2.11)
dt
où la fonction F(Y) ne dépend pas explicitement de la variable t. On change de nom
x → t pour mieux faire référence à une variable t temporelle, ce qui facilitera la compréhension
du vocabulaire utilisé. Pour de tels systèmes autonomes, on peut chercher des états d’équilibre
et linéariser la dynamique autour de ces points, afin de dire un mot sur la stabilité de ces points
d’équilibre.

Etat d’équilibre ou point fixe

On appelle Ye = [ye,1 , ye,2 , . . . , ye,n ]T un (vecteur d’) état d’équilibre ou point fixe d’un
système autonome (2.11), si
F(Ye ) = 0
On rappelle que ceci veut dire que les n composantes de la fonction vectorielle F s’annulent en
ce point : 

 f1 (ye,1 , ye,2 , . . . , ye,n ) = 0
f2 (ye,1 , ye,2 , . . . , ye,n ) = 0


 ...
fn (ye,1 , ye,2 , . . . , ye,n ) = 0

En toute évidence, dYe /dt = 0 au point d’équilibre, d’où son nom. Un même système d’EDO’s
peut avoir aucun, 1, 2 voir une infinité de points fixes.

Stabilité d’un point fixe

Dans un état d’équilibre, l’état d’un système est au repos, mais si on s’écarte de cet équilibre,
en perturbant légèrement la dynamique par
Y(x) = Ye +  Z(t) , 1
on peut s’intéresser à la stabilité du point fixe Ye . Pour illustrer cette notion de stabilité, on
considère le cas du pendule

2
g

1
Equilibre 1 Equilibre 2
stable instable

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. SYSTÈMES D’EDO’S NON-LINÉAIRES 79

Un pendule a deux points d’équilibre. Le point 1 du bas est stable car tout écart de la
position d’équilibre le ramènera vers la position 1. Le point d’équilibre du haut, point 2, est
instable car toute écart de cette position s’agrandira.
De manière plus générale, mais mathématiquement pas très précise, on dit que

a. Le point d’équilibre Ye est instable s’il existe des écarts Z(t) infinitésimaux (  1)
qui vont s’amplifier Z(t) % pour t → +∞

b. Le point d’équilibre Ye est stable si tous les écarts Z(t) infinitésimaux (  1)


disparaissent Z(t) → 0 pour t → +∞.

c. Le point d’équilibre Ye est marginalement stable si tous les écarts Z(t) infinitésimaux
(  1)
restent d’ordre  à temps long t → +∞, sans jamais revenir vers zéro.

Linéarisation de la dynamique autour d’un point fixe

Pour répondre à la question de stabilité d’un point fixe, on dispose d’une méthode : on
linéarise la dynamique autour d’un point d’équilibre Ye que l’on suppose connu. Le système
perturbé devra satisfaire le système d’EDO

d
(Ye + Z) = F(Ye + Z)
dt

Si on suppose  → 0, on peut faire un développement limité du membre de droite autour du


point d’équilibre :
 
dYe dZ ∂F ∂F ∂F
+ = F(Ye ) + z1 (Ye ) + z2 (Ye ) + . . . + zn (Ye ) + O(2 )
dt
| {z } dt | {z } ∂y1 ∂y2 ∂yn
=0
=0

Si on ignore les termes d’ordre O(2 ), on fait une approximation et on obtient le système
d’EDO’s linéarisé pour la perturbation Z(t) :
     
z1 ∂f1 /∂y1 ∂f1 /∂y2 . . . ∂f1 /∂yn z1
d  z2   ∂f2 /∂y1 ∂f2 /∂y2 . . . ∂f2 /∂yn   z2 
=
     
.. .. .. .. .. ..
dt 
   
.   . . . .   . 
zn ∂fn /∂y1 ∂fn /∂y2 . . . ∂fn /∂yn Y=Ye
zn
| {z } | {z } | {z }
Z J(Ye ) Z

La matrice Jacobienne J(Ye ) est une matrice à coefficients constants, que l’on calcule en
évaluant toutes les dérivées partielles des fonctions fi (y1 , y2 , . . . , yn ) , i = 1, 2, . . . , n dans le
point d’équilibre Ye .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
80 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

Analyse de stabilité linéaire

Afin d’évaluer la stabilité d’un point fixe, il convient de calculer la solution homogène du
système d’EDO’s linéarisé. Dans le cas le plus courant, la matrice J(Ye ) sera diagonalisable et
on pourra donc trouver que

Z(t) = C1 Q1 eλ1 t + C2 Q2 eλ2 t + . . . + Cn Qn eλn t

avec Ci des coefficients arbitraires, λi et Qi les valeurs et vecteurs propres de la matrice J(Ye ).
Les Qi sont souvent appelés modes linéaires. En inspectant les valeurs propres λi , on peut
maintenant conclure sur la stabilité d’un point d’équilibre pour des temps longs t → +∞.

a. Le point d’équilibre Ye sera instable s’il existe des valeurs propres avec

Re(λk ) > 0 (2.12)

A temps long la solution


Z(t) = Ck Qk eλk t
croit alors exponentiellement et infiniment. L’écart avec le point d’équilibre va donc
s’agrandir et il sera nécessaire de retourner vers le vrai système non-linéaire, pour connaitre
la suite de l’évolution du système. Si plusieurs modes Qk sont instables, alors aux temps
longs on s’attend à voir le mode k le plus instable, avec la plus grand partie réelle Re(λk ).

b. Le point d’équilibre Ye sera stable si toutes les valeurs propres sont telles que

Re(λk ) < 0

A temps long la solution


Z(t) → 0
quelque soient les valeurs Ck . L’écart avec le point d’équilibre va donc toujours diminuer
et le système aimera donc rester proche de son état d’équilibre Ye .

c. Le point d’équilibre Ye sera marginalement stable si aucun vecteur propre est instable,
mais s’il existe au moins un (deux pour un système réel) vecteur propre Qk qui a sa valeur
propre
Re(λk ) = 0
Si la partie imaginaire est non-nulle, la dynamique résultante pour Z(t) pourra être
oscillatoire.

2.3.2 Exemple physique : le pendule

Système & PFD

Un pendule idéal est une masse m liée par une tige de masse 0 et de longueur L à un point
d’attache. Si on met cette pendule dans le champ de gravité de la terre elle subira l’accélération
gravitationnelle g.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. SYSTÈMES D’EDO’S NON-LINÉAIRES 81

θ(t)
mg

Si on note θ(t), l’angle de déviation par rapport à la verticale, la mécanique nous indique
que
d2 θ
mL = −mg sin θ (2.13)
dt2
et R = mg cos θ la réaction de la tige.

Conservation de l’énergie mécanique

La solution est ”connue” sous forme implicite. Si on multiplie cette EDO par Ldθ/dt, on
peut la récrire comme
" #
d mL2 dθ 2
 
− mgL cos θ = 0
dt 2 dt

Entre les crochets, on reconnait l’expression de l’énergie mécanique dans le système et cette
EDO exprime donc sa conservation. On écrit donc
2
mL2


− mgL cos θ = EM
2 dt

avec EM l’énergie mécanique qui est donc une constante du mouvement. Dans la figure ci-
dessus, on affiche un ”portrait de phase” de cette solution. Les lignes sont des iso-lignes de
énergie mécanique EM .

5 3
dθ/dt

0 2
1
−5

−6 −4 −2 0 2 4 6
θ

En spécifiant des conditions initiales sur θ(0) and dθ/dt(0), on choisira une ligne parmi ces
contours, qu’on ne quittera plus au cours du temps. Pour se faire une idée qualitative du mou-
vement du pendule, on schématise ci-dessous l’évolution du pendule si on suit l’une des 3 lignes
marqués dans la figure au dessus.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
82 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

2 3

Il s’agit d’oscillations à faible amplitude (1), grande amplitude (2) ou des rotations soutenues
du pendule (3) sans jamais inverser de sens.

Points fixes & analyse de stabilité

Cet exemple est illustratif pour appliquer la méthode de l’analyse locale. On commence par
écrire l’EDO d’ordre 2 (2.13) comme un système de 2 EDO’s d’ordre 1. On note θ̇ = dθ/dt.
   
d θ θ̇
= (2.14)
dt θ̇ −(g/l) sin θ

Les points d’équilibre sont définis par



θ̇ = 0
sin θ = 0

Soit tous les points, θ = nπ, θ̇ = 0 avec n entier. Ces points sont marqués avec des (•) dans la
figure de ci-dessous.
Point d’équilibre du bas :
On écrit maintenant le système d’EDO’s linéarisé autour du point d’équilibre du bas, c.a.d.
on substitue θ(t) = 0 + φ(t) dans le système non-linéaire (2.14) et on utilise le DL

sin 0 +φ cos(0) +O(2 )


sin(0 + φ) = |{z}
| {z }
=0 =1

La perturbation linéaire φ(t) satisfait


    
d φ 0 1 φ p
= ⇔ φ̈ + (g/l) φ = 0 ⇒ λ1 , λ2 = ±i g/l
dt φ̇ −(g/l) 0 φ̇

Ce point d’équilibre est donc marginalement stable. La solution est ici

φ̇2

φ(t) = C cos ωt + D sin ωt
, φ2 + = C 2 + D2
φ̇(t) = −Cω sin ωt + Dω cos ωt ω2
p
avec ω = g/l, C, D des constantes arbitraires. Dans le plan de phase φ − φ̇, la dynamique
suivra des ellipses, comme visualisé dans la figure (a) ci-dessous. On retrouve par cette analyse
locale, une version zoomée du plan de phase autour du point d’équilibre stable θ = 0. Pour des
raison évidents, on dit que le point d’équilibre du bas est un point elliptique.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
2.3. SYSTÈMES D’EDO’S NON-LINÉAIRES 83

5 5

dχ/dt
dφ/dt 0 0

−5 −5
−1 0 1 −1 0 1
φ χ
(a) Point fixe marginalement stable (b) Point fixe instable du haut : point
du bas : point elliptique hyperbolique

Point d’équilibre du haut :


Autour du point d’équilibre du haut, on substitue θ(t) = π + χ(t) dans le système non-
linéaire (2.14) et on utilise le DL
2
sin(π + χ) = |sin
{zπ} +φ cos
| {zπ} +O( )
=0 =−1

La perturbation linéaire χ(t) satisfait donc


    
d χ 0 1 χ p
= ⇔ χ̈ − (g/l) χ = 0 ⇒ λ1 , λ2 = ± g/l
dt χ̇ +(g/l) 0 χ̇

Ce point d’équilibre est donc instable. La solution est ici

χ(t) = Ceωt + De−ωt χ̇2



2
, χ − = 4CD
χ̇(t) = Cωeωt − Dωe−ωt ω2
p
avec ω = g/l, C, D deux constantes. On peut remarquer que dans le plan de phase χ − χ̇,
la dynamique suivra des lignes hyperboliques, comme montré dans la figure (b) ci-dessus. De
nouveau, on retrouve la version zoomée du plan de phase autour du point d’équilibre stable
θ = π. On dit que le point d’équilibre du haut est un point hyperbolique.
Conclusion :
Dans cet exemple sur le pendule, on voit bien comment la solution donnée par l’analyse locale
se compare à celle donnée par la loi de conservation de l’énergie mécanique. Dans la majorité
des cas, on n’aura que la possibilité de faire une analyse locale. On retient alors qu’il s’agit d’une
approximation de la vraie dynamique non-linéaire.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
84 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3

Équations Différentielles Partielles

Dans toute la suite du chapitre EDP = équation différentielle partielle

3.1 Généralités

Définitions

On considère un espace à n dimensions et des coordonnées (x1 , x2 , . . . , xn ). Une équation


différentielle partielle d’ordre p est une relation fonctionnelle entre une fonction f (x1 , x2 , . . . , xn )
et ses dérivées partielles de la forme

∂pf ∂pf
 
∂f ∂f ∂f
F x1 , x2 , . . . , xn , , ,..., ,...,...,..., p,..., p = 0 (3.1)
∂x1 ∂x2 ∂xn ∂x1 ∂xr

L’ordre p est fixé par la plus haute dérivée partielle dans l’équation. Une EDP sera linéaire, si
la fonction F est linéaire dans tous les arguments.

Notations

Nous allons parfois noter les dérivées partielles comme

∂f 2 ∂2f 2 ∂2f
∂x f = , ∂xx f= , ∂xy f=
∂x ∂x2 ∂x∂y

D’autres ouvrages peuvent préférer la notation indicielle

∂f ∂2f ∂2f
fx = , fxx = , fxy =
∂x ∂x2 ∂x∂y

que nous n’utilisons pas ici.


86 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Solutions séparables

On appelle f = φ(x1 , x2 , . . . , xn ) une solution séparable d’une EDP (3.1) si elle est de la
forme
φ(x1 , x2 , . . . , xn ) = X1 (x1 )X2 (x2 ) . . . Xn (xn )
Dans cette solution, les dépendances spatiales apparaissent séparément en facteurs différents.
Cette forme de la solution permet de facilement imposer des conditions limites sur un domaine
délimité par des surfaces coordonnées (surface où l’une des coordonnées xj = Cst).

3.2 Le problème de Laplace

3.2.1 Définitions

Laplacien

Le Laplacien joue un rôle primordial en physique, car on le rencontre dans quasiment


toutes les disciplines physiques qui font appel aux EDP. On le définit de manière intrinsèque
(indépendante du système de coordonnées) comme l’opérateur différentiel d’ordre deux
−−→
∆ = div grad = ∇2

Calculer le Laplacien d’un champ revient à d’abord calculer son gradient, puis la divergence de
ce gradient. On peut calculer le Laplacien de tout genre de champ scalaire f , vectoriel F~ ou
tensoriel F, mais ici on se limitera à des champs scalaires.
Dans un espace à n dimensions, avec (x1 , x2 , . . . , xn ) des coordonnées cartésiennes et f (x1 , x2 , . . . , xn )
une fonction quelconque, on appelle
n
X ∂2f
∆f =
j=1
∂x2j
le Laplacien de f . La plupart des applications en physique se situent dans un espace à 1, 2 ou
3 dimensions. Selon la forme du domaine considéré, il convient d’utiliser d’autres coordonnées.
En 2D, on fera des exemples en coordonnées Cartésiennes (x, y) et cylindrique (polaires) (ρ, φ) :
∂2f ∂2f
∆f = +
∂x2 ∂y 2
1 ∂2f
 
1 ∂ ∂f
∆f = ρ + 2 2
ρ ∂ρ ∂ρ ρ ∂φ
En 3D, on se restreindra aux coordonnées Cartésiennes (x, y, z), cylindriques (ρ, φ, z) et sphériques
(r, θ, φ) :
∂2f ∂2f ∂2f
∆f = + +
∂x2 ∂y 2 ∂z 2
1 ∂2f ∂2f
 
1 ∂ ∂f
∆f = ρ + 2 2+ 2
ρ ∂ρ ∂ρ ρ ∂φ ∂z
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 87

∂2f 2
   
1 ∂ 2 ∂f 1 ∂ ∂f 1
∆f = 2 r + 2 sin θ + 2 2 ∂φ
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ

Pour comprendre l’origine de ces formules, il faut faire de l’analyse vectorielle. Quelques
éléments supplémentaires se trouvent en annexe.

Problème de Laplace

Une fonction f solution du problème

∆f = 0

dans un domaine D, satisfait un problème de Laplace. On dit aussi que f est une fonction
harmonique.

Conditions limites

Souvent on résout un problème de Laplace ensemble avec des conditions limites. On imagine
le domaine D et son bord δD comme ci-dessous :

cas 2D cas 3D

En 2D, le domaine D est une surface et son bord δD un contour. En 3D, le domaine D est
un volume et son bord δD sera une surface. Nous notons ~n le vecteur unitaire normal sortant
de δD.
Dans le problème de Laplace (et plus généralement pour les EDPs d’ordre 2 en espace), on
utilisera des conditions aux limites

• CL Dirichlet : On impose la valeur de la fonction f sur le bord



f = h

δD δD

La notation avec la barre verticale |δD , signifie que la relation ne s’applique qu’aux bords.
La fonction h est supposée connue.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
88 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

• CL Neumann : On impose la valeur de la dérivée normale au bord



~n · ∇f = H|δD

δD

Ici H est une fonction supposée connue, ~n le vecteur normal unitaire. Une CL de type
Neumann fixe la valeur de la dérivée normale de la fonction sur le bord du domaine.

• CL Mixte : Une combinaison des deux



αf + β~n · ∇f = H|δD

δD δD

Ici α, β, H sont des fonctions supposées connue.

On dit que les conditions limites sont homogènes si



h = 0 ou H = 0 ou H =0

δD δD δD

Le plus fréquemment, on rencontre des conditions aux limites de type Dirichlet ou Neumann en
physique.

Conditions de régularité

Si le domaine est de taille infinie ou comprend des singularités du système de coordonnées


(exemple : l’axe ρ = 0 en coordonnées cylindriques), on doit y poser des conditions de régularité
qui expriment que la solution n’y diverge pas. On verra plusieurs exemples dans la suite. Ces
conditions jouent le même rôle que les conditions aux limites et on les fera apparaı̂tre quand on
pose les CL d’un problème.

3.2.2 Théorème min-max

Soit un champ f (x1 , . . . , xn ), qui satisfait le problème de Laplace dans un domaine D avec
une CL de type Dirichlet ou Neumann sur le bord δD. Les valeurs minimales et maximales
de f doivent être atteintes sur le bord du domaine δD et jamais à l’intérieur de D.
Preuve :
Supposons que f satisfait ∆f = 0 et atteint un maximum en ~xmax ∈ D. Toutes les premières
dérivées partielles doivent donc s’annuler
∂f
∀j ∈ 1, . . . , n : =0
∂xj ~x=~xmax

et toutes les deuxièmes dérivées partielles doivent être de signe négatif :

∂ 2 f
∀j ∈ 1, . . . , n : <0
∂x2j ~x=~xmax

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 89

On comprend directement que cette dernière propriété n’est pas compatible avec le caractère
Laplacien de f qui impose que
n
X ∂ 2 f
∆f = =0

∂x2j ~x=~xmax

~x=~
xmax
j=1

dans ce point. L’affirmation initiale est donc fausse : il n’existe aucun point ~xmax ∈ D ou la
fonction harmonique f peut atteindre son maximum. Ceci implique donc que le maximum doit
se trouver sur le bord du domaine δD. On tient exactement le même raisonnement pour le
minimum.
Conséquence :
Le précédent théorème nous indique que la seule solution de
∆f = 0 , ~r ∈ D , CL : f = 0 , ~r ∈ δD
doit être f = 0 partout.

3.2.3 Solutions séparables

Cas 2D : coordonnées Cartésiennes (x, y)

On cherche les solutions de


∂2f ∂2f
+ =0
∂x2 ∂y 2
On propose la solution séparable f (x, y) = X(x)Y (y) qui doit alors satisfaire
X 00 (x)Y (y) + X(x)Y 00 (y) = 0
On divise cette expression par XY afin de trouver
X 00 (x) Y 00 (y)
+ =0
X(x) Y (y)
| {z } | {z }
f de x f de y
Les deux termes doivent s’annuler et comme chaque terme dépend de soit x, soit y, on doit
nécessairement avoir
X 00 (x) Y 00 (y)
=− =σ , σ∈C
X(x) Y (y)
On appelle σ, une constante de séparation et à priori elle peut être complexe et prendre n’importe
quelle valeur (même 0). Le ou les valeurs que σ prendra, dépendra entièrement des conditions
aux limites imposées au bord du domaine.
Pour ce problème d’ordre 2, on choisit souvent σ = −k 2 ou σ = K 2 , car ceci facilite l’écriture
de la solution. Prenons par exemple σ = −k 2 . On trouve alors 2 EDO’s :
X 00 (x) + k 2 X(x) = 0
Y 00 (y) − k 2 Y (y) = 0
que l’on peut résoudre séparément.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
90 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

a. Si k 6= 0, on trouve par exemple

X(x) = A+ eikx + A− e−ikx


Y (y) = B+ eky + B− e−ky

avec A± , B± des constantes arbitraires. Cette forme de la solution suggère une structure
exponentielle le long de y, avec une dépendance sinus- et cosinusoı̈dale le long de x, mais
attention, k ∈ C et on peut très bien avoir l’inverse (remplacer k = iK par exemple)
b. Le cas k = 0, nécessite un traitement à part et correspond aux solutions

X(x) = A1 + A2 x
Y (y) = B1 + B2 y

avec A1 , A2 , B1 , B2 des constantes arbitraires.

Suite à la linéarité, on peut enfin superposer une infinité de ces solutions séparables. Une
solution générale en coordonnées Cartésiennes du problème de Laplace est donc
Xh i
f (x, y) = (A1 + A2 x)(B1 + B2 y) + B+ (k) eky + B− (k) e−ky eikx
k∈C0

Cette somme sur k, peut se remplacer par une intégrale, si on veut faire une superposition d’un
continuum de valeurs de k. Remarque également que les constantes B± (k) sont en fait des fonc-
tions de k.

Exemple comment une CL fixe la solution :


Dans la plupart de vos futurs calculs, vous allez rarement écrire la forme générale de la solu-
tion avant d’appliquer les conditions aux limites. Vu la quantité énorme de solutions séparables,
il est préférable de garder un oeil sur ces CL afin d’y trouver des indications sur les bonnes
valeurs de k.
On donne un exemple simple. On cherche la solution d’un problème de Laplace dans un
domaine semi-infini :
D : x ∈] − ∞, +∞[ , y ∈] − ∞, 0]
avec les conditions aux limites (ou de régularité)
1 ix
e + e−ix

CL : f (x, 0) = cos x = , lim f (x, y) = 0
2 y→−∞

Si on regarde la condition en y = 0, on voit directement qu’une partie de la solution aura


certainement k = ±1. Essayant donc la solution

f (x, y) = B+ (1)ey + B− (1)e−y eix + B+ (−1)ey + B− (−1)e−y e−ix


   

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 91

1
0.5

f(x,y)
0
−0.5
−1
0
−2 10
−4 0
y −6 −10
x

Figure 3.1 – Solution (3.2) du problème de Laplace en 2D et en coordonnées Cartésiennes .


Sur le bord y = 0, on trouve les oscillations ∼ cos x imposées par les conditions aux limites.
L’oscillation décroit exponentiellement pour y → −∞

Pour satisfaire la régulatité en y → −∞, on doit écarter la partie y qui diverge : B− (±1) = 0.
Il reste alors
f (x, y) = B+ (1)eix + B+ (−1)e−ix ey
 

Afin de satisfaire la CL en y = 0, on doit nécessairement avoir B+ (±1) = 1/2 et on connait


donc la solution
f (x, y) = ey cos x (3.2)
de notre problème. On montre cette solution dans la figure 3.1.

Cas 2D : coordonnées polaires (ρ, φ)

On cherche les solutions de


1 ∂2f
 
1 ∂ ∂f
ρ + =0
ρ ∂ρ ∂ρ ρ2 ∂φ2
On injecte la solution séparable f (ρ, φ) = R(ρ) Φ(φ) dans l’EDP :
(ρR0 )0 Φ RΦ00 ρ (ρR0 )0 Φ00
+ 2 =0 ⇔ + =0
ρ ρ R } |{z}
| {z Φ
f de ρ f de φ
Dans la dernière manipulation, on a multiplié l’équation avec ρ2 /RΦ. On voit alors que le premier
terme ne dépend que de ρ le deuxième seulement de φ : on peut donc de nouveau les identifier
à une constante de séparation, ce qui produit deux EDO’s pour les fonctions R et Φ :
ρ (ρR0 )0 Φ00
 2 00
2 ρ R (ρ) + ρR(ρ) − m2 R(ρ) = 0
=− =m ⇔
R Φ Φ00 (φ) + m2 Φ(φ) = 0
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
92 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

2
1
1 0.5
f(x,y)

f(x,y)
0 0

−1 −0.5
−1
−2
1 1
1 1
0 0
0 0
y −1 −1 y −1 −1
x x

(a) m = 1 (b) m = 2

0.5
1
0.5
f(x,y)

f(x,y)

0 0
−0.5
−1
−0.5
1 1
1 1
0 0
0 0
y −1 −1 y −1 −1
x x

(c) m = 3 (d) m = 6

Figure 3.2 – Solution (3.3) du problème de Laplace en 2D et en coordonnées polaires et pour


diverses valeurs du nombre m azimuthal. On voit que m décompte le nombre de longueurs d’onde
dans la direction azimuthale.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 93

La solution est différente selon la valeur de m :


a. Si m 6= 0, on constate que R(ρ) = ρα est possible si α = ±m. Pour Φ(φ) on voit
immédiatement que ceci sera une fonction trigonométrique :

R(ρ) = A+ ρm + A− ρ−m
Φ(φ) = Bc cos mφ + Bs sin mφ = C+ eimφ + C− e−imφ

Contrairement au cas Cartésien, la valeur de la constante de séparation est moins générale


ici. La périodicité de la coordonnée φ exige que

Φ(φ) = Φ(φ + 2π) ⇒ e±im2π = 1

et donc m ∈ Z un entier. On appelle ce nombre m, nombre d’onde azimuthal. Il


spécifie combien de fois la structure se répète pour φ allant de 0 à 2π.
b. Si m = 0, la solution est différente. On trouve

R(ρ) = C1 + C2 lnρ
Φ(φ) = D1 + D2 φ

Suite à la périodicité, on doit avoir D2 = 0. Cette solution est donc indépendante de φ,


on dit que c’est la solution axisymétrique.

En résumé, on trouve la solution générale :


X 
A+ (m) ρm + A− (m) ρ−m eimφ

f (ρ, φ) = C1 + C2 lnρ +
m∈Z0

Les coefficients A± (m) peuvent être différents pour chaque m.


Exercice :
On décide que le domaine sur lequel on résoout le problème de Laplace est celui d’un disque

D : ρ ∈ [0, R] , φ ∈ [0, 2π[

Trouver la solution qui satisfait les conditions aux limites/de regularité

∂f
CL : |f (0, φ)| =
6 ∞ , (R, φ) = cos mφ , m ∈ Z0
∂ρ

La solution est
ρm sin mφ
f (ρ, φ) = (3.3)
mRm−1
On montre ce champ pour R = 1 et plusieurs valeurs de m dans la figure 3.2.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
94 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Cas 3D : Coordonnées Cartésiennes (x, y, z)

On cherche les solutions de


∂2f ∂2f ∂2f
+ + =0
∂x2 ∂y 2 ∂z 2
On propose la solution séparable f (x, y, z) = X(x)Y (y)Z(z) qui doit alors satisfaire
X 00 Y 00 Z 00
X 00 Y Z + XY 00 Z + XY Z 00 = 0 ⇒ + + =0
X
|{z} Y
|{z} Z
|{z}
f de x f de y f de z
Ceci n’est possible que lorsque

X 00 (x) + kx2 X(x) = 0


Y 00 (y) + ky2 Y (y) = 0
Z 00 (z) + kz2 Z(z) = 0 avec kx2 + ky2 + kz2 = 0

Une possible forme de la solution générale du problème sera


X h √ 2 2 √ 2 2 i
f (x, y, z) = (Ax+B)(Cy +D)(Ez +F )+ G+ (kx , ky )e kx +ky z + G− (kx , ky )e− kx +ky z
kx ,ky ∈C0
q
où on a remplacé kz = kx2 + ky2 . Remarque que 2 constantes de séparation kx , ky peuvent varier
dans cette solution générale. D’autrespformes équivalentes de la solution existent si on garde par
exemple kx , kz pour remplacer ky = kx2 + kz2 .
Exercice :
Le domaine est un espace semi infini

D : x, y ∈] − ∞, +∞[ , z ∈] − ∞, 0]

Trouver la solution qui satisfait la condition aux limites

CL : f (x, y, 0) = cos x cos y , lim f (x, y, z) = 0


z→−∞

Cas 3D : Coordonnées cylindriques (ρ, φ, z)

On cherche des solutions séparables de


1 ∂2f ∂2f
 
1 ∂ ∂f
ρ + 2 2 + 2 =0
ρ ∂ρ ∂ρ ρ ∂φ ∂z
On injecte la proposition f (ρ, φ, z) = R(ρ)Φ(φ)Z(z) dans cette EDP. On obtient alors

(ρR0 )0 ΦZ RΦ00 Z (ρR0 )0 Φ00 Z 00


+ + RΦZ 00 = 0 ⇔ + 2 + =0
ρ ρ2 ρR ρ Φ Z
| {z } |{z}
f de ρ et φ f de z

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 95

On peut donc introduire une première constante de séparation car il faut nécessairement

(ρR0 )0 Φ00 Z 00
+ 2 =− = −k 2
ρR ρ Φ Z
avec k ∈ C quelconque. Ceci donne pour la structure en z

C+ ekz + C− e−kz , k 6= 0

Z(z) =
C1 + C2 z , k = 0

Ensuite il reste à séparer la partie de l’EDP qui décrit la dépendance en ρ et φ :

(ρR0 )0 Φ00 ρ (ρR0 )0 Φ00


 
2 2 2
+ 2 +k =0 ⇒ +k ρ + =0
ρR ρ Φ R Φ
| {z } |{z}
f de ρ f de φ

d’où une deuxième constante de séparation

ρ (ρR0 )0 Φ00
+ k 2 ρ2 = = −m2
R Φ
Pour la dépendance en φ on trouve

D+ eimφ + D− e−imφ , m ∈ Z0

Φ(φ) =
D1 , m = 0

La φ-périodicité fixe les valeurs des nombres d’onde azimuthaux m à des entiers. Reste encore
la structure radiale qui satisfait
0
ρ ρR0 + (m2 + k 2 ρ2 )R = 0

qui est une équation de Bessel si k 6= 0. Si k = 0, l’EDO est identique à celle rencontrée dans le
cas 2D des coordonnées polaires. On connait donc la solution

 E1 Jm (kρ) + E2 Ym (kρ) , k 6= 0
R(r) = F+ ρm + F− ρ−m , k = 0 , m 6= 0
G1 + G2 lnρ , k = 0 , m = 0

Avec ces différentes solutions, on peut arriver à une solution générale qui se laisse écrire comme
 
X
F+ (m)ρm + F− (m)ρ−m eimφ  (C1 + C2 z)

f (ρ, φ, z) = (G1 + G2 lnρ) +
m∈Z0
X X
+ [E1 (k, m)Jm (kρ) + E2 (k, m)Ym (kρ)] eimφ ekz
m∈Z k∈C0

De nouveau, on peut arriver à d’autres formes de la solution, compte tenu du fait que k ∈ C0 .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
96 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Cas 3D : Coordonnées sphériques (r, θ, φ)

On cherche à résoudre
∂2f
   
1 ∂ 2 ∂f 1 ∂ ∂f 1
r + sin θ + =0
r2 ∂r ∂r r2 sin θ ∂θ ∂θ r2 sin2 θ ∂φ2
et on propose f (r, θ, φ) = R(r)Θ(θ)Φ(φ) comme solution. Injectée dans l’EDP on arrive à séparer
une partie en r, d’une partie en θ, φ :

(r2 R0 )0 Θ Φ R (sin θ Θ0 )0 Φ R Θ Φ00 (r2 R0 )0 (sin θ Θ0 )0 Φ00


+ + =0 ⇒ + + =0
r2 r2 sin θ r2 sin2 θ R } | sin θ Θ {z sin2 θ Φ}
| {z
f de r f de θ, φ
On peut donc introduire une première constante de séparation

(r2 R0 )0 (sin θ Θ0 )0 Φ00


− = + = −n(n + 1)
R sin θ Θ sin2 θ Φ
La forme spécifique de cette constante −n(n + 1) mène aux solutions désirées, mais pour la
comprendre il faut aller vers la fin du calcul. Proposant R(r) = rα , on trouve directement que
α = n, −n − 1 sont les seules possibilités. La dépendance radiale doit donc être

R(r) = A+ rn + A− r−n−1

Reste à séparer les dépendances en θ et φ. Nous avons


(sin θ Θ0 )0 Φ00 sin θ(sin θ Θ0 )0 Φ00
 
2
+ = −n(n + 1) ⇒ + n(n + 1) sin θ + =0
sin θ Θ sin2 θ Φ Θ Φ
|{z}
| {z }
f de θ f de φ

on choisit ici
sin θ(sin θ Θ0 )0 Φ00
 
+ n(n + 1) sin2 θ =− = m2
Θ Φ
On reconnait alors
C+ eimφ + C− e−imφ , m 6= 0

00 2
Φ +m Φ=0 ⇒ Φ(φ) =
C1 , m = 0

avec m ∈ Z exactement comme dans le cas des coordonnées cylindriques. Reste alors la dépendance
en θ, pour qui on doit avoir

m2
   
1 d dΘ
sin θ + n(n + 1) − Θ=0
sin θ dθ dθ sin2 θ
On peut simplifier cette EDO par un changement
√ de variable s = cos θ, avec s ∈ [−1, 1] pour
2
θ ∈ [0, π]. On a alors ds = − sin θ dθ et 1 − s = sin θ, ce qui ramène l’EDO à

m2
   
d 2 dΘ
(1 − s ) + n(n + 1) − Θ=0
ds ds 1 − s2
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 97

l’équation différentielle généralisée de Legendre. Les solutions régulières sur le domaine


s ∈ [−1, 1] sont les ”polynômes” de Legendre associés. On a donc

Θ(θ) = Pnm (cos θ)

Regardons quelques uns de ces fonctions de plus près, on constate que

P00 (cos θ) ∼ 1
P10 (cos θ) ∼ cos θ
P1±1 (cos θ) ∼ sin θ
P20 (cos θ) ∼ 3 cos2 θ − 1
P2±1 (cos θ) ∼ sin θ cos θ
P2±2 ∼ sin2 θ

Globalement on reconnait que Pnm (cos θ) est toujours composée de n multiplications de sin θ et
cos θ. En conclusion, on peut superposer toutes les solutions séparables trouvées, afin d’arriver

X X n
A+ (n, m) rn + A− (n, m) r−n−1 Pnm (cos θ) eimφ

f (r, θ, φ) =
| {z }
n∈N m=−n
Ynm (θ,φ)

Les regroupements Ynm (θ, φ) = Pnm (cos θ) eimφ sont connus sous le nom des harmoniques
sphériques. Ces fonctions jouent un rôle primordial en physique.
Pour vous permettre de vous faire une idée de ces harmoniques sphériques, on trace dans la
figure 3.4 la surface paramtérisée r = 1 +  Re(Ynm (θ, φ)), pour différentes valeurs de n et m. On
peut imaginer ici qu’il s’agit de différentes déformations d’une goutte d’eau.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
98 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

0
z

−1
1
1
0 0
y −1 −1 x

1 1

0 0
z

−1 −1
1 1
1 1
0 0 0 0
y −1 −1 x y −1 −1 x

1 1 1

0 0 0
z

−1 −1 −1
1 1 1
1 1 1
0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x

1 1 1 1

0 0 0 0
z

−1 −1 −1 −1
1 1 1 1
1 1 1 1
0 0 0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x

1 1 1 1 1

0 0 0 0 0
z

−1 −1 −1 −1 −1
1 1 1 1 1
1 1 1 1 1
0 0 0 0 0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x

Figure 3.3 – Visualisation de la surface r = 1 + Pnm (cos θ) cos(mφ), pour n = 0, 1, 2, 3, 4 du


haut vers le bas, pour m = 0, 1, 2, 3, 4 de la gauche vers la droite. L’amplitude  est adaptée
pour que le rayon maximal reste toujours rmax = 1.4.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.3. FONCTIONS PROPRES DU LAPLACIEN 99

3.3 Fonctions propres du Laplacien

3.3.1 Définition

Soit ψ une fonction solution du problème

− ∆ψ = λψ

dans un domaine D, où λ est un nombre a priori inconnu. Dans ce problème aux valeurs
propres, il s’agit d’identifier pour quelles valeurs de la quantité λ, appelée valeur propre,
il existe des solutions non nulles, appelées fonctions ou modes propres, ici de l’opérateur
différentiel −∆.
Dans ce problème d’ordre 2, on verra qu’en posant des conditions aux limites homogènes
de type Dirichlet, Neumann ou mixte, les valeurs propres λ peuvent être discrétisées (quan-
tifiées)

3.3.2 Fonction propres séparables

Cas des coordonnées Cartésiennes (x, y) et (x, y, z)

Cherchant ψ(x, y) = X(x)Y (y) on peut séparer le Laplacien comme avant :

X 00 Y 00
+ +λ = 0
X
|{z} Y
|{z}
f de x f de y

On peut alors introduire deux constantes de séparation k 2 , l2 à priori dans C et obtenir


 00
X (x) + k 2 X = 0
et λ = k 2 + l2
Y 00 (x) + l2 Y = 0

Les solutions sont 


As sin kx + Ac cos kx , k 6= 0
X(x) =
A1 + A2 x , kx = 0

Bs sin ly + Bc cos ly , l 6= 0
Y (y) =
B1 + B2 y , l=0

En conclusion, à la valeur propre λ = k 2 + l2 , on peut donc associer toutes les fonctions propres


 (As sin kx + Ac cos kx)(Bs sin ly + Bc cos ly) , k, l 6= 0



ψ(x, y; k, l) = (A1 + A2 x)(Bs sin ly + Bc cos ly) , k = 0, l 6= 0 (3.4)




(As sin kx + Ac cos kx)(B1 + B2 y) , k = 6 0, l = 0

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
100 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

On introduit cette notation ψ(x, y : k, l) pour bien spécifier que chaque k et l produisent une
autre fonction propre. Sans spécification des CL, les constantes k, l peuvent prendre des valeurs
dans le continuum complexe, k, l ∈ C. En conséquence, la valeur propre λ ∈ C aussi.

Effet d’une CL Dirichlet homogène sur un rectangle :


Si on travaille danc un domaine fermé et rectangulaire

D : x ∈ [0, Lx ] , y ∈ [0, Ly ]

et on souhaite que f satisfasse une CL de Dirichlet homogène sur son bord



X(0) = X(Lx ) = 0
ψ|δD = 0 ⇒ ψ(0, y) = ψ(Lx , y) = ψ(x, 0) = ψ(x, Ly ) = 0 ⇒
Y (0) = Y (Ly ) = 0

Ceci impose que


Ac = A1 = A2 = 0 , Bc = B1 = B2 = 0
et
As sin kLx = 0 , Bs sin lLy = 0
Clairement As = Bs = 0 ne mène pas à d’autres solutions que la solution triviale. Il fait donc
que sin kLx = 0 et sin lLy = 0 ce qui nécessite
mπ nπ
k= , l= , m, n ∈ N0
Lx Ly

L’effet des conditions aux limites, est donc de réduire le continuum de valeurs k, l ∈ C a un jeu
discret, c.a.d. dénombrable par des entiers, ici m et n.
En conclusion : du continuum de fonctions propres du Laplacien (3.4), les conditions aux
limites en filtrent beaucoup. La famille de fonctions propres qui satisfait les CL’s est :
 2  2
mπx nπy mπ nπ
ψmn (x, y) = sin sin , λmn = + , ∀m, n ∈ N0 (3.5)
Lx Ly Lx Ly

On introduit des suffixes mn pour mieux noter qu’il s’agit d’un ensemble dénombré pour des
indices discrets. Remarque d’ailleurs que les valeurs propres sont toutes positives et toutes
différentes pour Lx 6= Ly . Dans la figure 3.4, on montre quelques fonctions propres ψmn (x, y)
pour plusieurs valeurs de m, n. On reconnait que m et n décomptent le nombre de demi-longueurs
d’ondes dans les directions x et y.

Exercice : Effet d’une CL Neumann homogène sur un rectangle


Remplacer la condition aux limites par une CL de Neumann homogène et trouver les fonctions
propres et les valeurs propres associées. Solution :
 2  2
mπx nπy mπ nπ
ψmn (x, y) = cos cos , λmn = + , ∀m, n ∈ N
Lx Ly Lx Ly
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
3.3. FONCTIONS PROPRES DU LAPLACIEN 101

1 1 1

0.5 0.5 0.5

ψmn(x,y)

ψmn(x,y)

ψmn(x,y)
0 0 0

−0.5 −0.5 −0.5

−1 −1 −1
2 2 2
1 1 1
0.5 1 0.5 1 0.5 1
0 0 x 0 0 x 0 0 x
y y y

(a) m = 1, n = 1 (b) m = 1, n = 2 (c) m = 2, n = 1

0.5
ψmn(x,y)

−0.5

−1
2
1
0.5 1
0 0 x
y

(d) m = 2, n = 2

Figure 3.4 – Visualisation des fonctions propres ψmn (x, y) de (3.5) pour m = 1, 2 et n = 1, 2.

Exercice : Fonctions propres du Laplacien en 3D + CL Dirichlet


Trouver les fonctions propres du Laplacien en 3D, satisfaisant f |δD = 0 sur les bords d’un
domaine cubique
D : x ∈ [0, Lx ] , y ∈ [0, Ly ] , z ∈ [0, Lz ]
Solution :
 2  2  2
mπx nπy nπz mπ nπ lπ
ψmnl (x, y, z) = sin sin sin , λmnl = + + , ∀m, n, l ∈ N0
Lx Ly Lz Lx Ly Lz

Cas des coordonnées cylindriques (ρ, φ, z)

En 3D et en coordonnées cylindriques ψ(ρ, φ, z), on arrive sur

(ρR0 )0 Φ00 Z 00
+ 2 + +λ=0
ρR ρ Φ Z

en séparant le problème aux valeurs propres. A l’aide de trois constantes de séparation k 2 , m2 ,


l2 on peut arriver sur
0
 ρ (ρR0 ) + (m2 + k 2 ρ2 )R =

0
Φ00 + m2 Φ = 0 et λ = k 2 + l2
Z 00 + l2 Z = 0

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
102 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Pour k 6= 0, l 6= 0 ceci mène à des fonctions propres


h ih i
ψ(r, θ, φ; k, m, l) = [A1 Jm (kρ) + A2 Ym (kρ)] B+ eimφ + B− e−imφ C+ eilz + C− e−ilz

qui ont toutes la valeur propre λ = k 2 + l2 . Ici aussi, on peut avoir k, l ∈ C à priori, mais m ∈ Z
toujours. Trouvez-vous même les autres fonctions propres pour l = 0 ou pour k = 0.

Effet d’une CL Dirichlet homogène sur le cylindre :


Le domaine est l’intérieur d’un cylindre

D : ρ ∈ [0, Rc ] , φ ∈ [0, 2π[ , z ∈ [0, H]

Imposer une condition de Dirichlet homogène f |δD = 0, revient à exiger que

R(Rc ) = 0 , Z(0) = 0 , Z(H) = 0

Sur l’axe ρ = 0, nous avons une condition de régularité

lim |R(ρ)| =
6 ∞
ρ→0

Pour la fonction Z(z), on trouve



C+ + C− = 0 1 1
⇒ = −2i sin lH = 0
C+ e + C− e−ilH = 0 e−ilH

ilH eilH

d’où

, n ∈ N0
l=
H
Dans la dépendance radiale, la condition de régularité impose A2 = 0, car la fonction Ym (kρ)
diverge à l’axe ρ = 0. En conséquence, il nous reste
ζjm
Jm (kRc ) = 0 ⇒ k= , j ∈ N0
Rc
Posant Jm (ζjm ) = 0, on peut trouver une infinité de zéros, que l’on notera ici ζjm , m ∈ Z , j =
1, 2, . . .. Ceci est illustré dans la figure 3.5. Ces zéros peuvent être calculés (numériquement) et
fixent (quantifient) ici donc les valeurs du nombre d’onde radial k. Les fonctions propres qui
satisfont les conditions limites spécifiées sont
2
ζjm ρ ζjm
   nπz    nπ 2
imφ
ψjmn (ρ, φ, z) = Jm e sin , λ= + ∀j, n ∈ N0 , m ∈ Z
Rc H R H
(3.6)
Il s’agit d’une famille de fonctions, dénombrable par 3 nombres
 ζ m ρ  entiers j, m, n. Dans la figure
3.6, nous montrons la structure spatiale des fonctions Jm Rj c cos(mφ), pour plusieurs valeurs
de m et de j.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.3. FONCTIONS PROPRES DU LAPLACIEN 103

0.6

J1 (x)
0.4

0.2
ζ11 ζ12 ζ1 ζ1
3 4
0

−0.2

−0.4
0 5 10 15
x

Figure 3.5 – Fonction de Bessel J1 (x) en fonction de x. On montre ici les zéros ζj1 , pour
j = 1, 2, 3, 4 qui interviennent dans les fonctions propres (3.6)

1 1 1

0.5 0.5 0.5

0 0 0

−0.5 −0.5 −0.5

−1 −1 −1

0.5 1 0.5 1 0.5 1


0 0.5 0 0.5 0 0.5
−0.5 0 −0.5 0 −0.5 0
−0.5 −0.5 −0.5
y x y x y x

(a) m = 0, j = 1 (b) m = 1, j = 1 (c) m = 2, j = 1

1 1 1

0.5 0.5 0.5

0 0 0

−0.5 −0.5 −0.5

−1 −1 −1

0.5 1 0.5 1 0.5 1


0 0.5 0 0.5 0 0.5
−0.5 0 −0.5 0 −0.5 0
−0.5 −0.5 −0.5
y x y x y x

(d) m = 0, j = 2 (e) m = 1, j = 2 (f) m = 2, j = 2

 ζmρ 
Figure 3.6 – Structure spatiale des fonctions Jm Rj c cos(mφ) qui interviennent dans les
fonctions propres (3.6). On choisit Rc = 1 et plusieurs valeurs de m et j. Le nombre m décompte
le nombre de longueurs d’onde dans la direction azimuthale. Le nombre j décompte le nombre
de fois que la fonction radiale passe par zéro pour ρ ∈]0, Rc ].

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
104 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Cas des coordonnées sphériques (r, θ, φ)

En 3D et en coordonnées sphériques, la recherche de solutions séparables du problème de


Helmholtz mène directement à
(r2 R0 )0 (sin θ Θ0 )0 Φ00
+ λr2 + + 2 =0
| R {z } | sin θ Θ {z sin θ Φ}
f de r f de θ, φ
En choisissant la constante de séparation
(r2 R0 )0 (sin θ Θ0 )0 Φ00
 
2
+ λr = − + = n(n + 1)
R sin θ Θ sin2 θ Φ
on remarque immédiatement qu’on va arriver exactement sur la même dépendance en (θ, φ) que
dans le problème de Laplace. La dépendance en (θ, φ) sera donc décrite par les harmoniques
sphériques Ynm (θ, φ) = Pnm (cos θ)eimφ . Reste donc à résoudre

(r2 R0 )0 − n(n + 1)R + λr2 R = 0

Cette équation est une EDO de Bessel sphérique avec comme solution :

R(r) = A1 jn (kr) + A2 yn (kr) avec λ = k2

En conclusion, les fonctions propres du Laplacien en coordonnées sphériques sont

ψ(r, θ, φ; k, n, m) = [A1 jn (kr) + A2 yn (kr)] Pnm (cos θ) eimφ

avec n ∈ N, m ∈ [−n, n] et ont une valeur propre associée λ = k 2 .

Effet d’une CL Dirichlet homogène sur la sphère :


On suppose que notre domaine est l’intérieur d’une sphère de rayon Rs . Au centre r = 0, il
faut poser une condition de régularité

lim |R(r)| =
6 ∞
r→0

Afin d’écarter les solutions yl (kr) qui divergent au centre, nous avons donc A2 = 0. Imposer la
condition limite de Dirichlet homogène revient à exiger la CL.
ξj
R(Rs ) = 0 ⇒ jl (kRs ) = 0 ⇒ k= , j ∈ N0
Rs
Ici aussi, on introduit une notation ξnj , j = 1, 2, . . . , n ∈ N pour l’infinité de zéros des fonctions
de Bessel sphérique : jn (ξnj ) = 0. On peut les calculer numériquement et leur valeurs fixent donc
les nombres d’ondes radiaux k. La famille de fonctions propres satisfaisant les CL est donc

ξnj 2
   
ξnj r m
ψjnm (r, θ, φ) = jn Yn (θ, φ) pour λ = ∀j ∈ N0 , n ∈ N , m ∈ Z
Rs Rs
Il s’agit d’une famille de fonctions, dénombrable par 3 nombres entiers j, n, m.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.3. FONCTIONS PROPRES DU LAPLACIEN 105

3.3.3 Propriétés générales des modes propres de ∆

L’opérateur ∆ est un exemple d’un opérateur différentiel auto-adjoint. De ceci découlent un


ensemble de propriétés utiles que l’on peut exploiter dans le calcul. On montre quelques uns de
ces propriétés dans le cadre restreint de l’opérateur Laplacien. Ces propriétés seront utilisées par
la suite.
On considère donc le problème aux valeurs propres du Laplacien, dans un domaine quel-
conque D. Sur le bord δD, on suppose que des conditions de type Dirichlet ou Neumann (ou
mixtes) homogènes soient satisfaites. Notons brièvement
{λκ , ψκ (~r)}
la famille dénombrable des fonctions propres et leurs valeurs propres associées. Un seul suffix
κ (au lieu de 1,2 ou 3) est utilisé pour raccourcir la notation. Il est possible que les fonctions
ψκ ∈ C, on notera ψ κ le complexe conjugué de cette fonction.

Réalité des valeurs propres

Toutes les valeurs propres λκ seront réelles.


Preuve :
On écrit les équations satisfaites par ψκ et le complexe conjugué ψ κ
− ∆ψκ = λκ ψκ , −∆ψ κ = λ̄κ ψ κ
On multiplie la première équation avec ψ̄κ et la deuxième avec ψκ et on prend la différence des
deux expressions :  
− ψ κ ∆ψκ − ψκ ∆ψ κ = λκ − λκ ψ κ ψκ
| {z }
|ψκ |2
Le terme de gauche se laisse manipuler avec un minimum de calcul vectoriel :
f ∆g = f (∇ · ∇g) = ∇ · (f ∇g) − ∇f · ∇g
pour 2 fonctions f et g quelconques. Grâce à cette propriété on peut arriver sur
− ∇ · ψ κ ∇ψκ − ψκ ∇ψ κ = λκ − λκ |ψκ |2
 

Si on intègre ceci sur le domaine, le coté gauche se simplifie à une intégrale de surface
Z I
 
− ∇ · ψ κ ∇ψκ − ψκ ∇ψ κ dD = − ψ κ ∇ψκ − ψκ ∇ψ κ · ~n dS = 0
D δD

utilisant le théorème de divergence (Ostrogradsky). Cette intégrale sur le bord δD = S est


toujours nulle pour des CL homogènes de type Dirichlet, Neumann ou mixtes. Ceci implique
que Z
|ψκ |2 dD = 0

λκ − λκ
D
| {z }
>0

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
106 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

L’intégrale étant de signe positif et jamais nulle, on doit avoir



λκ − λκ = 0 ⇔ Im(λκ ) = 0

En conséquence λκ ∈ R toujours.

Les valeurs propres sont toutes positives

On a λκ ≥ 0 toujours.
Preuve :
On multiplie l’équation −∆ψκ = λκ ψκ avec ψ κ , puis on intègre sur le volume. A l’aide du
même genre de manipulations que dans les démonstrations précédentes on arrive sur

||∇ψκ ||2 dD
Z Z R
2
∇ψκ · ∇ψκ dD = λκ |ψκ | dD ⇒ λκ = DR 2 ≥0
D D D |ψκ | dD

Remarque :
Afin d’avoir λκ = 0, il est nécessaire que ψκ = C soit une solution. Cette solution est admise
seulement avec des CL de Neumann homogènes. Remarque que λκ = 0 signifie qu’il s’agit en
faite d’une solution du problème de Laplace.

Orthogonalité des fonctions propres

Les fonctions propres sont orthogonales, vis à vis de l’intégrale


Z 
0 , κ 6= ν
ψ κ ψν dD =
Nκ , κ = ν
D

|ψκ |2 dD > 0 est un facteur de normalization.


R
Ici Nκ = D

Preuve :
On écrit les équations satisfaites par ψ ν et ψκ

− ∆ψ κ = λκ ψ κ , −∆ψν = λν ψν

On multiplie la première équation avec ψν , la deuxième avec ψ κ et on prend la différence des


deux expressions : 
− ψ κ ∆ψν − ψ κ ∆ψν = (λκ − λν ) ψ κ ψν
En intégrant sur le volume et en utilisant exactement les mêmes opération que dans la démonstration
précédente, on trouvera que Z
0 = (λκ − λν ) ψ κ ψν dD
D

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.4. AUTRES EDP’S FRÉQUEMMENT RENCONTRÉES EN PHYSIQUE 107

Si λκ 6= λν , alors on doit avoir Z


ψ κ ψν dD = 0
D

ce qui montre l’orthogonalité des fonctions propres qui ont des valeurs propres différentes.
Remarque :
Cette preuve n’en semble pas une, s’il existe des valeurs propres multiples. Ceci peut arriver
exceptionnellement dans certains domaines particuliers (exemple : cas Cartésien 2D, domaine
carré D : (x, y) ∈ [0, L] × [0, L] avec f |δD = 0 ) mais la propriété d’orthogonalité tient toujours.

Complétude (sans preuve)

L’ensemble L2 (D) des fonctions f dites carré-intégrables sur D, contient toutes les fonctions
pour lesquelles l’intégrale Z
|f |2 dD existe
D

ou autrement dit, ne diverge pas. Cet espace L2 (D) est de dimension infinie, signifiant que l’on
peut imaginer une infinité de fonctions linéairement indépendantes membres de cet espace.
L’ensemble {ψκ } est complet pour l’espace L2 (D) : toute fonction f ∈ L2 (D) peut être
décomposée comme Z
X 1
f= Cκ ψκ avec Cκ = ψ κ f dD
κ

D

Les coefficients d’expansion Cκ sont uniques et peuvent être calculés à l’aide d’une intégrale,
suite à la propriété d’orthogonalité des fonctions propres ψκ . On dit qu’on projette la fonction
f sur la base des fonctions propres {ψκ }.

3.4 Autres EDP’s fréquemment rencontrées en physique

3.4.1 Le problème de Poisson

Définition

Une fonction f solution du problème

∆f = g

dans un domaine D et avec g une fonction connue, satisfait un problème de Poisson. Sur
le bord du domaine δD, on suppose des conditions limites (Dirichlet, Neumann, mixte) ou des
conditions de régularité.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
108 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

Une méthode de solution : expansion sur les fonctions propres

Le problème de Poisson ressemble à un problème de Laplace avec un second membre. La


solution générale sera trouvée comme la somme

f = fh + fp

avec fh une solution homogène, soit une solution du problème de Laplace et une solution
particulière fp solution du problème original. Plus spécifiquement, on peut tenter de résoudre

∆fh = 0 , où fh satisfait les CL demandées


∆fp = g , où fp satisfait des CL homogènes

La recherche des solutions fh a été traitée dans la section dédiée au problème de Laplace. Grâce
à la section dédiée aux fonctions propres ψκ , on peut chercher une solution particulière sous la
forme X
fp = Cκ ψκ
κ

où Z
1
Cκ = − ψ κ g dD
λκ Nκ
D

suite à la propriété d’orthogonalité des fonctions propres. Dans le cas de CL de Neumann, on


exclue de cette expansion le mode ψκ = C pour qui λκ = 0.

3.4.2 L’équation de diffusion

Définition

Une fonction f scalaire satisfait une équation de diffusion si


∂f
= α∆f + q
∂t
Ici α > 0 est le coefficient de diffusion et q une source qui dépend éventuellement du temps.
L’équation de diffusion est le plus souvent accompagné de CL de type Dirichlet ou Neumann
sur le bord d’un domaine D. Il est également nécessaire de spécifier une condition initiale

CI : f |t=t0 = f0

qui fixe la valeur du champ à f0 à un instant t0 donné, partout dans le domaine D.

Un cas particulier : décroissance pur d’un état initial

On donne un exemple particulier où il n’y a pas de sources q = 0 et où on a des conditions
limites homogènes sur les bords d’un domaine D. On souhaite décrire le devenir d’un état initial

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.4. AUTRES EDP’S FRÉQUEMMENT RENCONTRÉES EN PHYSIQUE 109

f0 quelconque (qui satisfait les CL du problème). Nous tentons une séparation espace-temps
sous la forme
f (~r, t) = ψ(~r) T (t)
qui nous ramène à
1 T0 ∆ψ
=
|α{zT} ψ
|{z}
f de t f de ~r
On peut alors introduire les égaliser à une constante de séparation −λ, afin d’obtenir
 0
T + αλT = 0
∆ψ + λψ = 0
La partie temporelle donne
T (t) = Ce−αλt
Le problème spatial n’a pas besoin d’un traitement particulier, car on reconnait immédiatement
le problème aux valeurs propres du Laplacien, traité en détail dans la section précédente. Chaque
valeur propre λ exige/fixe donc une valeur particulière de la constante de séparation, qui inter-
vient dans la partie temporelle. Avant de parler des CL et des CI, on peut donc écrire que
X
f (~r, t) = C(. . .) ψ(~r; . . .) e−αλt
...
La somme court sur toutes les possibles valeurs des constantes de séparation (noté . . .) dans la
fonction propre.
Si on impose des conditions aux limites homogènes sur les bords δD, celle-ci devront être
satisfaites à tout temps. Ceci sélectionne parmi les fonctions ψλ , celles qui satisfont les conditions
aux limites homogènes. Comme nous l’avons vu, cette opération sélectionne une famille discrète
de fonction propres, notées {ψκ }. Seuls des superpositions
X
f (~r, t) = Cκ ψκ (~r) e−αλκ t (3.7)
κ
satisfont les conditions aux limites dans ce problème. On retrouve ici les modes propres de
décroissance diffusive. Chaque structure spatiale ψκ décroit selon un taux d’amortissement αλκ
réel et positif, conséquence des propriétés Im(λκ ) = 0 et λκ ≥ 0. Un champ diffusif f non-soutenu
par une source ou des apports arrivant par les bords, est donc toujours destiné à décroitre, de
manière à effacer tout gradient.
Les constantes arbitraires Cκ qui apparaissent dans la solution (3.7), peuvent être fixées par
la condition initiale. Prenant t0 = 0 pour simplifier, celle-ci exigera que
X
f0 (~r) = Cκ ψκ (~r)
κ
Utilisant la propriété d’orthogonalité des fonctions propres {ψκ }, on arrive à fixer les coefficients
Ck . Il suffit de multiplier avec ψ ν et d’intégrer sur le domaine. Ceci donne
Z
1
Cκ = ψ κ f0 dD

D
En principe, on connait donc la solution et elle ne dépend plus d’aucune constante arbitraire.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
110 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

3.4.3 L’équation d’onde

Définition

La fonction f satisfait une équation d’onde si

1 ∂2f
= ∆f + s
c2 ∂t2
Ici c est la vitesse des ondes (non-dispersives) et s une source. Ce problème est souvent accom-
pagné de conditions de Dirichlet, Neumann ou mixte en paroi. Ces conditions traduisent alors
un comportement particulier de réflexion d’une onde arrivant en paroi. D’ordre 2 en temps, nous
avons également besoin de deux conditions initiales :

∂f
CI : f |t=t0 = f0 , = g0 (3.8)
∂t t=t0

si on souhaite spécifier comment le système évolue au temps ultérieur. f0 et g0 sont alors deux
fonctions indépendantes du temps et connues dans tout le domaine D.
Remarque :
Parfois on utilise, d’autres types de conditions supplémentaires telles que des conditions de
rayonnement. Dans ces conditions, dépendances spatiales et temporelles sont combinées. Ce type
de condition est utilisé pour imposer que des ondes ne peuvent pas venir de l’extérieur de la
zone d’intérêt.

Un cas particulier : ondes stationnaires

On regarde le cas particulier s = 0 avec des CL homogènes sur les bords d’un domaine fermé.
Une séparation espace temps
f (~r, t) = ψ(~r) T (t)
mène ici à
1 T 00 ∆F
2
=
|c {zT } F
|{z}
f de t f de ~r
Egalisé à une constante de séparation −λ, on obtiendra alors le système
 00
T (x) + c2 λT = 0
∆ψ + λψ = 0

La partie temporelle donne √ √


T (t) = C+ eic λt
+ C− e−ic λt

Le problème spatial est encore une fois celui des fonctions propres. On arrivera donc à
X √
C+ (. . .)eiωλ t + C− (. . .)e−iωλ t ψλ (~r; . . .) , ωλ = c λ

f (~r, t) =
...

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
3.4. AUTRES EDP’S FRÉQUEMMENT RENCONTRÉES EN PHYSIQUE 111

sans spécification de conditions aux limites et initiales. La somme court sur toutes les possibles
valeurs des constantes de séparation.
Imposant des CL homogènes, on réduit la superposition sur la famille discrète {ψκ }
X p
C+,κ eiωκ t + C−,κ e−iωκ t ψκ (~r) , ωκ = c λκ

f (~r, t) = (3.9)
κ

exactement comme dans le problème de diffusion traité ci-dessus. On retrouve ici des ondes
stationnaires à la structure ψκ . Ces ondes stationnaires, oscillent avec leurs fréquence propres
ωκ . Cette fréquence ωκ est d’ailleurs toujours réelle, conséquence des propriétés Im(λκ ) = 0 et
λκ ≥ 0.
Les constantes arbitraires C±,κ qui apparaissent dans la solution (3.9), peuvent être fixées
par les deux conditions initiales. Prenons t0 = 0 pour simplifier. Si on écrit explicitement les CI
(3.8), on obtient
X X
f0 (~r) = (C+,κ + C−,κ ) ψκ (~r) , g0 (~r) = iωκ (C+,κ − C−,κ ) ψκ (~r)
κ κ

Projection sur la base ψκ mène à un système linéaire 2 x 2 pour chaque κ, dont on calcule la
solution :
C±,κ = [Fκ ∓ iGκ /ωκ ]/2
avec Z Z
1 1
Fκ = ψ κ f0 dD , Gκ = ψ κ g0 dD
Nκ Nκ
D D

On connait donc la solution et elle ne dépend plus d’aucune constante arbitraire.

3.4.4 L’équation de Schrödinger

Définition

En mécanique quantique, l’équation de Schrödinger pour la fonction d’onde Ψ(~r, t) ∈ C


devient
∂Ψ ~2
i~ =− ∆Ψ + V Ψ
∂t | 2m {z }

b

Ici ~ = h/2π avec h la constante de Planck, m la masse de la particule et V (~r, t) l’énergie poten-
tielle. On appelle H
b l’opérateur Hamiltonien. La fonction d’onde est normalisé sur le domaine
Z
|Ψ|2 dD = 1
D

car la quantité |Ψ|2 dD traduit la densité de probabilité de trouver la particule dans un volume
élémentaire autour de ~r à temps t. Le domaine D est en principe toujours infiniment grand,

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
112 3. ÉQUATIONS DIFFÉRENTIELLES PARTIELLES

mais on peut faire une approximation limité à un domaine fini, si le potentiel V → +∞. Si on
s’intéresse au devenir d’un paquet d’ondes au cours du temps, il est nécessaire de donner une
condition initiale
CI : Ψ(~r, t0 ) = Ψ0 (~r)

Cas particulier : états propres & niveaux d’énergie

En faisant la séparation espace-temps, Ψ = ψ(~r) T (t), on obtient immédiatement que

T0 Hψ
b
i~ =
| {zT} ψ
|{z}
f de t f de ~r

La constante de séparation est prise égale à E, qui a la dimension d’une énergie


 0
T + i E~ T = 0

b − Eψ = 0

La partie temporelle donne


E
T (t) = Ce−i ~ t
La partie spatiale définit un problème aux valeurs propres, cette fois-ci pour l’opérateur différentiel
2
b =− ~ ∆+V
H
2m
Cet opérateur est différent du Laplacien mais proche tout de même. Dans le traitement de
l’atome d’hydrogène, on utilise un potentiel qui est

qe2
V (r) = −
4π0 r
avec qe la charge élémentaire et r la distance radiale séparant l’électron du noyau. Utilisant ce
potentiel à symétrie sphérique, on arrive à séparer ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ) comme dans les
exemples sur les coordonnées sphériques. Toute la dépendance angulaire restera la même et fera
apparaı̂tre les harmoniques sphériques

Θ(θ)Φ(φ) = Ynm (θ, φ)

La dépendance radiale sera par contre modifiée et nécessitera l’introduction de nouvelles fonc-
tions spéciales, les fonctions de Laguerre généralisées. Les conditions de régularité à l’infinie et
à l’origine discrétisent les valeurs propres = les niveaux d’énergie En .

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
4

Annexes : Rappels sur les


coordonnées cylindriques &
sphériques

4.1 Coordonnées cylindriques

Définition

On considère un repère Cartésien (O, ~ex , ~ey , ~ez ). La position d’un point M est alors décrite
par rapport à l’origine O, à l’aide d’un vecteur
−−→
~r = OM = x ~ex + y ~ey + z ~ez

Comme le montre le schéma, les coordonnées cylindriques (ρ, φ, z), sont définies par les relations

x = ρ cos φ , y = ρ sin φ

ou inversement
p y x
ρ= x2 + y 2 , φ = arcsin p = arccos p
x2 + y 2 x2 + y 2

La coordonnée z reste la même. Les coordonnées cylindriques varient dans les intervalles :

ρ ∈ [0, +∞[ , φ ∈ [0, 2π[ , z ∈] − ∞, +∞[

pour couvrir tout l’espace.


Les surfaces coordonnées sont respectivement des cylindres (ρ constant), des plan verticaux
(φ constant) comprenant l’axe ρ = 0, des plan horizontaux (z constant). Les lignes coordonnées
sont des cercles (ρ, z constant), des droites verticales (ρ, φ constant), des droites radiales (φ, z
constant).
114
4. ANNEXES : RAPPELS SUR LES COORDONNÉES CYLINDRIQUES & SPHÉRIQUES

Figure 4.1 – Coordonnées cylindriques ρ, φ, z

Base curviligne (~eρ , ~eφ , ~ez ) orthonormée

Les vecteurs du repère naturel sont obtenus en dérivant ~r(ρ, φ, z) :


∂~r
~eρ =
e = cos φ ~ex + sin φ ~ey
∂ρ
∂~r
~eφ =
e = −ρ sin φ ~ex + ρ cos φ ~ey
∂φ
∂~r
~ez =
e = ~ez
∂z
Ils spécifient les directions dans lesquelles les coordonnées ρ, φ, z augmentent. Les normes de ces
vecteurs définissent les facteurs d’échelle (hρ = 1, hφ = ρ, hz = 1) ou facteurs-h. Les vecteurs du
repère naturel orthonormé (O, ~eρ , ~eφ , ~ez ) sont alors
~eρ = cos φ ~ex + sin φ ~ey
~eφ = − sin φ ~ex + cos φ ~ey
~ez = ~ez
On peut constater l’orthogonalité de ces trois vecteurs, nous avons effectivement :
~eρ · ~eφ = ~eρ · ~ez = ~eφ · ~ez = 0
Sous le produit vectoriel, on trouve que
~eρ ∧ ~eφ = ~ez , ~eφ ∧ ~ez = ~eρ , ~ez ∧ ~eρ = ~eφ
Lors de l’utilisation d’un repère curviligne, il est très important de se rappeler que les vecteurs
du repère naturel varient dans l’espace. Ici ~eρ (φ) et ~eφ (φ) sont des fonctions de φ. Si on les dérive
par rapport à φ on remarquera que
∂~eρ ∂~eφ
= ~eφ , = −~eρ
∂φ ∂φ

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
4.1. COORDONNÉES CYLINDRIQUES 115

Eléments différentiels de ligne, surface et volume

Les éléments de ligne


d~r = dρ ~eρ + ρdφ ~eφ + d~ez + dz ~ez
de surface
~ρ = ρ dφ dz ~eρ
dS , ~φ = dρ dz ~eφ
dS , ~z = ρ dρ dφ ~ez
dS
de volume
dV = ρ dρ dφ dz

~ et gradient d’un champ scalaire


Opérateur ∇

~ est défini comme


L’opérateur ∇

~ = ~eρ ∂ + ~eφ 1 ∂ + ~ez ∂



∂ρ ρ ∂φ ∂z
Disposant d’un champ scalaire f (ρ, φ, z), on peut calculer son gradient comme

~ = ~eρ ∂f + ~eφ 1 ∂f + ~ez ∂f


∇f
∂ρ ρ ∂φ ∂z
Ceci définit un champ de vecteurs. On peut également calculer le gradient d’un champ de
vecteurs, ce qui définit un champ tensoriel d’ordre 2 à neuf composantes.

Divergence et rotationnel d’un champ de vecteurs

Soit F~ (ρ, φ, z) un champ vectoriel, décomposé sur la vecteurs du repère curviligne :

F~ (ρ, φ, z) = Fρ (ρ, φ, z)~eρ (φ) + Fφ (ρ, φ, z)~eφ (φ) + Fz (ρ, φ, z)~ez

On appelle Fρ , Fφ , Fz les composantes cylindriques du champ F~ . Remarque qu’on fait explicite-


ment apparaı̂tre les dépendances des coordonnées, ceci afin de mieux comprendre les opérations
suivantes.
La divergence du champ F~ est définie par l’opération

div F~ ~ ~
= ∇
 ·F  h
∂ 1 ∂ ∂ i
= ~eρ + ~eφ + ~ez · (Fρ (ρ, φ, z)~eρ (φ) + Fφ (ρ, φ, z)~eφ (φ) + Fz (ρ, φ, z)~ez
∂ρ ρ ∂φ ∂z
∂Fρ Fρ 1 ∂Fφ ∂Fz
= + + +
∂ρ ρ ρ ∂φ ∂z
1 ∂(ρFρ ) 1 ∂Fφ ∂Fz
= + +
ρ ∂ρ ρ ∂φ ∂z
∂~e
Le terme Fρ /ρ (qu’on a tendance à oublier) apparaı̂t à travers l’opération ~eφ · Fρ ∂φρ /ρ. Ce terme
est directement une conséquence du fait que ~eρ dépend de φ, que la base est curviligne.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
116
4. ANNEXES : RAPPELS SUR LES COORDONNÉES CYLINDRIQUES & SPHÉRIQUES

Le rotationnel du champ F~ est définie par l’opération

rot F~ ~ ∧ F~
= ∇

Par le même genre de processus, que ci-dessus on peut identifier que



~ ∧ F~
 ∂Fφ 1 ∂Fz
∇ = −
ρ ∂z ρ ∂φ

~ ∧ F~
 ∂Fz ∂Fρ
∇ = −
φ ∂ρ ∂z

~ ∧ F~
 1 ∂(ρFφ ) 1 ∂Fρ
∇ = −
z ρ ∂ρ ρ ∂φ

Laplacien d’un champ scalaire

Le Laplacien d’un champ scalaire est défini comme


~ = ∇2 f = ∆f
~ · ∇f

Combinant les formules pour le gradient et la divergence on trouve que le Laplacien d’un champ
f (ρ, φ, z) exprimé en coordonnées cylindriques est

1 ∂2f ∂2f
 
1 ∂ ∂f
∆f = ρ + 2 2+ 2
ρ ∂ρ ∂ρ ρ ∂φ ∂z

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
4.2. COORDONNÉES SPHÉRIQUES 117

Figure 4.2 – Coordonnées sphériques r, θ, φ

4.2 Coordonnées sphériques

Définition

Les coordonnées cylindriques r, θ, φ sont liées aux coordonnées Cartésiennes par les relations

x = r sin θ cos φ , y = r sin θ sin φ , z = r cos θ

ou inversément

p z
r = x2 + y 2 + z 2 ,
θ = arccos p
x2 + y 2 + z 2
y x
φ = arcsin p = arccos p
x2 + y 2 x2 + y 2

Elles varient dans les intervalles

r ∈ [0, +∞[ , θ ∈ [0, π] , φ ∈ [0, 2π[

Les surfaces coordonnées sont des spheres (r constant), des cones (θ constant) ou des plans
verticaux (φ constant) comprenant l’axe x = y = 0. Les lignes coordonnées, sont des cercles (r, θ
constant), des demi cercles (r, φ constant) et des droites partant de l’origine (θ, φ constant).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
118
4. ANNEXES : RAPPELS SUR LES COORDONNÉES CYLINDRIQUES & SPHÉRIQUES

Base curviligne (~er , ~eθ , ~eφ ) orthonormée

Le base du repère naturel est obtenue en dérivant ~r(r, θ, φ) :

∂~r
~er =
e = sin θ cos φ ~ex + sin θ sin φ ~ey + cos θ ~ez
∂r
∂~r
~eθ =
e = r cos θ cos φ ~ex + r cos θ sin φ ~ey − r sin θ ~ez
∂θ
∂~r
~eφ =
e = −r sin θ sin φ ~ex + r sin θ cos φ ~ey
∂φ
Calculant leur normes, on obtient hρ = 1, hθ = r, hφ = r sin θ. Les vecteur de la base curviligne
orthonormée sont alors

~er = sin θ cos φ ~ex + sin θ sin φ ~ey + cos θ ~ez


~eθ = cos θ cos φ ~ex + cos θ sin φ ~ey − sin θ ~ez
~eφ = − sin φ ~ex + cos φ ~ey

On peut facilement vérifier l’orthogonalité de ces trois vecteurs :

~er · ~eθ = ~er · ~eφ = ~eθ · ~eφ = 0

Sous le produit vectoriel, on trouve que

~er ∧ ~eθ = ~eφ , ~eθ ∧ ~eφ = ~er , ~eφ ∧ ~er = ~eθ

Les deux vecteurs ~er (θ, φ), ~eθ (θ, φ) dépendent de θ et φ. Le vecteur ~eφ ne dépend que de φ. On
peut trouver que :
∂~er ∂~er
= ~eθ , = sin θ ~eφ
∂θ ∂φ
∂~eθ ∂~eθ
= −~er , = cos θ ~eφ
∂θ ∂φ
∂~eφ ∂~eφ
=0 , = − sin θ ~er − cos θ ~eθ
∂θ ∂φ

Eléments différentiels de ligne, surface et volume

Les éléments de ligne


d~r = dr ~er + r dθ ~eθ + r sin θ dφ ~eφ
de surface
~r = r2 sin θ dθ dφ ~er
dS , ~θ = r sin θ dr dφ ~eθ
dS , ~φ = r dr dθ ~eφ
dS

de volume
dV = r2 sin θ dr dθ dφ

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
4.2. COORDONNÉES SPHÉRIQUES 119

~ et gradient d’un champ scalaire


Opérateur ∇

~ est défini comme


L’opérateur ∇

~ = ~er ∂ + ~eθ 1 ∂ + ~eφ 1




∂r r ∂θ r sin θ ∂φ
Disposant d’un champ scalaire f (r, θ, φ), on peut calculer son gradient comme

~ = ~er ∂f + ~eθ 1 ∂f + ~eφ 1 ∂f


∇f
∂r r ∂θ r sin θ ∂φ

Divergence et rotationnel d’un champ de vecteurs

Soit F~ (r, θ, φ) un champ vectoriel, décomposé sur la vecteurs du repère curviligne :

F~ (r, θ, φ) = Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)

On appelle Fr , Fθ , Fφ les composantes sphériques du champ F~ .


La divergence du champ F~ est définie par l’opération

div F~ ~ ~
= ∇
 ·F  h
∂ 1 ∂ 1 ∂ i
= ~er + ~eθ + ~eφ · Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)
∂r r ∂θ r sin θ ∂φ
∂Fr 2Fr 1 ∂Fθ cos θ Fθ 1 ∂Fφ
= + + + +
∂r r r ∂θ sin θ r r sin θ ∂φ
2
1 ∂(r Fr ) 1 ∂(sin θFθ ) 1 ∂Fφ
= + +
r2 ∂r r sin θ ∂θ r sin θ ∂φ

Le rotationnel du champ F~ , rot F~ = ∇


~ ∧ F~ mène par le même genre de processus à

~ ∧ F~
 1 ∂(sin θFφ ) 1 ∂Fθ
∇ = −
r r sin θ ∂θ r sin θ ∂φ

~ ∧ F~
 1 ∂Fr 1 ∂(rFφ)
∇ = −
θ r sin θ ∂φ r ∂r

~ ∧ F~
 1 ∂(rFθ ) 1 ∂Fr
∇ = −
φ r ∂r r ∂θ

Laplacien d’un champ scalaire

Combinant les formules pour le gradient et la divergence on trouve que le Laplacien d’un
champ f (r, θ, φ) exprimé en coordonnées sphériques est
∂2f
   
1 ∂ 2 ∂f 1 ∂ ∂f 1
∆f = 2 r + 2 sin θ + 2 2
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
120
4. ANNEXES : RAPPELS SUR LES COORDONNÉES CYLINDRIQUES & SPHÉRIQUES

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
Troisième partie

Transformation de Fourier
1

Transformation de Fourier au sens


des fonctions
1.1 Introduction

Il s’agit d’une transformation fonctionnelle c’est-à-dire qu’on associe à une fonction f


une autre fonction notée f˜ ou fb. L’idée est venue d’une généralisation de la représentation des
fonctions périodiques par un développement sinusoı̈dal (en série de Fourier) à des fonctions non
périodiques.
I Notation
On utilisera les notations suivantes pour désigner la transformée de Fourier d’une fonction f :
T ·F
f −→ f˜ = T F [f ] tranformée de Fourier de f .

Dans toute la suite, on notera x∗ le complexe conjugué de x, quelque soit le nombre complexe
x.

La transformée de Fourier, notée f˜ (lorsqu’elle est possible), est définie pour tout
k ∈ R, par
Z
f˜(k) = e−2πikx f (x) dx . (1.1)
R

De même, on définit la transformée de Fourier conjugée f˜∗ par


Z
f˜∗ (k) = (T F [f ])∗ (k) = e+2πikx f (x) dx .
R

I Remarque : l’intégrale R e±2πıkx f (x) dx n’existe pas toujours. Il se peut que, tout simple-
R

ment, la fonction f˜(k) n’existe pas ou qu’elle ne soit pas définie pour toutes les valeurs de k.
Par exemple, R e±2πikx x2 dx n’est définie pour aucune valeur de k, f (x) = x2 n’admet pas de
R

transformée de Fourier.
124 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

La transformée de Fourier inverse, , lorsqu’elle existe, exprime f (x), x ∈ R, comme une


somme ou une superposition linéaire de contributions en “fréquences” ou de “pulsations”
ou de “modes” k :
Z
f (x) = e2πikx f˜(k) dk . (1.2)
R

I Cette écriture n’est valable que sous certaines conditions : elle prendra son sens surtout
pour des phénomènes physiques mettant en jeu des périodicités (spaciale et/ou temporelle) et
plus généralement des temps et/ou longueur caractéristiques. La transformée de Fourier f˜(k)
représente l’amplitude de la sinusoı̈de de “fréquence” k dans f .

Nous allons voir le rôle des transformations de Fourier (au sens des fonctions) dans certaines
applications physiques, pour cela il faut avoir une idée des fonctions f souvent rencontrées.

? Dans les milieux continus, on a affaire à des densités de champs, de masse, ..., de quantité de
mouvement ou même d’énergie, une densité est en général définie par le rapport de la quantité
physique en question sur la quantité de volume du système,
quantité physique
densité = .
unité de volume

? En électrostatique, on calcule souvent l’énergie électrique totale à partir d’une densité d’énergie
électromagnétique dans le vide, laquelle est proportionnelle au module au carré du champ
électrique. Cette énergie donnée (dans le cas à une dimension, pour simplifier) par
Z
1
I= ε0 | E (x)|2 dx ,
2 |{z}
champ électrostatique

doit être finie, autrement dit, la fonction E(x) doit être une fonction de carré sommable.

? En mécanique quantique, on adopte l’interprétation probabiliste pour décrire une particule


par une fonction (d’onde) qui obéit à l’équation de Schrödinger. On associe à une particule
une fonction d’onde, ψ, telle que ψ(~x, t) représente l’amplitude de probabilité pour la particule
d’exister à la position ~x et à l’instant t, de sorte que |ψ(~x, t)|2 soit la densité de probabilité de
présence àu moment donné. Pour cela ψ(~x, t) doit être de carré sommable, de sorte à s’assurer
que la particule existe bien quelque part dans le volume physique donné par R3 ,
Z
|ψ(~x, t)|2 d3 x = 1 .
R3

? Les formalismes pour décrire tous les phénomènes de diffusion du rayonnement de la lumière,
des rayons X, ..., mais aussi, grâce à la dualité onde-corspuscule de la mécanique quantique, des
particules telles que les électrons, les neutrons ..., reposent sur la transformation de Fourier.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.2. INTÉGRALE DE LEBESGUE ET MESURE 125

? En traitement du signal : les circuits électroniques fonctionnent comme des opérateurs dont
on ne connaı̂t le spectre (c’est à dire l’ensemble des valeurs propres) que par transformation de
Fourier. En réalité, le traitement du signal discret a permis le développement de la transformation
de Fourier directe.

? La transformation de Fourier est limitée à une analyse globale en temps ou en pulsation (ω)
ou en fréquence : (filtre linéaire).
? La transformation de Fourier à fenêtre sert pour le traitement de l’information : “ondelettes”.

? Comme on l’a souvent réalisé, les équations décrivant la physique sont très souvent des
équations différentielles ou des équations aux dérivées partielles. Voici quelques exemples :
ρ(x)
• ∆φ(x) = − , pour l’équation de Poisson ou l’équation de continuité ;
ε0
∂C(x, t) ∂ 2 C(x, t)
• −∆ = 0 , pour l’équation de diffusion de lumière ;
∂t ∂x2
∂ψ(~x, t) ~ 2
• i~ =− ∆ψ(~x, t) + V (~x)ψ(~x, t) , pour l’équation de Schrödinger ;
∂t 2m
2
∂ U (x, t) 2
1 ∂ U (x, t)
• 2
− 2 = 0 , pour l’équation de propagation des ondes ; etc..
∂x v ∂t2
Si les équations sont linéaires et à coefficients constants, nous allons voir que la transformation
de Fourier de ces équations nous ramène à des équations algébriques simples.

I Pour notre étude de transformation de Fourier au sens des fonctions, on se limitera aux
fonctions de puissances p sommables (p = 1 sommables, p = 2 de carré sommables, . . .). Le terme
“sommable” fait référence à la théorie de l’intégration. Comme on vient de voir, la transformée de
Fourier s’appuie sur une intégration, par conséquent un bref rappel sur la mesure et intégrale est
nécessaire. Nous allons rappeler les définitions importantes de l’intégration au sens de Lebesgue.

1.2 Intégrale de Lebesgue et mesure

L’intégrale de Lebesgue est une extension de l’intégrale de Riemann. Toute fonction intégrable
au sens de Riemann l’est aussi au sens de Lebesgue (et le résultat de l’intégration est strictement
identique). L’ensemble des fonctions intégrables au sens de Lebesgue est plus large que celui des
fontions intégrables au sens de Riemann. Il existe plusieurs manuels dédiés qui permettent d’en
savoir plus sur la théorie de l’intégrale et de la mesure au sens de Riemann. Les définitions qui
suivent sont nécessaires pour définir de manière rigoureuse les intégrales qu’on utilise dans ce
cours.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
126 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

1.2.1 Mesure de Lebesgue

Définition 1 : la mesure
La mesure est une fonction notée généralement µ, définie sur un ensemble de parties d’un domaine
(qu’on appelle “ tribu”, dont les membres sont dits “mesurables”) à valeur positive ou nulle et
qui possède les propriétés suivantes :
— µ(∅) = 0 ;
— Pour toute famille dénombrable (c’est à dire indexée sur les entiers) d’ensembles (deux à
deux) disjoints appartenant à la “tribu”, on a
X
µ ( n An ) = µ(An ) . (1.3)
[

n
Par conséquent, la mesure est une fonction positive et croissante (par rapport à
l’inclusion des ensembles).

Définition 2 : fonction mesurable


Une fonction f : R → R̄ = R ∪ {−∞, +∞} est dite “mesurable” si quelque soit a ∈ R,
l’ensemble des x tels que f (x) = a est mesuré (c’est à dire que sa mesure existe).

Définition 3 : l’intégrale d’une fonction “étagée” ou fonction “escalier”


La fonction f escalier ou étagée est une succession de fonctions indicatrices (ou portes) Πi (x)
définies chacune sur son domaine Ei :

X 1 si x ∈ Ei = [ai , bi ] ,
f= αi Πi (x), avec αi ∈ R , et Πi (x) = (1.4)
0 partout ailleurs.
i

1.2.2 Intégrale de Lebesgue et fonctions sommables

Si une fonction f étagée est à valeur positive, on définit son intégrale par
Z X
f dµ = αi µ(Ei ) . (1.5)
i

I Soit une fonction g positive, on définit son intégrale sur un intervalle E par
Z Z 
gdµ = sup f dµ ; f fonction escalier avec 0 ≤ f ≤ g , (1.6)
E

c’est à dire la borne supérieure de l’ensemble des valeurs des intégrales des fonctions escalier
majorées par la fonction g.
I Considérons maintenant une fonction g mesurable et E un ensemble mesurable de R. On peut
définir les fonctions (positives) g ± (x) par :

g + = max(g, 0), et g − = max(−g, 0) . (1.7)

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.3. TRANSFORMATION DE FOURIER DANS L1 (R) 127

Définition 4 : intégrale au sens de Lebesgue :


Soient g une fonction mesurable Ret E un ensemble mesurable de R. On appelle intégrale au
sens de Lebesgue de g sur E , E g dµ, la quantité :

Z Z Z
g(x)dx = g + (x)dx − g − (x)dx. (1.8)
E E E

g + (x)dx −
R
(Autrement
R − dit, si |g| est intégrable, l’intégrale de Lebesgue de g sur E est donnée par E
E g (x)dx.)

Définition 5.
Soit f (x) une fonction définie dans R et à valeurs dans C, on dit qu’elle est p -sommable
si :
Z
|f (x)|p dx < ∞ . (1.9)
R

On note Lp (R) l’espace des fonctions p sommables.

Dans ce chapitre nous consacrons la première partie aux fonctions L1 (R) sommables, c’est
à dire intégrables au sens de Lebesgues. Le problème étant que la transfomée de Fourier d’une
fonction de L1 (R) n’existe pas toujours, on étendra dans la deuxième partie la notion de trans-
formée de Fourier aux fonctions de carré sommables, qui sont des éléments de L2 (R). On verra en
particulier que toute fonction de carré sommable possède une transformée de Fourier également
de carré sommable - on dira que la transformation de Fourier laisse L2 (R) stable 1 .

1.3 Transformation de Fourier dans L1 (R)

Définition 6.
Soit f ∈ L1 (R) (f est sommable). On appelle f˜(k) la transformation de Fourier de f , la
fonction à valeurs dans C définie ∀ k ∈ R par :
Z
T F [f ] ≡ f˜(k) = e−2iπkx f (x) dx . (1.10)
R

1. Un (sous-) espace vectoriel (F de) E est dit stable par un endomorphisme α quand α(F ) ⊂ F , autrement
dit, si ∀x ∈ F, α(x) ∈ F . Dans ce cours, l’endomorphisme en question est justement la transformation de Fourier.
L’espace des fonction sommables, L1 (R), n’est pas stable sous la transformation de Fourier alors que celui des
fonction de carré sommables, L2 (R), l’est.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
128 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

Remarque importante : de la définition Eq. (1.10), on remarque immédiatement que la


transformée de Fourier, f˜(k), si elle existe, est bornée :

Z Z
˜ −2iπkx

en effet, |f (k)| = e
f (x) dx ≤ |f (x)|dx < ∞ car f ∈ L1 (R) . (1.11)

R R

Remarque importante : la transformation de Fourier, si elle existe, converge vers 0 à l’infini


d’autant plus vite que la fonction est régulière 2 .

Exemples
* Considérons la fonction ”porte” Π(x) définie par

1 si x ∈ [a, b]
Π(x) = (1.12)
0 partout ailleurs,

Dans le traitement du signal, la fonction porte est définie sur l’intervalle [−1/2, 1/2] et a
pour transformée de Fourier :
sin(πx)
f˜(k) = . (1.13)
πx
* La fonction définie sur tout R par

f (x) = exp (−α|x|) , (1.14)

a pour transformée de Fourier



f˜(k) = . (1.15)
+ 4π 2 k 2α2
I On constate sur ces exemples que ces transformées de Fourier sont bornées, continues et
convergent vers 0 quand k → ±∞.

Remarque (un peu de physique) : en général x représente une longueur, un temps, ... et comme
(−2iπk x) (argument de l’exponentielle) doit être sans dimension, par conséquent , k représente
la variable conjuguée de x : impulsion, ou vecteur d’onde, ou même une pulsation (ou fréquence)
si x est un temps.

I Convention :
En physique on utilise plutôt cette convention :
Z
1
˜
f (k) = T F [f ](k) = √ f (x) e−ikx dx . (1.16)

| {z } R
↑ convention

2. Une fonction régulière est une fonction dérivable, sans points de singularité. Par exemple, une fonction
monotone est une fonction régulière.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.3. TRANSFORMATION DE FOURIER DANS L1 (R) 129

1.3.1 Propriétés

Les propriété suivantes sont très facile à établir, rien qu’ en appliquant la définition Eq. (1.10)
et en supposant que la transformée de Fourier existe pour une fonction f (x) définie dans
R.
a. Parité : la transformée de Fourier d’une fonction paire (impaire) est paire (impaire),
autrement dit, la parité se conserve lors d’une transformation de Fourier,

f → f˜
paire paire
impaire impaire

b. Si f est une fonction réelle alors sa transformée de Fourier vérifie f˜(k) = f˜∗ (−k)
(∗ désigne la conjugaison complexe) ; de plus, si f est une fonction telle que f (x) = f ∗ (−x)
alors f˜ est une fonction réelle.
c. Linéarité :

T F [f (x) + g(x)] = f˜(k) + g̃(k). (1.17)

d. Translation : une translation dans la variable x revient à une modulation de la trans-


formée de Fourier :

T F [f (x − x0 )] = e−2iπx0 k f˜(k) . (1.18)

e. Modulation : une modulation de la fonction f (x) revient à faire une translation dans
la variable k de la fonction transformée de Fourier :
h i
T F e2iπxk0 f (x) = f˜(k − k0 ) . (1.19)

f. Dilatation : très largement utilisée,

T F [f (x/λ)] = |λ|f˜(λk) . (1.20)

Par conséquent, la transformation de Fourier d’une fonction large est étroite et réciproquement.
Ainsi, par exemple, en optique on observe que la tache de diffraction créée par un dia-
phragme est d’autant plus grande que le rayon du diaphragme est petit.
Ces propriétés seront démontrées en séance de travaux dirigés.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
130 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

Théorème 1. (le plus important) : Lemme de Riemann-Lebesgue


La transformation de Fourier d’une fonction ∈ L1 (R), si elle existe, est bornée, continue
et tend vers 0 à l’infini.

Démonstration : Z Z Z
˜ −2iπxξ −2iπxξ

? f est une fonction bornée car : f (x)e dx < f (x) e dx = |f (x)|dx .

Z
De plus, f (x) sommable veut dire aussi que |f (x)|dx −→ 0, finie, d’où T F [f (x)] = f˜(k) est
x→±∞
bornée.

? f˜ est une fonction continue car :

permutation de la limite et de l’intégration


justifiée par le théorème de la convergence dominée
z }| {
Z
˜
lim f (k + α) = lim f (x) e−2iπ(k+α)x dx
α→0 α→0
R
Z
= f (x) e−2iπkx dx = T F [f (x)](k) = f˜(k) .
R

? Enfin pour montrer que f˜(k) → 0 quand k → Z ±∞, on approche f (x) par une fonction
escalier g(x) (définie dans Eq. (1.12)) qui satisfait |f (x) − g(x)|dx < ε, où ε est infinitésimal ;
R
la fonction escalier étant une combinaison linéaire de fonctions “portes” du type de Eq. (1.12)
translatées, dont leurs transformées de Fourier, Eq. (1.13), vérifient |ζ̃(ξ)| < ε pour ξ grand.
En effet,

|T F [f (x)]| = |T F [f (x) − g(x) + g(x)]| = |T F [f (x) − g(x)] + T F [g(x)]| (linéarité )


Z
≤ |f (x) − g(x)|dx + |ζ̃(ξ)|
R
≤ ε + |ζ̃(ξ)|(où lim |ζ̃(ξ)| = 0).
ξ→∞

Donc la transformée de Fourier d’une fonction de L1 (R), si elle existe, est bornée, continue et
tend vers 0 quand k → ±∞.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.4. DÉRIVATION ET TRANSFORMÉE INVERSE 131

1.4 Dérivation et transformée inverse

1.4.1 Dérivation

On va voir que plus une fonction est dérivable, plus sa transformée de Fourier, si elle existe,
décroı̂t plus vite à l’infini ; et réciproquement, plus une fonction décroı̂t plus vite à l’infini plus
sa transformée de Fourier est dérivable.

Théorème 2.
Soit f ∈ L1 (R), de classe C 1 et dont la dérivée est également sommable (c’est à dire que
f 0 (x) ∈ L1 (R)), alors la transformée de Fourier de la dérivée de f est donnée par :

f˜0 (k) = 2iπk f˜(k) et donc |k|f˜(k) −→ 0 . (1.21)


k→∞

Démonstration :
? pour montrer que f˜0 (k) = 2iπk f˜(k) :

+∞
Z Z
f˜0 (ξ) = T F [f 0 (x)](ξ) = 0
f (x) e −2iπxξ
dx = e −2iπxξ
f (x) − (−2iπξ) f (x)e−2iπxξ dx
R −∞ R
(où on a intégré par partie : f 0 (x)dx = dV et e−2iπxξ = U )
= 0 (car f (x) → 0 quand x → ±∞) + (2iπξ)f˜(ξ)
= (2iπξ)f˜(ξ) = T F [f 0 (x)].

? pour montrer que |k|f˜(k) −→ 0 :


k→∞
on applique le Lemme de Riemann-Lebesgue (théorème 1) à la fonction dérivée f 0 :

f˜0 (ξ) −→ 0 ⇒ |ξ|f˜(ξ) −→ 0.


ξ→±∞ ξ→±∞

Théorème 3.
Si la fonction f (x) ∈ L1 (R) (dont on suppose que sa transformée de Fourier est définie)
est telle que xf (x) ∈ L1 (R), alors la dérivée de la transformée de Fourier de la fonction f
est donnée par :

df˜
(y) = −T F [2iπxf (x)](y) et donc f˜ ∈ C 1 . (1.22)
dy

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
132 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

Démonstration :
df˜
Z Z
d −2iπyx
xf (x) e−2iπxy dx

= f (x) e dx = −2iπ
dy dy
R R
= T F [−2iπxf (x)] (y).

d’où f˜ est de classe C 1 .

Généralisation du théorème 3.
On généralise aisément le théorème 3 aux dérivées d’ordre plus élevé. Ainsi on peut montrer
que si une fonction f (x) ∈ L1 (R) et si toutes ses dérivées jusqu’à l’ordre n (inclus) sont
des fonctions de L1 (R), alors
 n 
d f
TF = (2iπξ)n T F [f (x)] (ξ), avec |ξ|n f˜(ξ) −→ 0 . (1.23)
dxn ξ→∞

1.4.2 Transformée de Fourier Inverse

Comment trouver la fonction f (x) à partir de f˜(k) si f (x) ∈ L1 (R), autrement dit comment
“inverser” ?
Le problème d’inversion n’a pas toujours une solution. Il est évident que si on connait la fonction
f˜(k) comme étant la transformée d’une fonction de L1 (R), le problème d’inversion a une solution.
Mais si la fonction f˜(k) est arbitraire, même si elle est sommable, il n’existe pas forcément une
fonction f (x) dont f˜(k) soit sa transformée de Fourier.

Théorème 4.
Soit la fonction f (x) ∈ L1 (R) telle que sa transformée de Fourier existe et est sommable,
f˜(k) ∈ L1 (R). La Transformée de Fourier Inverse (TFI) est donnée par
Z
f (x) = e2iπxy f˜(y)dy . (1.24)
R

I Remarque 1 : on ne peut “inverser” que si f˜ et f sont toutes les deux ∈ L1 (R) (c’est à dire
sommables).
I Remarque 2 sur l’inversion dans L1 (R) :
soit f une fonction intégrable admettant une transformée de Fourier f˜, elle-même intégrable.
On peut alors écrire que f (x) = T F I[f˜(k)](x) en tout point x où la fonction f est continue.
Cependant, si la fonction f adment une discontinuité, sa transformée de Fourier f˜(k) n’est pas
intégrable.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.5. TRANSFORMÉE DE FOURIER D’UNE CONVOLUTION DE FONCTIONS 133

Remarque
Soit la fonction f (x) ∈ L1 (R) telle que sa transformée de Fourier - qui existe - soit
sommable et paire, alors : f (x) qui est la Transformée de Fourier Inverse (TFI) de f˜(k)
est également la Transformée de Fourier directe de f˜(k) :
Z Z Z
−2iπxy ˜
f (x) = e 2iπxy ˜
f (k)dk = e f (−k)dk = e−2iπxy f˜(k)dk . (1.25)
R R R

En d’autres termes, f˜(k) est la transformé de Fourier de f (x) et, f (x) est la transformée
de Fourier de f˜(k).

Exercice : démontrer l’encadré suivant, qui est en fait un Lemme qui suit le théorème 4) :

Lemme : soient deux fonctions f et g, toutes deux intégrables et appartenant à L1 (R)


et telles que leurs transformées de Fourier sont elles aussi intégrables. Alors, les produits
f˜ × g et g̃ × f sont également des fonctions intégrables et vérifient :
Z Z
˜
f (t)g(t)dt = g̃(t)f (t)dt . (1.26)
R R

1.5 Transformée de Fourier d’une convolution de fonctions

Nous avons souvent à considéré des quantités physiques obtenues à partir d’un produit
de convolution de deux fonctions. Par exemple, dans le cade de l’électromagnétisme, le calcul
classique du potentiel créé par une distribution de charge volumique ρD (~r) contenue dans un
volume D au point ~r donne :

ρD (~r 0 ) 3 0
Z
V (r) = d ~r
|~r − ~r 0 |
V
 
1
= ? ρD (~r) ,
r

où ρD = 0 partout sauf dans le domaine D. Cette expression peut être interprétée en électromagnétisme
comme la réponse du milieu à la perturbation électrique localisée ρD (~r). V (r) dans ce cas est le
potentiel créé par une densité de charge ponctuelle.
On va utiliser les transformées de Fourier (TF) de telles quantités et considérer le produit
de convolution de deux fonctions f et g de L1 (R).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
134 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

Définition 7.
Soient f et g deux fonctions ∈ L1 (R) (sommables). Leur produit de convolution noté f ? g
est défini par
Z
(f ? g)(x) = f (x − y)g(y)dy . (1.27)
R

Exemple : on peut montrer (le faire) que la convolution de deux portes Π(x) identiques donnera,
après intégration sur l’une des variables, une fonction triangle.

1.5.1 Propriété de la convolution

1) Commutativité : f ? g = g ? f

+∞
Z −∞
Z
f ?g = f (x − y)g(y)dy = − f (X)g(x − X)dX
−∞ +∞
+∞
Z
= g(x − X)f (X)dX = (g ? f )x CQFM.
−∞

2) Associativité : f ? (g ? h) = (f ? g) ? h
Z Z Z
f ? (g ? h) = f (x − y)(g ? h)(y)dy = f (x − y) g(y − z) h(z) dz dy
Z Z
= dz h(z) dy f (x − y) g(y − z)
Z Z
= dz h(z) dα f ((x − z) − α)g(α)
| {z }
y−z=α (f ? g)(x − z)
dy=dα

x−y=x−z−α
Z
= dz(f ? g)(x − z) h(z)
= (f ? g) ? h CQFM.

3) Distributivité : f ? (ag + bh) = a(f ? g) + b(f ? h) pour a, b ∈ C, (très facile à vérifier).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.5. TRANSFORMÉE DE FOURIER D’UNE CONVOLUTION DE FONCTIONS 135

Théorème 5.
Soient deux fonctions f, g ∈ L1 (R) admettant des transformées de Fourier f˜ et g̃,
f ? g est sommable et sa transformée de Fourier est le produit des deux transformées de
Fourier de f et g :

? g = f˜ × g̃ .
T F [f ? g] ≡ f] (1.28)

Démonstration :
 
Z Z Z
−2iπkx
TF  f (x − y)g(y)dy = dx e
 f (x − y) g(y) dy , en posant x − y = γ , alors,
R R

Z Z
−2iπγk
= dγ e f (γ) g(y) e−2iπky dy

|R {z } |R {z }

f˜(k) g̃(k) CQFM.

Remarque : Si f, g ∈ L1 (R) : f × g (produit normal) n’appartient pas nécessairement à L1 (R).


Il n’est donc pas évident de définir (f^
× g), c’est pour cela qu’on préfère exploiter le produit de
convolution.

Remarque : le produit de convolution intervient souvent dans l’analyse des systèmes linéaires
et homogènes si on peut définir un opérateur L :

L: e(x) −→ r(x) = L(e)


↓ ↓
application de la réponse du système à l’excitation e(x)
contrainte e(x)
sur le système


. pour α, β ∈ R ; L (αe1 (x) + βe2 (x)) = αL (e1 (x)) + βL (e2 (x)) ,
tel que
. pour x1 , x2 donnés ; L (e(x1 − x2 )) = r(x1 − x2 ) .

La convolution permet de construire cet opérateur linéaire et homogène.

I On montre que si la réponse du système s’écrit sous la forme r(x) ≡ L(e) = (a ? e)(x), où
a(x) est une fonction appartenant à L1 (R), l’opérateur L(e) est bien linéaire et homogène (c’est
à dire qu’il vérifie les propriété ci-dessus !). Toute l’information de notre problème physique est
contenue dans a(x), fonction à déterminer.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
136 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

Résumé :
entrée système linéaire homogène sortie
e(x) ⇒ a(x) ⇒ r(x) = (a ? e)(x)

On calcule r(x) = (a ? e)(x) grâce à la transformée de Fourier et au théorème 1.

e(x) −→ r(x) = (a ? e)(x) ,


ẽ(k) −→ r̃(k) = ã(k) ẽ(k) .

Dans l’espace des k, une entrée est donc atténuée ou amplifiée par ã(k). Le système est comme
un filtre différentiel et la fonction a est appelée la fonction transfert du filtre.

1.6 Transformation de Fourier dans L2 (R)


Il existe des fonctions appartenant à L2 (R) sans pour autant qu’elles soient simplement
sommables - autrement dit des fonctions non intégrables mais dont le (module au) carré l’est.
Exemple : la fonction f (x) = sinc(x) = sinx x , prolongée par continuité telle que sinc(0) = 1,
n’est pas une fonction de L1 (R) mais de L2 (R).
Plancherel a étendu les résultats de la transformée de Fourier des fonctions appartenant à
L1 (R) à celles de L2 (R). On a vu dans la section précédente que le produit de deux fonction de
L1 (R) n’appartenait pas forcément L1 (R) et qu’on ne peut pas définir la transformée de Fourier
d’un tel produit. Ceci est cependant possible dans L2 (R) grâce au théorème suivant.

Théorème 6.
Soient deux fonctions f, g ∈ L2 (R) admettant des transformées de Fourier et telles que
leur produit de convolution existe et est sommable. Alors la transformée de Fourier de leur
produit est le produit de convolution des deux transformées de Fourier de f et g :

× g = f˜ ? g̃ .
f] (1.29)

Démonstration :
Posons F = T F [f ] = f˜ et G = T F [g] = g̃.
F, G sont également des fonctions de L2 (R) - on peut le montrer en prenant leur module au
Z 2 Z 2 Z
2 ˜ 2 −2iπxξ −2iπxξ
dx = |f (x)|2 dx .

carré |F | = |f | = f (x)e dx < f (x) e

Faisons à présent le produit de convolution de F et G : F ? G et cherchons sa transformée de


Fourier. On peut écrire que T F [F ? G] = F̃ × G̃ (grâce au théorème 5). Si on prend à présent
la transformée de Fourier inverse de cette relation (voir théorème 4), on obtient T F I[F̃ × G̃] =
T F I[T F [F ? G]] ≡ G ? F = f˜ ? g̃, CQFM.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.6. TRANSFORMATION DE FOURIER DANS L2 (R) 137

Théorème 7.
Soient deux fonctions f, g ∈ L2 (R) et f˜ et g̃ leurs transformées de Fourier respectives.
Soient f ∗ et g ∗ les fonctions conjuguées complexes de f et g. Alors ,
Z Z
f (x) g ∗ (x) dx = f˜(ξ) g̃ ∗ (ξ) dξ. (1.30)
R R

Cette dernière équation constitue l’égalité ou la Formule de Parseval-Plancherel.

Démonstration : Soit la fonction h = f × g ∗ , sa transformée de Fourier h̃ est donnée par

h̃(k) = f˜ ? ge∗ (d’après le théorème 6)


Z Z
∗ −2iπkx
= f (x) g (x) e dx = f˜(k 0 )ge∗ (k − k 0 )dk 0 .
R R

Z Z

d’où h̃(0) = g ∗ (0) =
f (x) g (x) dx ≡ fg f˜(k 0 )ge∗ (−k 0 )dk 0 .
R R

g ∗ = g̃ ∗ (k),
∗ (−k) = g(k)
D’après la définition de la transformée de Fourier, Eq. (1.1), on a g^
d’où :
Z Z
h̃(0) = f (x) g ∗ (x) dx = f˜(k) g̃ ∗ (k) dk .
R R

I Dans le cas particulier où f = g ∈ L2 (R), la formule de Parseval-Plancherel devient


Z Z
|f (x)|2 dx = |f˜(ξ)|2 dξ . (1.31)
R R

Conséquence : on voit ainsi que si une fonction est de carré sommable, alors sa transformée
de Fourier l’est aussi 3 autrement dit, si f ∈ L2 (R), alors f˜ ∈ L2 (R). On dit alors que L2 (R) est
stable par rapport à la transformation de Fourier.

I Remarque : f peut représenter l’amplitude d’une onde ou d’une déformation ou d’une


probabilité, .... Grâce à l’équation (1.31), on se rend compte que le calcul de la somme totale
(l’int´Ègrale) des carrées de ces amplitude peut être fait de manière équivalente dans les deux
espaces, celui des x (l’espace des positions, par exemple) et l’espace des k (espace réciproque).

3. On retrouve que L2 (R) est stable par rapport à la transformation de Fourier alors que L1 (R) ne l’est pas.

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
138 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

1.7 Transformées de Fourier dans S(R)

Définition 8.
On appelle espace de Schwartz, noté S, l’espace des fonction C ∞ qui sont à décroissance
rapide ainsi que leurs dérivées.

I Cet espace désigne donc l’espace des fonctions f indéfiniment dérivables à décroissance rapide
qui vérifient

∀n, p ∈ N, xn f (p) (x) ≤ Mn,p , avec Mn,p ∈ R . (1.32)

Remarque : la condition de très forte décroissance (plus rapide que toute fonction x−n , ∀n ∈ N)
fait que les fonctions de S(R) sont pratiquement semblables aux fonctions f de classe C ∞ à
support borné.
I Le résultat le plus important sur les fonctions de S(R) est que si f ∈ S(R), alors sa transformée
de Fourier f˜ ∈ S(R) et si ∀n ∈ N, f (n) tend vers zéro dans S(R), alors f˜(n) tend également vers
zéro dans S(R). Pour montrer cela, on utilise la propriété la plus importante des espaces S(R).

Théorème 8.
Les fonctions de S(R) ainsi que toutes leurs dérivées d’ordre n sont toutes bornées et
intégrables sur R.

Démonstration : la démonstration de ce théorème est évidente dès lors qu’on utilise la condition
de décroissance rapide Eq. (1.32) sur la fonction ainsi que toutes ses dérivées puisque ces dernières
appartiennent aussi à S(R). Il s’en suit que les dérivées d’ordre n (∀n ∈ N) de f sont toutes
bornées et majorées par des fonctions intégrables, ce qui les rend donc elles-mêmes intégrables.
Plusieurs conséquences intéressantes sont à tirer de ce théorème :

I La conséquence directe de ce théorème est que l’espace S est en réalité inclus dans
celui des fonction sommables : S(R) ⊂ L1 (R).

I Par conséquent, tous les théorèmes, définitions et propriétés qui concernent


les fonctions de L1 (R) et leurs transformées de Fourier s’appliquent aux fonc-
tions de S(R). De plus, la transformées de Fourier Inverse, qui n’était possible
pour une fonction f de L1 (R) que si sa transformée de Fourier f˜ était elle-
même dans L1 (R) (voir théorème 4.), devient possible sans condition pour une
fonction de S(R).

I De même, la formule de Parseval-Plancherel, valable dans L2 (R) et non dans


L1 (R) (voir théorème 7.), devient valable pour les fonctions de S(R).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
1.8. TRANSFORMÉE DE FOURIER DE FONCTIONS À PLUSIEURS VARIABLES 139

I La transformée de Fourier d’une fonction de S(R) appartient aussi à S(R), on


dira que la transformée de Fourier est une application bijective de S(R) dans
lui même, autrement dit S(R) est stable par rapport à la transformation de
Fourier, tout comme l’est l’espace L2 (R) (voir la conséquence du théorème 7.).

Théorème 9. (résumé)

a. La transformée de Fourier d’une fonction de S(R) est aussi une fonction de S(R).
b. Par conséquent, toute fonction f de S(R) est la transformée de Fourier inverse
d’une fonction f˜ :
Z
f (x) = T F I[f ] = f˜(k) e+2iπkx dk .
˜ (1.33)
R

c. Soient deux fonctions f, g ∈ S(R), f˜ et g̃ leurs transformées de Fourier respectives,


et f ∗ et g ∗ les fonctions conjuguées complexes de f et g, alors :
Z Z

f (x) g (x) dx = f˜(ξ) g̃ ∗ (ξ) dξ. (1.34)
R R

d. La transformée de Fourier conserve la norme dans S(R),


Z Z
|f (x)|2 dx = |f˜(ξ)|2 dξ , si f ∈ S(R) . (1.35)
R R

1.8 Transformée de Fourier de fonctions à plusieurs variables

On généralise la transformation de Fourier pour des variables vectorielles. Si à la place de


la variable x on a une variable ~r = (x1 , x2 , ...., xn ) ∈ Rn et si on considère une fonction de ces
n variables f (~r) = f (x1 , x2 , ...., xn ) sommable (f ∈ L1 (R)), alors sa transformée de Fourier est
donnée par
Z
~
f˜(~k) = e−2iπk·~r f (~r) d~r . (1.36)
Rn

I Cas de fonction à variables séparables, dans ce cas, la fonction du vecteur ~r s’écrit


comme f (x1 , x2 , ...., xn ) = Πni=1 fi (xi ). Si chacune des fonctions fi (xi ) est sommable dans R,
~
alors (comme e−2iπ~r·k = Πni=1 e−2iπki xi ), f˜(~k) = Πni=1 f˜i (ki ).
I Cas de fonction radiales, dans ce cas f (~r) = f (|~r|) = f (r), où r désigne la distance à
une origine. On montre que la transformée de Fourier d’une fonction radiale est aussi radiale
f˜(~k) = f˜(|~k|) = f˜(k).

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman
140 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS

1.9 Application aux EDO

La plus simple des applications concerne les équations différentielles linéaires à coefficients
constants. En reprenant les conséquences des théorèmes 2 et 3, on se rend compte que dériver une
fonction par rapport à x revient à multiplier sa transformée de Fourier par k (à une constante 2iπ
près). La transformée de Fourier transforme donc une équation différentielle linéaire à coefficients
constants en une équation algébrique. Soit une telle équation avec un second membre non nul,
g(x), qui admet une transformée de Fourier g̃(k) ,

dn f dn−1 f df n−2
n
+A n−1
+B + · · · + Kf = g(x) .
dx dx dxn−2
avec A, B, ..., C des coefficients constants. On peut mettre cette équation sous la forme
n−1
dn f X
+ cp f (p) = g(x) . (1.37)
dxn
p=0

Pour trouver la solution homogène, on doit résoudre le polynôme caractéristique d’ordre n :


n−1
X
P (λ) = λn + cp λp = 0. (1.38)
p=0

Si on prend la transformée de Fourier de l’équation différentielle Eq. (1.37), on obtient une


équation algébrique simple,
n−1
X
g̃(k) = (2iπk) f˜ +
n
cp (2iπk)p f˜ = P (2iπk)f˜(k) , (1.39)
p=0

ce qui donne

g̃(k)
f˜(k) = . (1.40)
P (2iπk)

Si f˜(k) est sommable, on peut envisager de faire une transformée de Fourier inverse pour
déterminer f (x) :
Z
g̃(k) +2iπkx
f (x) = e dk . (1.41)
P (2iπk)
R

- Licence de Physique et Applications - Année 2017-2018


A. Abada et W. Herreman

Vous aimerez peut-être aussi