Académique Documents
Professionnel Documents
Culture Documents
!
!
!!!!!!!!!!!!!!!!
!
! !
1$%234&5$"+%23'+%6+)$%'57)'5#%*&)%&"$%*$&8$%9$&'88$%)$4+3:($)*3;%$"
!
&$'-&!O¶8QLYHUVLWp3DULV"#$%!±!&'(&)*'+,)'!(-&!*.+!/&)*0%'+,!12!3
<@A!&$'!3'.&B'*!5C'D'+E'-$!±!=<?>@!E'%'F!',!-B0**-+,!(.$&!C'!E.D
!
!GH8!I&.0,!9E.+.D0'!3'*,0.+!! !GH8!#E0'+E'*!
!GH8!/K-&D-E0'! !3RO\WHFK¶3DULV"#$%!!
A.! Abada et W. Herreman
&'!C¶RUJDQL*D'!.$!O¶'+,&'(&0*'!G¶DFFXHLO!;!
– 2017 - 2018–
!
8-0*.+!*.E0-C'!;!
J%&'**'!;!+N! !!!!O.0'!
P0CC'!;!!
8'(&)*'+,)Q'R!(-&!;! !1-%-D'! !1.+*0'$&!
M.D!;! /&)+.D!;!
!
&'!O¶p,$%0-+,!*,-B0-0&'!;!
M.D!;! /&)+.D!;!
2
I Algèbre 7
1 Algèbre linéaire 9
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Rudiments d’algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Vecteurs et Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Produit de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Définition d’un espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Dimension de l’espace de Hilbert et base hilbertienne . . . . . . . . . . . . 16
1.4 Opérateurs et représentation matricelle d’opérateurs . . . . . . . . . . . . . . . . 19
1.4.1 Représentation matricielle d’un opérateur . . . . . . . . . . . . . . . . . . 19
1.4.2 Éléments de matrice d’un opérateur . . . . . . . . . . . . . . . . . . . . . 20
1.4.3 Adjoint et Transposé d’un opérateur . . . . . . . . . . . . . . . . . . . . . 21
1.4.4 Produit d’opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.5 Décomposition d’un opérateur en opérateur élémentaires . . . . . . . . . . 23
1.4.6 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.4.7 Trace d’un opérateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5 Inversion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6 Matrices utiles et leurs propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6.1 Matrices scalaires, triangulaires, nilpotentes et unipotentes . . . . . . . . 27
1.6.2 Matrices unitaires et matrices orthogonales . . . . . . . . . . . . . . . . . 28
4 TABLE DES MATIÈRES
II Équations Différentielles 41
Algèbre
1
Algèbre linéaire
1.1 Introduction
Les lois de la physique se présentent souvent sous forme de relations linéaires : lois fonda-
mentales du mouvement, systèmes électriques, etc. De manière générale, on appelle équation
linéaire dans les variables xi , i = 1, n, toute relation de la forme
n
X
ai xi = c , (1.1)
i=1
L’algèbre linéaire est la branche des mathématiques consacrée à l’étude des espaces vectoriels,
des transformations linéaires et des systèmes d’équations linéaires.
Nous avons besoin de quelques définitions afin de fixer le langage.
I Un anneau A est un ensemble non vide muni d’une loi d’addition (+)- groupe commutatif -
et d’une loi de multiplication (notée (×) ou ·) - associative -, possédant un élément neutre (1),
et distributive par rapport à l’addition.
I Un corps K est un anneau dans lequel tout élément non nul est inversible. Citons par exemple
le corps R des nombres réels, le corps C des nombres complexes, le corps Q I des nombres ration-
nels, etc,. Un corps est dit commutatif si la multiplication est une opération commutative.
I Un espace vectoriel V sur un corps K est un groupe commutatif pour une loi +, muni d’une
action de K, c’est à dire une application linéaire de K × V dans V : (λ, x) → λ · x, vérifiant pour
tout x, y ∈ V et pour tout λ, µ ∈ K les propriétés suivantes :
Un espace vectoriel est donc un ensemble muni d’une structure permettant d’effectuer des com-
binaisons linéaires. Il est défini sur un corps. Les éléments de l’espace vectoriel (du corps) sont
appelés vecteurs (scalaires).
Dans un premier temps, on considère des espaces vectoriels définis sur le corps des réels
qu’on généralisera ensuite aux espaces vectoriels définis sur le corps des complexes (espaces de
Hilbert).
~ de V se décompose
Considérons un espace vectoriel V sur Rn (de dimension n). Tout vecteur V
sur des vecteurs de base ~ui , i = 1, n, comme suit
n
X
~ =
V ci ~ui , avec ci ∈ R. (1.4)
i=1
~.
On appelle ci les composantes du vecteur V
On note en général la base canonique de V sur laquelle tout vecteur de V se décompose
comme suit
avec
1 0 0
0 1 0
~u1 = 0 ; ~u2 = 0 ; · · · ; ~un = ... . (1.6)
.. ..
. . 0
0 0 1
Dans Eq. (1.7), le symbole δij qui permet une écriture compacte des expressions (δij = 1 si i = j,
δij = 0 si i 6= j) est appelé symbole de Kronecker.
I Produit scalaire
n
X
~a · ~b = ai bi . (1.8)
i=1
i) ~a · ~b = ~b · ~a (commutatif) ;
ii) ~a · (~b + ~c) = ~a · ~c + ~b · ~c ;
iii) λ(~a) · ~b = λ(~a · ~b) ;
iv) ~a · ~a ≥ 0 ;
v) ~a · ~a = 0 si et seulement si ~a = ~0.
On peut démontrer grâce aux différentes définitions et propriétés déjà abordées que ∀ ~a, ~b ∈ V
et ∀ λ ∈ R, alors
— ||~a|| ≥ 0 ;
— ||λ~a|| = |λ| ||~a|| ;
— ||~a + ~b|| ≤ ||~a|| + ||~b|| (inégalité du triangle) ;
— |~a · ~b| ≤ ||~a||||~b|| (inégalité de Cauchy-Schwarz).
C’est ici l’occasion de rappeler comment calculer le produit vectoriel de deux vecteurs d’un
espace vectoriel à trois dimensions. En physique, de nombreux vecteurs sont construits à par-
tir du produit vectoriel de deux vecteurs physiques. Par exemple le vecteur de Poynting en
électromagnétisme, défini par produit vectoriel du champ électrique par le champ magnétique
divisé par la permitivité magnétique du vide, E ~ ∧ B/µ
~ 0 , ou le vecteur moment cinétique orbi-
tal en mécanique défini par le produit vectoriel du vecteur position par le vecteur quantité de
mouvement ou impulsion, ~r ∧ p~ , etc. Soient ~a = (a1 , a2 , a3 )t et ~b = (b1 , b2 , b3 )t deux vecteurs
quelconques de V (de dimension 3). On définit le produit vectoriel de ces deux vecteurs par le
vecteur ~c = ~a ∧ ~b (de composantes réelles, V étant un espace vectoriel défini sur R3 ). Il s’écrit
dans la base la base orthonormée {~ui }, i = 1, 3, comme suit :
a1 b1 a2 b3 − a3 b2
~a ∧ ~b = ~c = a2 ∧ b2 = a3 b1 − a1 b3 . (1.11)
a3 b3 a1 b2 − a2 b1
On peut vérifier que le produit vectoriel d’un vecteur par lui-même est nul et que produit
vectoriel est anticommutatif :
~a ∧ ~b = − ~b ∧ ~a. (1.12)
Relations utiles : soient quatre vecteurs quelconques ~a, ~b, ~c, d. ~ Les relations ci-dessous seront
très utiles et sont faciles à démontrer :
~a ∧ ~b ∧ ~c + ~b ∧ (~c ∧ ~a) + ~c ∧ ~a ∧ ~b = ~0 ; (1.13)
~a ∧ ~b ∧ ~c = (~a · ~c) ~b − ~a · ~b ~c ; (1.14)
~a ∧ ~b · ~c ∧ d~ = (~a · ~c) ~b · d~ − ~a · d~ ~b · ~c ; (1.15)
h i h i
~a ∧ ~b ∧ ~c ∧ d~ = ~a ∧ ~b · d~ ~c − ~a ∧ ~b · ~c d~ (1.16)
h i h i
= ~c ∧ d~ · ~a ~b − ~c ∧ d~ · ~b ~a . (1.17)
Ces relations sont encore plus faciles à démontrer avec l’outil suivant.
Soit {~e1 , ~e2 , ~e3 } une base orthonormée directe d’un espace vectoriel à trois dimensions. On
peut définir un tenseur antisymétrique, dit de Lévi-Civita, comme
Exercice 1
— En utilisant le tenseur de Lévi-Civita, calculer les composantes cartésiennes du moment
~ = ~r ∧~
cinétique orbital L p, où ~r et p~ sont les vecteurs position et impulsion d’une particule
ponctuelle.
— Refaire le même exercice et retrouver les coordonnées cylindriques et sphériques de ce
même vecteur L.~
Exercice 2
Utilisez le tenseur de Lévi-Civita pour démontrer les relations (1.13) à (1.17).
I Le produit scalaire qu’on a rappelé dans cette section concernait des espaces vectoriels définis
sur Rn . En mécanique quantique, les vecteurs qu’on utilise (vecteurs caractérisant l’état quan-
tique d’un système) ont des composantes complexes (à cause de l’interprétation probabiliste).
Ces vecteurs appartiennent à des espaces vectoriels définis sur le corps des complexes qu’on
appelle “espaces de Hilbert”. On note - notation de Dirac - ces vecteurs ψ ~ : “|ψi” et on
les appelle “ket” en mécanique quantique. C’est ce que nous allons aborder dans la section qui
suit.
Définition 1 : Un espace de Hilbert est un espace vectoriel défini sur le corps des
complexes, complet, muni d’un produit scalaire complexe hermitien (et dont la norme définie
positive découle de ce produit scalaire).
En plus d’être complet 1 , on suppose l’espace de Hilbert également séparable - il existe une suite
partout dense 2 dans V.
1.3.1 Notations
— Dans toute la suite, on notera x∗ le complexe conjugué de x, quelque soit le nombre
complexe x.
— Un vecteur V~ de V (défini sur C) sera noté |V i pour bien se rappeler que ses composantes
sur une base peuvent être complexes.
— Dans une base canonique, le transposé d’un vecteur colonne |V i est un vecteur ligne,
dont les composantes sont les complexes conjuguées de celles du vecteur colonne. On le
notera hV | (qu’on appelle “bra” en mécanique quantique).
1. Complet : un espace vectoriel V est complet si toute suite de Cauchy de V est convergente dans V.
2. En topologie, un espace séparable est un espace topologique contenant un sous-ensemble dénombrable et
dense, c’est-à-dire contenant un ensemble dénombrable de points dont l’adhérence est égale à l’espace topologique
tout entier.
(ψ1 , ψ2 ) −→ hψ1 , ψ2 i,
avec hψ1 , ψ2 i = hψ2 , ψ1 i∗ . (1.22)
La propriété d’hermiticité ainsi que la positivité du produit scalaire (1.22) impliquent que
la norme d’un vecteur est réelle et positive
En général, l’espace dual d’un espace vectoriel V est l’ensemble des formes linéaires sur V.
. On appelle donc V ∗ , le dual de V, l’espace vectoriel des formes linéaires (hω, ·i) ∈ V ∗ telles que
l’action de hω, ·i ∈ V ∗ sur un vecteur |vi ∈ V donne le nombre scalaire complexe hω, vi.
. On montre qu’il y a une correspondance bi-univoque et sesquilinéaire entre l’espace de
Hilbert V et son dual V ∗ , qui est l’ensemble des formes linéaires continues définies sur V (iso-
morphisme 3 ).
ket −→ bra
|ψi ∈ V −→ hψ| ∈ V ∗ (1.24)
Le produit scalaire dans l’espace des états (de Hilbert) de deux vecteurs |ψ1 i et |ψ2 i est
formé par la forme “bra, ket” - c’est à dire “vecteur ligne · vecteur colonne” :
hψ2 , ψ1 i ≡ hψ2 |ψ1 i . (1.25)
Résumé :
La notation de Dirac s’inspire de la relation bi-univoque entre l’espace de Hilbert et son dual.
I À tout vecteur |ψi ∈ V (vecteur colonne) −→ hψ| ∈ V ∗ (vecteur ligne dont les compo-
santes sont les conjuguées complexes de celles du vecteur colonne) ;
I L’action du vecteur ligne hψ| ∈ V ∗ sur le vecteur colonne |φi ∈ V est le produit scalaire
de |φi par |ψi, tel que (et pour assurer la positivité de la norme) :
hψ|φi = hφ|ψi∗ .
. La dimension d’un espace de Hilbert peut être finie comme dans le cas du traitement du spin :
l’espace des états de spin est discret. Dans ce cas on utilise des bases finies (dénombrables).
. La dimension peut être infinie comme c’est le cas de l’espace ∈ L2 (R3 ) des fonctions d’onde
de carré sommables (qu’on utilise en mécanique quantique ondulatoire) et auquel cas on utilisera
des bases continues.
I Projecteurs
Prenons le cas d’un espace vectoriel complet de dimension finie n. Soit {|ui i, i = 1, n} une
base orthonormée de V. Le projecteur sur le vecteur |ui i est défini par
Pbi = |ui i hui |. (1.26)
On peut vérifier que Pbi2 = Pbi (et que, voir plus loin, Pbi† = Pbi ). La somme de tous les projecteurs
sur les vecteurs |ui i donnera l’identité 11 (l’espace vectoriel en question étant “complet”). La
base {|ui i, i = 1, n} vérifie donc la relation de fermeture et la condition d’orthonormalisation :
n
X
|ui i hui | = 11 (fermeture) , (1.27)
i=1
hui |uj i = δij , ∀ i, j ∈ [1, n] (orthonormalisation) . (1.28)
Les vecteurs |u1 i, · · · , |un i sont vus comme des vecteurs colonnes (en métrique euclidienne), cf.
Eq. (1.6)
1 0 0
0 1 0
|u1 i = 0 ; |u2 i = 0 ; · · · ; |un i = ... , (1.29)
.. ..
. . 0
0 0 1
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.3. DÉFINITION D’UN ESPACE DE HILBERT 17
de sorte que si |ψi et |φi sont deux vecteurs ∈ V, on peut les écrire sur la base choisie {|ui i} :
X
|ψi = ψi |ui i,
i
X
|φi = φi |ui i,
i
Exercice
— Utiliser les propriétés du produit scalaire hermitien pour démontrer l’équation précédente
(ne pas oublier le caractère antilinéaire à gauche et linéaire à droite !).
— Calculer le produit scalaire de |ψi + i|φi par i|ψi − |φi.
En général, pour les cas étudiés en physique, on travaille toujours avec des bases dénombrables,
c’est à dire que l’on peut indexer par un nombre entier. De nombreux exemples se trouvent dans
les résolutions d’équations différentielles (ou systèmes d’équations différentielles linéaires) 4 . Par
exemple, la fonction d’onde de l’oscillateur harmonique (à une dimension) en mécanique quan-
tique se développe sur la base des fonctions polynômes de Hermite Hn (x), n ∈ N. Un autre
exemple concerne la description quantique de l’atome d’hydrogène, où du fait de la symétrie cen-
trale, la partie spatiale de la fonction d’onde ψ(~r, t) = ψ(r, θ, φ, t) se sépare en un produit d’une
fonction radiale f (r) par une fonction angulaire, φ(θ, φ) ; chacune de ces fonctions se développent
sur des bases dénombrables et continues, celle des polynômes de Laguerre Ln (r), n ∈ N pour la
fonction radiale, et celles des harmoniques sphériques Y`,m (θ, φ), ` ∈ N, −` ≤ m ≤ +` pour la
partie angulaire (direction). Ainsi, dans ce cas, la fonction d’onde s’écrit
∞ n−1
X X m=+`
X
ψ(~r, t) = ψ(r, θ, φ, t) = cn`m (t)Ln (r)Y`,m (θ, φ).
n=1 `=0 m=−`
I Pour constituer une base complète, les éléments de la base {fn (x)} sont normés, orthogonaux
entre eux et la somme des projecteurs sur chacun des éléments doit donner l’opérateur identité.
Les relations d’orthonormalisation et de fermeture se généralisent dans le cas continu comme
suit : la fonction fn (x) est la représentation d’un vecteur |ni en fonction de la variable x, laquelle
correspond à un vecteur |xi : fn (x) = hx|ni, où {|xi} est une base infinie et continue de l’espace,
vérifiant (on suppose que x ∈ R) :
orthonormalisation : hx|yi = δ(x − y) (distribution de Dirac) , (1.33)
Z
fermeture : |xihx| dx = 11 . (1.34)
R
Grâce à ces relations, il s’ensuit que les fonctions fn (x) d’une base continue {fn (x)} vérifient les
conditions d’orthonormalisation et de fermeture suivantes :
Z
orthonormalisation : hn|mi = dx fn∗ (x) fm (x) = δnm , ∀ n, m ∈ N , (1.35)
R
∞
X ∞ Z
X Z
fermeture : |nihn| = 11 = dx dy fn (x)fn∗ (y)|xihy| = 11 . (1.36)
n=0 n=0 R R
Remarque
Il est à noter que les vecteurs |xi ne constituent pas en général une base hilbertienne. Ils servent
de moyen d’expression (ou de représentation) des vecteurs d’état de l’epace de Hilbert. Ainsi
fn (x) = hx|ni représente la projection de l’état |ni qui lui appartient à une base hilbertienne
(de dimension finie ou pas) sur un état de position |xi (en mécanique quantique, on dit que les
fonctions d’onde sont une représentation ”position” des vecteurs d’états). En réalité, il existe
beaucoup d’autres descriptions équivalentes de ce vecteur |ni correspondant à des choix de
bases différents ; les descriptions correspondent à des composantes du vecteur sur ces bases
et dans l’exemple précédant, nous avons choisi la base des positions. En choisissant comme
représentation la base des “impulsions”, {|pi}, la base continue {f˜n (p)} sera obtenue à partir
de la base {fn (x)} par changement de base {|pi} → {|xi}, qui dans ce cas n’est rien d’autre
qu’effectuer une transformation de Fourier inverse 5 .
Ainsi, par exemple, les harmoniques sphériques sont la représentation d’un vecteur noté |`mi
dans l’espace des directions (angles θ et φ en coordonnées sphériques) et sont ainsi définies par
Y`,m (θ, ϕ) = hθ, ϕ|`mi, ` ∈ N, −` ≤ m ≤ +`, et vérifient :
. la relation d’orthonormalisation :
Z2π Zπ
∗
dϕ sin θ dθ Y`,m (θ, ϕ) Y`0 ,m0 (θ, ϕ) = δ``0 δmm0 . (1.37)
0 0
. et la relation de fermeture :
∞ m=+`
X Z Z
0 0 0 0
X
dΩ dΩ0 Y`,m (θ, ϕ) Y`,m
∗
(θ0 , ϕ0 ) |θ, ϕihθ0 , ϕ0 | = 11, où dΩ( ) = sin θ( ) dθ( ) dϕ( ) .
`=0 m=−` 4π 4π
(1.38)
5. La dernière partie de ce cours sera consacrée aux transformées de Fourier au sens des fonctions.
I Dans le cas de dimension infinie, c’est par exemple le cas des fonctions d’onde ∈ L2 (R3 )
(fonctions de carré sommable) décrivant l’état quantique d’un système à un instant donné au
point ~r, tout élément de l’espace de Hilbert se décompose comme suit
∞
X
f (~r, t) = cn (t)fn (~r) , (1.39)
n=0
les fonctions fn (~r) formant une base orthonormée, elles vérifient donc les relations (1.35) et
(1.36). Les coefficients cn (t) sont donnés par
Z
cn (t) = d3 rfn∗ (~r)f (~r, t) . (1.40)
Enfin, pour que la fonction f (~r, t) soit normée à l’unité, il faut et il suffit que les coefficients
cn (t) (complexes en général) satisfassent
∞
X
|cn (t)|2 = 1 . (1.41)
n=0
Soient deux espaces vectoriels V1 et V2 définis sur un corps K (l’ensemble des nombres réels
Rn ou sur le corps des complexes) et considérons une application linéaire de V1 vers V2 , notée u
- appelée aussi morphisme u : V1 → V2 .
- Si l’application u est bijective, on parle d’isomorphisme d’espaces vectoriels.
- Si V1 = V2 , on parle d’endomorphisme ou opérateur et d’automorphisme si l’application u
est bijective.
I Ainsi, dans le cadre de l’algèbre linéaire, un opérateur est une application linéaire
de l’espace vectoriel dans lui même.
I Afin de pouvoir étudier le rôle des opérateurs sur les vecteurs d’un espace vectoriel, on les
représente par des matrices que l’on exprime sur une base orthonormée donnée de l’espace vec-
toriel. Le projecteur (cf. Eq. (1.26)) sur un des vecteurs de base de V est un exemple d’opérateur.
Soit un opérateur A : application linéaire de V dans lui-même, c’est-à-dire que son action
sur un vecteur |φi de V donnera un (autre) vecteur (image) de V,
|ψi = A|φi ∈ V. (1.42)
Dans le cas où V est de dimension finie N , on exprime A sur une base orthogonale {|ei i}, i = 1, N
de V par une matrice carrée A (N × N ). Les entrées de la matrice (les éléments de matrice de
l’opérateur) sont définies comme suit :
X
A|ei i = Aji |ej i. (1.43)
j
On vient de voir qu’un opérateur s’écrit dans une base orthonormée {|ei i}, i = 1, N de V (de
dimension finie) comme une matrice N × N .
- Dans cette base, un vecteur |φi est juste un vecteur colonne, donc une matrice colonne N ×1.
- La transposée d’un vecteur colonne |φi est un vecteur ligne, hφ| appartenant au dual de V,
V ∗ . Il est représenté par une matrice ligne 1 × N . Si l’espace vectoriel est un espace de Hilbert,
alors les composantes de hφ| sont les conjugées complexes de celles de |φi.
Dans une base orthogonale {|ei i}, i = 1, N , les composantes de l’opérateur A (éléments de
matrice) sont données par les nombres (scalaires)
Ajk = hej |A|ek i. (1.49)
On peut, par exemple, vérifier que l’élément de matrice A21 s’obtient comme suit :
A11 A12 A13 1
A21 = he2 |A|e1 i = 0 1 0 · A 21 A 22 A 23 · 0 .
(1.50)
A31 A32 A33 0
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
1.4. OPÉRATEURS ET REPRÉSENTATION MATRICELLE D’OPÉRATEURS 21
I De manière plus générale, soient deux vecteurs |ψi et |φi d’un espace vectoriel V défini sur
le corps des complexes ; on parle d’élément de matrice d’un opérateur A lorsqu’on projette le
vecteur A|ψi sur le bra de |φi (produit scalaire hermitien) :
I Dans l’équation ci-dessus, on multiplie le vecteur ligne (bra) (1×N ) par une matrice N ×N par
un vecteur (ket) N × 1, de sorte que hφ|(A|ψi) soit un scalaire (1, N ) × (N, N ) × (N, 1) = (1, 1).
Exemple :
1 2 1+i 1 4 -1-i
t
A= 4 i -1 , A = 2 i 2 . (1.53)
-1-i 2 2 1+i -1 2
On remarque que les éléments diagonaux d’une matrice et de sa transposée sont les mêmes.
Soient Aij les éléments de la matrice représentant un opérateur A. On définit son opérateur
adjoint, noté A† par l’opérateur représenté par la matrice conjugée complexe de la matrice
transposée de A :
∗
B = A† = At = (A∗ )t ⇐⇒ Bij = (Aji )∗ , ∀ i, j . (1.54)
Exemple :
1 2 1+i 1 4 -1+i
A= 4 i -1 , A† = 2 -i 2 . (1.55)
-1-i 2 2 1-i -1 2
On remarque que les éléments diagonaux d’une matrice sont les conjugés complexes des éléments
diagonaux de la matrice adjointe.
Remarque : en mécanique quantique, les opérateur auto-adjoints (ou hermitiens) sont appelés
“ Observables ” dans le sens où leurs éléments de matrice diagonaux sont réels.
I Définition : un opérateur est auto-adjoint ou hermitien si sa valeur moyenne sur un
vecteur (ket) |ψi est réelle (on dit que cet opérateur est observable). En effet, en prenant |ψi = |φi
dans Eq. (1.51), on voit tout de suite que
Nous aurons souvent à calculer des produits d’opérateurs représentés dans une base ortho-
normée donnée par des matrices que nous aurons donc à multiplier entre elles.
I Le point le plus important à remarquer est que l’algèbre des opérateurs n’est pas commutative
en général. La composition des opérateurs A et B (deux applications linéaires successives)
correspond au produit matriciel AB qui est en général différent du produit BA. Les éléments de
matrice de la composition de deux opérateurs, représenté par la matrice produit C = AB, sont
donnés par
!
X X
Cij = Aik Bkj , ∀ i, j en général 6= Bik Akj ⇔ AB 6= BA . (1.59)
k k
Remarque 1 :
Ainsi, on peut remarquer, par exemple, que le produit matriciel étant associatif, dans Eq. (1.51)
on peut d’abord effectuer (hφ|A) puis faire le produit scalaire avec |ψi. La dernière expression
dans Eq. (1.51) constitue la notation“bra-ket” d’un élément de matrice d’un opérateur.
Remarque 2 : un projecteur sur un vecteur quelconque normé |φi ∈ V, noté |φihφ| (comme par
exemple le projecteur de Eq. (1.26)), a pour représentation une matrice. Il découle du produit
(AB)t = B t At . (1.61)
I De Eq. (1.61), on peut facilement vérifier que l’opérateur adjoint d’un produit d’opérateurs
est l’opérateur obtenu en faisant le produit des opérateur adjoints dans l’ordre inverse :
(AB)† = B † A† . (1.62)
Soit {|ui i, i = 1, n} une base orthonormée de l’espace vectoriel V (de dimension n) et soit
A un opérateur quelconque dont la représentation matricielle est la matrice carrée n × n, A. On
Pn Pi = |ui i hui |
peut toujours écrire un opérateur comme une combinaison linéaires des projecteurs b
sur les vecteurs de la base {|ui i, i = 1, n} en insérant la relation de fermeture i=1 |ui i hui | = 11
comme suit :
n
X n
X n
X n
X
A = 11 × A × 11 = Pbj A Pbi = |uj i huj |A|ui i hui | = Aji |uj i hui |. (1.63)
j=1 i=1 i,j=1 i,j=1
1.4.6 Déterminants
Pour calculer un produit vectoriel, pour résoudre des systèmes linéaires, pour calculer l’in-
verse d’une matrice, le produit vectoriel de deux vecteurs, ou même un volume dans un espace
à plusieurs dimensions, etc, nous avons besoin d’utiliser les déterminants. Nous allons dans la
suite rappeler la définition et souligner quelques propriétés utiles.
Définition
Soit B un tableau carré (B peut être une matrice carrée) de n colonne et n lignes dont les
entrées sont réelles ou complexes. Le déterminant, noté |B| de B est défini comme suit :
B11 B12 B13 ... B1n
B21 B22 B23 ... B2n X
(−1)sig(σ) Πi Bi
det(B) = |B| = = σ(i) , (1.64)
... ... ... ... ...
σ∈Gn
Bn1 Bn2 Bn3 ... Bnn
P
où la somme σ∈Gn se fait sur Gn qui est l’ensemble des permutations à n éléments, {1, 2, ..., n}
et où sig(σ) est la signature de la permutation σ :
— elle vaut +1 si on effectue un nombre pair de permutations pour retrouver l’ordre initial
(1, 2, 3, ..., n) ;
— elle vaut −1 si on effectue un nombre impair de permutations pour retrouver l’ordre ini-
tial (1, 2, 3, ..., n) ;
Exemples :
a. Cas d’un tableau 2 × 2 : il y a 2! = 2 permutations de l’ensemble {1, 2}, soit {1, 2} avec
sig(σ) = +1 ou {2, 1} avec sig(σ) = −1. Ce qui donne
B11 B12 X
det(B) = |B| = = (−1)sig(σ) Πi Bi σ(i) = B11 B22 − B12 B21 .
B21 B22
σ∈Gn
B11 B12 B13
det(B) = |B| = B21 B22 B23
B31 B32 B33
= B11 B22 B33 − B11 B23 B32 + B12 B23 B31 − B12 B21 B33 + B13 B21 B32 − B13 B22 B31
= B11 (B22 B33 − B23 B32 ) − B12 (B21 B33 − B23 B31 ) + B13 (B21 B32 − B22 B31 ) .
I On remarque grâce à ces deux exemples qu’on peut développer un déterminant d’ordre n
selon une ligne ou une colonne à partir d’un élément du tableau (en pratique , on choisit soit
la ligne, soit la colonne qui a le plus de zéros pour simplifier le calcul) en pondérant chaque
déterminant d’ordre n − 1 qu’on appelle déterminant mineur obtenu en supprimant la ligne et
la colonne correspondante.
Soit un déterminant |B| d’ordre n (voir Eq. (1.64)). On définit le déterminant mineur d’ordre
n − 1 par le déterminant de la matrice Mij obtenu à partir de la matrice B en supprimant la
ième ligne et jème colonne correspondant à l’entrée Bij tel que
n
X
det(B) = (−1)i+j Bij × det (Mij ) . (1.65)
i=1
Exemple : avec la matrice B ci-dessous, le calcul de son déterminant par ma méthode précédente
(celle des cofacteurs) sera rapide si on suivait soit la deuxième ligne, soit la deuxième colonne,
car toutes deux contiennent un zéro :
1 2 1
2 1 1 1 1 2
det(B) = |B| = 4 0 -1 = −4
+ 0 − (−1) = −4 ,
-1 2 2 2 2 -1 2 -1 2
ou alors,
4 -1 1 1 1 1
= −2 + 0
− 2 = −4.
-1 2 -1 2 4 -1
(1.67)
Conséquences : de la définition Eq. (1.65), on peut établir les propriétés suivantes (qu’on peut
démontrer) :
a. Le déterminant est nul si tous les termes d’une ligne ou d’une colonne sont nuls.
b. Si chaque élément d’une ligne ou d’une colonne est multiplé par un même nombre scalaire,
alors le déterminant est multiplié par ce scalaire.
c. Si deux lignes ou deux colonnes sont proportionnelles, alors le déterminant est nul. 6 .
I Une façon de montrer que des vecteurs sont indépendants : le déterminant d’une famille de
vecteurs est non nul si les vecteurs de cette famille sont indépendants et réciproquement.
I Le déterminant joue un rôle majeur en algèbre linéaire. On montrera que c’est un invariant.
Il a donc la même valeur quelque soit la base choisie pour exprimer la matrice (donc l’opérateur
qu’elle représente). S’il existe une base où la matrice est complètement diagonale 7 - base de vec-
teurs propres de l’opérateur -, le déterminant est le produit des valeurs propres de ce dernier
(le montrer).
Il s’ensuit que le déterminant d’un produit d’opérateur est le produit des déterminants de ces
opérateurs.
6. Une autre façon de dire est que si on identifie chaque ligne (colonne) par un vecteur colonne (vecteur ligne
- la transposée du vecteur colonne correspondant -), le déterminant d’une famille de vecteurs est non nul si les
vecteurs de cette famille sont indépendants. En pratique, pour montrer qu’un système est constitué d’équations
linéaires indépendantes, on montre que son déterminant est non nul.
7. Quand un opérateur est diagonalisable, il s’écrit dans la base de ses vecteurs propres sous forme d’une
matrice diagonale dont les éléments sont les valeurs propres de cet opérateur.
Soit un opérateur A représenté par la matrice A dans une base orthogonale {|ui i}, i = 1, n.
La trace de la matrice A, que l’on note tr (A), est la somme de ses éléments diagonaux :
X
tr (A) = Aii . (1.69)
i
Propriétés : Il s’agit avant tout d’un invariant - comme c’est le cas du déterminant. La trace
d’une matrice est indépendante du choix de la base de vecteurs de l’espace vectoriel. S’il existe
une base où la matrice est complètement diagonale -base de vecteurs propres de l’opérateur, la
trace n’est rien d’autre que la somme des valeurs propres de ce dernier.
L’inverse d’un opérateur a pour représentation dans une base orthonormée de l’espace vec-
toriel l’inverse de la matrice qui le repésente, lorsque celle-ci existe.
I Soit une matrice A, son inverse A−1 est une matrice telle que
A−1 A = AA−1 = 11 . (1.73)
I L’inverse de la matrice A n’est défini que si le déterminant de A est non nul. On démontre
qu’une matrice carrée à coefficients dans un corps commutatif est inversible si et
seulement si son déterminant est non nul.
Les éléments de la matrice B = A−1 peuvent être calculés grâce à Eq. (1.73) et sont donnés
par le rapport entre les éléments de la matrice transposée de la matrice cofacteur (définie dans
Eq. (1.66)) et le déterminant de la matrice A :
Dt ij
B = A−1 , B ij = . (1.74)
det(A)
voir que
t
Cof (A) × A = tA × Cof (A) = det(A) × 11n .
1 t
ainsi, si det(A) 6= 0, alors, A−1 = Cof (A). (1.75)
det(A)
Cette dernière équation permet de déterminer l’inverse de toute matrice carrée si son déterminant
n’est pas nul.
— Si A est une matrice triangulaire supérieure (inférieure) alors sa transposée est une
matrice triangulaire inférieure (supérieure).
Exemple :
1 2 3 1 0 0
A = 0 2 4 , tA = 2 2 0 .
0 0 5 3 4 5
— Une matrice triangulaire A est dite nilpotente (unipotente) si ses coefficients diago-
naux sont nuls (égaux à 1).
— De manière générale, une matrice A est dite nilpotente s’il existe un entier naturel non
nul n ∈ N∗ tel que An = 0.
I Propriétés
À l’aide des définitions ci-dessus, on peut facilement démontrer que :
— le déterminant d’une matrice triangulaire (supérieure ou inférieure) est toujours égal au
produit de ses éléments diagonaux ;
Remarques :
— On peut tout de suite remarquer que si A est une matrice unitaire (orthogonale) alors
les lignes ou les colonnes de A forment une base orthogonale.
— Notons aussi que toute matrice unitaire dont tous les éléments sont réels est une matrice
orthogonale.
— Une matrice n × n est orthogonale si, et seulement si, tous ses vecteurs colonnes
sont orthogonaux entre eux et de norme 1.
Une matrice orthogonale représente ainsi une base orthonormale pour le produit
scalaire Euclidien.
— Une matrice carrée est orthogonale si, et seulement si, sa transposée l’est. Il en
découle qu’une matrice carrée est orthogonale si, et seulement si, ses vecteurs
lignes sont orthogonaux deux à deux et de norme 1.
— Le déterminant d’une matrice orthogonale est de carré 1, c’est-à-dire qu’il est égal
à +1 ou −1 (Attention, la réciproque est fausse). Une matrice orthogonale est dite
directe si son déterminant vaut +1 et indirecte s’il vaut −1.
Exercice :
Les matrices suivantes sont-elles orthogonales ? et si oui, de quel groupe orthogonal font-elle
partie ?
0 1 0
cos θ − sin θ
A= 0 0 1 , B .
sin θ cos θ
1 0 0
8. Il s’interprète de manière géométrique comme étant l’ensemble des isométries vectorielles (automorphismes
orthogonaux), de l’espace euclidien Rn .
9. L’axe de rotation étant donné par le sous-espace propre associé à la valeur propre +1.
— Les vecteurs colonnes d’une matrice unitaire forment une base orthonormée pour
le produit scalaire hermitien sur Cn Une matrice unitaire représente ainsi une base
orthonormale (pour le produit scalaire hermitien).
— Si U est une matrice unitaire, U ∗ l’est aussi et ses vecteurs colonnes constituent
aussi une (autre) base orthonormale.
— Une matrice unitaire peut se mettre sous la forme U = exp(iH), où H est une
matrice hermitienne H † = H.
Exercice : Montrer que pour toute matrice unitaire, il existe une matrice hermitienne H telle
que U = exp(iH).
Un système d’équations linéaires dont les coefficients sont réels ou complexes possède soit
une solution unique, soit aucune solution soit une infinité de solutions. La notion de rang d’une
matrice permet de trancher cela.
Définition : Le rang d’une matrice A, noté r(A), est l’ordre de la plus grande sous-
matrice carrée de A dont le déterminant ne s’annule pas.
11. Nous allons aborder la diagonalisation des matrices plus loin mais on peut d’ores et déjà comprendre que
le déterminant étant invariant - et par conséquent égal au produit des valeurs propres de la matrice -, il n’existe
aucune valeur propre nulle pour une matrice unitaire.
Exemple :
1 2 1
Soit la matrice A =
0 0 1
A a 3 sous-matrices dont les déterminants sont :
(1.80)
1 2 2 1 1 1
0 = 0, = 2, = 1 ⇒ r(A) = 2 .
0 0 1 0 1
Théorème général
Soit le système d’équations linéaires Ax = b où A est une matrice m × n, x est l’inconnue
- un vecteur m × 1 -, et b un vecteur connu m × 1. On note Ab la matrice m × n + 1 formée
par la matrice A augmentée d’une colonne supplémentaire constituée par les composantes
du vecteur b, alors,
a. si r(A) = r(Ab ) = n, le système Ax = b a une solution unique ;
b. si r(A) = r(Ab ) < n, le système Ax = b a une infinité de solutions ;
c. si r(A) ≤ r(Ab ), le système n’admet pas de solution.
Deux cas particuliers se présentent, les systèmes homogènes et les systèmes inhomogènes
carrés.
Définitions
a. Une matrice carrée A est diagonalisable s’il existe une matrice P inversible telle que 10
b. L’équation aux valeurs propres d’un opérateur dont la représentation matricielle est
une matrice carrée A diagonalisable est donnée par
où |vi est un vecteur propre de A et λ (complexe en général) est la valeur propre corres-
pondante.
Diagonaliser un opérateur revient à chercher l’ensemble des valeurs propres et les vecteurs
propres associés de la matrice représentant cet opérateur dans une base orthonormée donnée.
Déterminer cet ensemble revient à résoudre le système homogème et linéaire
Comme on a vu dans la section précédante, ce système n’admet de solution (non triviale) que
si le déterminant de la matrice A − λ11 est nul,
Si la dimension de l’espace vectoriel est n, alors le déterminant de la matrice A − λ11 (Eq. (1.85))
est un polynôme de degrè n dont les racines sont les valeurs propres de A,
Remarque sur la dégénérescence : s’il existe une valeur propre associée à plus de un vecteur
propre, on dira que cette valeur propre est dégénérée. Le polynôme caractéristique peut avoir des
racines λi mutiples gi fois (gi est le degré de multiplicité de la racine λi ). On dira que cette valeur
propre est gi fois dégénérée et il lui correspond gi vecteurs propres linéairement indépendants.
Pour déterminer le vecteur propre |vi i associé à la valeur propre λi , il suffit de résoudre le
système linéaire pour chercher les n composantes du vecteur |vi i
A|vi i = λi |vi i . (1.86)
p
Une fois toutes les composantes trouvées, on norme le vecteur : |ui i = |vi i/ hvi |vi i.
I Si A est diagonalisable, tous les vecteurs propres |vi i sont linéairement indépendants, ils
constituent une base orthonormée de l’espace vectoriel et la matrice P qui diagonalise la ma-
trice A (D = P −1 AP ) a pour colonnes les vecteurs propres |vi i.
I On peut toujours décomposer toute matrice diagonalisable sur les projecteurs propres comme
suit
Xn n
X n
X n
X
A=A |vi ihvi | = (A|vi i) hvi | = λi |vi ihvi | = λi Pi , (1.87)
i=1 i=1 i=1 i=1
Théorème
Soit A une matrice carrée n × n.
a. Elle est diagonalisable si elle possède n vecteurs propres indépendants.
La matrice D a pour éléments les valeurs propres de A et la matrice P , telle que
P −1 AP = D, a pour colonnes les vecteurs propres correspondants.
b. Si toutes les valeurs propres sont distinctes (pas de dégénérescence), alors tous les
vecteurs propres sont indépendants.
c. Dans le cas où la matrice A est hermitienne (A = A† ) ou symétrique (A = At )
alors les vecteurs propres sont linéairement indépendants, même dans le cas de
dégénérescence d’une ou plusieurs des valeurs propres.
Conséquences
Comme on vient de le voir, si A est une matrice diagonalisable, alors on peut écrire les relations
pour les matrices conjuguée adjointe A† et transposée At :
t †
P −1 AP = Dt = D = P t At (P −1 )t , P −1 AP = D† = D = P † A† (P −1 )† .
I Si A est une matrice symétrique, (A = At ) alors la matrice P qui diagonalise A est une
matrice orthogonale : P −1 = P t .
I Si A est une matrice hermitienne (A = A† ) , alors la matrice P qui diagonalise A est une
matrice unitaire : P −1 = P † .
Soit A une matrice carrée n × n. Si A est diagonalisable, alors il existe une matrice P telle
que det(P )6= 0 et telle que D = P −1 AP , il s’ensuit que comme
tr(D) = tr P −1 AP = tr AP P −1 = tr(A) ,
pour constater que la trace d’une matrice est bien un invariant (indépendant du choix de base)
et correspond à la somme des valeurs propres de A,
n
X
tr(A) = tr(D) = λi . (1.89)
i=1
2.1 Introduction
Dans le chapitre précédent, nous avons toujours untilisé des bases orthonormées et très
souvent des espaces vectoriels définis sur le corps des complexes. Dans ce chapitre, nous allons
considérer des espaces vectoriels définis sur R et des bases non orthonormées, souvent utiles par
exemple dans la physique des milieux non continus.
I Soit un espace vectoriel EN sur R de dimension N (nous allons le plus souvent travailler
avec des espaces euclidiens de dimension 3). Il existe une infinité d’ensembles de vecteurs {~ei },
i = 1, N linéairement indépendants, pas forcément orthogonaux entre eux, formant une base de
EN . Nous allons dans ce chapitre aborder la notion de “métrique” ainsi que les changements de
base 1 .
2.2 Métrique
I On rappelle que tout espace vectoriel défini sur un corps commutatif peut être muni d’une
structure euclidienne dès lors qu’on y définit un produit scalaire. On parle alors d’espace vectoriel
euclidien.
— Un produit scalaire est une forme bilinéaire, symétrique et définie positive en métrique
euclidienne.
— Le produit scalaire de deux vecteurs ~x et ~y ∈ EN est noté
g(~x, ~y ) ≡ < ~x|~y >≡ ~x · ~y . (2.1)
1. L’étude des changements de base constitue le premier pas vers l’algèbre des tenseurs, ces derniers généralisant
la notion familière de vecteurs et d’opérateurs linéaires en les plaçant dans le cadre mathématique plus large
d’algèbre multilinéaire.
36 2. BASES NON ORTHONORMÉES, MÉTRIQUES ET CHANGEMENT DE BASE
Notation : les indices i et j sont en bas dans l’équation précédente. On remarque que si B est
une base orthonormée, alors gij = δji .
I Propriétés :
a. gij = gji , la métrique g est symétique ;
P
b. ∀ ci ∈ R, i = 1, N, i,j ci cj gij ≥ 0 (pour assurer que la norme de tout vecteur est
positive ou nulle) .2
Remarque : le nom “métrique” vient du fait que la métrique (associée à une base) garde une
trace des notions de “longueurs” et d’angles entre les vecteurs de cette base.
I La métrique est donc une matrice carré (N × N ) symétrique définie pour une base donnée
B = {~ei } de manière unique (dans cette base) par :
~e1 · ~e1 ~e1 · ~e2 ~e1 · ~e3 ... ~e1 · ~eN
~e1 · ~e2 ~e2 · ~e2 ~e2 · ~e3 ... ~e2 · ~eN
g= ...
. (2.3)
... ... ... ...
~e1 · ~eN ~e2 · ~eN ~eN · ~e3 ... ~eN · ~eN
I Pour un espace Euclidien de dimension 3 muni d’une base orthonormée, g est la métrique
euclidienne (de signature + + +) :
1 0 0
g= 0
1 0 . (2.4)
0 0 1
I Dans le cadre de la relativité restreinte on travaille dans des espaces de dimension 4 (espace
euclidien avec la composante temporelle en plus), on utilise la métrique dite Minkowskienne (où
la signature est + − −−) :
1 0 0 0
0 −1 0 0
0 0 −1 0 .
g= (2.5)
0 0 0 −1
2. En effet, soit un vecteur quelconque V ~ = P ci~ei ; sa norme au carré (donc définie positive) s’écrit :
i
~ ·V
V ~ =( P P P
ei ) · ( j cj ~ej ) = i,j ci cj gij .
i ci ~
Soit EN un espace vectoriel réel de dimension N finie et soit B = {~ei }, i = 1, N , une base,
pas forcément orthonormée. Les composantes de tout vecteur V ~ ∈ EN sont notées Vi - avec
indice en bas - de sorte que
N
X
~ =
V Vk~ek ≡ Vk~ek (convention d’Einstein). (2.6)
k=1
I On appelle Vk la composante du vecteur V dans la base B.
Convention d’Einstein
On rappelle ici la convention : tout indice répété est sommé de sorte que l’on puisse écrire, par
exemple, tout vecteur sur une base comme V ~ = Vj ~ej .
Définition
La matrice de passage α de {~ei } à {~ei 0 } est telle que sa ième colonne est formée des
composantes de ~ei 0 par rapport à la base {~ei }, elle s’écrit donc dans la base B comme :
(e~0 1 )1 (e~0 2 )1 (e~0 3 )1 ... (e~0 N )1
~0
(e ) (e~0 2 )2 (e~0 3 )2 ... (e~0 N )2
α= 1 2 , autrement dit, αij = (e~0 j )i . (2.9)
... ... ... ... ...
(e~0 1 )N (e~0 2 )N (e~0 3 ))N ... (e~0 N )N
N
X N
X X
~ α−1 0
V = Vk ~ek = Vk mk
~e m
k=1 k=1 m
X
−1 0
= α mk
Vk ~e m (convention d’Einstein sur k)
m
N
X
= Vm0 ~e 0
m = Vm0 ~e 0
m (convention d’Einstein sur m) . (2.11)
m=1
De même, en exprimant les vecteurs ~ei 0 dans la base B, Eq. (2.7), on peut écrire les relations
~ exprimées dans les deux bases :
entre les composantes de V
N
X
Vi0 = (α−1 )ki Vk = (α−1 )ki Vk
k=1
XN
Vj = αkj Vk0 = αkj Vk0 , (2.12)
k=1
Résumé
0 ~0
P de base B = {~ei } → B = {e i } caractérisé par la matrice de passage
Lors d’un changement
0
α, telle que ~ei = j αij ~ej , les composantes des vecteurs dans les deux bases sont données
par les relations de l’équation (2.12) qu’on peut écrire sous la forme compacte suivante :
V ~0; V
~ =αV ~ 0 = α−1 V
~. (2.13)
N
X
A ~ei = Aji ~ej (2.14)
j=1
= Aji ~ej ( convention d’Einstein sur j) . (2.15)
Il en est de même pour n’importe quelle base B 0 = {~ei 0 }, obtenue par changement de base,
Eq. (2.7), à partir de la base B. En cherchant à exprimer les éléments de matrice de A dans les
deux bases, on a :
N
X
A ~ei 0 = A0ji ~ej 0 = A0ji ~ej 0 (convention d’Einstein sur j) ,
j=1
N
!
X
0
A ~ei = A α`i ~e`
`=1
N
X N
X N X
X N
= α`i A ~e` = α`i Am` ~em = α`i Am` (α−1 )jm ~ej 0
`=1 `,m=1 j=1 `,m=1
−1
= α`i Am` (α )jm ~ej 0 (convention d’Einstein sur `, m, et j) ,
d’où,
De manière plus compacte, la relation entre la matrice dans B et dans B 0 est donnée par :
A0 = α−1 A α . (2.16)
Résumé :
Connaissant la matrice A dans une base B, elle s’écrit dans une base B 0 comme
A0 = α−1 A α . α étant la matrice de passage de B à B 0 .
Inversement, on peut écrire que A = α A0 α−1 .
En observant les équations (2.13) et (2.16), on remarque que les vecteurs ne mettent en jeu
qu’une seule matrice de passage lors d’un changement de base alors qu’il en faut deux (α−1 et
α) pour transformer un opérateur linéaire.
I Contrairement aux matrices carrés, la métrique g se transforme lors d’un changement de base
selon Eq. (2.17) - nécessitant donc deux matrices α -( les matrices nécessitant α−1 et α).
I On dira que la métrique g est un tenseur de rang 2 : objet mathématique dont les composantes
caractérisées par deux indices se transforment lors d’un changement de base selon Eq. (2.17)
avec deux matrices α. Le vecteur quant à lui est un tenseur de rang 1 , nécessitant une seule
matrice α lors d’un changement de base. Enfin, les nombres scalaires (produit scalaire, ...) sont
invariants par changement de base, ils sont donc des tenseurs d’ordre 0 .
Équations Différentielles
1
1.1 Généralités
EDO d’ordre n
qui met en relation une fonction y(x) et ses dérivées y 0 (x), y 00 (x),. . ., y (n) (x) par rapport à une
seule variable x ∈ R. L’ordre n de l’équation différentielle est fixé par la plus haute dérivée
présente dans l’équation. On notera aussi
dy d2 y dp y
y 0 (x) = , y 00 (x) = , y (p) (x) =
dx dx2 dxp
pour la première, la deuxième et la p-ième dérivée de y(x). D’autres cours peuvent utiliser
ẏ(x), ÿ(x) pour première et deuxième dérivées.
Une fonction y = φ(x) définie sur un intervalle I est une solution explicite d’une EDO
(1.1) si h i
F x, φ(x), φ0 (x), . . . , φ(n) = 0
pour tout x ∈ I. On imagine cette solution explicite comme dans la figure 1.1-(a).
Une relation g(x, y) = 0 est une solution implicite d’une EDO (1.1) sur un intervalle I, si
(a.) Il existe une fonction φ(x) définie sur I telle que g(x, φ(x)) = 0
44 1. ÉQUATIONS DIFFÉRENTIELLES ORDINAIRES
(a) Solution explicite : pour une (b) Solution implicite : pour (c) Solution générale : une famille
valeur de x, une seule valeur y une valeur de x, plusieurs va- de solutions paramétrisée par une
leurs y (ou plusieurs) constante(s) arbi-
traire(s)
(b.) Si h i
F x, φ(x), φ0 (x), . . . , φ(n) (x) = 0
pour tout x ∈ I.
Cette définition est abstraite, mais on peut facilement imaginer un cas concret. Si pour un même
x, plusieurs solutions y(x) existent, comme illustré dans la figure 1.1-(b), il est souvent plus facile
d’écrire la solution comme g(x, y) = 0.
Une solution générale d’une EDO dépend d’une ou plusieurs constantes arbitraires C1 , C2 , C3 , . . .
et permet en les variant d’obtenir l’ensemble des fonctions qui satisfont l’équation différentielle.
On imagine cette solution comme dans la figure 1.1-(c), c.a.d. comme la collection de courbes
que l’on obtient en variant ici C.
Une solution est une solution particulière, si elle ne dépend pas de constantes arbitraires.
On l’imagine comme une des solutions contenues dans la solution générale.
Un problème aux Conditions Initiales (CI) est défini par une EDO d’ordre n ≥ 1
accompagnée de exactement n conditions supplémentaires de la forme :
Les conditions aux limites fixent des combinaisons (pas forcément linéaires) de la fonction et/ou
ses n − 1 premières dérivées en plusieurs points x0 , x1 , x2 , . . ..
EDO linéaire
Une EDO (1.1) est linéaire, si la fonction F est linéaire dans toutes les variables y et ses
dérivées. C’est à dire que ∀a, b ∈ R et toutes les fonctions y(x) et z(x) :
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)
avec ai (x), b(x) des fonctions arbitraires. Si b(x) 6= 0 on dit que l’équation est inhomogène, si
b(x) = 0 l’équation est homogène. Une équation homogène a toujours y = 0 comme solution,
on parle de la solution triviale. Si les fonctions ai (x) = ai sont plutôt des constantes, on parle
d’une EDO linéaire à coefficients constants.
La solution homogène yh (x) est elle même une superposition arbitraire de n solutions linéairement
indépendantes φi (x), {i = 1, 2, . . . , n} de l’EDO homogène. Ces fonctions satisfont donc
(n) (n−1)
∀i ∈ {1, 2, . . . , n} : φi (x) + an−1 (x)φi (x) + . . . + a1 (x)φ0i (x) + a0 (x)φi (x) = 0
et
n
X
Di φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1
On vérifie aisément que dans ces conditions, la solution (1.3) satisfait l’EDO (1.2), quelque soit
les valeurs des n constantes arbitraires Ci , {i = 1, 2, . . . , n}.
Ordre 1
Ordre n
λn + an−1 λn−1 + . . . + a1 λ + a0 = 0
Pour ai ∈ R, les racines λi , i ∈ {1, . . . , n} seront réelles où complexe conjuguées par pair.
Afin d’écrire la solution, on doit distinguer deux cas différents :
a. Si toutes les racines λi sont différentes, la solution de l’EDO sera une superposition
arbitraire de fonctions exponentielles :
On remarque immédiatement que chaque terme est solution d’une EDO d’ordre 1 :
d
− λj eλj x = 0
dx
que l’on retrouve dans la factorisation (1.4). Comme on peut changer arbitrairement
l’ordre des opérateurs (d/dx − λj ) dans (1.4), on comprend d’où vient la solution (1.5).
b. S’il y a des racines multiples, la partie de la solution associée à ces racines ne sera pas
seulement composée de fonctions exponentielles. Regardons le cas spécifique de l’équation
archétype avec une racine double :
d d
−λ − λ y(x) = 0
dx dx
| {z }
= u(x)
Comme la notation le suggère, on résout cette équation en faisant une étape intermédiaire
passant par la fonction u(x), solution de
d
− λ u(x) = 0 ⇒ u(x) = C1 eλx
dx
Ensuite on trouve y(x) solution d’une EDO inhomogène d’ordre 1 à l’aide de la méthode
spécifiée au dessus :
d
− λ y(x) = C1 eλx ⇒ y(x) = (C1 x + C2 ) eλx
dx | {z }
P1 (x)
La solution est un polynôme arbitraire d’ordre 1 (noté P1 (x) ici) qui multiplie le facteur
exponentiel habituel.
Comme un polynôme arbitraire d’ordre 0, est une constante arbitraire on peut regrouper les
deux cas en une seule formule. La solution homogène se laisse toujours écrire sous la forme
X
yh (x) = Pkj −1 (x) eλj x
j
yp (x) = D0 + D1 x + . . . + Dp xp
On injecte cette solution dans l’EDO et on trouve des équations algébriques pour Di , i ∈
{1, . . . , p} par identification (membres de gauche, droite) des coefficients devant les différentes
exponentielles. Cette méthode ne marche pas si l’un des αi coı̈ncide avec une racine λi
de la solution homogène.
Dans le cas où b(x) est une fonction quelconque, il n’est pas si évident de trouver une
solution particulière. On apprendra une méthode systématique dans le chapitre suivant et on
pourra également utiliser l’analyse de Fourier (3ième partie de ce cours).
Exemple :
On cherche à résoudre l’EDO
y 00 + 3y 0 + 2y = x2
Le polynôme caractéristique se factorise aisément
λ2 + 3λ + 2 = (λ + 1)(λ + 2) ⇒ λ1 = −1 , λ2 = −2
yp (x) = Ax2 + Bx + C
On trouve
1 3 7
A= , B=− , C=
2 2 4
La solution générale est donc
x2 3x 7
−x −2x
y(x) = C1 e + C2 e + − +
2 2 4
Si on munit l’EDO de CI, on exprimera ces conditions un par un. Ceci mènera à un système
linéaire algébrique pour les coefficients arbitraires, qui apparaissent dans la solution homogène.
Ce système algébrique a toujours une solution unique.
Exemple (suite) :
Au précédent problème, on ajoute
CI : y(0) = 1 , y 0 (0) = 0
d2 y
+ k2 y = 0 , CL : y(0) = 0 , y(L) = 1
dx2
La solution générale de l’EDO est
Les CL fixent
D2 = 0 1
, D1 =
D1 sin kL = 1 sin kL
On trouve donc
sin kx
y(x) =
sin kL
comme solution du problème aux CL. Cette solution n’existe pas, si sin kL = 0, si k = nπ/L , n ∈
N0 .
Plus compliquées, mais très répandues en physique. A l’ordre 1, on connait toujours la solu-
tion au moins formellement. A l’ordre 2, on liste quelques EDO’s, dont les solutions définissent
des fonctions ou des polynômes spéciaux, que l’on rencontre souvent en physique.
Ordre 1
dy
+ a(x) y = b(x)
dx
La solution homogène yh (x) s’obtient en séparant dépendances en x de dépendances en y :
Zx
x
Z
dyh
= −a(x)dx ⇒ lnyh = D − a(x̃)dx̃ ⇒ yh (x) = Cexp − a(x̃)dx̃
yh
Si on ne trouve pas une solution particulière facilement (cas b(x) polynomiale ou exponen-
tielle), on peut appliquer la méthode de la variation de la constante. C.a.d. on propose
Injectée dans l’EDO, on trouvera une EDO pour le coefficient A(x), que l’on peut intégrer :
Zx
dA b(x) b(x̃)
= ⇒ A(x) = C0
dx̃ + |{z}
dx yh (x) yh (x̃)
=0
La constante arbitraire C 0 a été mise à zéro car elle ne reflète seulement qu’avec A(x) = C 0 on
retrouve la solution homogène du problème. On peut donc mettre C 0 = 0, sans que ça change
la solution générale.
Exemple :
On cherche la solution de l’EDO
y 0 + xy = x
Pour trouver la solution homogène on doit résoudre
dyh dyh 2 /2
+ xyh = 0 ⇒ = −xdx ⇒ yh (x) = Ce−x
dx yh
On voit immédiatement que yp = 1 est une solution particulière. La solution générale est donc
2 /2
y(x) = Ce−x +1
Zx Zx
x̃2 /2 2 /2 2 /2
A(x) = x̃ e dx̃ = ex̃ d(x̃2 /2) = ex
d2 m2
1 d
+ − 2 + 1 y(x) = 0
dx2 x dx x
Ici m ∈ Q et x ∈ [0, +∞[. La solution de cette équation est
On reconnait C1 et C2 des constantes arbitraires. Jm (x) et Ym (x) sont les fonctions de Bessel
du premier et deuxième type. Dans la figure 1.2, on montre ces fonctions pour différents m
entiers. On voit des oscillations qui décroissent en amplitude pour x croissant.
Il est utile de se souvenir des comportements pour grandes et petites valeurs de x.
r
2 π
Jm (x) ' cos x − (2m + 1)
πx 4
r
2 π
Ym (x) ' sin x − (2m + 1)
πx 4
c.a.d. des cosinus et des sinus, dont l’amplitude décroit progressivement en x−1/2 .
Les fonctions de Bessel sont des fonctions ”spéciales”, mais ont peu de spécial par rapport
aux fonctions élémentaires. Elles ont de nombreuses propriétés qui permettent de faire du calcul
formel. Elles apparaissent systématiquement dans des problèmes à symétrie cylindrique. Parfois
on utilise aussi les fonctions de Bessel modifiées, Im (x) et Km (x) que vous pouvez découvrir par
vous-même.
Similaire mais différent est l’équation de Bessel sphérique
2
d 2 d n(n + 1)
+ − + 1 y(x) = 0
dx2 x dx x2
Cette équation a comme solution
1 1
J (x) Y0(x)
0
J1(x) 0
J (x) Y1(x)
0.5 2 J3(x) Y (x)
2
−1
Y3(x)
0
−2
−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x
Les fonctions de Bessel sphérique jn (x) et yn (x) sont liées aux fonctions de Bessel :
r
π
jn (x) = J 1 (x)
2x n+ 2
r
π
yn (x) = Y 1 (x)
2x n+ 2
Mis à part un préfacteur ∼ x−1/2 , on retrouve ici des fonctions de Bessel ”normales” avec un
argument non-entier. Les fonctions de Bessel décroissent en x−1 pour x grand. Les formules de
Rayleigh donnent une forme alternative
1 d n sin x
n
jn (x) = (−x)
x dx x
n
1 d cos x
yn (x) = −(−x)n
x dx x
Dans la figure 1.3, on peut voir quelques fonctions de Bessel sphérique. Mise à part d’une
décroissance plus rapide pour x grand, les fonctions de Bessel sphériques ressemblent beaucoup
au fonctions de Bessel normales.
1 1
j0(x)
y0(x)
0 y1(x)
0.5 j1(x)
j2(x) y3(x)
j3(x) y2(x)
−1
0
−2
−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x
P0 (x) = 1
P1 (x) = x
P2 (x) = (3x2 − 1)/2
P3 (x) = (5x3 − 3x)/2
1 dn
(x2 − 1)n
Pn (x) = n n
2 n! dx
d2 m2
2 d
(1 − x ) 2 − 2x + n(n + 1) − y(x) = 0 , x ∈ [−1, 1]
dx dx 1 − x2
Il s’ajoute donc un nouveau terme dans l’EDO. Dans la plupart des applications en physique, le
nombre n ∈ N, le domaine x ∈ [−1, 1] et et m un entier dans l’intervalle [−n, n]. La solution
de cette EDO est
y(x) = C1 Pnm (x) + C2 Qm
n (x)
Pour n = 2 :
p
P2±1 (x) ∼ x 1 − x2
P2±2 (x) ∼ (1 − x2 )
On ne montre ici que la dépendance fonctionnelle à un facteur multiplicatif près. Vous pouvez
facilement trouver ces facteurs sur internet. On dispose d’une formule générale les fonctions
Pnm (x) aux polynômes de Legendre Pn (x) :
m/2 dm
Pnm (x) = (−1)m 1 − x2 (Pn (x))
dxm
On rencontrera les polynômes de Legendre dans le 3ième chapitre. Les fonctions
d2
d
x 2 + (1 − x) + n Ln (x) = 0 , x ∈ [0, +∞[
dx dx
Ces polynômes apparaissent en Mécanique Quantique, pour décrire la structure radiale
des fonctions d’onde décrivant l’atome d’hydrogène.
d2
d
(1 − x2 ) 2 − 2x + n2 Tn (x) = 0 , x ∈ [−1, 1]
dx dx
Ces polynômes sont beaucoup utilisés en analyse numérique.
Exercice :
On vérifié aisément que le polynôme d’ordre 0 peut toujours être :
dans l’équation différentielle de Hermite (pareil pour les autres). Regroupant les coefficients
devant les différentes puissances en x, vous allez trouver des systèmes linéaires algébriques,
permettant à chaque fois de calculer les coefficients A, B, C, . . ..
n H0 (x) Pn (x) Ln (x) Tn (x)
0 1 1 1 1
Les polynômes trouvés seront à un facteur multiplicatif près, identiques à ceux que vous
pouvez trouver sur le web. L’exercice sur les polynômes d’Hermite sera fait en TD.
1.3.1 Définition
Toute EDO (1.1) générale qui ne satisfait pas la propriété de linéarité, c.a.d. pour qui
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
6= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)
est non-linéaire. Il suffit de vérifier que l’EDO ne prenne pas la forme d’une EDO linéaire (1.2),
afin reconnaitre son caractère non-linéaire.
La plus importante conséquence de la non-linéarité est que le principe de superposition
ne s’applique plus. Les méthodes apprises dans la section précédente ne s’appliquent
donc pas du tout aux EDO’s non-linéaires.
Ici on présente quelques catégories d’EDO’s non-linéaires pour lesquelles on dispose d’une
méthode qui trouve la solution. Apprenez à reconnaı̂tre ces EDO’s. Il existe des équations non-
linéaires, qui deviennent linéaires par un changement de variable : l’EDO de type Bernoulli en
est un exemple.
EDO séparable
Une EDO séparable est une EDO, qui peut s’écrire comme une forme différentielle
f (x) dx + g(y) dy = 0
qui sépare un terme en x, d’un terme en y. A cause de cette propriété, la solution se trouve
en intégrant séparément les formes différentielles indépendantes sur x et sur y
Zx Zy
f (x̃) dx̃ + g(ỹ) dỹ = C
| {z } | {z }
F (x) G(y)
On comprend immédiatement que cette solution générale sera implicite : on n’écrit pas y comme
une fonction explicite de x, car la fonction inverse F −1 , n’existe pas forcément.
Exemple :
On considère le problème aux conditions initiales
dy
− 2xy 2 = 0 , CI : y(0.5) = 1 (1.7)
dx
On cherche la solution sur l’intervalle x ∈ [0.5, 1]. La solution générale de cette équation séparable
se trouve comme
dy 1
2
+ 2x dx = 0 ⇔ + x2 = C
(−y ) y
La condition initiale fixe la constante arbitraire à
1
C= + (0.5)2 = 1.25
1
La solution est représentée graphiquement plus bas, dans la figure 1.4(a).
EDO exacte
Toutes les EDO’s d’ordre 1 peuvent se récrire comme une forme différentielle
On appelle une EDO exacte, s’il existe une fonction ψ(x, y) qui a cette forme différentielle comme
différentielle totale. C’est à dire, si
∂ψ ∂ψ
dψ = dx + dy = f (x, y) dx + g(x, y) dy = 0
∂x ∂y
L’intégration est alors immédiate et donne
ψ(x, y) = C
C est une constante d’intégration arbitraire. Cette solution générale est implicite. En pratique,
on doit donc trouver ψ(x, y) et avant ça, il est nécessaire de tester si l’EDO est bien exacte. De
∂ψ ∂ψ
= f (x, y) , = g(x, y) (1.9)
∂x ∂y
on déduit que
∂2ψ ∂f ∂g
= =
∂x∂y ∂y ∂x
Ceci donne une condition nécessaire :
∂f ∂g
si = ⇒ EDO (1.8) est exacte
∂y ∂x
Une fois l’exactitude démontrée, on trouve la fonction ψ(x, y) en intégrant les équations (1.9)
séparément :
Zx
ψ(x, y) = f (x̃, y) dx̃ + B(y)
Zy
ψ(x, y) = g(x, ỹ) dỹ + A(x)
Comme on intègre des dérivées partielles, des fonctions A(x) et B(y) peuvent apparaı̂tre
comme ”constantes d’intégration”. Les deux expressions doivent être identiques et ceci fixe A(x)
et B(y) et donc la fonction ψ(x, y) recherchée.
Exemple :
On cherche la solution de l’EDO
dy
(x2 + 4y 3 ) + 2xy = 0 (1.10)
dx
Récrite comme une forme différentielle
∂ψ
= 2xy ⇔ ψ(x, y) = x2 y + D(y)
∂x
Les deux solutions doivent être identiques. On peut choisir C(x) = 0 mais il faut D(y) = y 4 . La
solution de l’EDO est donc
x2 y + y 4 = C
On montre cette solution pour plusieurs valeurs de C dans la figure 1.4(b).
La situation d’une équation exacte est très fragile. Donnons un exemple. L’EDO
∂(x y 2 + x) ∂(x2 y)
(x y 2 + x)dx + x2 y dy = 0 , = = 2xy
∂y ∂x
est exacte, mais si on la divise par x, elle ne l’est plus :
∂(y 2 + 1) ∂(x y)
(y 2 + 1)dx + x y dy = 0 , = 2y 6= =y
∂y ∂x
Plutôt que de voir cette situation comme un désavantage, on peut retourner la logique de 180
degrées : une EDO non-exacte peut le devenir après multiplication avec un facteur intégrant
M (x, y) :
∂(M f ) ∂(M g)
M (x, y) f (x, y)dx + M (x, y) g(x, y)dy = 0 , = ⇒ peut être exact ?
∂y ∂x
Trouver un facteur intégrant d’une EDO non-exacte est rarement une chose simple, mais si on
en trouve un, l’EDO est résolue ! On dispose d’une procédure systématique pour tester si des
facteurs intégrants M = M (x) où M = M (y) existent, mais pas d’une procédure pour un facteur
M (x, y) général.
EDO Bernoulli
10 10
8 8
6 6
C = 10000
y
y
5000
4 4
1000
2 2
100
10
0 0
0 0.5 1 1.5 0 20 40 60 80 100
x x
(a) Solution de l’équation séparable (1.7). La condition (b) Solution générale de l’équation exacte (1.10) pour
initiale est√marquée par un cercle. La solution diverge plusieurs de valeurs C
pour x → C
1.2
0.8
0.1
0.01
0.6 0.0001
y
y(0) = 1e−06
0.4
0.2
0
0 5 10 15 20
x
Figure 1.4 – Visualisation graphique des solutions de quelques équations différentielles non-
linéaires.
2.1 Généralités
qui sont à satisfaire par un ensemble de m fonctions yi (x) et leurs dérivées yi0 (x), yi00 (x),. . .,
(n)
yi (x) , i ∈ {1, 2, . . . , m} par rapport à une seule variable x. L’ordre de ce système est fixé
par la plus haute dérivée présente dans les équations.
Réduction d’ordre
Dans le reste du chapitre nous allons concentrer notre attention sur les systèmes d’EDO’s
du premier ordre. Ceci n’est pas un aveux de notre incapacité à faire mieux, mais plutôt une
conséquence du fait que :
a. Toute EDO d’ordre n, peut s’écrire comme un système de n EDO’s d’ordre 1.
b. Tout système de m EDO’s d’ordre n, peut s’écrire comme un système de nm EDO’s du
premier ordre.
Ce processus est connu sous le nom de la réduction d’ordre. Donnons deux exemples des
opérations à suivre
Exemple 1 :
64 2. SYSTÈMES D’EQUATIONS DIFFÉRENTIELLES ORDINAIRES
Une EDO linéaire d’ordre n s’écrit comme un système d’EDO’s d’ordre 1. L’équation originale
s’écrit
y (n) + an−1 (x)y (n−1) + . . . + a1 (x)y 0 + a0 (x)y = b(x)
On renomme
y1 (x) = y(x) , y2 (x) = y 0 (x) , . . . , yn (x) = y (n−1) (x)
Ainsi qu’on peut récrire l’EDO comme le système (linéaire)
y10 = y2
y20 = y3
...
y 0 = yn
n−10
yn = −a0 (x)y1 − a1 (x)y2 − . . . − an−1 (x)yn − b(x)
Exemple 2 :
Le position ~r(t) d’une masse m ponctuelle peut varier au cours du temps sous l’influence
d’une force F~ , suivant le principe fondamental de la dynamique
d2~r
~ d~r
m 2 = F t, ~r,
dt dt
En coordonnées Cartésiennes (x, y) et en 2D, on décompose
~r(t) = x(t)~ex + y(t)~ey
F~ (. . .) = Fx (. . .)~ex + Fy (. . .)~ey
et pareil pour la vitesse
~r 0 (t) = x0 (t)~ex + y 0 (t)~ey = u(t)~ex + v(t)~ey
Le PFD projeté sur ~ex , ~ey , dicte
x00 = m−1 Fx t, x, y, z, x0 , y 0 , z 0
y 00 = m−1 Fy t, x, y, z, x0 , y 0 , z 0
Ceci est un système de 2 EDO’s d’ordre 2. Le processus de réduction d’ordre, nous permet de
récrire ce système sous la forme de 4 équations d’ordre 1, à l’aide de 4 nouvelles variables au
lieu de 2 seulement. On choisit ces variables non par hasard comme
x(t) , y(t) , u(t) , v(t)
car intuitivement on comprend que ces variables donnent une spécification complète de l’état du
système : la position de la masse et sa vitesse. Si on fait une réduction d’ordre à l’aide de ces
variables, on doit à toute évidence avoir
x0 = u
y0 = v
u0 = m−1 Fx (t, x, y, u, v)
v 0 = m−1 Fy (t, x, y, u, v)
qui est un système d’EDO’s d’ordre 1.
La plupart des systèmes d’EDO’s que l’on rencontre en physique peuvent s’écrire sous une
forme canonique où on arrive à isoler la dérivée d’ordre 1 dans un membre de gauche :
y1 f1 (x, y1 , y2 , . . . , yn )
y2 f2 (x, y1 , y2 , . . . , yn )
d
.. = ..
dx .
.
yn fn (x, y1 , y2 , . . . , yn )
| {z } | {z }
Y F(x,Y)
On traitera uniquement ce genre de système dans le reste du chapitre. Un tel système d’EDO’s
se laisse écrire brièvement
dY
= F(x, Y) (2.1)
dx
Dans ce polycopié et au tableau, on notera avec des lettres majuscules et grasses ces vecteurs
colonnes. Parfois on appelle Y le vecteur d’état d’un système. Le vecteur d’état Y vit dans
un espace (vectoriel) à n dimensions appelé espace de phase. En écrivant le système d’EDO’s
précédent, on spécifie un système dynamique.
On peut définir un problème à conditions initiales, en ajoutant à un tel système d’EDO’s
(du premier ordre) un ensemble de conditions initiales en un même point x0 :
CI : Y(x0 ) = Y0
Le théorème de Cauchy-Lifschitz donne des conditions nécessaires pour qu’un problème aux
conditions initiales ait une solution et qu’elle soit unique. Ce théorème n’est pas traité dans le
polycopié.
Système linéaire
Un système de n EDO’s du premier ordre (2.1) est linéaire, si F(x, Y) est une fonction
linéaire dans l’argument vectoriel Y, c.a.d. :
∀Y, Z , ∀a, b : F(x, aY + bZ) = a F(x, Y) + b F(x, Z)
Sinon, le système est non-linéaire. Tout système linéaire peut s’écrire comme
y1 a11 (x) a12 (x) . . . a1n (x) y1 b1 (x)
y2 a21 (x) a22 (x) . . . a2n (x) y2 b2 (x)
d
. = .. .. .. .. .. + ..
dx .. . . . . . .
yn an1 (x) an2 (x) . . . ann (x) yn bn (x)
| {z } | {z } | {z } | {z }
Y A(x) Y B(x)
soit
dY
= A(x) Y + B(x) (2.2)
dx
en format condensé. Ici on note A(x) une fonction matricielle avec n × n composantes. Si
A(x) = A ne dépend pas de x, on parle d’un système linéaire à coefficients constants. Si le
vecteur colonne B(x) 6= 0 le système est inhomogène. Si B(x) = 0, le système est homogène.
n
X
Y(x) = Ci Φi (x) +Yp (x) (2.3)
i=1
| {z }
Yh (x)
La solution homogène Yh (x) est composée d’une combinaison linéaire arbitraire de n fonctions
vectorielles Φi (x), {i = 1, 2, . . . , n} linéairement indépendantes. Ces fonctions satisfont donc
dΦi (x)
∀i ∈ {1, 2, . . . , n} : = A(x) Φi (x)
dx
et
n
X
Di Φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1
dYp (x)
= A(x) Yp (x) + B(x)
dx
On vérifie aisément que la solution générale (2.3) satisfait (2.2), quelque soient les valeurs des
constantes arbitraires Ci , {i = 1, 2, . . . , n}.
Remarque :
Pour une matrice A(x) générale, on ne dispose pas d’une méthode analytique pour trouver
la solution Y(x), mais le principe de superposition et les précédentes affirmations sur l’existence
d’une base de solution Φi (x) , i = 1, 2, . . . , n tiennent. On considèrera seulement des systèmes
linéaires à coefficients constants dans la suite de cette section.
dY
= A Y + B(x) , CI : Y(x0 ) = Y0 (2.4)
dx
D’abord on trouve la solution homogène, puis la solution particulière et à la fin on fixe les
constantes arbitraires afin de satisfaire la CI.
dYh (x)
= AYh (x) (2.5)
dx
avec A donc une matrice constante. La méthode générale passe par le calcul de l’exponentielle
de matrice, mais pour des matrices diagonalisables, il existe une méthode plus simple passant
par un calcul des valeurs et des vecteurs propres de la matrice A.
Une matrice A diagonalisable est une matrice dont on peut calculer valeurs et vecteurs
propres. On rappelle que les n valeurs propres λ1 , λ2 , . . . , λn sont calculées comme les
racines (complexes) du polynôme caractéristique
Si on organise les vecteurs propres et les fonctions exponentielles dans les colonnes d’une
matrice
q1,1 eλ1 x q2,1 eλ2 x . . . qn,1 eλn x
q1,2 eλ1 x q2,2 eλ2 x . . . qn,2 eλn x
M(x) =
.. .. .. ..
. . . .
q1,n e λ 1 x q e λ 2 x . . . qn,n e λ n x
| {z } 2,n | {z } | {z }
Q1 eλ1 x Q2 eλ2 x Qn eλn x
on crée ce que l’on appelle matrice d’un système fondamental de solutions. Suite à
l’indépendance linéaire des solutions, on sait que cette matrice est toujours inversible :
M−1 (x) existe donc pour tout x.
Comme, par définition, les valeurs propres λi sont telles que les deux équations algébriques
de ci-dessus (les n en général) soient linéairement dépendantes, il suffira de satisfaire une
seule des deux équations (n − 1 des n en général) pour trouver les vecteurs propres. Par
exemple
q1i q1i 1
−λi 1 = 0 ⇒ Qi = = αi
q2i q2i λi
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
2.2. SYSTÈMES D’EDO’S LINÉAIRES 69
Dans cette expression αi ∈ C sont des constantes arbitraires qui n’ont aucune importance
car on multipliera ces vecteurs par d’autres constantes arbitraires C1 , C2 lorsqu’on écrit
la solution du problème. Choisissons αi = 1 ici. La solution homogène sera alors :
" # " #
√ √
1√ −1+ 5
x 1 √
−1− 5
x
Yh (x) = C1 −1+ 5 e 2 + C 2 −1− 5 e 2
2 2
Dans la figure 2.1(a), on affiche cette solution dans le plan de phase y1 − y2 . En fixant une
condition initiale, on fixera C1 , C2 et ceci revient à sélectionner une courbe spécifique.
En augmentant x, la dynamique évoluera le long de ces trajectoires, suivant le sens des
flèches. On reconnait qu’il s’agit d’une famille d’hyperboles.
On affiche cette solution dans la figure 2.1(b). Dans le plan de phase y1 −y2 , la dynamique
évoluera le long de trajectoires circulaires, suivant le sens des flèches. Fixer C et χ revient
à sélectionner un cercle de rayon C et un angle χ initial.
I est la matrice identité de taille n × n et les produits AA . . . A sont des produits ma-
triciels et non des produits ordinaires ! On peut dériver cette expression par rapport à x,
pour trouver
d Ax 2x 3x2 4x3
e = 0 + A + AA + AAA + AAAA + ...
dx 2! 3! 4!
x2 x3
= A I + Ax + AA + AAA + . . .
2! 3!
= AeAx (2.8)
Si on compare avec le système (2.5), on reconnait immédiatement que eAx semble résoudre
le même système que Yh . Supposons que l’on arrive à calculer cette exponentielle de
matrice, on pourra noter
φ11 (x) φ12 (x) . . . φ1n (x)
φ21 (x) φ22 (x) . . . φ2n (x)
eAx =
.. .. .. ..
. . . .
φn1 (x) φn2 (x) . . . φnn (x)
| {z } | {z } | {z }
Φ1 (x) Φ2 (x) Φn (x)
Cette relation se démontre en deux étapes. Utilisant le règle de Leibniz et (2.8) on trouve
que
d Ax −Ax
e e = eAx (A − A)e−Ax = 0.
dx
Le produit eAx e−Ax est donc indépendant de x. Afin de trouver la valeur de ce produit,
il suffit alors de choisir par exemple x = 0, dans la définition de eAx pour trouver que
eAx e−Ax = I. Ceci démontre (2.9) et donc l’indépendance linéaire des n solutions Φi (x)
contenues dans les colonnes de eAx .
En conclusion, la solution homogène peut donc aussi s’écrire comme une superposition
arbitraire des colonnes de eAx :
Ici aussi, on peut introduire la matrice d’un système fondamental de solutions M(x), que
l’on choisit directement comme M(x) = eAx .
Remarque :
Exemple 3 :
2 1
1.5
1 0.5
0.5
y2
y2
0 0
−0.5
−1 −0.5
−1.5
−2 −1
−2 −1 0 1 2 −1 −0.5 0 0.5 1
y1 y1
(a) Les trajectoires sont hyperboliques dans (b) Les trajectoires sont elliptiques (circulaires
l’exemple 1. En fixant C1 , C2 par une CI, on ici) dans l’exemple 2. En fixant C, χ par une CI,
sélectionne une de ces trajectoires on sélectionne une de ces trajectoires
1.5
0.5
y2
−0.5
−1
−1.5
−2
−2 −1 0 1 2
y1
Figure 2.1 – Les solutions de systèmes linéaires sont parfois visualisées dans un plan (espace)
de phase
3
a2 2a a3 3a2
a 1 a 1
= =
0 a 0 a 0 a2 0 a3
tel que n
an nan−1 an ∂(an )/∂a
a 1
= =
0 a 0 an 0 an
Les termes diagonaux sont simplement mis à la puissance. Le terme qui n’est pas sur
la diagonale est toujours la dérivée de celui sur la diagonale. En sommant toutes ces
différents matrices, nous reconaissons les séries limitées de la fonction exponentielle et de
sa dérivée
1 1
eax = 1 + ax + a2 x2 + a3 x3 + . . .
2 3!
∂ eax 1 1 2 3
= 0 + x + 2ax + 3a x + . . . = xeax
2
∂a 2 3!
La solution est visualisée dans l’espace de phase en figure (2.1(c)). On y a choisit a = −1.
Généralisation :
Toutes les matrices A peuvent se réduire à la forme de Jordan, c.a.d. il existera toujours
une matrice P inversible et telle que :
J = P−1 A P , A = P J P−1
Cette matrice de Jordan J est identique à la matrice Λ si A est diagonalisable, sinon elle
est diagonale par bloc. Dans l’exemple précédent, la matrice A = J est une matrice de
Jordan. Sans vouloir détailler la forme générale d’une matrice de Jordan, on se contente
ici de savoir qu’on pourra toujours calculer facilement l’exponentielle de matrice eJ x .
Comme
An = (PJ P−1 )(P J P−1 )(P J P−1 ) . . . (PJ P−1 )(P J P−1 ) = PJ n P−1
| {z } | {z } | {z }
I I I
nous pouvons trouver que
eAx = Pexp(J x)P−1
ce qui se calcule connaissant P et J .
On regarde quelques cas particuliers et puis on propose une méthode générale qui étend la
méthode de la variation de la constante.
αm x
P
b. B(x) = m Bm e composée d’exponentielles
Si dans B(x) on trouve des fonctions du type sin, cos, cosh, sinh, exp, on le sépare tout
d’abord en simples exponentielles. On peut alors trouver la solution particulière sous
cette même forme X
Yp (x) = Dm eαm x
m
Si on injecte cette proposition de solution dans l’équation, on trouve que les vecteurs Dm
doivent être les solutions des m problèmes
(A − αm I) Dm = −Bm
Que l’on doit résoudre séparément. Cette méthode ne fonctionne pas si l’un des αm est
identique à l’un des valeurs propres λi de la matrice A.
c. B(x) quelconque
Pour B(x) quelconque, on peut étendre la méthode de la variation de la constante, in-
troduite pour des EDO’s linéaires d’ordre 1 dans le premier chapitre. Connaissant la
solution homogène (c.a.d. n fonctions vectorielles Φi (x) , i = 1, 2, . . . , n linéairement
indépendantes) on cherche la solution particulière comme
Par un abus de langage on ”varie donc les constantes arbitraires” et si on injecte cette
proposition de solution dans le système (2.4) il restera un système linéaire algébrique
pour les dérivées Di0 (x) , i = 1, 2, . . . , n :
0
φ11 (x) φ12 (x) . . . φ1n (x) D1 (x) b1 (x)
φ21 (x) φ22 (x) . . . φ2n (x) D0 (x) b2 (x)
2
= ..
.. .. .. .. ..
. . . . . .
φn1 (x) φn2 (x) . . . φnn (x) 0
Dn (x) bn (x)
| {z }| {z } | {z }
M(x) D0 (x) B(x)
D’abord on doit résoudre ce système linéaire, ce qu’on peut écrire comme D0 (x) =
M−1 (x) B(x), puis on doit intégrer pour trouver D(x)
Zx
D(x) = M−1 (x̃) B(x̃) dx̃
Cette méthode fonctionne en principe toujours, mais elle est rarement facile à mettre
en œuvre, car nécessitant de calculer de nombreuses fonctions primitives et une matrice
inverse.
On reprend le système de l’exemple 2, précédent, mais cette fois ci avec un terme en plus
qui le rend inhomogène
d y1 0 1 y1 0
= +
dx y2 −1 0 y2 cos x
La solution homogène est déjà connue (exemple 2, plus haut). Afin d’appliquer la méthode
de la variation de la constante, on cherche une solution particulière de la forme
1 1
Yp (x) = D1 (x) ix
e + D2 (x) e−ix
i −i
Injectée dans le système, on trouve le problème
e−ix
0
D10 (x) −ie−ix cos x
ix
e D1 (x) 0 1
= ⇔ =
ieix −ie−ix D20 (x) cos x D20 (x) 2 ie+ix cos x
Intégration donne
e−2ix e2ix
1 1
D1 (x) = −ix + , D2 (x) = ix +
4 2 4 2
et au final
1 x sin x 1 cos x
Yp (x) = +
2 x cos x 4 sin x
La solution générale du système d’EDO inhomogène devient alors
1 1 1 x sin x 1 cos x
Y(x) = C1 eix + C2 e−ix + +
i −i 2 x cos x 4 sin x
CI : Y(x0 ) = Y0
celle-ci fixera les valeurs des constantes arbitraires. On exprime cette condition à l’aide de la
solution générale :
X n
Ci Φi (x0 ) + Yp (x0 ) = Y0
i=1
Ceci donne un système linéaire algébrique pour les constantes Cj qu’on devra résoudre afin
d’identifier la solution unique
φ11 (x0 ) φ12 (x0 ) . . . φ1n (x0 ) C1 y0,1 − yp,1 (x0 )
φ21 (x0 ) φ22 (x0 ) . . . φ2n (x0 ) C2 y0,2 − yp,2 (x0 )
=
.. .. .. .. .. ..
. . . . . .
φn1 (x0 ) φn2 (x0 ) . . . φnn (x0 ) Cn y0,n − yp,n (x0 )
| {z } | {z } | {z }
M(x0 ) C Y0 −Yp (x0 )
y200 + y2 = cos x
Selon le chapitre précédent, la solution de ce problème est composé d’une solution homogène et
d’une solution particulière. Comme mentionné dans le chapitre précédent, cette solution parti-
culière peut être difficile à calculer. L’exemple 2 nous a montré qu’en écrivant cette EDO d’ordre
2, comme un système de 2 EDO’s d’ordre 1, on dispose toujours d’une méthode pour calculer
la solution particulière.
Une grande partie des systèmes d’EDOs que l’on rencontre en physique classique, mais aussi
dans des systèmes industriels sont non-linéaires et de la forme canonique (2.1). Malheureusement,
la réalité est telle que peu de systèmes ont une solution tractable analytiquement.
La théorie des systèmes dynamiques est une branche des mathématiques très avancée. Il
existe de nombreux outils pour analyser le comportement des systèmes d’EDO’s non-linéaires.
Ici on se limitera à la discussion d’une méthode souvent utilisée pour comprendre la dynamique
au voisinage d’un état d’équilibre.
Système autonome
Supposons un système d’EDO’s de la forme canonique (2.1). Un tel système sera autonome
s’il est de la forme
dY
= F(Y) (2.11)
dt
où la fonction F(Y) ne dépend pas explicitement de la variable t. On change de nom
x → t pour mieux faire référence à une variable t temporelle, ce qui facilitera la compréhension
du vocabulaire utilisé. Pour de tels systèmes autonomes, on peut chercher des états d’équilibre
et linéariser la dynamique autour de ces points, afin de dire un mot sur la stabilité de ces points
d’équilibre.
On appelle Ye = [ye,1 , ye,2 , . . . , ye,n ]T un (vecteur d’) état d’équilibre ou point fixe d’un
système autonome (2.11), si
F(Ye ) = 0
On rappelle que ceci veut dire que les n composantes de la fonction vectorielle F s’annulent en
ce point :
f1 (ye,1 , ye,2 , . . . , ye,n ) = 0
f2 (ye,1 , ye,2 , . . . , ye,n ) = 0
...
fn (ye,1 , ye,2 , . . . , ye,n ) = 0
En toute évidence, dYe /dt = 0 au point d’équilibre, d’où son nom. Un même système d’EDO’s
peut avoir aucun, 1, 2 voir une infinité de points fixes.
Dans un état d’équilibre, l’état d’un système est au repos, mais si on s’écarte de cet équilibre,
en perturbant légèrement la dynamique par
Y(x) = Ye + Z(t) , 1
on peut s’intéresser à la stabilité du point fixe Ye . Pour illustrer cette notion de stabilité, on
considère le cas du pendule
2
g
1
Equilibre 1 Equilibre 2
stable instable
Un pendule a deux points d’équilibre. Le point 1 du bas est stable car tout écart de la
position d’équilibre le ramènera vers la position 1. Le point d’équilibre du haut, point 2, est
instable car toute écart de cette position s’agrandira.
De manière plus générale, mais mathématiquement pas très précise, on dit que
a. Le point d’équilibre Ye est instable s’il existe des écarts Z(t) infinitésimaux ( 1)
qui vont s’amplifier Z(t) % pour t → +∞
c. Le point d’équilibre Ye est marginalement stable si tous les écarts Z(t) infinitésimaux
( 1)
restent d’ordre à temps long t → +∞, sans jamais revenir vers zéro.
Pour répondre à la question de stabilité d’un point fixe, on dispose d’une méthode : on
linéarise la dynamique autour d’un point d’équilibre Ye que l’on suppose connu. Le système
perturbé devra satisfaire le système d’EDO
d
(Ye + Z) = F(Ye + Z)
dt
Si on ignore les termes d’ordre O(2 ), on fait une approximation et on obtient le système
d’EDO’s linéarisé pour la perturbation Z(t) :
z1 ∂f1 /∂y1 ∂f1 /∂y2 . . . ∂f1 /∂yn z1
d z2 ∂f2 /∂y1 ∂f2 /∂y2 . . . ∂f2 /∂yn z2
=
.. .. .. .. .. ..
dt
. . . . . .
zn ∂fn /∂y1 ∂fn /∂y2 . . . ∂fn /∂yn Y=Ye
zn
| {z } | {z } | {z }
Z J(Ye ) Z
La matrice Jacobienne J(Ye ) est une matrice à coefficients constants, que l’on calcule en
évaluant toutes les dérivées partielles des fonctions fi (y1 , y2 , . . . , yn ) , i = 1, 2, . . . , n dans le
point d’équilibre Ye .
Afin d’évaluer la stabilité d’un point fixe, il convient de calculer la solution homogène du
système d’EDO’s linéarisé. Dans le cas le plus courant, la matrice J(Ye ) sera diagonalisable et
on pourra donc trouver que
avec Ci des coefficients arbitraires, λi et Qi les valeurs et vecteurs propres de la matrice J(Ye ).
Les Qi sont souvent appelés modes linéaires. En inspectant les valeurs propres λi , on peut
maintenant conclure sur la stabilité d’un point d’équilibre pour des temps longs t → +∞.
a. Le point d’équilibre Ye sera instable s’il existe des valeurs propres avec
b. Le point d’équilibre Ye sera stable si toutes les valeurs propres sont telles que
Re(λk ) < 0
c. Le point d’équilibre Ye sera marginalement stable si aucun vecteur propre est instable,
mais s’il existe au moins un (deux pour un système réel) vecteur propre Qk qui a sa valeur
propre
Re(λk ) = 0
Si la partie imaginaire est non-nulle, la dynamique résultante pour Z(t) pourra être
oscillatoire.
Un pendule idéal est une masse m liée par une tige de masse 0 et de longueur L à un point
d’attache. Si on met cette pendule dans le champ de gravité de la terre elle subira l’accélération
gravitationnelle g.
θ(t)
mg
Si on note θ(t), l’angle de déviation par rapport à la verticale, la mécanique nous indique
que
d2 θ
mL = −mg sin θ (2.13)
dt2
et R = mg cos θ la réaction de la tige.
La solution est ”connue” sous forme implicite. Si on multiplie cette EDO par Ldθ/dt, on
peut la récrire comme
" #
d mL2 dθ 2
− mgL cos θ = 0
dt 2 dt
Entre les crochets, on reconnait l’expression de l’énergie mécanique dans le système et cette
EDO exprime donc sa conservation. On écrit donc
2
mL2
dθ
− mgL cos θ = EM
2 dt
avec EM l’énergie mécanique qui est donc une constante du mouvement. Dans la figure ci-
dessus, on affiche un ”portrait de phase” de cette solution. Les lignes sont des iso-lignes de
énergie mécanique EM .
5 3
dθ/dt
0 2
1
−5
−6 −4 −2 0 2 4 6
θ
En spécifiant des conditions initiales sur θ(0) and dθ/dt(0), on choisira une ligne parmi ces
contours, qu’on ne quittera plus au cours du temps. Pour se faire une idée qualitative du mou-
vement du pendule, on schématise ci-dessous l’évolution du pendule si on suit l’une des 3 lignes
marqués dans la figure au dessus.
2 3
Il s’agit d’oscillations à faible amplitude (1), grande amplitude (2) ou des rotations soutenues
du pendule (3) sans jamais inverser de sens.
Cet exemple est illustratif pour appliquer la méthode de l’analyse locale. On commence par
écrire l’EDO d’ordre 2 (2.13) comme un système de 2 EDO’s d’ordre 1. On note θ̇ = dθ/dt.
d θ θ̇
= (2.14)
dt θ̇ −(g/l) sin θ
Soit tous les points, θ = nπ, θ̇ = 0 avec n entier. Ces points sont marqués avec des (•) dans la
figure de ci-dessous.
Point d’équilibre du bas :
On écrit maintenant le système d’EDO’s linéarisé autour du point d’équilibre du bas, c.a.d.
on substitue θ(t) = 0 + φ(t) dans le système non-linéaire (2.14) et on utilise le DL
φ̇2
φ(t) = C cos ωt + D sin ωt
, φ2 + = C 2 + D2
φ̇(t) = −Cω sin ωt + Dω cos ωt ω2
p
avec ω = g/l, C, D des constantes arbitraires. Dans le plan de phase φ − φ̇, la dynamique
suivra des ellipses, comme visualisé dans la figure (a) ci-dessous. On retrouve par cette analyse
locale, une version zoomée du plan de phase autour du point d’équilibre stable θ = 0. Pour des
raison évidents, on dit que le point d’équilibre du bas est un point elliptique.
5 5
dχ/dt
dφ/dt 0 0
−5 −5
−1 0 1 −1 0 1
φ χ
(a) Point fixe marginalement stable (b) Point fixe instable du haut : point
du bas : point elliptique hyperbolique
3.1 Généralités
Définitions
∂pf ∂pf
∂f ∂f ∂f
F x1 , x2 , . . . , xn , , ,..., ,...,...,..., p,..., p = 0 (3.1)
∂x1 ∂x2 ∂xn ∂x1 ∂xr
L’ordre p est fixé par la plus haute dérivée partielle dans l’équation. Une EDP sera linéaire, si
la fonction F est linéaire dans tous les arguments.
Notations
∂f 2 ∂2f 2 ∂2f
∂x f = , ∂xx f= , ∂xy f=
∂x ∂x2 ∂x∂y
∂f ∂2f ∂2f
fx = , fxx = , fxy =
∂x ∂x2 ∂x∂y
Solutions séparables
On appelle f = φ(x1 , x2 , . . . , xn ) une solution séparable d’une EDP (3.1) si elle est de la
forme
φ(x1 , x2 , . . . , xn ) = X1 (x1 )X2 (x2 ) . . . Xn (xn )
Dans cette solution, les dépendances spatiales apparaissent séparément en facteurs différents.
Cette forme de la solution permet de facilement imposer des conditions limites sur un domaine
délimité par des surfaces coordonnées (surface où l’une des coordonnées xj = Cst).
3.2.1 Définitions
Laplacien
Calculer le Laplacien d’un champ revient à d’abord calculer son gradient, puis la divergence de
ce gradient. On peut calculer le Laplacien de tout genre de champ scalaire f , vectoriel F~ ou
tensoriel F, mais ici on se limitera à des champs scalaires.
Dans un espace à n dimensions, avec (x1 , x2 , . . . , xn ) des coordonnées cartésiennes et f (x1 , x2 , . . . , xn )
une fonction quelconque, on appelle
n
X ∂2f
∆f =
j=1
∂x2j
le Laplacien de f . La plupart des applications en physique se situent dans un espace à 1, 2 ou
3 dimensions. Selon la forme du domaine considéré, il convient d’utiliser d’autres coordonnées.
En 2D, on fera des exemples en coordonnées Cartésiennes (x, y) et cylindrique (polaires) (ρ, φ) :
∂2f ∂2f
∆f = +
∂x2 ∂y 2
1 ∂2f
1 ∂ ∂f
∆f = ρ + 2 2
ρ ∂ρ ∂ρ ρ ∂φ
En 3D, on se restreindra aux coordonnées Cartésiennes (x, y, z), cylindriques (ρ, φ, z) et sphériques
(r, θ, φ) :
∂2f ∂2f ∂2f
∆f = + +
∂x2 ∂y 2 ∂z 2
1 ∂2f ∂2f
1 ∂ ∂f
∆f = ρ + 2 2+ 2
ρ ∂ρ ∂ρ ρ ∂φ ∂z
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 87
∂2f 2
1 ∂ 2 ∂f 1 ∂ ∂f 1
∆f = 2 r + 2 sin θ + 2 2 ∂φ
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ
Pour comprendre l’origine de ces formules, il faut faire de l’analyse vectorielle. Quelques
éléments supplémentaires se trouvent en annexe.
Problème de Laplace
∆f = 0
dans un domaine D, satisfait un problème de Laplace. On dit aussi que f est une fonction
harmonique.
Conditions limites
Souvent on résout un problème de Laplace ensemble avec des conditions limites. On imagine
le domaine D et son bord δD comme ci-dessous :
cas 2D cas 3D
En 2D, le domaine D est une surface et son bord δD un contour. En 3D, le domaine D est
un volume et son bord δD sera une surface. Nous notons ~n le vecteur unitaire normal sortant
de δD.
Dans le problème de Laplace (et plus généralement pour les EDPs d’ordre 2 en espace), on
utilisera des conditions aux limites
La notation avec la barre verticale |δD , signifie que la relation ne s’applique qu’aux bords.
La fonction h est supposée connue.
Ici H est une fonction supposée connue, ~n le vecteur normal unitaire. Une CL de type
Neumann fixe la valeur de la dérivée normale de la fonction sur le bord du domaine.
Le plus fréquemment, on rencontre des conditions aux limites de type Dirichlet ou Neumann en
physique.
Conditions de régularité
Soit un champ f (x1 , . . . , xn ), qui satisfait le problème de Laplace dans un domaine D avec
une CL de type Dirichlet ou Neumann sur le bord δD. Les valeurs minimales et maximales
de f doivent être atteintes sur le bord du domaine δD et jamais à l’intérieur de D.
Preuve :
Supposons que f satisfait ∆f = 0 et atteint un maximum en ~xmax ∈ D. Toutes les premières
dérivées partielles doivent donc s’annuler
∂f
∀j ∈ 1, . . . , n : =0
∂xj ~x=~xmax
∂ 2 f
∀j ∈ 1, . . . , n : <0
∂x2j ~x=~xmax
On comprend directement que cette dernière propriété n’est pas compatible avec le caractère
Laplacien de f qui impose que
n
X ∂ 2 f
∆f = =0
∂x2j ~x=~xmax
~x=~
xmax
j=1
dans ce point. L’affirmation initiale est donc fausse : il n’existe aucun point ~xmax ∈ D ou la
fonction harmonique f peut atteindre son maximum. Ceci implique donc que le maximum doit
se trouver sur le bord du domaine δD. On tient exactement le même raisonnement pour le
minimum.
Conséquence :
Le précédent théorème nous indique que la seule solution de
∆f = 0 , ~r ∈ D , CL : f = 0 , ~r ∈ δD
doit être f = 0 partout.
avec A± , B± des constantes arbitraires. Cette forme de la solution suggère une structure
exponentielle le long de y, avec une dépendance sinus- et cosinusoı̈dale le long de x, mais
attention, k ∈ C et on peut très bien avoir l’inverse (remplacer k = iK par exemple)
b. Le cas k = 0, nécessite un traitement à part et correspond aux solutions
X(x) = A1 + A2 x
Y (y) = B1 + B2 y
Suite à la linéarité, on peut enfin superposer une infinité de ces solutions séparables. Une
solution générale en coordonnées Cartésiennes du problème de Laplace est donc
Xh i
f (x, y) = (A1 + A2 x)(B1 + B2 y) + B+ (k) eky + B− (k) e−ky eikx
k∈C0
Cette somme sur k, peut se remplacer par une intégrale, si on veut faire une superposition d’un
continuum de valeurs de k. Remarque également que les constantes B± (k) sont en fait des fonc-
tions de k.
1
0.5
f(x,y)
0
−0.5
−1
0
−2 10
−4 0
y −6 −10
x
Pour satisfaire la régulatité en y → −∞, on doit écarter la partie y qui diverge : B− (±1) = 0.
Il reste alors
f (x, y) = B+ (1)eix + B+ (−1)e−ix ey
2
1
1 0.5
f(x,y)
f(x,y)
0 0
−1 −0.5
−1
−2
1 1
1 1
0 0
0 0
y −1 −1 y −1 −1
x x
(a) m = 1 (b) m = 2
0.5
1
0.5
f(x,y)
f(x,y)
0 0
−0.5
−1
−0.5
1 1
1 1
0 0
0 0
y −1 −1 y −1 −1
x x
(c) m = 3 (d) m = 6
R(ρ) = A+ ρm + A− ρ−m
Φ(φ) = Bc cos mφ + Bs sin mφ = C+ eimφ + C− e−imφ
R(ρ) = C1 + C2 lnρ
Φ(φ) = D1 + D2 φ
∂f
CL : |f (0, φ)| =
6 ∞ , (R, φ) = cos mφ , m ∈ Z0
∂ρ
La solution est
ρm sin mφ
f (ρ, φ) = (3.3)
mRm−1
On montre ce champ pour R = 1 et plusieurs valeurs de m dans la figure 3.2.
D : x, y ∈] − ∞, +∞[ , z ∈] − ∞, 0]
On peut donc introduire une première constante de séparation car il faut nécessairement
(ρR0 )0 Φ00 Z 00
+ 2 =− = −k 2
ρR ρ Φ Z
avec k ∈ C quelconque. Ceci donne pour la structure en z
C+ ekz + C− e−kz , k 6= 0
Z(z) =
C1 + C2 z , k = 0
ρ (ρR0 )0 Φ00
+ k 2 ρ2 = = −m2
R Φ
Pour la dépendance en φ on trouve
D+ eimφ + D− e−imφ , m ∈ Z0
Φ(φ) =
D1 , m = 0
La φ-périodicité fixe les valeurs des nombres d’onde azimuthaux m à des entiers. Reste encore
la structure radiale qui satisfait
0
ρ ρR0 + (m2 + k 2 ρ2 )R = 0
qui est une équation de Bessel si k 6= 0. Si k = 0, l’EDO est identique à celle rencontrée dans le
cas 2D des coordonnées polaires. On connait donc la solution
E1 Jm (kρ) + E2 Ym (kρ) , k 6= 0
R(r) = F+ ρm + F− ρ−m , k = 0 , m 6= 0
G1 + G2 lnρ , k = 0 , m = 0
Avec ces différentes solutions, on peut arriver à une solution générale qui se laisse écrire comme
X
F+ (m)ρm + F− (m)ρ−m eimφ (C1 + C2 z)
f (ρ, φ, z) = (G1 + G2 lnρ) +
m∈Z0
X X
+ [E1 (k, m)Jm (kρ) + E2 (k, m)Ym (kρ)] eimφ ekz
m∈Z k∈C0
De nouveau, on peut arriver à d’autres formes de la solution, compte tenu du fait que k ∈ C0 .
On cherche à résoudre
∂2f
1 ∂ 2 ∂f 1 ∂ ∂f 1
r + sin θ + =0
r2 ∂r ∂r r2 sin θ ∂θ ∂θ r2 sin2 θ ∂φ2
et on propose f (r, θ, φ) = R(r)Θ(θ)Φ(φ) comme solution. Injectée dans l’EDP on arrive à séparer
une partie en r, d’une partie en θ, φ :
R(r) = A+ rn + A− r−n−1
on choisit ici
sin θ(sin θ Θ0 )0 Φ00
+ n(n + 1) sin2 θ =− = m2
Θ Φ
On reconnait alors
C+ eimφ + C− e−imφ , m 6= 0
00 2
Φ +m Φ=0 ⇒ Φ(φ) =
C1 , m = 0
avec m ∈ Z exactement comme dans le cas des coordonnées cylindriques. Reste alors la dépendance
en θ, pour qui on doit avoir
m2
1 d dΘ
sin θ + n(n + 1) − Θ=0
sin θ dθ dθ sin2 θ
On peut simplifier cette EDO par un changement
√ de variable s = cos θ, avec s ∈ [−1, 1] pour
2
θ ∈ [0, π]. On a alors ds = − sin θ dθ et 1 − s = sin θ, ce qui ramène l’EDO à
m2
d 2 dΘ
(1 − s ) + n(n + 1) − Θ=0
ds ds 1 − s2
- Licence de Physique et Applications - Année 2017-2018
A. Abada et W. Herreman
3.2. LE PROBLÈME DE LAPLACE 97
P00 (cos θ) ∼ 1
P10 (cos θ) ∼ cos θ
P1±1 (cos θ) ∼ sin θ
P20 (cos θ) ∼ 3 cos2 θ − 1
P2±1 (cos θ) ∼ sin θ cos θ
P2±2 ∼ sin2 θ
Globalement on reconnait que Pnm (cos θ) est toujours composée de n multiplications de sin θ et
cos θ. En conclusion, on peut superposer toutes les solutions séparables trouvées, afin d’arriver
à
X X n
A+ (n, m) rn + A− (n, m) r−n−1 Pnm (cos θ) eimφ
f (r, θ, φ) =
| {z }
n∈N m=−n
Ynm (θ,φ)
Les regroupements Ynm (θ, φ) = Pnm (cos θ) eimφ sont connus sous le nom des harmoniques
sphériques. Ces fonctions jouent un rôle primordial en physique.
Pour vous permettre de vous faire une idée de ces harmoniques sphériques, on trace dans la
figure 3.4 la surface paramtérisée r = 1 + Re(Ynm (θ, φ)), pour différentes valeurs de n et m. On
peut imaginer ici qu’il s’agit de différentes déformations d’une goutte d’eau.
0
z
−1
1
1
0 0
y −1 −1 x
1 1
0 0
z
−1 −1
1 1
1 1
0 0 0 0
y −1 −1 x y −1 −1 x
1 1 1
0 0 0
z
−1 −1 −1
1 1 1
1 1 1
0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x
1 1 1 1
0 0 0 0
z
−1 −1 −1 −1
1 1 1 1
1 1 1 1
0 0 0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x
1 1 1 1 1
0 0 0 0 0
z
−1 −1 −1 −1 −1
1 1 1 1 1
1 1 1 1 1
0 0 0 0 0 0 0 0 0 0
y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x y −1 −1 x
3.3.1 Définition
− ∆ψ = λψ
dans un domaine D, où λ est un nombre a priori inconnu. Dans ce problème aux valeurs
propres, il s’agit d’identifier pour quelles valeurs de la quantité λ, appelée valeur propre,
il existe des solutions non nulles, appelées fonctions ou modes propres, ici de l’opérateur
différentiel −∆.
Dans ce problème d’ordre 2, on verra qu’en posant des conditions aux limites homogènes
de type Dirichlet, Neumann ou mixte, les valeurs propres λ peuvent être discrétisées (quan-
tifiées)
X 00 Y 00
+ +λ = 0
X
|{z} Y
|{z}
f de x f de y
En conclusion, à la valeur propre λ = k 2 + l2 , on peut donc associer toutes les fonctions propres
(As sin kx + Ac cos kx)(Bs sin ly + Bc cos ly) , k, l 6= 0
ψ(x, y; k, l) = (A1 + A2 x)(Bs sin ly + Bc cos ly) , k = 0, l 6= 0 (3.4)
(As sin kx + Ac cos kx)(B1 + B2 y) , k = 6 0, l = 0
On introduit cette notation ψ(x, y : k, l) pour bien spécifier que chaque k et l produisent une
autre fonction propre. Sans spécification des CL, les constantes k, l peuvent prendre des valeurs
dans le continuum complexe, k, l ∈ C. En conséquence, la valeur propre λ ∈ C aussi.
D : x ∈ [0, Lx ] , y ∈ [0, Ly ]
L’effet des conditions aux limites, est donc de réduire le continuum de valeurs k, l ∈ C a un jeu
discret, c.a.d. dénombrable par des entiers, ici m et n.
En conclusion : du continuum de fonctions propres du Laplacien (3.4), les conditions aux
limites en filtrent beaucoup. La famille de fonctions propres qui satisfait les CL’s est :
2 2
mπx nπy mπ nπ
ψmn (x, y) = sin sin , λmn = + , ∀m, n ∈ N0 (3.5)
Lx Ly Lx Ly
On introduit des suffixes mn pour mieux noter qu’il s’agit d’un ensemble dénombré pour des
indices discrets. Remarque d’ailleurs que les valeurs propres sont toutes positives et toutes
différentes pour Lx 6= Ly . Dans la figure 3.4, on montre quelques fonctions propres ψmn (x, y)
pour plusieurs valeurs de m, n. On reconnait que m et n décomptent le nombre de demi-longueurs
d’ondes dans les directions x et y.
1 1 1
ψmn(x,y)
ψmn(x,y)
ψmn(x,y)
0 0 0
−1 −1 −1
2 2 2
1 1 1
0.5 1 0.5 1 0.5 1
0 0 x 0 0 x 0 0 x
y y y
0.5
ψmn(x,y)
−0.5
−1
2
1
0.5 1
0 0 x
y
(d) m = 2, n = 2
Figure 3.4 – Visualisation des fonctions propres ψmn (x, y) de (3.5) pour m = 1, 2 et n = 1, 2.
(ρR0 )0 Φ00 Z 00
+ 2 + +λ=0
ρR ρ Φ Z
qui ont toutes la valeur propre λ = k 2 + l2 . Ici aussi, on peut avoir k, l ∈ C à priori, mais m ∈ Z
toujours. Trouvez-vous même les autres fonctions propres pour l = 0 ou pour k = 0.
lim |R(ρ)| =
6 ∞
ρ→0
d’où
nπ
, n ∈ N0
l=
H
Dans la dépendance radiale, la condition de régularité impose A2 = 0, car la fonction Ym (kρ)
diverge à l’axe ρ = 0. En conséquence, il nous reste
ζjm
Jm (kRc ) = 0 ⇒ k= , j ∈ N0
Rc
Posant Jm (ζjm ) = 0, on peut trouver une infinité de zéros, que l’on notera ici ζjm , m ∈ Z , j =
1, 2, . . .. Ceci est illustré dans la figure 3.5. Ces zéros peuvent être calculés (numériquement) et
fixent (quantifient) ici donc les valeurs du nombre d’onde radial k. Les fonctions propres qui
satisfont les conditions limites spécifiées sont
2
ζjm ρ ζjm
nπz nπ 2
imφ
ψjmn (ρ, φ, z) = Jm e sin , λ= + ∀j, n ∈ N0 , m ∈ Z
Rc H R H
(3.6)
Il s’agit d’une famille de fonctions, dénombrable par 3 nombres
ζ m ρ entiers j, m, n. Dans la figure
3.6, nous montrons la structure spatiale des fonctions Jm Rj c cos(mφ), pour plusieurs valeurs
de m et de j.
0.6
J1 (x)
0.4
0.2
ζ11 ζ12 ζ1 ζ1
3 4
0
−0.2
−0.4
0 5 10 15
x
Figure 3.5 – Fonction de Bessel J1 (x) en fonction de x. On montre ici les zéros ζj1 , pour
j = 1, 2, 3, 4 qui interviennent dans les fonctions propres (3.6)
1 1 1
0 0 0
−1 −1 −1
1 1 1
0 0 0
−1 −1 −1
ζmρ
Figure 3.6 – Structure spatiale des fonctions Jm Rj c cos(mφ) qui interviennent dans les
fonctions propres (3.6). On choisit Rc = 1 et plusieurs valeurs de m et j. Le nombre m décompte
le nombre de longueurs d’onde dans la direction azimuthale. Le nombre j décompte le nombre
de fois que la fonction radiale passe par zéro pour ρ ∈]0, Rc ].
Cette équation est une EDO de Bessel sphérique avec comme solution :
lim |R(r)| =
6 ∞
r→0
Afin d’écarter les solutions yl (kr) qui divergent au centre, nous avons donc A2 = 0. Imposer la
condition limite de Dirichlet homogène revient à exiger la CL.
ξj
R(Rs ) = 0 ⇒ jl (kRs ) = 0 ⇒ k= , j ∈ N0
Rs
Ici aussi, on introduit une notation ξnj , j = 1, 2, . . . , n ∈ N pour l’infinité de zéros des fonctions
de Bessel sphérique : jn (ξnj ) = 0. On peut les calculer numériquement et leur valeurs fixent donc
les nombres d’ondes radiaux k. La famille de fonctions propres satisfaisant les CL est donc
ξnj 2
ξnj r m
ψjnm (r, θ, φ) = jn Yn (θ, φ) pour λ = ∀j ∈ N0 , n ∈ N , m ∈ Z
Rs Rs
Il s’agit d’une famille de fonctions, dénombrable par 3 nombres entiers j, n, m.
Si on intègre ceci sur le domaine, le coté gauche se simplifie à une intégrale de surface
Z I
− ∇ · ψ κ ∇ψκ − ψκ ∇ψ κ dD = − ψ κ ∇ψκ − ψκ ∇ψ κ · ~n dS = 0
D δD
En conséquence λκ ∈ R toujours.
On a λκ ≥ 0 toujours.
Preuve :
On multiplie l’équation −∆ψκ = λκ ψκ avec ψ κ , puis on intègre sur le volume. A l’aide du
même genre de manipulations que dans les démonstrations précédentes on arrive sur
||∇ψκ ||2 dD
Z Z R
2
∇ψκ · ∇ψκ dD = λκ |ψκ | dD ⇒ λκ = DR 2 ≥0
D D D |ψκ | dD
Remarque :
Afin d’avoir λκ = 0, il est nécessaire que ψκ = C soit une solution. Cette solution est admise
seulement avec des CL de Neumann homogènes. Remarque que λκ = 0 signifie qu’il s’agit en
faite d’une solution du problème de Laplace.
Preuve :
On écrit les équations satisfaites par ψ ν et ψκ
− ∆ψ κ = λκ ψ κ , −∆ψν = λν ψν
ce qui montre l’orthogonalité des fonctions propres qui ont des valeurs propres différentes.
Remarque :
Cette preuve n’en semble pas une, s’il existe des valeurs propres multiples. Ceci peut arriver
exceptionnellement dans certains domaines particuliers (exemple : cas Cartésien 2D, domaine
carré D : (x, y) ∈ [0, L] × [0, L] avec f |δD = 0 ) mais la propriété d’orthogonalité tient toujours.
L’ensemble L2 (D) des fonctions f dites carré-intégrables sur D, contient toutes les fonctions
pour lesquelles l’intégrale Z
|f |2 dD existe
D
ou autrement dit, ne diverge pas. Cet espace L2 (D) est de dimension infinie, signifiant que l’on
peut imaginer une infinité de fonctions linéairement indépendantes membres de cet espace.
L’ensemble {ψκ } est complet pour l’espace L2 (D) : toute fonction f ∈ L2 (D) peut être
décomposée comme Z
X 1
f= Cκ ψκ avec Cκ = ψ κ f dD
κ
Nκ
D
Les coefficients d’expansion Cκ sont uniques et peuvent être calculés à l’aide d’une intégrale,
suite à la propriété d’orthogonalité des fonctions propres ψκ . On dit qu’on projette la fonction
f sur la base des fonctions propres {ψκ }.
Définition
∆f = g
dans un domaine D et avec g une fonction connue, satisfait un problème de Poisson. Sur
le bord du domaine δD, on suppose des conditions limites (Dirichlet, Neumann, mixte) ou des
conditions de régularité.
f = fh + fp
avec fh une solution homogène, soit une solution du problème de Laplace et une solution
particulière fp solution du problème original. Plus spécifiquement, on peut tenter de résoudre
La recherche des solutions fh a été traitée dans la section dédiée au problème de Laplace. Grâce
à la section dédiée aux fonctions propres ψκ , on peut chercher une solution particulière sous la
forme X
fp = Cκ ψκ
κ
où Z
1
Cκ = − ψ κ g dD
λκ Nκ
D
Définition
CI : f |t=t0 = f0
On donne un exemple particulier où il n’y a pas de sources q = 0 et où on a des conditions
limites homogènes sur les bords d’un domaine D. On souhaite décrire le devenir d’un état initial
f0 quelconque (qui satisfait les CL du problème). Nous tentons une séparation espace-temps
sous la forme
f (~r, t) = ψ(~r) T (t)
qui nous ramène à
1 T0 ∆ψ
=
|α{zT} ψ
|{z}
f de t f de ~r
On peut alors introduire les égaliser à une constante de séparation −λ, afin d’obtenir
0
T + αλT = 0
∆ψ + λψ = 0
La partie temporelle donne
T (t) = Ce−αλt
Le problème spatial n’a pas besoin d’un traitement particulier, car on reconnait immédiatement
le problème aux valeurs propres du Laplacien, traité en détail dans la section précédente. Chaque
valeur propre λ exige/fixe donc une valeur particulière de la constante de séparation, qui inter-
vient dans la partie temporelle. Avant de parler des CL et des CI, on peut donc écrire que
X
f (~r, t) = C(. . .) ψ(~r; . . .) e−αλt
...
La somme court sur toutes les possibles valeurs des constantes de séparation (noté . . .) dans la
fonction propre.
Si on impose des conditions aux limites homogènes sur les bords δD, celle-ci devront être
satisfaites à tout temps. Ceci sélectionne parmi les fonctions ψλ , celles qui satisfont les conditions
aux limites homogènes. Comme nous l’avons vu, cette opération sélectionne une famille discrète
de fonction propres, notées {ψκ }. Seuls des superpositions
X
f (~r, t) = Cκ ψκ (~r) e−αλκ t (3.7)
κ
satisfont les conditions aux limites dans ce problème. On retrouve ici les modes propres de
décroissance diffusive. Chaque structure spatiale ψκ décroit selon un taux d’amortissement αλκ
réel et positif, conséquence des propriétés Im(λκ ) = 0 et λκ ≥ 0. Un champ diffusif f non-soutenu
par une source ou des apports arrivant par les bords, est donc toujours destiné à décroitre, de
manière à effacer tout gradient.
Les constantes arbitraires Cκ qui apparaissent dans la solution (3.7), peuvent être fixées par
la condition initiale. Prenant t0 = 0 pour simplifier, celle-ci exigera que
X
f0 (~r) = Cκ ψκ (~r)
κ
Utilisant la propriété d’orthogonalité des fonctions propres {ψκ }, on arrive à fixer les coefficients
Ck . Il suffit de multiplier avec ψ ν et d’intégrer sur le domaine. Ceci donne
Z
1
Cκ = ψ κ f0 dD
Nκ
D
En principe, on connait donc la solution et elle ne dépend plus d’aucune constante arbitraire.
Définition
1 ∂2f
= ∆f + s
c2 ∂t2
Ici c est la vitesse des ondes (non-dispersives) et s une source. Ce problème est souvent accom-
pagné de conditions de Dirichlet, Neumann ou mixte en paroi. Ces conditions traduisent alors
un comportement particulier de réflexion d’une onde arrivant en paroi. D’ordre 2 en temps, nous
avons également besoin de deux conditions initiales :
∂f
CI : f |t=t0 = f0 , = g0 (3.8)
∂t t=t0
si on souhaite spécifier comment le système évolue au temps ultérieur. f0 et g0 sont alors deux
fonctions indépendantes du temps et connues dans tout le domaine D.
Remarque :
Parfois on utilise, d’autres types de conditions supplémentaires telles que des conditions de
rayonnement. Dans ces conditions, dépendances spatiales et temporelles sont combinées. Ce type
de condition est utilisé pour imposer que des ondes ne peuvent pas venir de l’extérieur de la
zone d’intérêt.
On regarde le cas particulier s = 0 avec des CL homogènes sur les bords d’un domaine fermé.
Une séparation espace temps
f (~r, t) = ψ(~r) T (t)
mène ici à
1 T 00 ∆F
2
=
|c {zT } F
|{z}
f de t f de ~r
Egalisé à une constante de séparation −λ, on obtiendra alors le système
00
T (x) + c2 λT = 0
∆ψ + λψ = 0
Le problème spatial est encore une fois celui des fonctions propres. On arrivera donc à
X √
C+ (. . .)eiωλ t + C− (. . .)e−iωλ t ψλ (~r; . . .) , ωλ = c λ
f (~r, t) =
...
sans spécification de conditions aux limites et initiales. La somme court sur toutes les possibles
valeurs des constantes de séparation.
Imposant des CL homogènes, on réduit la superposition sur la famille discrète {ψκ }
X p
C+,κ eiωκ t + C−,κ e−iωκ t ψκ (~r) , ωκ = c λκ
f (~r, t) = (3.9)
κ
exactement comme dans le problème de diffusion traité ci-dessus. On retrouve ici des ondes
stationnaires à la structure ψκ . Ces ondes stationnaires, oscillent avec leurs fréquence propres
ωκ . Cette fréquence ωκ est d’ailleurs toujours réelle, conséquence des propriétés Im(λκ ) = 0 et
λκ ≥ 0.
Les constantes arbitraires C±,κ qui apparaissent dans la solution (3.9), peuvent être fixées
par les deux conditions initiales. Prenons t0 = 0 pour simplifier. Si on écrit explicitement les CI
(3.8), on obtient
X X
f0 (~r) = (C+,κ + C−,κ ) ψκ (~r) , g0 (~r) = iωκ (C+,κ − C−,κ ) ψκ (~r)
κ κ
Projection sur la base ψκ mène à un système linéaire 2 x 2 pour chaque κ, dont on calcule la
solution :
C±,κ = [Fκ ∓ iGκ /ωκ ]/2
avec Z Z
1 1
Fκ = ψ κ f0 dD , Gκ = ψ κ g0 dD
Nκ Nκ
D D
Définition
Ici ~ = h/2π avec h la constante de Planck, m la masse de la particule et V (~r, t) l’énergie poten-
tielle. On appelle H
b l’opérateur Hamiltonien. La fonction d’onde est normalisé sur le domaine
Z
|Ψ|2 dD = 1
D
car la quantité |Ψ|2 dD traduit la densité de probabilité de trouver la particule dans un volume
élémentaire autour de ~r à temps t. Le domaine D est en principe toujours infiniment grand,
mais on peut faire une approximation limité à un domaine fini, si le potentiel V → +∞. Si on
s’intéresse au devenir d’un paquet d’ondes au cours du temps, il est nécessaire de donner une
condition initiale
CI : Ψ(~r, t0 ) = Ψ0 (~r)
T0 Hψ
b
i~ =
| {zT} ψ
|{z}
f de t f de ~r
qe2
V (r) = −
4π0 r
avec qe la charge élémentaire et r la distance radiale séparant l’électron du noyau. Utilisant ce
potentiel à symétrie sphérique, on arrive à séparer ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ) comme dans les
exemples sur les coordonnées sphériques. Toute la dépendance angulaire restera la même et fera
apparaı̂tre les harmoniques sphériques
La dépendance radiale sera par contre modifiée et nécessitera l’introduction de nouvelles fonc-
tions spéciales, les fonctions de Laguerre généralisées. Les conditions de régularité à l’infinie et
à l’origine discrétisent les valeurs propres = les niveaux d’énergie En .
Définition
On considère un repère Cartésien (O, ~ex , ~ey , ~ez ). La position d’un point M est alors décrite
par rapport à l’origine O, à l’aide d’un vecteur
−−→
~r = OM = x ~ex + y ~ey + z ~ez
Comme le montre le schéma, les coordonnées cylindriques (ρ, φ, z), sont définies par les relations
x = ρ cos φ , y = ρ sin φ
ou inversement
p y x
ρ= x2 + y 2 , φ = arcsin p = arccos p
x2 + y 2 x2 + y 2
La coordonnée z reste la même. Les coordonnées cylindriques varient dans les intervalles :
div F~ ~ ~
= ∇
·F h
∂ 1 ∂ ∂ i
= ~eρ + ~eφ + ~ez · (Fρ (ρ, φ, z)~eρ (φ) + Fφ (ρ, φ, z)~eφ (φ) + Fz (ρ, φ, z)~ez
∂ρ ρ ∂φ ∂z
∂Fρ Fρ 1 ∂Fφ ∂Fz
= + + +
∂ρ ρ ρ ∂φ ∂z
1 ∂(ρFρ ) 1 ∂Fφ ∂Fz
= + +
ρ ∂ρ ρ ∂φ ∂z
∂~e
Le terme Fρ /ρ (qu’on a tendance à oublier) apparaı̂t à travers l’opération ~eφ · Fρ ∂φρ /ρ. Ce terme
est directement une conséquence du fait que ~eρ dépend de φ, que la base est curviligne.
rot F~ ~ ∧ F~
= ∇
Combinant les formules pour le gradient et la divergence on trouve que le Laplacien d’un champ
f (ρ, φ, z) exprimé en coordonnées cylindriques est
1 ∂2f ∂2f
1 ∂ ∂f
∆f = ρ + 2 2+ 2
ρ ∂ρ ∂ρ ρ ∂φ ∂z
Définition
Les coordonnées cylindriques r, θ, φ sont liées aux coordonnées Cartésiennes par les relations
ou inversément
p z
r = x2 + y 2 + z 2 ,
θ = arccos p
x2 + y 2 + z 2
y x
φ = arcsin p = arccos p
x2 + y 2 x2 + y 2
Les surfaces coordonnées sont des spheres (r constant), des cones (θ constant) ou des plans
verticaux (φ constant) comprenant l’axe x = y = 0. Les lignes coordonnées, sont des cercles (r, θ
constant), des demi cercles (r, φ constant) et des droites partant de l’origine (θ, φ constant).
∂~r
~er =
e = sin θ cos φ ~ex + sin θ sin φ ~ey + cos θ ~ez
∂r
∂~r
~eθ =
e = r cos θ cos φ ~ex + r cos θ sin φ ~ey − r sin θ ~ez
∂θ
∂~r
~eφ =
e = −r sin θ sin φ ~ex + r sin θ cos φ ~ey
∂φ
Calculant leur normes, on obtient hρ = 1, hθ = r, hφ = r sin θ. Les vecteur de la base curviligne
orthonormée sont alors
Les deux vecteurs ~er (θ, φ), ~eθ (θ, φ) dépendent de θ et φ. Le vecteur ~eφ ne dépend que de φ. On
peut trouver que :
∂~er ∂~er
= ~eθ , = sin θ ~eφ
∂θ ∂φ
∂~eθ ∂~eθ
= −~er , = cos θ ~eφ
∂θ ∂φ
∂~eφ ∂~eφ
=0 , = − sin θ ~er − cos θ ~eθ
∂θ ∂φ
de volume
dV = r2 sin θ dr dθ dφ
F~ (r, θ, φ) = Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)
div F~ ~ ~
= ∇
·F h
∂ 1 ∂ 1 ∂ i
= ~er + ~eθ + ~eφ · Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)
∂r r ∂θ r sin θ ∂φ
∂Fr 2Fr 1 ∂Fθ cos θ Fθ 1 ∂Fφ
= + + + +
∂r r r ∂θ sin θ r r sin θ ∂φ
2
1 ∂(r Fr ) 1 ∂(sin θFθ ) 1 ∂Fφ
= + +
r2 ∂r r sin θ ∂θ r sin θ ∂φ
Combinant les formules pour le gradient et la divergence on trouve que le Laplacien d’un
champ f (r, θ, φ) exprimé en coordonnées sphériques est
∂2f
1 ∂ 2 ∂f 1 ∂ ∂f 1
∆f = 2 r + 2 sin θ + 2 2
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2
Transformation de Fourier
1
Dans toute la suite, on notera x∗ le complexe conjugué de x, quelque soit le nombre complexe
x.
La transformée de Fourier, notée f˜ (lorsqu’elle est possible), est définie pour tout
k ∈ R, par
Z
f˜(k) = e−2πikx f (x) dx . (1.1)
R
I Remarque : l’intégrale R e±2πıkx f (x) dx n’existe pas toujours. Il se peut que, tout simple-
R
ment, la fonction f˜(k) n’existe pas ou qu’elle ne soit pas définie pour toutes les valeurs de k.
Par exemple, R e±2πikx x2 dx n’est définie pour aucune valeur de k, f (x) = x2 n’admet pas de
R
transformée de Fourier.
124 1. TRANSFORMATION DE FOURIER AU SENS DES FONCTIONS
I Cette écriture n’est valable que sous certaines conditions : elle prendra son sens surtout
pour des phénomènes physiques mettant en jeu des périodicités (spaciale et/ou temporelle) et
plus généralement des temps et/ou longueur caractéristiques. La transformée de Fourier f˜(k)
représente l’amplitude de la sinusoı̈de de “fréquence” k dans f .
Nous allons voir le rôle des transformations de Fourier (au sens des fonctions) dans certaines
applications physiques, pour cela il faut avoir une idée des fonctions f souvent rencontrées.
? Dans les milieux continus, on a affaire à des densités de champs, de masse, ..., de quantité de
mouvement ou même d’énergie, une densité est en général définie par le rapport de la quantité
physique en question sur la quantité de volume du système,
quantité physique
densité = .
unité de volume
? En électrostatique, on calcule souvent l’énergie électrique totale à partir d’une densité d’énergie
électromagnétique dans le vide, laquelle est proportionnelle au module au carré du champ
électrique. Cette énergie donnée (dans le cas à une dimension, pour simplifier) par
Z
1
I= ε0 | E (x)|2 dx ,
2 |{z}
champ électrostatique
doit être finie, autrement dit, la fonction E(x) doit être une fonction de carré sommable.
? Les formalismes pour décrire tous les phénomènes de diffusion du rayonnement de la lumière,
des rayons X, ..., mais aussi, grâce à la dualité onde-corspuscule de la mécanique quantique, des
particules telles que les électrons, les neutrons ..., reposent sur la transformation de Fourier.
? En traitement du signal : les circuits électroniques fonctionnent comme des opérateurs dont
on ne connaı̂t le spectre (c’est à dire l’ensemble des valeurs propres) que par transformation de
Fourier. En réalité, le traitement du signal discret a permis le développement de la transformation
de Fourier directe.
? La transformation de Fourier est limitée à une analyse globale en temps ou en pulsation (ω)
ou en fréquence : (filtre linéaire).
? La transformation de Fourier à fenêtre sert pour le traitement de l’information : “ondelettes”.
? Comme on l’a souvent réalisé, les équations décrivant la physique sont très souvent des
équations différentielles ou des équations aux dérivées partielles. Voici quelques exemples :
ρ(x)
• ∆φ(x) = − , pour l’équation de Poisson ou l’équation de continuité ;
ε0
∂C(x, t) ∂ 2 C(x, t)
• −∆ = 0 , pour l’équation de diffusion de lumière ;
∂t ∂x2
∂ψ(~x, t) ~ 2
• i~ =− ∆ψ(~x, t) + V (~x)ψ(~x, t) , pour l’équation de Schrödinger ;
∂t 2m
2
∂ U (x, t) 2
1 ∂ U (x, t)
• 2
− 2 = 0 , pour l’équation de propagation des ondes ; etc..
∂x v ∂t2
Si les équations sont linéaires et à coefficients constants, nous allons voir que la transformation
de Fourier de ces équations nous ramène à des équations algébriques simples.
I Pour notre étude de transformation de Fourier au sens des fonctions, on se limitera aux
fonctions de puissances p sommables (p = 1 sommables, p = 2 de carré sommables, . . .). Le terme
“sommable” fait référence à la théorie de l’intégration. Comme on vient de voir, la transformée de
Fourier s’appuie sur une intégration, par conséquent un bref rappel sur la mesure et intégrale est
nécessaire. Nous allons rappeler les définitions importantes de l’intégration au sens de Lebesgue.
L’intégrale de Lebesgue est une extension de l’intégrale de Riemann. Toute fonction intégrable
au sens de Riemann l’est aussi au sens de Lebesgue (et le résultat de l’intégration est strictement
identique). L’ensemble des fonctions intégrables au sens de Lebesgue est plus large que celui des
fontions intégrables au sens de Riemann. Il existe plusieurs manuels dédiés qui permettent d’en
savoir plus sur la théorie de l’intégrale et de la mesure au sens de Riemann. Les définitions qui
suivent sont nécessaires pour définir de manière rigoureuse les intégrales qu’on utilise dans ce
cours.
Définition 1 : la mesure
La mesure est une fonction notée généralement µ, définie sur un ensemble de parties d’un domaine
(qu’on appelle “ tribu”, dont les membres sont dits “mesurables”) à valeur positive ou nulle et
qui possède les propriétés suivantes :
— µ(∅) = 0 ;
— Pour toute famille dénombrable (c’est à dire indexée sur les entiers) d’ensembles (deux à
deux) disjoints appartenant à la “tribu”, on a
X
µ ( n An ) = µ(An ) . (1.3)
[
n
Par conséquent, la mesure est une fonction positive et croissante (par rapport à
l’inclusion des ensembles).
Si une fonction f étagée est à valeur positive, on définit son intégrale par
Z X
f dµ = αi µ(Ei ) . (1.5)
i
I Soit une fonction g positive, on définit son intégrale sur un intervalle E par
Z Z
gdµ = sup f dµ ; f fonction escalier avec 0 ≤ f ≤ g , (1.6)
E
c’est à dire la borne supérieure de l’ensemble des valeurs des intégrales des fonctions escalier
majorées par la fonction g.
I Considérons maintenant une fonction g mesurable et E un ensemble mesurable de R. On peut
définir les fonctions (positives) g ± (x) par :
Z Z Z
g(x)dx = g + (x)dx − g − (x)dx. (1.8)
E E E
g + (x)dx −
R
(Autrement
R − dit, si |g| est intégrable, l’intégrale de Lebesgue de g sur E est donnée par E
E g (x)dx.)
Définition 5.
Soit f (x) une fonction définie dans R et à valeurs dans C, on dit qu’elle est p -sommable
si :
Z
|f (x)|p dx < ∞ . (1.9)
R
Dans ce chapitre nous consacrons la première partie aux fonctions L1 (R) sommables, c’est
à dire intégrables au sens de Lebesgues. Le problème étant que la transfomée de Fourier d’une
fonction de L1 (R) n’existe pas toujours, on étendra dans la deuxième partie la notion de trans-
formée de Fourier aux fonctions de carré sommables, qui sont des éléments de L2 (R). On verra en
particulier que toute fonction de carré sommable possède une transformée de Fourier également
de carré sommable - on dira que la transformation de Fourier laisse L2 (R) stable 1 .
Définition 6.
Soit f ∈ L1 (R) (f est sommable). On appelle f˜(k) la transformation de Fourier de f , la
fonction à valeurs dans C définie ∀ k ∈ R par :
Z
T F [f ] ≡ f˜(k) = e−2iπkx f (x) dx . (1.10)
R
1. Un (sous-) espace vectoriel (F de) E est dit stable par un endomorphisme α quand α(F ) ⊂ F , autrement
dit, si ∀x ∈ F, α(x) ∈ F . Dans ce cours, l’endomorphisme en question est justement la transformation de Fourier.
L’espace des fonction sommables, L1 (R), n’est pas stable sous la transformation de Fourier alors que celui des
fonction de carré sommables, L2 (R), l’est.
Exemples
* Considérons la fonction ”porte” Π(x) définie par
1 si x ∈ [a, b]
Π(x) = (1.12)
0 partout ailleurs,
Dans le traitement du signal, la fonction porte est définie sur l’intervalle [−1/2, 1/2] et a
pour transformée de Fourier :
sin(πx)
f˜(k) = . (1.13)
πx
* La fonction définie sur tout R par
Remarque (un peu de physique) : en général x représente une longueur, un temps, ... et comme
(−2iπk x) (argument de l’exponentielle) doit être sans dimension, par conséquent , k représente
la variable conjuguée de x : impulsion, ou vecteur d’onde, ou même une pulsation (ou fréquence)
si x est un temps.
I Convention :
En physique on utilise plutôt cette convention :
Z
1
˜
f (k) = T F [f ](k) = √ f (x) e−ikx dx . (1.16)
2π
| {z } R
↑ convention
2. Une fonction régulière est une fonction dérivable, sans points de singularité. Par exemple, une fonction
monotone est une fonction régulière.
1.3.1 Propriétés
Les propriété suivantes sont très facile à établir, rien qu’ en appliquant la définition Eq. (1.10)
et en supposant que la transformée de Fourier existe pour une fonction f (x) définie dans
R.
a. Parité : la transformée de Fourier d’une fonction paire (impaire) est paire (impaire),
autrement dit, la parité se conserve lors d’une transformation de Fourier,
f → f˜
paire paire
impaire impaire
b. Si f est une fonction réelle alors sa transformée de Fourier vérifie f˜(k) = f˜∗ (−k)
(∗ désigne la conjugaison complexe) ; de plus, si f est une fonction telle que f (x) = f ∗ (−x)
alors f˜ est une fonction réelle.
c. Linéarité :
e. Modulation : une modulation de la fonction f (x) revient à faire une translation dans
la variable k de la fonction transformée de Fourier :
h i
T F e2iπxk0 f (x) = f˜(k − k0 ) . (1.19)
Par conséquent, la transformation de Fourier d’une fonction large est étroite et réciproquement.
Ainsi, par exemple, en optique on observe que la tache de diffraction créée par un dia-
phragme est d’autant plus grande que le rayon du diaphragme est petit.
Ces propriétés seront démontrées en séance de travaux dirigés.
Démonstration : Z Z Z
˜ −2iπxξ −2iπxξ
? f est une fonction bornée car : f (x)e dx < f (x) e dx = |f (x)|dx .
Z
De plus, f (x) sommable veut dire aussi que |f (x)|dx −→ 0, finie, d’où T F [f (x)] = f˜(k) est
x→±∞
bornée.
? Enfin pour montrer que f˜(k) → 0 quand k → Z ±∞, on approche f (x) par une fonction
escalier g(x) (définie dans Eq. (1.12)) qui satisfait |f (x) − g(x)|dx < ε, où ε est infinitésimal ;
R
la fonction escalier étant une combinaison linéaire de fonctions “portes” du type de Eq. (1.12)
translatées, dont leurs transformées de Fourier, Eq. (1.13), vérifient |ζ̃(ξ)| < ε pour ξ grand.
En effet,
Donc la transformée de Fourier d’une fonction de L1 (R), si elle existe, est bornée, continue et
tend vers 0 quand k → ±∞.
1.4.1 Dérivation
On va voir que plus une fonction est dérivable, plus sa transformée de Fourier, si elle existe,
décroı̂t plus vite à l’infini ; et réciproquement, plus une fonction décroı̂t plus vite à l’infini plus
sa transformée de Fourier est dérivable.
Théorème 2.
Soit f ∈ L1 (R), de classe C 1 et dont la dérivée est également sommable (c’est à dire que
f 0 (x) ∈ L1 (R)), alors la transformée de Fourier de la dérivée de f est donnée par :
Démonstration :
? pour montrer que f˜0 (k) = 2iπk f˜(k) :
+∞
Z Z
f˜0 (ξ) = T F [f 0 (x)](ξ) = 0
f (x) e −2iπxξ
dx = e −2iπxξ
f (x) − (−2iπξ) f (x)e−2iπxξ dx
R −∞ R
(où on a intégré par partie : f 0 (x)dx = dV et e−2iπxξ = U )
= 0 (car f (x) → 0 quand x → ±∞) + (2iπξ)f˜(ξ)
= (2iπξ)f˜(ξ) = T F [f 0 (x)].
Théorème 3.
Si la fonction f (x) ∈ L1 (R) (dont on suppose que sa transformée de Fourier est définie)
est telle que xf (x) ∈ L1 (R), alors la dérivée de la transformée de Fourier de la fonction f
est donnée par :
df˜
(y) = −T F [2iπxf (x)](y) et donc f˜ ∈ C 1 . (1.22)
dy
Démonstration :
df˜
Z Z
d −2iπyx
xf (x) e−2iπxy dx
= f (x) e dx = −2iπ
dy dy
R R
= T F [−2iπxf (x)] (y).
Généralisation du théorème 3.
On généralise aisément le théorème 3 aux dérivées d’ordre plus élevé. Ainsi on peut montrer
que si une fonction f (x) ∈ L1 (R) et si toutes ses dérivées jusqu’à l’ordre n (inclus) sont
des fonctions de L1 (R), alors
n
d f
TF = (2iπξ)n T F [f (x)] (ξ), avec |ξ|n f˜(ξ) −→ 0 . (1.23)
dxn ξ→∞
Comment trouver la fonction f (x) à partir de f˜(k) si f (x) ∈ L1 (R), autrement dit comment
“inverser” ?
Le problème d’inversion n’a pas toujours une solution. Il est évident que si on connait la fonction
f˜(k) comme étant la transformée d’une fonction de L1 (R), le problème d’inversion a une solution.
Mais si la fonction f˜(k) est arbitraire, même si elle est sommable, il n’existe pas forcément une
fonction f (x) dont f˜(k) soit sa transformée de Fourier.
Théorème 4.
Soit la fonction f (x) ∈ L1 (R) telle que sa transformée de Fourier existe et est sommable,
f˜(k) ∈ L1 (R). La Transformée de Fourier Inverse (TFI) est donnée par
Z
f (x) = e2iπxy f˜(y)dy . (1.24)
R
I Remarque 1 : on ne peut “inverser” que si f˜ et f sont toutes les deux ∈ L1 (R) (c’est à dire
sommables).
I Remarque 2 sur l’inversion dans L1 (R) :
soit f une fonction intégrable admettant une transformée de Fourier f˜, elle-même intégrable.
On peut alors écrire que f (x) = T F I[f˜(k)](x) en tout point x où la fonction f est continue.
Cependant, si la fonction f adment une discontinuité, sa transformée de Fourier f˜(k) n’est pas
intégrable.
Remarque
Soit la fonction f (x) ∈ L1 (R) telle que sa transformée de Fourier - qui existe - soit
sommable et paire, alors : f (x) qui est la Transformée de Fourier Inverse (TFI) de f˜(k)
est également la Transformée de Fourier directe de f˜(k) :
Z Z Z
−2iπxy ˜
f (x) = e 2iπxy ˜
f (k)dk = e f (−k)dk = e−2iπxy f˜(k)dk . (1.25)
R R R
En d’autres termes, f˜(k) est la transformé de Fourier de f (x) et, f (x) est la transformée
de Fourier de f˜(k).
Exercice : démontrer l’encadré suivant, qui est en fait un Lemme qui suit le théorème 4) :
Nous avons souvent à considéré des quantités physiques obtenues à partir d’un produit
de convolution de deux fonctions. Par exemple, dans le cade de l’électromagnétisme, le calcul
classique du potentiel créé par une distribution de charge volumique ρD (~r) contenue dans un
volume D au point ~r donne :
ρD (~r 0 ) 3 0
Z
V (r) = d ~r
|~r − ~r 0 |
V
1
= ? ρD (~r) ,
r
où ρD = 0 partout sauf dans le domaine D. Cette expression peut être interprétée en électromagnétisme
comme la réponse du milieu à la perturbation électrique localisée ρD (~r). V (r) dans ce cas est le
potentiel créé par une densité de charge ponctuelle.
On va utiliser les transformées de Fourier (TF) de telles quantités et considérer le produit
de convolution de deux fonctions f et g de L1 (R).
Définition 7.
Soient f et g deux fonctions ∈ L1 (R) (sommables). Leur produit de convolution noté f ? g
est défini par
Z
(f ? g)(x) = f (x − y)g(y)dy . (1.27)
R
Exemple : on peut montrer (le faire) que la convolution de deux portes Π(x) identiques donnera,
après intégration sur l’une des variables, une fonction triangle.
1) Commutativité : f ? g = g ? f
+∞
Z −∞
Z
f ?g = f (x − y)g(y)dy = − f (X)g(x − X)dX
−∞ +∞
+∞
Z
= g(x − X)f (X)dX = (g ? f )x CQFM.
−∞
2) Associativité : f ? (g ? h) = (f ? g) ? h
Z Z Z
f ? (g ? h) = f (x − y)(g ? h)(y)dy = f (x − y) g(y − z) h(z) dz dy
Z Z
= dz h(z) dy f (x − y) g(y − z)
Z Z
= dz h(z) dα f ((x − z) − α)g(α)
| {z }
y−z=α (f ? g)(x − z)
dy=dα
x−y=x−z−α
Z
= dz(f ? g)(x − z) h(z)
= (f ? g) ? h CQFM.
Théorème 5.
Soient deux fonctions f, g ∈ L1 (R) admettant des transformées de Fourier f˜ et g̃,
f ? g est sommable et sa transformée de Fourier est le produit des deux transformées de
Fourier de f et g :
? g = f˜ × g̃ .
T F [f ? g] ≡ f] (1.28)
Démonstration :
Z Z Z
−2iπkx
TF f (x − y)g(y)dy = dx e
f (x − y) g(y) dy , en posant x − y = γ , alors,
R R
Z Z
−2iπγk
= dγ e f (γ) g(y) e−2iπky dy
|R {z } |R {z }
Remarque : le produit de convolution intervient souvent dans l’analyse des systèmes linéaires
et homogènes si on peut définir un opérateur L :
. pour α, β ∈ R ; L (αe1 (x) + βe2 (x)) = αL (e1 (x)) + βL (e2 (x)) ,
tel que
. pour x1 , x2 donnés ; L (e(x1 − x2 )) = r(x1 − x2 ) .
I On montre que si la réponse du système s’écrit sous la forme r(x) ≡ L(e) = (a ? e)(x), où
a(x) est une fonction appartenant à L1 (R), l’opérateur L(e) est bien linéaire et homogène (c’est
à dire qu’il vérifie les propriété ci-dessus !). Toute l’information de notre problème physique est
contenue dans a(x), fonction à déterminer.
Résumé :
entrée système linéaire homogène sortie
e(x) ⇒ a(x) ⇒ r(x) = (a ? e)(x)
Dans l’espace des k, une entrée est donc atténuée ou amplifiée par ã(k). Le système est comme
un filtre différentiel et la fonction a est appelée la fonction transfert du filtre.
Théorème 6.
Soient deux fonctions f, g ∈ L2 (R) admettant des transformées de Fourier et telles que
leur produit de convolution existe et est sommable. Alors la transformée de Fourier de leur
produit est le produit de convolution des deux transformées de Fourier de f et g :
× g = f˜ ? g̃ .
f] (1.29)
Démonstration :
Posons F = T F [f ] = f˜ et G = T F [g] = g̃.
F, G sont également des fonctions de L2 (R) - on peut le montrer en prenant leur module au
Z 2 Z 2 Z
2 ˜ 2 −2iπxξ −2iπxξ
dx = |f (x)|2 dx .
carré |F | = |f | = f (x)e dx < f (x) e
Théorème 7.
Soient deux fonctions f, g ∈ L2 (R) et f˜ et g̃ leurs transformées de Fourier respectives.
Soient f ∗ et g ∗ les fonctions conjuguées complexes de f et g. Alors ,
Z Z
f (x) g ∗ (x) dx = f˜(ξ) g̃ ∗ (ξ) dξ. (1.30)
R R
Z Z
∗
d’où h̃(0) = g ∗ (0) =
f (x) g (x) dx ≡ fg f˜(k 0 )ge∗ (−k 0 )dk 0 .
R R
g ∗ = g̃ ∗ (k),
∗ (−k) = g(k)
D’après la définition de la transformée de Fourier, Eq. (1.1), on a g^
d’où :
Z Z
h̃(0) = f (x) g ∗ (x) dx = f˜(k) g̃ ∗ (k) dk .
R R
Conséquence : on voit ainsi que si une fonction est de carré sommable, alors sa transformée
de Fourier l’est aussi 3 autrement dit, si f ∈ L2 (R), alors f˜ ∈ L2 (R). On dit alors que L2 (R) est
stable par rapport à la transformation de Fourier.
3. On retrouve que L2 (R) est stable par rapport à la transformation de Fourier alors que L1 (R) ne l’est pas.
Définition 8.
On appelle espace de Schwartz, noté S, l’espace des fonction C ∞ qui sont à décroissance
rapide ainsi que leurs dérivées.
I Cet espace désigne donc l’espace des fonctions f indéfiniment dérivables à décroissance rapide
qui vérifient
∀n, p ∈ N, xn f (p) (x) ≤ Mn,p , avec Mn,p ∈ R . (1.32)
Remarque : la condition de très forte décroissance (plus rapide que toute fonction x−n , ∀n ∈ N)
fait que les fonctions de S(R) sont pratiquement semblables aux fonctions f de classe C ∞ à
support borné.
I Le résultat le plus important sur les fonctions de S(R) est que si f ∈ S(R), alors sa transformée
de Fourier f˜ ∈ S(R) et si ∀n ∈ N, f (n) tend vers zéro dans S(R), alors f˜(n) tend également vers
zéro dans S(R). Pour montrer cela, on utilise la propriété la plus importante des espaces S(R).
Théorème 8.
Les fonctions de S(R) ainsi que toutes leurs dérivées d’ordre n sont toutes bornées et
intégrables sur R.
Démonstration : la démonstration de ce théorème est évidente dès lors qu’on utilise la condition
de décroissance rapide Eq. (1.32) sur la fonction ainsi que toutes ses dérivées puisque ces dernières
appartiennent aussi à S(R). Il s’en suit que les dérivées d’ordre n (∀n ∈ N) de f sont toutes
bornées et majorées par des fonctions intégrables, ce qui les rend donc elles-mêmes intégrables.
Plusieurs conséquences intéressantes sont à tirer de ce théorème :
I La conséquence directe de ce théorème est que l’espace S est en réalité inclus dans
celui des fonction sommables : S(R) ⊂ L1 (R).
Théorème 9. (résumé)
a. La transformée de Fourier d’une fonction de S(R) est aussi une fonction de S(R).
b. Par conséquent, toute fonction f de S(R) est la transformée de Fourier inverse
d’une fonction f˜ :
Z
f (x) = T F I[f ] = f˜(k) e+2iπkx dk .
˜ (1.33)
R
La plus simple des applications concerne les équations différentielles linéaires à coefficients
constants. En reprenant les conséquences des théorèmes 2 et 3, on se rend compte que dériver une
fonction par rapport à x revient à multiplier sa transformée de Fourier par k (à une constante 2iπ
près). La transformée de Fourier transforme donc une équation différentielle linéaire à coefficients
constants en une équation algébrique. Soit une telle équation avec un second membre non nul,
g(x), qui admet une transformée de Fourier g̃(k) ,
dn f dn−1 f df n−2
n
+A n−1
+B + · · · + Kf = g(x) .
dx dx dxn−2
avec A, B, ..., C des coefficients constants. On peut mettre cette équation sous la forme
n−1
dn f X
+ cp f (p) = g(x) . (1.37)
dxn
p=0
ce qui donne
g̃(k)
f˜(k) = . (1.40)
P (2iπk)
Si f˜(k) est sommable, on peut envisager de faire une transformée de Fourier inverse pour
déterminer f (x) :
Z
g̃(k) +2iπkx
f (x) = e dk . (1.41)
P (2iπk)
R