Académique Documents
Professionnel Documents
Culture Documents
!
!!!!!!!!!!!!!!!!!!
!
! !
1$%234&5$"+%23'+%6+)$%'57)'5#%*&)%&"$%*$&8$%9$&'88$%)$4+3:($)*3;%$"%<
!
&$'-&!O¶8QLYHUVLWp3DULV"#$%!±!&'(&)*'+,)'!(-&!*.+!/&)*0%'+,!12!3$4
<@A!&$'!3'.&B'*!5C'D'+E'-$!±!=<?>@!E'%'F!',!-B0**-+,!(.$&!C'!E.D(
!
!GH8!I&.0,!9E.+.D0'!3'*,0.+!! !GH8!#E0'+E'*!
!GH8!/K-&D-E0'! !3RO\WHFK¶3DULV"#$%!!
!
&'!C¶RUJDQL*D'!.$!O¶'+,&'(&0*'!G¶DFFXHLO!;!
!
8-0*.+!*.E0-C'!;!
Mathématiques I : Partie 1
J%&'**'!;!+N! !!!!O.0'!
P0CC'!;!!
Equations Différentielles
8'(&)*'+,)Q'R!(-&!;! !1-%-D'! !1.+*0'$&!
Licence 3 PAPP - PMEC - S5
M.D!;! /&)+.D!;!
!
&'!O¶p,$%0-+,!*,-B0-0&'!;!
M.D!;! /&)+.D!;!
J%&'**'!;!+N! O.0'!
P0CC'!;!!
5.$&&0'C!;! U$"(*$%2T&!!
I-,'!%'!+-0**-+E'!;! V! V! ! MN!#)E$&0,)!#.E0-C'!;
&RPSDJQLHG¶DVVXUDQFH!;!!
1GHFDUWHG¶pWXGLDQW!;! ! ! ! ! ! ! ! !
!"#$%&#'()*
%
wietze.herreman@u-psud.fr /0&1#2# ±# 34567# 86# 9/# :3;<6;7!3;# 0%/¶HQWUHSULVHRX O¶3)>,"'*5$%5$"+'3""#@$A%
Année 2015-16 4'0GHVVXVDFFHSWHG
O¶C"'($)*'+#%D,)'*0E&2?%7RXWVWDJHGRLWV¶LQWpJUHUGDQVXQFXUVXVS#2,>3>'F&$%OHVWDJHIDLWO¶REMHW
GpILQLHVGDQVO¶RUJDQLVDWLRQGHODIRUP,+'3"?%E3"+%#>,8$5$"+%43"*'2#)#*%4355$%'"+#>)#*%,&%4&)*&*%
?@2@ABCD#E+#?C#F(G&#?@2@H1%
/0&1#?#±#:I/J76#86K##K7/L6K#6;#6;7J6MJ!K6#8N#?D#/<J!9#?@@D%0%1G,F&$%7,)+'$%*'>",+,')$%2$%8,%43"($
2&%-I%,()'8%-..I%,""$=#$%H%8,%7)#*$"+$%43"($"+'3"?%%
Table des matières
I Equations Différentielles Ordinaires 1
I.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2 EDO’s linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.2.a Définition & principe de superposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.2.b EDO’s linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.2.c EDO’s linéaires à coefficients non-constants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
I.3 EDO’s non-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.3.a Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
I.3.b Quelques EDO’s non-linéaires dont on connait la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
I.1 Généralités
EDO d’ordre n
qui met en relation une fonction y(x) et ses dérivées y 0 (x), y 00 (x),. . ., y (n) (x) par rapport à une seule variable
x ∈ R. L’ordre n de l’équation différentielle est fixé par la plus haute dérivée présente dans l’équation. On
notera aussi
dy d2 y dp y
y 0 (x) = , y 00 (x) = , y (p) (x) =
dx dx2 dxp
pour la première, la deuxième et la p-ième dérivée de y(x). D’autres cours peuvent utiliser ẏ(x), ÿ(x) pour
première et deuxième dérivées.
Une fonction y = φ(x) définie sur un intervalle I est une solution explicite d’une EDO (I.1) si
h i
F x, φ(x), φ0 (x), . . . , φ(n) = 0
pour tout x ∈ I. On imagine cette solution explicite comme dans la figure I.1-(a).
Une relation g(x, y) = 0 est une solution implicite d’une EDO (I.1) sur un intervalle I, si
(a.) Il existe une fonction φ(x) définie sur I telle que g(x, φ(x)) = 0
(b.) Si
h i
F x, φ(x), φ0 (x), . . . , φ(n) (x) = 0
pour tout x ∈ I.
Cette définition est abstraite, mais on peut facilement imaginer un cas concret. Si pour un même x, plusieurs
solutions y(x) existent, comme illustré dans la figure I.1-(b), il est souvent plus facile d’écrire la solution comme
g(x, y) = 0.
1
(a) Solution explicite : pour une (b) Solution implicite : pour une (c) Solution générale : une famille de
valeur de x, une seule valeur y valeur de x, plusieurs valeurs y solutions paramétrisée par une (ou plu-
sieurs) constante(s) arbitraire(s)
Une solution générale d’une EDO dépend de une ou plusieurs constantes arbitraires C, D, E, . . . et permet
en les variant d’obtenir l’ensemble des fonctions qui satisfont l’équation différentielle. On imagine cette solution
comme figure I.1-(c), c.a.d. comme la collection de courbes que l’on obtient en variant ici C.
Une solution est une solution particulière, si elle ne dépend pas de constantes arbitraires. On l’imagine
comme une des solutions contenues dans la solution générale.
Un problème aux Conditions Initiales (CI) est défini par une EDO d’ordre n ≥ 1 accompagnée de exac-
tement n conditions supplémentaires de la forme :
Les conditions initiales fixent la valeur de la fonction et de ses n − 1 premières dérivées en un unique point
initial x0 .
Un problème aux Conditions aux Limites (CL) est défini par une EDO d’ordre n ≥ 2 accompagnée de
exactement n conditions supplémentaires de la forme
Les conditions aux limites fixent des combinaisons (pas forcément linéaires) de la fonction et/ou ses n − 1
premières dérivées en plusieurs points x0 , x1 , x2 , . . ..
EDO linéaire
Une EDO (I.1) est linéaire, si la fonction F est linéaire dans toutes les variables y et ses dérivées. C’est à dire
que ∀a, b ∈ R et toutes les fonctions y(x) et z(x) :
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)
2
avec ai (x), b(x) des fonctions arbitraires. Si b(x) 6= 0 on dit que l’équation est inhomogène, si b(x) = 0
l’équation est homogène. Une équation homogène a toujours y = 0 comme solution, on parle de la solution
triviale. Si les fonctions ai (x) = ai sont plutôt des constantes, on parle d’une EDO linéaire à coefficients
constants.
La linéarité d’une EDO permet d’appliquer le principe de superposition : si φ(x) et ψ(x) sont deux solutions
de l’EDO linéaire, alors toute combinaison linéaire de aφ(x) + bψ(x) restera une solution. Ce principe a la
conséquence suivante.
La solution générale d’une EDO linéaire d’ordre n quelconque (I.2), sera toujours de la forme :
n
X
y(x) = Ci φi (x) +yp (x) (I.3)
i=1
| {z }
yh (x)
La solution homogène yh (x) est elle même une superposition arbitraire de n solutions linéairement indépendantes
φi (x), {i = 1, 2, . . . , n} de l’EDO homogène. Ces fonctions satisfont donc
(n) (n−1)
∀i ∈ {1, 2, . . . , n} : φi (x) + an−1 (x)φi (x) + . . . + a1 (x)φ0i (x) + a0 (x)φi (x) = 0
et
n
X
Di φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1
On vérifie aisément que dans ces conditions, la solution (I.3) satisfait l’EDO (I.2), quelque soit les valeurs des
n constantes arbitraires Ci , {i = 1, 2, . . . , n}.
Ordre 1
3
Ordre n
λn + an−1 λn−1 + . . . + a1 λ + a0 = 0
Pour ai ∈ R, les racines λi , i ∈ {1, . . . , n} seront réelles où complexe conjuguées par pair. Afin d’écrire la
solution, on doit distinguer deux cas différents :
1. Si toutes les racines λi sont différentes, la solution de l’EDO sera une superposition arbitraire de fonctions
exponentielles :
On remarque immédiatement que chaque terme est solution d’une EDO d’ordre 1 :
d
− λj eλj x = 0
dx
que l’on retrouve dans la factorisation (I.4). Comme on peut changer arbitrairement l’ordre des opérateurs
(d/dx − λj ) dans (I.4), on comprend d’où vient la solution (I.5).
2. S’il y a des racines multiples, la partie de la solution associée à ces racines ne sera pas seulement composée
de fonctions exponentielles. Regardons le cas spécifique de l’équation archétype avec une racine double :
d d
−λ − λ y(x) = 0
dx dx
| {z }
= u(x)
Comme la notation le suggère, on résolve cette équation en faisant une étape intermédiaire passant par la
fonction u(x), solution de
d
− λ u(x) = 0 ⇒ u(x) = C1 eλx
dx
La solution est un polynôme arbitraire d’ordre 1, noté (P1 (x)) qui multiplie le facteur exponentiel habituel.
4
On généralise aisément à des cas de racines de multiplicités k > 2, en faisant k − 1 étapes intermédiaires
k
d
⇒ y(x) = C1 + C2 x + . . . + Ck xk−1 eλx
− λ y(x) = 0
dx | {z }
Pk−1 (x)
La solution associée à une racine λ de multiplicité k est un polynôme arbitraire d’ordre k − 1, noté
(Pk−1 (x)) qui multiplie le facteur exponentiel eλx .
Comme un polynôme arbitraire d’ordre 0, est une constante arbitraire on peut regrouper les deux cas en une
seule formule. La solution homogène se laisse toujours écrire sous la forme
X
yh (x) = Pkj −1 (x) eλj x
j
La somme parcourt les différentes valeurs propres λj et on note kj la multiplicité de la valeur propre λj .
yp (x) = D0 + D1 x + . . . + Dp xp
Injecté dans l’EDO, on identifie des équations algébriques pour Di par identification (membres de gauche,
droite) des coefficients devant les différentes puissances en xi .
Si b(x) est composé de exponentielles, ou de fonctions trigonométriques (sin, cos) ou hyperboliques (sinh, cosh)
qui se laissent écrire comme des sommes d’exponentielles, on peut chercher la solution particulière comme
X
yp (x) = Dp eαp x
p
On injecte cette solution dans l’EDO et on identifie des équations algébriques pour Di , i ∈ {1, . . . , p}
par identification (membres de gauche, droite) des coefficients devant les différentes exponentielles. Cette
méthode ne marche pas si l’un des αi coı̈ncide avec une racine λi de la solution homogène.
Dans le cas où b(x) est une fonction quelconque, il n’est pas si évident de trouver une solution particulière.
On apprendra une méthode systématique dans le chapitre suivant et on verra également comment l’analyse de
Fourier (3ième partie de ce cours) peut être utile.
Exemple :
On cherche à résoudre l’EDO
y 00 + 3y 0 + 2y = x2
λ2 + 3λ + 2 = (λ + 1)(λ + 2) ⇒ λ1 = −1 , λ2 = −2
yp (x) = Ax2 + Bx + C
5
dans l’EDO, ce qui donne
2A = 1
2A + 6Ax + 2Ax2 + 3B + 2Bx + 2C = x2 ⇒ 6A + 2B = 0
2A + 3B + 2C = 0
soit
1 3 7
A= , B=− , C=
2 2 4
La solution générale est donc
x2
3x 7
y(x) = C1 e−x + C2 e−2x + − +
2 2 4
Si on muni l’EDO de CI, on exprimera ces conditions un par un. Ceci mènera à un système linéaire algébrique
pour les coefficients arbitraires, qui apparaissent dans la solution homogène. Ce système algébrique et donc un
problème linéaire aux CI, a toujours une solution unique.
Exemple (suite) :
Au précédent problème, on ajoute
CI : y(0) = 1 , y 0 (0) = 0
On exprime ces deux conditions à l’aide de la solution générale
C1 + C2 + 7/4 = 1 C1 = 0
⇔
−C1 − 2C2 − 3/2 = 0 C2 = −3/4
La solution unique du problème aux CI est donc
2
3 x 3x 7
y(x) = − e−2x + − +
4 2 2 4
Si on muni l’EDO linéaire de CL, on va également trouver un système linéaire algébrique pour les coefficients
arbitraires Ci , {i = 1, 2, . . . , n}. Ce système algébrique et donc un problème linéaire aux CL, peut avoir aucune,
une ou une infinité de solutions.
Exemple :
On considère le problème aux CL suivant
d2 y
+ k2 y = 0 , CL : y(0) = 0 , y(L) = 1
dx2
La solution générale de l’EDO est
y(x) = C1 eikx + C2 e−ikx = D1 sin kx + D2 cos kx
Les CL fixent
D2 = 0 1
, D1 =
D1 sin kL = 1 sin kL
On trouve donc
sin kx
y(x) =
sin kL
comme solution du problème aux CL. Cette solution n’existe pas, si sin kL = 0, si k = nπ/L , n ∈ N0 .
6
I.2.c EDO’s linéaires à coefficients non-constants
Plus compliquées, mais très répandues en physique. A l’ordre 1, on connait toujours la solution au moins
formellement. A l’ordre 2, on liste quelques EDO’s, dont les solutions définissent des fonctions ou des polynômes
spéciaux, que l’on rencontre souvent en physique et que l’on utilisera dans le troisième chapitre.
Ordre 1
Injectée dans l’EDO, on trouvera une EDO pour le coefficient A(x), que l’on peut intégrer :
Z x
dA q(x) b(x̃)
= ⇒ A(x) = C0
dx̃ + |{z}
dx yh (x) yh (x̃)
=0
y 0 + xy = x
Montrons qu’on peut également retrouver la solution particulière à l’aide de la méthode de la variation de
2
constante. Cherchant yp = A(x)e−x /2 on obtiendrait
Z x Z x
2 2 2
A(x) = x̃ ex̃ /2 dx̃ = ex̃ /2 d(x̃2 /2) = ex /2
7
Ordre 2 : Bessel
On reconnait C1 et C2 des constantes arbitraires. Jm (x) et Ym (x) sont les fonctions de Bessel du premier
et deuxième type. Dans la figure ci-dessous, on montre ces fonctions pour différents m entiers. On voit des
oscillations qui décroissent en amplitude pour x croissant.
Il est utile de se souvenir des comportements pour grandes et petites valeurs de x.
• Pour de grands x, plus spécifiquement pour x m2 − 1/4, les fonctions de Bessel se comportent comme
r
2 π
Jm (x) ' cos x − (2m + 1)
πx 4
r
2 π
Ym (x) ' sin x − (2m + 1)
πx 4
c.a.d. des cosinus et des sinus, dont l’amplitude décroit progressivement en x−1/2 .
Les fonctions de Bessel sont des fonctions ”spéciales”, mais ont peu de spécial par rapport aux fonctions
élémentaires. Elles ont de nombreuses propriétés qui permettent de faire du calcul formel. Elles apparaissent
systématiquement dans des problèmes à symétrie cylindrique. Parfois on utilise aussi les fonctions de Bessel
modifiées, Im (x) et Km (x) que vous pouvez découvrir par vous-même.
1 1
J0(x) Y0(x)
J1(x) 0
J2(x) Y1(x)
0.5 J3(x) Y2(x)
−1
Y3(x)
0
−2
−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x
8
Les fonctions de Bessel sphérique jn (x) et yn (x) sont liées aux fonctions de Bessel :
r
π
jn (x) = J 1 (x)
2x n+ 2
r
π
yn (x) = Y 1 (x)
2x n+ 2
Mis à part d’un préfacteur ∼ x−1/2 , on retrouve ici des fonctions de Bessel ”normales” avec un argument non-
entier. Les fonctions de Bessel décroissent en x−1 pour x grand. Les formules de Rayleigh donnent une forme
alternative
n
1 d sin x
jn (x) = (−x)n
x dx x
n
1 d cos x
yn (x) = −(−x)n
x dx x
Dans la figure de dessous, on peut voir quelques fonctions de Bessel sphérique. Mise à part d’une décroissance
plus rapide pour x grand, les fonctions de Bessel sphériques ressemblent beaucoup au fonctions de Bessel
”communes”.
1 1
j0(x)
y (x)
0
0 y1(x)
0.5 j1(x)
j2(x) y3(x)
j3(x) y2(x)
−1
0
−2
−0.5 −3
0 2 4 6 8 10 0 2 4 6 8 10
x x
d2
d
(1 − x2 ) 2 − 2x + n(n + 1) y(x) = 0 , x ∈ [−1, 1]
dx dx
Dans la plupart des applications en physique, le nombre n ∈ N et le domaine x ∈ [−1, 1]. La solution de cette
EDO est
Les fonctions Qn (x) sont singulières dans le domaine x ∈ [−1, 1] et pour cette raison, on les écarte souvent
(mettantC2 = 0). Toute l’attention porte alors sur les fonctions Pn (x) : les polynômes de Legendre. Vous
pouvez vérifier que
P0 (x) = 1
P1 (x) = x
P2 (x) = (3x2 − 1)/2
P3 (x) = (5x3 − 3x)/2
9
Ordre 2 : ”polynômes” associés de Legendre
d2 m2
d
(1 − x2 ) 2 − 2x + n(n + 1) − y(x) = 0 , x ∈ [−1, 1]
dx dx 1 − x2
Dans la plupart des applications en physique, le nombre n ∈ N, le domaine x ∈ [−1, 1] et et m un entier dans
l’intervalle [−n, n]. La solution de cette EDO est
Pour n = 2 :
p
P2±1 (x) ∼ x 1 − x2
P2±2 (x) ∼ (1 − x2 )
On ne montre ici que la dépendance fonctionnelle à un facteur multiplicatif près. Vous pouvez facilement trouver
ces facteurs sur internet. On dispose d’une formule générale les fonction sPnm (x) aux polynômes de Legendre
Pn (x) :
m/2 dm
Pnm (x) = (−1)m 1 − x2 (Pn (x))
dxm
Dans de nombreux domaines de la physique (théorique & numérique) on rencontre d’autres familles de polynômes
orthogonaux. Quelques familles avec les EDO’s dont ces polynômes sont des solutions :
d2
d
− 2x + 2n Hn (x) = 0 , x ∈] − ∞, +∞[
dx2 dx
Ces polynômes sont utilisés en Mécanique Quantique, dans la description de l’oscillateur harmonique.
d2
d
x 2 + (1 − x) + n Ln (x) = 0 , x ∈ [0, +∞[
dx dx
Ces polynômes apparaissent en Mécanique Quantique, pour décrire la structure radiale des fonctions
d’onde décrivant l’atome d’hydrogène.
d2
2 d 2
(1 − x ) 2 − 2x + n Tn (x) = 0 , x ∈ [−1, 1]
dx dx
10
Remarque :
Les EDO’s introduites ci-dessus ont encore une deuxième solution différente des solutions polynomiales. Elles
sont singulières pour x dans les intervalles mentionnées et donc écartées des applications physiques/numériques.
Exercice :
On vérifié aisément que le polynôme d’ordre 0 peut toujours être :
dans l’équation différentielle de Hermite (pareil pour les autres). Regroupant les coefficients devant les différentes
puissances en x, vous allez trouver des systèmes linéaires algébriques, permettant à chaque fois de calculer les
coefficients A, B, C, . . ..
n H0 (x) Pn (x) Ln (x) Tn (x)
0 1 1 1 1
Les polynômes trouvés seront à un facteur multiplicatif près, identiques à ceux que vous pouvez trouver sur le
web. L’exercice sur les polynômes d’Hermite sera fait en TD.
I.3.a Définition
Toute EDO (I.1) générale qui ne satisfait pas la propriété de linéarité, c.a.d. pour qui
h i
F x, ay(x) + bz(x), ay 0 (x) + bz 0 (x), . . . , ay (n) (x) + bz (n) (x)
h i h i
6= aF x, y(x), y 0 (x), . . . , y (n) (x) + bF x, z(x), z 0 (x), . . . , z (n) (x)
est non-linéaire. Il suffit de vérifier que l’EDO ne prenne pas la forme d’une EDO linéaire (I.2), afin reconnaitre
son caractère non-linéaire.
La plus importante conséquence de la non-linéarité est que le principe de superposition ne s’applique
plus. Les méthodes apprises dans la section précédente ne s’appliquent donc pas du tout aux
EDO’s non-linéaires.
Ici on présente quelques catégories d’EDO’s non-linéaires pour lesquelles on dispose d’une méthode qui trouve
la solution. Apprenez à reconnaı̂tre ces EDO’s. Il existe des équations non-linéaires, qui deviennent linéaires par
un changement de variable : l’EDO de type Bernoulli en est un exemple.
11
I.3.b Quelques EDO’s non-linéaires dont on connait la solution
EDO séparable
Une EDO séparable est une EDO, qui peut s’écrire comme une forme différentielle
f (x) dx + g(y) dy = 0
qui sépare un terme en x, d’un terme en y. A cause de cette propriété, la solution se trouve en intégrant
séparément les formes différentielles indépendantes sur x et sur y
Z x Z y
f (x̃) dx̃ + g(ỹ) dỹ = C
| {z } | {z }
F (x) G(y)
On comprend immédiatement que cette solution générale sera implicite : on n’écrit pas y comme une fonction
explicite de x, car la fonction inverse F −1 , n’existe pas forcément.
Exemple :
On considère le problème aux conditions initiales
dy
− 2xy 2 = 0 , CI : y(0.5) = 1
dx
On cherche la solution sur l’intervalle x ∈ [0.5, 1]. La solution générale de cette équation séparable se trouve
comme
dy 1
+ 2x dx = 0 ⇔ + x2 = C
(−y 2 ) y
EDO exacte
Toutes les EDO’s d’ordre 1 peuvent se récrire comme une forme différentielle
On appelle une EDO exacte, s’il existe une fonction ψ(x, y) qui a cette forme différentielle comme différentielle
totale. C’est à dire, si
∂ψ ∂ψ
dψ = dx + dy = f (x, y) dx + g(x, y) dy = 0
∂x ∂y
L’intégration est alors immédiate et donne
ψ(x, y) = C
C est une constante d’intégration arbitraire. Cette solution générale est implicite. En pratique, on doit donc
trouver ψ(x, y) et avant ça, il est nécessaire de tester si l’EDO est bien exacte. De
∂ψ ∂ψ
= f (x, y) , = g(x, y) (I.7)
∂x ∂y
on déduit que
∂2ψ ∂f ∂g
= =
∂x∂y ∂y ∂x
12
Ceci donne une condition nécessaire :
∂f ∂g
si = ⇒ EDO (I.6) est exacte
∂y ∂x
Une fois l’exactitude démontrée, on trouve la fonction ψ(x, y) en intégrant les équations (I.7) séparément :
Z x
ψ(x, y) = f (x̃, y) dx̃ + B(y)
Z y
ψ(x, y) = g(x, ỹ) dỹ + A(x)
Comme on intègre des dérivées partielles, des fonctions A(x) et B(y) peuvent apparaitre comme ”constantes
d’intégration”. Les deux expressions doivent être identiques et ceci fixe A(x) et B(y) et donc la fonction ψ(x, y)
recherchée.
Exemple :
On cherche la solution de l’EDO
dy
(x2 + 4y 3 ) + 2xy = 0
dx
Récrite comme une forme différentielle
∂(x2 + 4y 3 ) ∂(2xy)
=
| ∂x
{z } | ∂y{z }
=2x 2x
ce qui est bien le cas : l’équation est exacte. Pour trouver la solution on intègre deux fois les dérivées partielles
∂ψ
= (x2 + 4y 3 ) ⇔ ψ(x, y) = x2 y + y 4 + C(x)
∂y
∂ψ
= 2xy ⇔ ψ(x, y) = x2 y + D(y)
∂x
Les deux solutions doivent être identiques. On peut choisir C(x) = 0 mais il faut D(y) = y 4 . La solution de
l’EDO est donc
x2 y + y 4 = C
La situation d’une équation exacte est très fragile. Donnons un exemple. L’EDO
∂(x y 2 + x) ∂(x2 y)
(x y 2 + x)dx + x2 y dy = 0 , = = 2xy
∂y ∂x
est exacte, mais si on la divise par x, elle ne l’est plus :
∂(y 2 + 1) ∂(x y)
(y 2 + 1)dx + x y dy = 0 , = 2y 6= =y
∂y ∂x
13
Plutôt que de voir cette situation comme un désavantage, on peut retourner la logique de 180 degrées : une
EDO non-exacte peut le devenir après multiplication avec un facteur intégrant M (x, y) :
∂(M f ) ∂(M g)
M (x, y) f (x, y)dx + M (x, y) g(x, y)dy = 0 , = ⇒ peut être exact ?
∂y ∂x
Trouver un facteur intégrant d’une EDO non-exacte est rarement une chose simple, mais si on en trouve un,
l’EDO est résolue ! On dispose d’une procédure systématique pour tester si des facteurs intégrants M = M (x)
où M = M (y) existent, mais pas d’une procédure pour un facteur M (x, y) général.
EDO Bernoulli
u(x) = Ce−2x + 1
soit
1
y(x) = ± √
1 + Ce−2x
si on revient sur la variable y(x).
14
Chapitre II
II.1 Généralités
Système d’EDO’s d’ordre n
(n)
qui sont à satisfaire par un ensemble de m fonctions yi (x) et leurs dérivées yi0 (x), yi00 (x),. . ., yi (x) , i ∈
{1, 2, . . . , m} par rapport à une seule variable x. L’ordre de ce système est fixé par la plus haute dérivée
présente dans les équations.
Réduction d’ordre
Dans le reste du chapitre nous allons concentrer notre attention sur les systèmes d’EDO’s du premier ordre.
Ceci n’est pas un aveux de notre incapacité à faire mieux, mais plutôt une conséquence du fait que :
1. Toute EDO d’ordre n, peut s’écrire comme un système de n EDO’s d’ordre 1.
2. Tout système de m EDO’s d’ordre n, peut s’écrire comme un système de nm EDO’s du premier ordre.
Ce processus est connu sous le nom de la réduction d’ordre. Donnons deux exemples des opérations à suivre
Exemple 1 :
Une EDO linéaire d’ordre n s’écrit comme un système d’EDO’s d’ordre 1. L’équation originale s’écrit
y (n) + an−1 (x)y (n−1) + . . . + a1 (x)y 0 + a0 (x)y = b(x)
On renomme
y1 (x) = y(x) , y2 (x) = y 0 (x) , . . . , yn (x) = y (n−1) (x)
Ainsi qu’on peut récrire l’EDO comme le système (linéaire)
y10 = y2
y20 = y3
...
0
y = yn
n−10
yn = −a0 (x)y1 − a1 (x)y2 − . . . − an−1 (x)yn − b(x)
15
Exemple 2 :
Le position ~r(t) d’une masse m ponctuelle peut varier au cours du temps sous l’influence d’une force F~ , suivant
le principe fondamental de la dynamique
d2~r
d~r
m 2 = F~ t, ~r,
dt dt
Ceci est un système de 2 EDO’s d’ordre 2. Le processus de réduction d’ordre, nous permet de récrire ce système
sous la forme de 4 équations d’ordre 1, à l’aide de 4 nouvelles variables au lieu de 2 seulement. On choisit ces
variables non par hasard comme
car intuitivement on comprend que ces variables donnent une spécification complète de l’état du système : la
position de la masse et sa vitesse. Si on fait une réduction d’ordre à l’aide de ces variables, on doit à toute
évidence avoir
x0 = u
0
y = v
0
u = m−1 Fx (t, x, y, u, v)
0
v = m−1 Fy (t, x, y, u, v)
La plupart des systèmes d’EDO’s que l’on rencontre en physique peuvent s’écrire sous une forme canonique
où on arrive à isoler la dérivée d’ordre 1 dans un membre de gauche :
y1 f1 (x, y1 , y2 , . . . , yn )
y2 f2 (x, y1 , y2 , . . . , yn )
d
.. = ..
dx .
.
yn fn (x, y1 , y2 , . . . , yn )
| {z } | {z }
Y F(x,Y)
On traitera uniquement ce genre de système dans le reste du chapitre. Un tel système d’EDO’s se laisse écrire
brièvement
dY
= F(x, Y) (II.1)
dx
16
Dans ce polycopier et au tableau, on notera avec des lettres majuscules et grasses ces vecteurs colonnes. Parfois
on appelle Y le vecteur d’état d’un système. Le vecteur d’état Y vit dans un espace (vectoriel) à n dimensions
appelé espace de phase. En écrivant le système d’EDO’s précédent, on spécifie un système dynamique.
On peut définir un problème à conditions initiales, en ajoutant à un tel système d’EDO’s (du premier
ordre) un ensemble de conditions initiales en un même point x0 :
CI : Y(x0 ) = Y0
Le théorème de Cauchy-Lifschitz donne des conditions nécessaires pour qu’un problème aux conditions initiales
ait une solution et qu’elle soit unique. Ce théorème n’est pas traité dans le polycopier.
Système linéaire
Un système de n EDO’s du premier ordre (II.1) est linéaire, si F(x, Y) est une fonction linéaire dans l’argument
vectoriel Y, c.a.d. :
Sinon, le système est non-linéaire. Tout système linéaire peut s’écrire comme
y1 a11 (x) a12 (x) . . . a1n (x) y1 b1 (x)
y
d 2 21
a (x) a22 (x) . . . a 2n (x) 2 b2 (x)
y
.. = .. +
.. .. . .. .
.. ..
dx .
. . . .
yn an1 (x) an2 (x) . . . ann (x) yn bn (x)
| {z } | {z } | {z } | {z }
Y A(x) Y B(x)
soit
dY
= A(x) Y + B(x) (II.2)
dx
en format condensé. Ici on note A(x) une fonction matricielle avec n × n composantes. Si A(x) = A ne dépend
pas de x, on parle d’un système linéaire à coefficients constants. Si le vecteur colonne B(x) 6= 0 le système
est inhomogène. Si B(x) = 0, le système est homogène.
La linéarité d’un système d’EDO permet d’appliquer le principe de superposition : si Φ(x) et Ψ(x) sont
des fonctions vectorielles solutions du système d’EDO’s, alors toute combinaison linéaire aΦ(x) + bΨ(x) restera
une solution.
La conséquence est que pour tout système linéaire de n EDO’s d’ordre 1, on peut proposer la solution générale
sous forme d’une superposition :
n
X
Y(x) = Ci Φi (x) +Yp (x) (II.3)
i=1
| {z }
Yh (x)
La solution homogène Yh (x) est composée d’une combinaison linéaire arbitraire de n fonctions vectorielles
Φi (x), {i = 1, 2, . . . , n} linéairement indépendantes. Ces fonctions satisfont donc
dΦi (x)
∀i ∈ {1, 2, . . . , n} : = A(x) Φi (x)
dx
17
et
n
X
Di Φi (x) = 0 ⇔ Di = 0 , ∀i ∈ {1, 2, . . . , n}
i=1
dYp (x)
= A(x) Yp (x) + B(x)
dx
On vérifie aisément que la solution générale (II.3) satisfait (II.2), quelque soient les valeurs des constantes
arbitraires Ci , {i = 1, 2, . . . , n}.
Remarque :
Pour une matrice A(x) générale, on ne dispose pas d’une méthode analytique pour trouver la solution Y(x),
mais le principe de superposition et les précédentes affirmations sur l’existence d’une base de solution Φi (x) , i =
1, 2, . . . , n tiennent. On considèrera seulement des systèmes linéaires à coefficients constants dans la suite de
cette section.
dYh (x)
= AYh (x) (II.5)
dx
avec A donc une matrice constante. La méthode générale passe par le calcul de l’exponentielle de matrice, mais
pour des matrices diagonalisables, il existe une méthode plus simple passant par un calcul des valeurs et des
vecteurs propres de la matrice A.
Une matrice A diagonalisable est une matrice dont on peut calculer valeurs et vecteurs propres. On
rappelle que les n valeurs propres λ1 , λ2 , . . . , λn sont calculées comme les racines (complexes) du polynôme
caractéristique
et que les n vecteurs propres Q1 , Q2 , . . . , Qn , sont des vecteurs colonnes solution du système algébrique
(A − λi I) Qi = 0
Ce système n’est jamais de rang plein et il faut le résoudre pour chaque i ∈ {1, 2, . . . , n} séparément.
Un vecteur propre est toujours déterminé à une constante multiplicative près (parfois on normalise les
vecteurs propres). De différents vecteurs propres sont linéairement indépendants toujours.
On peut maintenant vérifier que les solutions recherchées sont tout simplement les fonctions vectorielles
18
pour tout i ∈ {1, 2, . . . , n}. Injectées dans le système linéaire homogène (II.5), on trouve en effet que
d
Qi eλi x = λi Qi eλi x = AQi eλi x
dx
L’indépendance linéaire des vecteurs propres Qi implique l’indépendance linéaire des fonctions vectorielles
Φi (x) = Qi eλi x . En résumé, il suffit donc de calculer valeurs et vecteurs propres, afin de pouvoir écrire
la solution homogène comme
n
X
Yh (x) = C1 Q1 eλ1 x + C2 Q2 eλ2 x + . . . + Cn Qn eλn x = Ci Qi eλi x (II.7)
i=1
Le premier pas de la recette consiste à trouver les valeurs propres de A. On construit le polynôme
caractéristique et on trouve ses racines :
−λ 1
P (λ) = det(A − λI) = = (−λ)(−1 − λ) − (1)(1) = λ2 + λ − 1 = 0
1 −1 − λ
√ √
−1 + 5 −1 − 5
⇒ λ1 = , λ2 =
2 2
Pour trouver les vecteurs propres Q1 , Q2 , on doit trouver des solutions du système algébrique homogène
−λi 1 q1i 0
= , i = 1, 2
1 −1 − λi q2i 0
| {z }
Qi
Comme, par définition, les valeurs propres λi sont telles que les deux équations algébriques de ci-dessus
(les n en général) soient linéairement dépendantes, il suffira de satisfaire une seule des deux équations
(n − 1 des n en général) pour trouver les vecteurs propres. Par exemple
q1i q1i 1
−λi 1 = 0 ⇒ Qi = = αi
q2i q2i λi
Dans cette expression αi ∈ C sont des constantes arbitraires qui n’ont aucune importance car on multipliera
ces vecteurs par d’autres constantes arbitraires C1 , C2 lorsqu’on écrit la solution du problème. Choisissons
αi = 1 ici. La solution homogène deviendra alors donc :
√ √
1√ −1+ 5
x 1√ −1− 5
x
Yh (x) = C1 −1+ 5 e 2 + C2 −1− 5 e 2
2 2
19
Exemple 2 : valeurs propres complexes
Cette expression est tout à fait correcte, mais si la solution Yh doit être réelle, on doit avoir C1 = C2∗ ∈ C.
On peut alors obtenir deux formes équivalentes de la solution. En choisissant C1 = C2∗ = C2 eiχ avec
C, χ ∈ R amplitude et phase réelles, ou à l’aide de C1 = C2∗ = α−iβ2 on récrit la solution comme
cos(x + χ) cos x sin x
Yh (x) = C =α +β
− sin(x + χ) − sin x cos x
On peut préférer mettre la solution sous l’un de ces formes réelles, mais la première solution sous forme
complexe est toujours la plus facile à obtenir et à manipuler.
I est la matrice identité de taille n × n et les produits AA . . . A sont des produits matriciels en non des
produits ordinaires ! On peut dériver cette expression par rapport à x, pour trouver
d Ax 2x 3x2 4x3
e = 0 + A + AA + AAA + AAAA + ...
dx 2! 3! 4!
x2 x3
= A I + Ax + AA + AAA + . . .
2! 3!
= AeAx (II.8)
Si on compare avec le système (II.5), on reconnait immédiatement que eAx semble résoudre le même
système que Yh . Supposons que l’on arrive à calculer cette exponentielle de matrice, on pourra noter
φ11 (x) φ12 (x) . . . φ1n (x)
φ21 (x) φ22 (x) . . . φ2n (x)
eAx = = M(x)
.. .. .. ..
. . . .
φn1 (x) φn2 (x) . . . φnn (x)
| {z } | {z } | {z }
Φ1 (x) Φ2 (x) Φn (x)
20
et ainsi reconnaitre que les n colonnes forment un jeu de solutions Φi (x) , {i = 1, 2, . . . , n} linéairement
indépendants. En effet, il suffit de considerer eq. (II.8) colonne par colonne, afin de reconnaitre que chaque
colonne est une solution du problème homogène. L’indépendance linéaire des fonctions vectorielles Φi (x)
est d’ailleurs toujours assurée car la matrice eAx est inversible ∀x car
−1
eAx = e−Ax (II.9)
Cette relation se démontre en deux étapes. Utilisant le règle de Leibniz et (II.8) on trouve que
d Ax −Ax
e e = eAx (A − A)e−Ax = 0.
dx
Le produit eAx e−Ax est donc indépendant de x. Il suffit de mettre x = 0, dans la définition de eAx pour
trouver que eAx e−Ax = I, ce qui démontre (II.9) et donc l’indépendance linéaire des n solutions Φi (x)
contenues dans les colonnes de eAx .
En conclusion, la solution homogène peut donc aussi s’écrire comme une superposition arbitraire des
colonnes de eAx :
Ici aussi, on introduit une matrice d’un système fondamental de solutions M(x), que l’on choisit directe-
ment comme M(x) = eAx .
Remarque :
Si A est diagonalisable, la solution homogène (II.10) basée sur l’exponentielle de matrice sera visuelle-
ment différente de celle basée sur les vecteurs propres (II.7), mais les deux formes de la solution seront
néanmoins linéairement dépendantes.
Exemple 3 :
La matrice à donc une valeur propre double λ = a et un des éléments non-diagonaux est non-nulle. Le
calcul des vecteurs propres de cette matrice pose problème, car si on cherche abusivement à les calculer,
le système AQi = a Qi sera
a qi,1 + qi,2 = a qi,1
a qi,2 = aqi,2
mais on ne peut pas trouver une deuxième solution Q2 différente. Retournant au système d’EDO, on
aurait donc l’impression que la solution serait
1
Yh = C 1 eax Solution incomplète !
0
et une deuxième solution linéairement indépendante (notée C2 Φ2 (x)) n’existerait donc pas ? Face à ce
problème d’une analyse clairement pas adaptée à la situation, faisons confiance à notre exponentielle de
matrice :
2 3
Ax 1 0 a 1 1 a 1 1 a 1
e = + + + + ...
0 1 0 a 2! 0 a 3! 0 a
21
On constate que
2
a2
a 1 a 1 a 1 2a
= =
0 a 0 a 0 a 0 a2
et
3
a2 a3 3a2
a 1 a 1 2a
= =
0 a 0 a 0 a2 0 a3
tel que
n
an nan−1 an ∂(an )/∂a
a 1
= =
0 a 0 an 0 an
Les termes diagonaux sont simplement mis à la puissance. Le terme qui n’est pas sur la diagonale est
toujours la dérivée de ceux qui sont sur la diagonale. En sommant tous les différents termes, nous obtenons
la série limitée des fonctions
1 1
eax = 1 + ax + a2 x2 + a3 x3 + . . .
2 3!
∂ eax 1 2 1 2 3
= 0 + x + 2ax + 3a x + . . .
∂a 2 3!
Comme
∂ eax
= xeax
∂a
nous trouvons le résultat
ax
xeax
e
eAx =
0 eax
Les colonnes de cette matrice contiennent Φ1 (x), Φ2 (x), les solutions linéairement indépendantes. La
solution du problème (homogène) est donc
ax
xeax
e
Y(x) = C1 + C2
0 eax
avec C1 , C2 ∈ R deux constantes arbitraires. On teste facilement que cette deuxième partie de la solution
satisfait bien le système d’EDO de départ. On note, qu’il n’y a pas seulement des fonctions exponentielles
dans cette solution, l’unique conséquence du fait que la matrice A n’est pas diagonalisable. On rappelle
aussi avoir déjà rencontré ce type de fonctions xeax lors du traitement des EDO’s d’ordre n avec des
racines multiples.
Généralisation :
Toutes les matrices A peuvent se réduire à la forme de Jordan, c.a.d. il existera toujours une matrice P
inversible et telle que :
J = P−1 A P , A = P J P−1
Cette matrice de Jordan J est identique à la matrice Λ si A est diagonalisable, sinon elle est diagonale
par bloc. Dans l’exemple précédent, la matrice A = J est une matrice de Jordan. Sans vouloir détailler
la forme générale d’une matrice de Jordan, on se contente ici de savoir qu’on pourra toujours calculer
facilement l’exponentielle de matrice eJ x . Comme
An = (PJ P−1 )(P J P−1 )(P J P−1 ) . . . (PJ P−1 )(P J P−1 ) = PJ n P−1
| {z } | {z } | {z }
I I I
22
Trouver une solution particulière Yp
On regarde quelques cas particuliers et puis on propose une méthode générale qui étend la méthode de la
variation de la constante.
Les systèmes devant les différentes puissances en x, doivent être satisfaits un a un et on peut les résoudre
en cascade, commençant par la puissance la plus élevée
Dp → Dp−1 → . . . → D0
Si dans B(x) on trouve des fonctions du type sin, cos, cosh, sinh, exp, on le sépare tout d’abord en simples
exponentielles. On peut alors trouver la solution particulière sous cette même forme
X
Yp (x) = Dm eαm x
m
Si on injecte cette proposition de solution dans l’équation, on trouve que les vecteurs Dm doivent être les
solutions des m problèmes
(A − αm I) Dm = −Bm
Que l’on doit résoudre séparément. Cette méthode ne fonctionne pas si l’un des αm est identique à l’un
des valeurs propres λi de la matrice A.
3. B(x) quelconque
Pour B(x) quelconque, on peut étendre la méthode de la variation de la constante, introduite pour des
EDO’s linéaires d’ordre 1 dans le premier chapitre. Connaissant la solution homogène (c.a.d. n fonctions
vectorielles Φi (x) , i = 1, 2, . . . , n linéairement indépendantes) on cherche la solution particulière comme
Yp (x) = D1 (x)Φ1 (x) + D2 (x)Φ2 (x) + . . . + Dn (x)Φn (x)
Par un abus de langage on ”varie donc les constantes arbitraires” et si on injecte cette proposition de
solution dans le système (II.4) il restera un système linéaire algébrique pour les dérivées Di0 (x) , i =
1, 2, . . . , n :
0
φ11 (x) φ12 (x) . . . φ1n (x) D1 (x) b1 (x)
φ21 (x) φ22 (x) . . . φ2n (x) D20 (x) b2 (x)
=
.. .. .. .. .. ..
. . . . . .
φn1 (x) φn2 (x) . . . φnn (x) Dn0 (x) bn (x)
| {z }| {z } | {z }
M(x) D0 (x) B(x)
23
D’abord on doit résoudre ce système linéaire, ce qu’on peut écrire comme D0 (x) = M−1 (x) B(x), puis on
doit intégrer pour trouver D(x)
Z x
D(x) = M−1 (x̃) B(x̃) dx̃
Cette méthode fonctionne toujours, mais est rarement facile à mettre en œuvre.
d y1 0 1 y1 0
= +
dx y2 −1 0 y2 cos x
La solution homogène est déjà connue. Afin d’appliquer la méthode de la variation de la constante, on cherche
une solution particulière de la forme
1 1
Yp (x) = D1 (x) eix + D2 (x) e−ix
i −i
Injectée dans le système, on trouve le problème
e−ix
0
D10 (x) −ie−ix cos x
ix
e D1 (x) 0 1
= ⇔ =
ieix −ie−ix D20 (x) cos x D20 (x) 2 ie+ix cos x
Intégration donne
e−2ix e2ix
1 1
D1 (x) = −ix + , D2 (x) = ix +
4 2 4 2
et au final
1 x sin x 1 cos x
Yp (x) = +
2 x cos x 4 sin x
La solution générale du système d’EDO inhomogène devient alors
1 1 1 x sin x 1 cos x
Y(x) = C1 eix + C2 e−ix + +
i −i 2 x cos x 4 sin x
CI : Y(x0 ) = Y0
celle-ci fixera les valeurs des constantes arbitraires. On exprime cette condition à l’aide de la solution générale :
n
X
Ci Φi (x0 ) + Yp (x0 ) = Y0
i=1
Ceci donne un système linéaire algébrique pour les constantes Cj qu’on devra résoudre afin d’identifier la solution
unique
φ11 (x0 ) φ12 (x0 ) . . . φ1n (x0 ) C1 y0,1 − yp,1 (x0 )
φ21 (x0 ) φ22 (x0 ) . . . φ2n (x0 ) C2 y0,2 − yp,2 (x0 )
.. =
.. .. .. .. ..
. . . . . .
φn1 (x0 ) φn2 (x0 ) . . . φnn (x0 ) Cn y0,n − yp,n (x0 )
| {z } | {z } | {z }
M(x0 ) C Y0 −Yp (x0 )
24
Exemple 2tris : imposer une condition initiale
On ajoute au problème précédent une condition initiale
0
CI : Y(0) =
1
A l’aide de la solution générale trouvée, on exprime la CI
1 1 1 0 1 1 0
C1 + C2 + + =
i −i 2 0 4 0 1
ce qui donne
1 1 C1 −1/4 C1 1 −1/4 − i
= ⇒ =
i −i C2 1 C2 2 −1/4 + i
Système autonome
Supposons un système d’EDO’s de la forme canonique (II.1). Un tel système sera autonome s’il est de la forme
dY
= F(Y) (II.11)
dt
où la fonction F(Y) ne dépend pas explicitement de la variable t. On change de nom x → t pour mieux
faire référence à une variable t temporelle, ce qui facilitera la compréhension du vocabulaire utilisé. Pour de tels
systèmes autonomes, on peut chercher des états d’équilibre et linéariser la dynamique autour de ces points, afin
de dire un mot sur la stabilité de ces points d’équilibre.
25
Etat d’équilibre ou point fixe
On appelle Ye = [ye,1 , ye,2 , . . . , ye,n ]T un (vecteur d’) état d’équilibre ou point fixe d’un système autonome
(II.11), si
F(Ye ) = 0
On rappelle que ceci veut dire que les n composantes de la fonction vectorielle F s’annulent en ce point :
f1 (ye,1 , ye,2 , . . . , ye,n ) = 0
f2 (ye,1 , ye,2 , . . . , ye,n ) = 0
...
fn (ye,1 , ye,2 , . . . , ye,n ) = 0
En toute évidence, dYe /dt = 0 au point d’équilibre, d’où son nom. Un même système d’EDO’s peut avoir
aucun, 1, 2 voir une infinité de points fixes.
Dans un état d’équilibre, l’état d’un système est au repos, mais si on s’écarte de cet équilibre, en perturbant
légèrement la dynamique par
on peut s’intéresser à la stabilité du point fixe Ye . Pour illustrer cette notion de stabilité, on considère le cas
du pendule
2
g
1
Equilibre 1 Equilibre 2
stable instable
Un pendule a deux points d’équilibre. Le point 1 du bas est stable car tout écart de la position d’équilibre le
ramènera vers la position 1. Le point d’équilibre du haut, point 2, est instable car toute écart de cette position
s’agrandira.
De manière plus générale, mais mathématiquement pas très précise, on dit que
1. Le point d’équilibre Ye est instable s’il existe des écarts Z(t) infinitésimaux ( 1)
qui vont s’amplifier Z(t) % pour t → +∞
3. Le point d’équilibre Ye est marginalement stable si tous les écarts Z(t) infinitésimaux ( 1)
restent d’ordre à temps long t → +∞, sans jamais revenir vers zéro.
Pour répondre à la question de stabilité d’un point fixe, on dispose d’une méthode : on linéarise la dynamique
autour d’un point d’équilibre Ye que l’on suppose connu. Le système perturbé devra satisfaire le système d’EDO
d
(Ye + Z) = F(Ye + Z)
dt
26
Si on suppose → 0, on peut faire un développement limité du membre de droite autour du point d’équilibre :
dYe dZ ∂F ∂F ∂F
+ = F(Ye ) + z1 (Ye ) + z2 (Ye ) + . . . + zn (Ye ) + O(2 )
dt
| {z } dt | {z } ∂y 1 ∂y2 ∂yn
=0
=0
Si on ignore les termes d’ordre O(2 ), on fait une approximation et on obtient le système d’EDO’s linéarisé
pour la perturbation Z(t) :
z1 ∂f1 /∂y1 ∂f1 /∂y2 . . . ∂f1 /∂yn z1
z2 ∂f2 /∂y1 ∂f2 /∂y2 . . . ∂f2 /∂yn
d z2
.. =
.. .. . . .
. ..
dt .
. . . . .
zn ∂fn /∂y1 ∂fn /∂y2 . . . ∂fn /∂yn Y=Y zn
| {z } | {z }e | {z }
Z J(Ye ) Z
La matrice Jacobienne J(Ye ) est une matrice à coefficients constants, que l’on calcule en évaluant toutes les
dérivées partielles des fonctions fi (y1 , y2 , . . . , yn ) , i = 1, 2, . . . , n dans le point d’équilibre Ye .
Afin d’évaluer la stabilité d’un point fixe, il convient de calculer la solution homogène du système d’EDO’s
linéarisé. Dans le cas le plus courant, la matrice J(Ye ) sera diagonalisable et on pourra donc trouver que
avec Ci des coefficients arbitraires, λi et Qi les valeurs et vecteurs propres de la matrice J(Ye ). Les Qi sont
souvent appelés modes linéaires. En inspectant les valeurs propres λi , on peut maintenant conclure sur la
stabilité d’un point d’équilibre pour des temps longs t → +∞.
1. Le point d’équilibre Ye sera instable s’il existe des valeurs propres avec
Z(t) = Ck Qk eλk t
croit alors exponentiellement et infiniment. L’écart avec le point d’équilibre va donc s’agrandir et il sera
nécessaire de retourner vers le vrai système non-linéaire, pour connaitre la suite de l’évolution du système.
Si plusieurs modes Qk sont instables, alors aux temps longs on s’attend à voir le mode k le plus instable,
avec la plus grand partie réelle Re(λk ).
2. Le point d’équilibre Ye sera stable si toutes les valeurs propres sont telles que
Re(λk ) < 0
Z(t) → 0
quelque soient les valeurs Ck . L’écart avec le point d’équilibre va donc toujours diminuer et le système
aimera donc rester proche de son état d’équilibre Ye .
3. Le point d’équilibre Ye sera marginalement stable si aucun vecteur propre est instable, mais s’il existe
au moins un (deux pour un système réel) vecteur propre Qk qui a sa valeur propre
Re(λk ) = 0
Si la partie imaginaire est non-nulle, la dynamique résultante pour Z(t) pourra être oscillatoire.
27
II.3.b Exemple physique : le pendule
Un pendule idéal est une masse m liée par une tige de masse 0 et de longueur L à un point d’attache. Si on met
cette pendule dans le champ de gravité de la terre elle subira l’accélération gravitationnelle g.
θ(t)
mg
Si on note θ(t), l’angle de déviation par rapport à la verticale, la mécanique nous indique que
d2 θ
mL = −mg sin θ (II.13)
dt2
et R = mg cos θ la réaction de la tige.
La solution est ”connue” sous forme implicite. Si on multiplie cette EDO par Ldθ/dt, on peut la récrire comme
" 2 #
d mL2 dθ
− mgL cos θ = 0
dt 2 dt
Entre les crochets, on reconnait l’expression de l’énergie mécanique dans le système et cette EDO exprime donc
sa conservation. On écrit donc
2
mL2 dθ
− mgL cos θ = EM
2 dt
avec EM l’énergie mécanique qui est donc une constante du mouvement. Dans la figure ci-dessus, on affiche un
”portrait de phase” de cette solution. Les lignes sont des iso-lignes de énergie mécanique EM .
5 3
dθ/dt
0 2
1
−5
−6 −4 −2 0 2 4 6
θ
En spécifiant des conditions initiales sur θ(0) and dθ/dt(0), on choisira une ligne parmi ces contours, qu’on ne
quittera plus au cours du temps. Pour se faire une idée qualitative du mouvement du pendule, on schématise
ci-dessous l’évolution du pendule si on suit l’une des 3 lignes marqués dans la figure au dessus.
2 3
Il s’agit d’oscillations à faible amplitude (1), grande amplitude (2) ou des rotations soutenues du pendule (3)
sans jamais inverser de sens.
28
Points fixes & analyse de stabilité
Cet exemple est illustratif pour appliquer la méthode de l’analyse locale. On commence par écrire l’EDO d’ordre
2 (II.13) comme un système de 2 EDO’s d’ordre 1. On note θ̇ = dθ/dt.
d θ θ̇
= (II.14)
dt θ̇ −(g/l) sin θ
Soit tous les points, θ = nπ, θ̇ = 0 avec n entier. Ces points sont marqués avec des (•) dans la figure de ci-dessous.
Point d’équilibre du bas :
On écrit maintenant le système d’EDO’s linéarisé autour du point d’équilibre du bas, c.a.d. on substitue θ(t) =
0 + φ(t) dans le système non-linéaire (II.14) et on utilise le DL
φ̇2
φ(t) = C cos ωt + D sin ωt
, φ2 + 2 = C 2 + D2
φ̇(t) = −Cω sin ωt + Dω cos ωt ω
p
avec ω = g/l, C, D des constantes arbitraires. Dans le plan de phase φ − φ̇, la dynamique suivra des ellipses,
comme visualisé dans la figure (a) ci-dessous. On retrouve par cette analyse locale, une version zoomée du plan
de phase autour du point d’équilibre stable θ = 0. Pour des raison évidents, on dit que le point d’équilibre du
bas est un point elliptique.
5 5
dχ/dt
dφ/dt
0 0
−5 −5
−1 0 1 −1 0 1
φ χ
(a) Point fixe marginalement stable du (b) Point fixe instable du haut : point hy-
bas : point elliptique perbolique
29
La perturbation linéaire χ(t) satisfait donc
d χ 0 1 χ p
= ⇔ χ̈ − (g/l) χ = 0 ⇒ λ1 , λ2 = ± g/l
dt χ̇ +(g/l) 0 χ̇
30
Chapitre III
III.1 Généralités
Définitions
L’ordre p est fixé par la plus haute dérivée partielle dans l’équation. Une EDP sera linéaire, si la fonction F
est linéaire dans tous ses arguments.
Notations
∂f 2 ∂2f 2 ∂2f
∂x f = , ∂xx f= , ∂xy f=
∂x ∂x2 ∂x∂y
D’autres ouvrages peuvent préférer la notation indicielle
∂f ∂2f ∂2f
fx = , fxx = , fxy =
∂x ∂x2 ∂x∂y
que nous n’utilisons pas ici.
Solutions séparables
On appelle f = φ(x1 , x2 , . . . , xn ) une solution séparable d’une EDP (III.1) si elle est de la forme
Dans cette solution, les dépendances spatiales apparaissent séparément en facteurs différents. Cette forme de
la solution permet de facilement d’imposer des conditions limites sur un domaine délimité par des surfaces
coordonnées (surface où l’une des coordonnées xj = Cst).
31
III.2 Le problème de Laplace
III.2.a Définitions
Laplacien
Le Laplacien joue un rôle primordial en physique, car on le rencontre dans quasiment toutes les disciplines
physiques qui font appel aux EDP. On le définit de manière intrinsèque (indépendant du système de coordonnées)
comme l’opérateur différentiel d’ordre deux
−−→
∆ = div grad = ∇2
Calculer le Laplacien d’un champ revient à d’abord calculer son gradient, puis la divergence de ce gradient. On
peut calculer le Laplacien de tout genre de champ scalaire f , vectoriel F~ ou tensoriel F, mais ici on se limitera
à des champs scalaires.
Dans un espace à n dimensions, avec (x1 , x2 , . . . , xn ) des coordonnées Cartésiennes et f (x1 , x2 , . . . , xn ) une
fonction quelconque, on appelle
n
X ∂2f
∆f =
j=1
∂x2j
∂2f ∂2f
∆f = +
∂x2 ∂y 2
1 ∂2f
1 ∂ ∂f
∆f = ρ +
ρ ∂ρ ∂ρ ρ2 ∂φ2
En 3D, on se restreindra aux coordonnées Cartésiennes (x, y, z), cylindriques (ρ, φ, z) et sphériques (r, θ, φ) :
1 ∂2f ∂2f
1 ∂ ∂f
∆f = ρ + +
ρ ∂ρ ∂ρ ρ2 ∂φ2 ∂z 2
∂2f 2
1 ∂ 2 ∂f 1 ∂ ∂f 1
∆f = 2 r + 2 sin θ + 2 ∂φ
r ∂r ∂r r sin θ ∂θ ∂θ r2 sin θ
Pour comprendre l’origine de ces formules, il faut faire de l’analyse vectorielle. Quelques éléments supplémentaires
sur l’origine de ces formules se trouvent en annexe.
Problème de Laplace
∆f = 0
dans un domaine D, satisfait un problème de Laplace. On dit aussi que f est une fonction harmonique.
32
Conditions limites
Souvent on résolve un problème de Laplace ensemble avec des conditions limites. On imagine le domaine D et
son bord δD comme ci-dessous :
cas 2D cas 3D
En 2D, le domaine D est une surface et son bord δD un contour. En 3D, le domaine D est un volume et son
bord δD sera une surface. Nous notons ~n le vecteur unitaire normal sortant de δD.
Dans le problème de Laplace (et plus généralement pour les EDPs d’ordre 2 en espace), on utilisera des conditions
aux limites
f =h
δD δD
La notation avec la barre verticale |δD , signifie que la relation ne s’applique qu’aux bords. La fonction h
est supposée connue.
~n · ∇f = H|δD
δD
Ici H est une fonction supposée connue, ~n le vecteur normal unitaire. Une CL de type Neuman fixe la
valeur de la dérivée normale de la fonction sur le bord du domaine.
αf + β~n · ∇f = H|δD
δD δD
h =0 ou H =0 ou H =0
δD δD δD
Le plus fréquemment, on rencontre des conditions aux limites de type Dirichlet ou Neuman en physique.
Conditions de régularité
Si le domaine est de taille infinie ou comprend des singularités du système de coordonnées (exemple : l’axe ρ = 0
en coordonnées cylindriques), on doit y poser des conditions de régularité qui expriment que la solution n’y
diverge pas. On verra plusieurs exemples dans la suite. Ces conditions jouent le même rôle que les conditions
aux limites et on les fera apparaitre quand on pose les CL d’un problème.
33
III.2.b Théorème min-max
Soit un champ f (x1 , . . . , xn ), qui satisfait le problème de Laplace dans un domaine D avec une CL de type
Dirichlet ou Nuemann sur le bord δD. Les valeurs minimales et maximales de f doivent être atteintes
sur le bord du domaine δD et jamais à l’intérieur de D.
Preuve :
Supposons que f satisfait ∆f = 0 et atteint un maximum en ~xmax ∈ D. Toutes les premières dérivées partielles
doivent donc s’annuler
∂f
∀j ∈ 1, . . . , n : =0
∂xj ~
x=~
xmax
∂2f
∀j ∈ 1, . . . , n : <0
∂x2j ~
x=~
xmax
On comprend directement que cette dernière propriété n’est pas compatible avec le caractère Laplacien de f
qui impose que
n
X ∂2f
∆f = =0
~
x=~
xmax
j=1
∂x2j ~
x=~
xmax
dans ce point. L’affirmation initiale est donc fausse : il n’existe aucun point ~xmax ∈ D ou la fonction harmonique
f peut atteindre son maximum. Ceci implique donc que le maximum doit se trouver sur le bord du domaine
δD. On tient exactement le même raisonnement pour le minimum.
Conséquence :
Le précédent théorème nous indique que la seule solution de
∆f = 0 , ~r ∈ D , CL : f = 0 , ~r ∈ δD
On propose la solution séparable f (x, y) = X(x)Y (y) qui doit alors satisfaire
X 00 (x) Y 00 (y)
+ =0
X(x) Y (y)
| {z } | {z }
f de x f de y
Les deux termes doivent s’annuler et comme chaque terme dépend de soit x, soit y, on doit nécessairement avoir
X 00 (x) Y 00 (y)
=− =σ , σ∈C
X(x) Y (y)
34
On appelle σ, une constante de séparation et à priori elle peut être complexe et prendre n’importe quelle valeur
(même 0). Le ou les valeurs que σ prendra, dépendra entièrement des conditions aux limites imposées au bord
du domaine.
Pour ce problème d’ordre 2, on choisit souvent σ = −k 2 ou σ = K 2 , car ceci facilite l’écriture de la solution.
Prenons par exemple σ = −k 2 . On trouve alors 2 EDO’s :
X 00 (x) + k 2 X(x) = 0
00 2
Y (y) − k Y (y) = 0
X(x) = A1 + A2 x
Y (y) = B1 + B2 y
avec A1 , A2 , B1 , B2 des constantes arbitraires.
Suite à la linéarité, on peut enfin superposer une infinité de ces solutions séparables. Une solution générale en
coordonnées Cartésiennes du problème de Laplace est donc
X
B+ (k) eky + B− (k) e−ky eikx
f (x, y) = (A1 + A2 x)(B1 + B2 y) +
k∈C0
Cette somme sur k, peut se remplacer par une intégrale, si on veut faire une superposition d’un continuum de
valeurs de k. Remarque également que les constantes B± (k) sont en faite des fonctions de k.
Si on regarde la condition en y = 0, on voit directement qu’une partie de la solution aura certainement k = ±1.
Essayant donc la solution
f (x, y) = B+ (1)ey + B− (1)e−y eix + B+ (−1)ey + B− (−1)e−y e−ix
Pour satisfaire la régulatité en y → −∞, on doit écarter la partie y qui diverge : B− (±1) = 0. Il reste alors
f (x, y) = B+ (1)eix + B+ (−1)e−ix ey
Afin de satisfaire la CL en y = 0, on doit nécessairement avoir B+ (±1) = 1/2 et on connait donc la solution
f (x, y) = ey cos x
de notre problème.
35
Cas 2D : coordonnées polaires (ρ, φ)
Dans la dernière manipulation, on a multiplié l’équation avec ρ2 /RΦ. On voit alors que le premier terme ne
dépend que de ρ le deuxième seulement de φ : on peut donc de nouveau les identifier à une constante de
séparation, ce qui produit deux EDO’s pour les fonctions R et Φ :
0
ρ (ρR0 ) Φ00
2 00
ρ R (ρ) + ρR(ρ) − m2 R(ρ) = 0
=− = m2 ⇔
R Φ Φ00 (φ) + m2 Φ(φ) = 0
R(ρ) = A+ ρm + A− ρ−m
Φ(φ) = Bc cos mφ + Bs sin mφ = C+ eimφ + C− e−imφ
Contrairement au cas Cartésien, la valeur de la constante de séparation est moins générale ici. La
périodicité de la coordonnée φ exige que
R(ρ) = C1 + C2 ln ρ
Φ(φ) = D1 + D2 φ
Suite à la périodicité, on doit avoir D2 = 0. Cette solution est donc indépendante de φ, on dit que c’est
la solution axisymétrique.
36
Cas 3D : Coordonnées Cartésiennes (x, y, z)
D : x, y ∈] − ∞, +∞[ , z ∈] − ∞, 0]
On peut donc introduire une première constante de séparation car il faut nécessairement
0
(ρR0 ) Φ00 Z 00
+ 2 =− = −k 2
ρR ρ Φ Z
avec k ∈ C quelconque. Ceci donne pour la structure en z
C+ ekz + C− e−kz , k 6= 0
Z(z) =
C1 + C2 z , k = 0
37
Ensuite il reste à séparer la partie de l’EDP qui décrit la dépendance en ρ et φ :
0 0
(ρR0 ) Φ00 ρ (ρR0 ) Φ00
+ 2 + k2 = 0 ⇒ + k 2 ρ2 + =0
ρR ρ Φ R Φ
|{z}
| {z }
f de ρ f de φ
D+ eimφ + D− e−imφ
, m ∈ Z0
Φ(φ) =
D1 , m=0
La φ-périodicité fixe les valeurs des nombres d’onde azimuthaux m à des entiers. Reste encore la structure
radiale qui satisfait
0
ρ (ρR0 ) + (m2 + k 2 ρ2 )R = 0
qui est une équation de Bessel si k 6= 0. Si k = 0, l’EDO est identique à celle rencontrée dans le cas 2D des
coordonnées polaires. On connait donc la solution
E1 Jm (kρ) + E2 Ym (kρ) , k 6= 0
R(r) = F+ ρm + F− ρ−m , k = 0 , m 6= 0
G1 + G2 ln ρ , k = 0 , m = 0
Avec ces différentes solution, on peut arriver à une solution générale qui se laisse écrire comme
" #
X
m −m imφ
f (ρ, φ, z) = (G1 + G2 ln ρ) + F+ (m)ρ + F− (m)ρ e (C1 + C2 z)
m∈Z0
X X
+ [E1 (k, m)Jm (kρ) + E2 (k, m)Ym (kρ)] eimφ ekz
m∈Z k∈C0
De nouveau, on peut arriver à d’autres formes de la solution, compte tenue du fait que k ∈ C0 .
On cherche à résoudre
∂2f
1 ∂ 2 ∂f 1 ∂ ∂f 1
2
r + 2
sin θ + 2 2 =0
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2
et on propose f (r, θ, φ) = R(r)Θ(θ)Φ(φ) comme solution. Injectée dans l’EDP on arrive à séparer une partie en
r, d’une partie en θ, φ :
0
(r2 R0 )0 Θ Φ R (sin θ Θ0 ) Φ R Θ Φ00 (r2 R0 )0 (sin θ Θ0 )0 Φ00
+ + 2 2 =0 ⇒ + + =0
r 2 2
r sin θ r sin θ R } | sin θ Θ {z sin2 θ Φ}
| {z
f de r f de θ, φ
38
La forme spécifique de cette constante −n(n + 1) mène aux solutions désirées, mais pour la comprendre il faut
aller vers la fin du calcul. Proposant R(r) = rα , on trouve directement que α = n, −n − 1 sont les seules
possibilités. La dépendance radiale doit donc être
R(r) = A+ rn + A− r−n−1
on choisit ici
sin θ(sin θ Θ0 )0 Φ00
+ n(n + 1) sin2 θ = − = m2
Θ Φ
On reconnait alors
C+ eimφ + C− e−imφ
00 2 , m 6= 0
Φ +m Φ=0 ⇒ Φ(φ) =
C1 , m=0
avec m ∈ Z exactement comme dans le cas des coordonnées cylindriques. Reste alors la dépendance en θ, pour
qui on doit avoir
m2
1 d dΘ
sin θ + n(n + 1) − Θ=0
sin θ dθ dθ sin2 θ
On peut simplifier cette√EDO par un changement de variable s = cos θ, avec s ∈ [−1, 1] pour θ ∈ [0, π]. On a
alors ds = − sin θ dθ et 1 − s2 = sin θ, ce qui ramène l’EDO à
m2
d dΘ
(1 − s2 ) + n(n + 1) − Θ=0
ds ds 1 − s2
l’équation différentielle généralisée de Legendre. Comme indiqué en chapitre 1, les solutions régulières
sur le domaine s ∈ [−1, 1] sont les ”polynômes” de Legendre associés. On a donc
P00 (cos θ) ∼ 1
P10 (cos θ) ∼ cos θ
P1±1 (cos θ) ∼ sin θ
P20 (cos θ) ∼ 3 cos2 θ − 1
P2±1 (cos θ) ∼ sin θ cos θ
P2±2 ∼ sin2 θ
Globalement on reconnait que Pnm (cos θ) est toujours composée de n multiplications de sin θ et cos θ. En conclu-
sion, on peut superposer toutes les solutions séparables trouvées, afin d’arriver à
n
X X
A+ (n, m) rl + A− (n, m) r−l−1 Plm (cos θ) eimφ
f (r, θ, φ) =
| {z }
l∈N m=−n
Ylm (θ,φ)
Les regroupements Ynm (θ, φ) = Pnm (cos θ) eimφ sont connus sous le nom des harmoniques sphériques. Ces
fonctions jouent un rôle primordial en physique théorique et appliquée.
39
III.3 Fonctions propres du Laplacien
III.3.a Définition
−∆ψ = λψ
dans un domaine D, où λ est un nombre à priori inconnu. Dans ce problème aux valeurs propres, il s’agit
d’identifier pour quelles valeurs de la quantité λ, appelée valeur propre, il existe des solutions non-nulles,
appelées fonctions ou modes propres ici de l’opérateur différentiel −∆.
Dans ce problème d’ordre 2, on verra qu’en posant des conditions aux limites homogènes de type Dirichlet,
Nuemann ou mixte, les valeurs propres λ peuvent être discrétisées (quantifiées)
Bs sin ly + Bc cos ly , l 6= 0
Y (y) =
B1 + B2 y , l=0
En conclusion, à la valeur propre λ = k 2 + l2 , on peut donc associer toutes les fonctions propres
(As sin kx + Ac cos kx)(Bs sin ly + Bc cos ly) , k, l 6= 0
ψ(x, y; k, l) = (A1 + A2 x)(Bs sin ly + Bc cos ly) , k = 0, l 6= 0 (III.2)
(As sin kx + Ac cos kx)(B1 + B2 y) , k 6= 0, l = 0
On introduit cette notation ψ(x, y : k, l) pour bien spécifier que chaque k et l produisent une autre fonction
propre. Sans spécification des CL, les constantes k, l peuvent prendre des valeurs dans le continuum complexe,
k, l ∈ C. En conséquence, la valeur propre λ ∈ C aussi.
D : x ∈ [0, Lx ] , y ∈ [0, Ly ]
40
Ceci impose que
Ac = A1 = A2 = 0 , Bc = B1 = B2 = 0
et
Clairement As = Bs = 0 ne mène pas à d’autres solutions que la solution triviale. Il fait donc que sin kLx = 0
et sin lLy = 0 ce qui nécessite
mπ nπ
k= , l= , m, n ∈ N0
Lx Ly
L’effet des conditions aux limites, est donc de réduire le continuum de valeurs k, l ∈ C a un jeu discret, c.a.d.
dénombrable par des entiers, ici m et n.
En conclusion : du continuum de fonctions propres du Laplacien (III.2), les conditions aux limites en filtrent
beaucoup. La famille de fonctions propres qui satisfait les CL’s est :
2 2
mπx nπy mπ nπ
ψmn (x, y) = sin sin , λmn = + , ∀m, n ∈ N0
Lx Ly Lx Ly
On introduit des suffixes mn pour mieux noter qu’il s’agit d’un ensemble dénombré pour des indices dis-
crets. Remarque d’ailleurs que les valeurs propres sont toutes positives et toutes différentes pour Lx 6= Ly .
Solution :
2 2 2
mπx nπy nπz mπ nπ lπ
ψmnl (x, y, z) = sin sin sin , λmnl = + + , ∀m, n, l ∈ N0
Lx Ly Lz Lx Ly Lz
f (0) = 0 , f 0 (L) = 0
41
Cas des coordonnées cylindriques (ρ, φ, z)
en séparant le problème de Helmholtz. A l’aide de trois constantes de séparation k 2 , m2 , l2 on peut arriver sur
0
ρ (ρR0 ) + (m2 + k 2 ρ2 )R = 0
Φ00 + m2 Φ = 0 et λ = k 2 + l2
Z 00 + l2 Z = 0
qui ont toutes la valeur propre λ = k 2 + l2 . Ici aussi, on peut avoir k, l ∈ C à priori, mais m ∈ Z toujours.
Trouvez-vous même les autres fonctions propres si l = 0 ou k = 0.
lim |R(ρ)| =
6 ∞
ρ→0
d’où
nπ
l= , n ∈ N0
H
Dans la dépendance radiale, la condition de régularité impose A2 = 0, car la fonction Ym (kρ) diverge à l’axe
ρ = 0. En conséquence, il nous reste
ζmj
Jm (kRc ) = 0 ⇒ k= , j ∈ N0
Rc
Posant Jm (ζmj ) = 0, on peut trouver une infinité de zéros, que l’on notera ici ζmj , m ∈ Z , j = 1, 2, . . .. Ces
zéros peuvent être calculés (numériquement) et fixent (quantifient) ici donc les valeurs du nombre d’onde radial
k. Les fonctions propres qui satisfont les conditions limites spécifiées sont
2 nπ 2
ζj ρ n πz
z ζj
ψjmn (ρ, φ, z) = Jm eimφ sin , λ= + ∀j, n ∈ N0 , m ∈ Z
Rc H R H
42
Cas des coordonnées sphériques (r, θ, φ)
on remarque immédiatement qu’on va arriver exactement sur la même dépendance en (θ, φ) que dans le problème
de Laplace. La dépendance en (θ, φ) sera donc décrite par les harmoniques sphériques Ynm (θ, φ) = Pnm (cos θ)eimφ .
Reste donc à résoudre
Cette équation est une EDO de Bessel sphérique avec comme solution :
lim |R(r)| =
6 ∞
r→0
Afin d’écarter les solutions yl (kr) qui divergent au centre, nous avons donc A2 = 0. Imposer la condition limite
de Dirichlet homogène revient à exiger la CL.
ξj
R(Rs ) = 0 ⇒ jl (kRs ) = 0 ⇒ k= , j ∈ N0
Rs
Ici aussi, on introduit une notation ξnj , j = 1, 2, . . . , n ∈ N pour l’infinité de zéros des fonctions de Bessel
sphérique : jn (ξnj ) = 0. On peut les calculer numériquement et leur valeurs fixent donc les nombres d’ondes
radiaux k. La famille de fonctions propres satisfaisant les CL est donc
2
ξnj r ξnj
ψjnm (r, θ, φ) = jn Ynm (θ, φ) pour λ = ∀j ∈ N0 , n ∈ N , m ∈ Z
Rs Rs
43
III.3.c Propriétés générales des modes propres de ∆
L’opérateur ∆ est un exemple d’un opérateur différentiel auto-adjoint. De ceci découlent un ensemble de pro-
priétés utiles que l’on peut exploiter dans le calcul. On montre quelques uns de ces propriétés dans le cadre
restreint de l’opérateur Laplacien. Ces propriétés seront utilisées par la suite.
On considère donc le problème aux valeurs propres du Laplacien, dans un domaine quelconque D. Sur le bord
δD, on suppose que des conditions de type Dirichlet ou Nuemann (ou mixtes) homogènes soient satisfaites.
Notons brièvement
{λκ , ψκ (~r)}
la famille dénombrable des fonctions propres et leurs valeurs propres associées. Un seul suffix κ (au lieu de 1,2
ou 3) est utilisé pour raccourcir la notation. Il est possible que les fonctions ψκ ∈ C, on notera ψ κ le complexe
conjugué de cette fonction.
On multiplie la première équation avec ψ̄κ et la deuxième avec ψκ et on prend la différence des deux expressions :
− ψ κ ∆ψκ − ψκ ∆ψ κ = λκ − λκ ψ κ ψκ
| {z }
|ψκ |2
f ∆g = f (∇ · ∇g) = ∇ · (f ∇g) − ∇f · ∇g
−∇ · ψ κ ∇ψκ − ψκ ∇ψ κ = λκ − λκ |ψκ |2
Si on intègre ceci sur le domaine, le coté gauche se simplifie à une intégrale de surface
Z I
− ∇ · ψ κ ∇ψκ − ψκ ∇ψ κ dD = − ψ κ ∇ψκ − ψκ ∇ψ κ · ~n dS = 0
D δD
utilisant le théorème de divergence (Ostrogradsky). Cette intégrale sur le bord δD = S est toujours nulle pour
des CL homogènes de type Dirichlet, Nuemann ou mixtes. Ceci implique que
Z
|ψκ |2 dD = 0
λκ − λκ
D
| {z }
>0
En conséquence λκ ∈ R toujours.
44
Les valeurs propres sont toutes positives
On a λκ ≥ 0 toujours.
Preuve :
On multiplie l’équation −∆ψκ = λκ ψκ avec ψ κ , puis on intègre sur le volume. A l’aide du même genre de
manipulations que dans les démonstrations précédentes on arrive sur
||∇ψκ ||2 dD
Z Z R
2
∇ψκ · ∇ψκ dD = λκ |ψκ | dD ⇒ λκ = D R 2 ≥0
D D D
|ψκ | dD
Remarque :
Afin d’avoir λκ = 0, il est nécessaire que ψκ = C soit une solution. Cette solution est admise seulement avec
des CL de Nuemann homogènes. Remarque que λκ = 0 signifie qu’il s’agit en faite d’une solution du problème
de Laplace.
Preuve :
On écrit les équations satisfaites par ψ ν et ψκ
−∆ψ κ = λκ ψ κ , −∆ψν = λν ψν
On multiplie la première équation avec ψν , la deuxième avec ψ κ et on prend la différence des deux expressions :
− ψ κ ∆ψν − ψ κ ∆ψν = (λκ − λν ) ψ κ ψν
En intégrant sur le volume et en utilisant exactement les mêmes opération que dans la démonstration précédente,
on trouvera que
Z
0 = (λκ − λν ) ψ κ ψν dD
D
ce qui montre l’orthogonalité des fonctions propres qui ont des valeurs propres différentes.
Remarque :
Cette preuve n’en semble pas une, s’il existe des valeurs propres multiples. Ceci peut arriver exceptionnellement
dans certains domaines particuliers (exemple : cas Cartésien 2D, domaine carré D : (x, y) ∈ [0, L] × [0, L] avec
f |δD = 0 ) mais la propriété d’orthogonalité tient toujours.
L’ensemble L2 (D) des fonctions f dites carré-intégrables sur D, contient toutes les fonctions pour lesquelles
l’intégrale
Z
|f |2 dD existe
D
45
ou autrement dit, ne diverge pas. Cet espace L2 (D) est de dimension infinie, signifiant que l’on peut imaginer
une infinité de fonctions linéairement indépendantes membres de cet espace.
L’ensemble {ψκ } est complet pour l’espace L2 (D) : toute fonction f ∈ L2 (D) peut être décomposée comme
Z
X 1
f= C κ ψκ avec Cκ = ψ κ f dD
κ
Nκ D
Les coefficients d’expansion Cκ sont uniques et peuvent être calculés à l’aide d’une intégrale, suite à la
propriété d’orthogonalité des fonctions propres ψκ . On dit qu’on projette la fonction f sur la base des
fonctions propres {ψκ }.
Définition
∆f = g
dans un domaine D et avec g une fonction connue, satisfait un problème de Poisson. Sur le bord du domaine
δD, on suppose des conditions limites (Dirichlet, Neuman, mixte) ou des conditions de régularité.
Le problème de Poisson ressemble à un problème de Laplace avec un second membre. La solution générale sera
trouvée comme la somme
f = fh + fp
avec fh une solution homogène, soit une solution du problème de Laplace et une solution particulière
fp solution du problème original. Plus spécifiquement, on peut tenter de résoudre
La recherche des solutions fh a été traitée dans la section dédiée au problème de Laplace. Grâce à la section
dédiée aux fonctions propres ψκ , on peut chercher une solution particulière sous la forme
X
fp = Cκ ψκ
κ
où
Z
1
Cκ = − ψ κ g dD
λ κ Nκ D
suite à la propriété d’orthogonalité des fonctions propres. Dans le cas de CL de Nuemann, on exclue de cette
expansion le mode ψκ = C pour qui λκ = 0.
46
III.4.b L’équation de diffusion
Définition
CI : f |t=t0 = f0
On donne un exemple particulier où il n’y a pas de sources q = 0 et où on a des conditions limites homogènes
sur les bords d’un domaine D. On souhaite décrire le devenir d’un état initial f0 quelconque (qui satisfait les
CL du problème). Nous tentons une séparation espace-temps sous la forme
1 T0 ∆ψ
=
α T
| {z } ψ
|{z}
f de t f de ~r
On peut alors introduire les égaliser à une constante de séparation −λ, afin d’obtenir
0
T + αλT = 0
∆ψ + λψ = 0
T (t) = Ce−αλt
Le problème spatial n’a pas besoin d’un traitement particulier, car on reconnait immédiatement le problème
aux valeurs propres du Laplacien, traité en détail dans la section précédente. Chaque valeur propre λ exige/fixe
donc une valeur particulière de la constante de séparation, qui intervient dans la partie temporelle. Avant de
parler des CL et des CI, on peut donc écrire que
X
f (~r, t) = C(. . .) ψ(~r; . . .) e−αλt
...
La somme court sur toutes les possibles valeurs des constantes de séparation (noté . . .) dans la fonction propre.
Si on impose des conditions aux limites homogènes sur les bords δD, celle-ci devront être satisfaites à
tout temps. Ceci sélectionne parmi les fonctions ψλ , celles qui satisfont les conditions aux limites homogènes.
Comme nous l’avons vu, cette opération sélectionne une famille discrète de fonction propres, notées {ψκ }. Seuls
des superpositions
X
f (~r, t) = Cκ ψκ (~r) e−αλκ t (III.3)
κ
satisfont les conditions aux limites dans ce problème. On retrouve ici les modes propres de décroissance diffu-
sive. Chaque structure spatiale ψκ décroit selon un taux d’amortissement αλκ réel et positif, conséquence des
47
propriétés Im(λκ ) = 0 et λκ ≥ 0. Un champ diffusif f non-soutenu par une source ou des apports arrivant par
les bords, est donc toujours destiné à décroitre, de manière à effacer tout gradient.
Les constantes arbitraires Cκ qui apparaissent dans la solution (III.3), peuvent être fixées par la condition
initiale. Prenant t0 = 0 pour simplifier, celle-ci exigera que
X
f0 (~r) = Cκ ψκ (~r)
κ
Utilisant la propriété d’orthogonalité des fonctions propres {ψκ }, on arrive à fixer les coefficients Ck . Il suffit de
multiplier avec ψ ν et d’intégrer sur le domaine. Ceci donne
Z
1
Cκ = ψ f0 dD
Nκ D κ
En principe, on connait donc la solution et elle ne dépend plus d’aucune constante arbitraire.
Définition
1 ∂2f
= ∆f + s
c2 ∂t2
Ici c est la vitesse des ondes (non-dispersives) et s une source. Ce problème est souvent accompagné de conditions
de Dirichlet, Nuemann ou mixte en paroi. Ces conditions traduisent alors un comportement particulier de
réflexion d’une onde arrivant en paroi. D’ordre 2 en temps, nous avons également besoin de deux conditions
initiales :
∂f
CI : f |t=t0 = f0 , = g0 (III.4)
∂t t=t0
si on souhaite spécifier comment le système évolue au temps ultérieur. f0 et g0 sont alors deux fonctions
indépendantes du temps et connues dans tout le domaine D.
Remarque :
Parfois on utilise, d’autres types de conditions supplémentaires telles que des conditions de rayonnement. Dans
ces conditions, dépendances spatiales et temporelles sont combinées. Ce type de condition est utilisée pour
imposer que des ondes ne peuvent pas venir de l’extérieur de la zone d’intérêt.
On regarde le cas particulier s = 0 avec des CL homogènes sur les bords d’un domaine fermé. Une séparation
espace temps
mène ici à
1 T 00 ∆F
2 T
=
c
| {z } F
|{z}
f de t f de ~r
Egalisé à une constante de séparation −λ, on obtiendra alors le système
00
T (x) + c2 λT = 0
∆ψ + λψ = 0
48
La partie temporelle donne
√ √
T (t) = C+ eic λt
+ C− e−ic λt
Le problème spatial est encore une fois celui des fonctions propres. On arrivera donc à
X √
C+ (. . .)eiωλ t + C− (. . .)e−iωλ t ψλ (~r; . . .) , ωλ = c λ
f (~r, t) =
...
sans spécification de conditions aux limites et initiales. La somme court sur toutes les possibles valeurs des
constantes de séparation.
Imposant des CL homogènes, on réduit la superposition sur la famille discrète {ψκ }
X p
C+,κ eiωκ t + C−,κ e−iωκ t ψκ (~r) , ωκ = c λκ
f (~r, t) = (III.5)
κ
exactement comme dans le problème de diffusion traité ci-dessus. On retrouve ici des ondes stationnaires
à la structure ψκ . Ces ondes stationnaires, oscillent avec leurs fréquence propres ωκ . Cette fréquence ωκ est
d’ailleurs toujours réelle, conséquence des propriétés Im(λκ ) = 0 et λκ ≥ 0.
Les constantes arbitraires C±,κ qui apparaissent dans la solution (III.5), peuvent être fixées par les deux condi-
tions initiales. Prenons t0 = 0 pour simplifier. Si on écrit explicitement les CI (III.4), on obtient
X X
f0 (~r) = (C+,κ + C−,κ ) ψκ (~r) , g0 (~r) = iωκ (C+,κ − C−,κ ) ψκ (~r)
κ κ
Projection sur la base ψκ mène à un système linéaire 2 x 2 pour chaque κ, dont on calcule la solution :
avec
Z Z
1 1
Fκ = ψ κ f0 dD , Gκ = ψ κ g0 dD
Nκ D Nκ D
Définition
∂Ψ ~2
i~ =− ∆Ψ + V Ψ
∂t | 2m {z }
HΨ
b
Ici ~ = h/2π avec h la constante de Planck, m la masse de la particule et V (~r, t) l’énergie potentielle. On appelle
Hb l’opérateur Hamiltonien. La fonction d’onde est normalisé sur le domaine
Z
|Ψ|2 dD = 1
D
car la quantité |Ψ|2 dD traduit la densité de probabilité de trouver la particule dans un volume élémentaire autour
de ~r à temps t. Le domaine D est en principe toujours infiniment grand, mais on peut faire une approximation
limité à un domaine fini, si le potentiel V → +∞. Si on s’intéresse au devenir d’un paquet d’ondes au cours du
temps, il est nécessaire de donner une condition initiale
CI : Ψ(~r, t0 ) = Ψ0 (~r)
49
Cas particulier : états propres & niveaux d’énergie
T0 Hψ
b
i~ =
| {zT} ψ
|{z}
f de t f de ~r
La partie spatiale définit un problème aux valeurs propres, cette fois-ci pour l’opérateur différentiel
2
b =− ~ ∆+V
H
2m
Cet opérateur est différent du Laplacien mais proche tout de même. Dans le traitement de l’atome d’hydrogène,
on utilise un potentiel qui est
qe2
V (r) = −
4π0 r
avec qe la charge élémentaire et r la distance radiale séparant l’électron du noyau. Utilisant ce potentiel à
symétrie sphérique, on arrive à séparer ψ(r, θ, φ) = R(r)Θ(θ)Φ(φ) comme dans les exemples sur les coordonnées
sphériques. Toute la dépendance angulaire restera la même et fera apparaitre les harmoniques sphériques
La dépendance radiale sera par contre modifiée et nécessitera l’introduction de nouvelles fonctions spéciales, les
fonctions de Laguerre généralisées. Les conditions de régularité à l’infinie et à l’origine discrétisent les valeurs
propres = les niveaux d’énergie En .
50
Annexe A
On considère un repère Cartésien (O, ~ex , ~ey , ~ez ). La position d’un point M est alors décrite par rapport à l’origine
O, à l’aide d’un vecteur
−−→
~r = OM = x ~ex + y ~ey + z ~ez
Comme le montre le schéma, les coordonnées cylindriques (ρ, φ, z), sont définies par les relations
x = ρ cos φ , y = ρ sin φ
ou inversement
p y x
ρ = x2 + y 2 , φ = arcsin p = arccos p
x2 + y 2 x2 + y 2
La coordonnée z reste la même. Les coordonnées cylindriques varient dans les intervalles :
∂~r
~eρ
e = = cos φ ~ex + sin φ ~ey
∂ρ
∂~r
~eφ
e = = −ρ sin φ ~ex + ρ cos φ ~ey
∂φ
∂~r
~ez
e = = ~ez
∂z
51
Figure A.1 – Coordonnées cylindriques ρ, φ, z
Ils spécifient les directions dans lesquelles les coordonnées ρ, φ, z augmentent. Les normes de ces vecteurs
définissent les facteurs d’échelle (hρ = 1, hφ = ρ, hz = 1) ou facteurs-h. Les vecteurs du repère naturel or-
thonormé (O, ~eρ , ~eφ , ~ez ) sont alors
Lors de l’utilisation d’un repère curviligne, il est très important de se rappeler que les vecteurs du repère naturel
varient dans l’espace. Ici ~eρ (φ) et ~eφ (φ) sont des fonctions de φ. Si on les dérive par rapport à φ on remarquera
que
∂~eρ ∂~eφ
= ~eφ , = −~eρ
∂φ ∂φ
de surface
~ρ = ρ dφ dz ~eρ
dS , ~φ = dρ dz ~eφ
dS , ~z = ρ dρ dφ ~ez
dS
de volume
dV = ρ dρ dφ dz
52
~ et gradient d’un champ scalaire
Opérateur ∇
div F~ = ~ ~
∇
·F h
∂ 1 ∂ ∂ i
= ~eρ + ~eφ + ~ez · (Fρ (ρ, φ, z)~eρ (φ) + Fφ (ρ, φ, z)~eφ (φ) + Fz (ρ, φ, z)~ez
∂ρ ρ ∂φ ∂z
∂Fρ Fρ 1 ∂Fφ ∂Fz
= + + +
∂ρ ρ ρ ∂φ ∂z
1 ∂(ρFρ ) 1 ∂Fφ ∂Fz
= + +
ρ ∂ρ ρ ∂φ ∂z
∂~
eρ
Le terme Fρ /ρ (qu’on a tendance à oublier) apparait à travers l’opération ~eφ ·Fρ ∂φ /ρ. Ce terme est directement
une conséquence du fait que ~eρ dépend de φ, que la base est curviligne.
Le rotationnel du champ F~ est définie par l’opération
rot F~ ~ ∧ F~
= ∇
53
Figure A.2 – Coordonnées sphériques r, θ, φ
Les coordonnées cylindriques r, θ, φ sont liées aux coordonnées Cartésiennes par les relations
x = r sin θ cos φ , y = r sin θ sin φ , z = r cos θ
ou inversément
p z
r = x2 + y 2 + z 2 , θ = arccos p
x2 + y2 + z2
y x
φ = arcsin p = arccos p
x2 + y 2 x2 + y 2
∂~r
~er
e = = sin θ cos φ ~ex + sin θ sin φ ~ey + cos θ ~ez
∂r
∂~r
~eθ
e = = r cos θ cos φ ~ex + r cos θ sin φ ~ey − r sin θ ~ez
∂θ
∂~r
~eφ
e = = −r sin θ sin φ ~ex + r sin θ cos φ ~ey
∂φ
Calculant leur normes, on obtient hρ = 1, hθ = r, hφ = r sin θ. Les vecteur de la base curviligne orthonormée
sont alors
54
On peut facilement vérifier l’orthogonalité de ces trois vecteurs :
~er · ~eθ = ~er · ~eφ = ~eθ · ~eφ = 0
Sous le produit vectoriel, on trouve que
~er ∧ ~eθ = ~eφ , ~eθ ∧ ~eφ = ~er , ~eφ ∧ ~er = ~eθ
Les deux vecteurs ~er (θ, φ), ~eθ (θ, φ) dépendent de θ et φ. Le vecteur ~eφ ne dépend que de φ. On peut trouver
que :
∂~er ∂~er
= ~eθ , = sin θ ~eφ
∂θ ∂φ
∂~eθ ∂~eθ
= −~er , = cos θ ~eφ
∂θ ∂φ
∂~eφ ∂~eφ
=0 , = − sin θ ~er − cos θ ~eθ
∂θ ∂φ
F~ (r, θ, φ) = Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)
div F~ = ~ ~
∇
·F h
∂ 1 ∂ 1 ∂ i
= ~er + ~eθ + ~eφ · Fr (r, θ, φ)~er (θ, φ) + Fθ (r, θ, φ)~eθ (θ, φ) + Fφ (r, θ, φ)~eφ (φ)
∂r r ∂θ r sin θ ∂φ
∂Fr 2Fr 1 ∂Fθ cos θ Fθ 1 ∂Fφ
= + + + +
∂r r r ∂θ sin θ r r sin θ ∂φ
1 ∂(r2 Fr ) 1 ∂(sin θFθ ) 1 ∂Fφ
= 2
+ +
r ∂r r sin θ ∂θ r sin θ ∂φ
55
Le rotationnel du champ F~ , rot F~ = ∇
~ ∧ F~ mène par le même genre de processus à
~ ∧ F~
1 ∂(sin θFφ ) 1 ∂Fθ
∇ = −
r r sin θ ∂θ r sin θ ∂φ
~ ∧ F~
1 ∂Fr 1 ∂(rFφ )
∇ = −
θ r sin θ ∂φ r ∂r
~ ∧ F~
1 ∂(rFθ ) 1 ∂Fr
∇ = −
φ r ∂r r ∂θ
Combinant les formules pour le gradient et la divergence on trouve que le Laplacien d’un champ f (r, θ, φ)
exprimé en coordonnées sphériques est
∂2f
1 ∂ ∂f 1 ∂ ∂f 1
∆f = 2 r2 + 2 sin θ + 2 2
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2
56