Vous êtes sur la page 1sur 40

PT Promo 2011/2012 www.cprepas.blogspot.

com Mathématiques Développements limités, croissance comparée

Résumé du chapitre I : révisions d’analyse (2.1) Développements limités usuels. Au voisinage de 0 et pour pout entier n :

• ex = 1 + x + x2
2! + ... + xn
n! + o(xn )
Relations de comparaison
(−1)n x2n+1
• sin x = x − x3
3! + ... + (2n+1)! + o(x2n+1 )
Les fonctions intervenant ici sont définies (au moins) sur un voisinage de x0 , qui est un nombre réel ou
±∞. (−1)n x2n
• cos x = 1 − x2
2! + ... + (2n)! + o(x2n )
(1.1) Fonction négligeable, prépondérance. On dit que f est négligeable devant ϕ au voisinage
f (x)
de x0 lorsque ϕ(x) → 0 lorsque x → x0 , ce que l’on note f (x) = o(ϕ(x)). On dit aussi que ϕ est
x→x0 • sh x = x + x3
3! + ... + x2n+1
(2n+1)! + o(x2n+1 )
prépondérante devant f .
(1.2) Fonctions équivalentes. Les fonctions f et g sont dites équivalentes au voisinage de x0 lorsque • ch x = 1 + x2
2! + ... + x2n
(2n)! + o(x2n )
f (x) = g(x) + o(g(x)). (−1)n+1 xn
x→x0 • ln(1 + x) = x − x2
2 + ... + n + o(xn )
On note alors f (x) ∼ g(x) 1 .
x→x0 • (1 + x)α = 1 + αx + α(α−1) 2
2! x + ... + α(α−1)...(α−n+1) n
n! x + o(xn )
(1.3) Fonctions équivalentes. f et g sont équivalentes au voisinage de x0 si et seulement si

f (x) (2.2) Équivalents classiques.


−→ 1.
g(x) x→x0 sin x ∼ x
x→0
(1.4) Dans le contexte 1.2 ou 1.3, si g(x) −→ l (réel, complexe ou ±∞), alors f (x) −→ l. ln(1 + x) ∼ x
x→x0 x→x0
x→0
(1.5) Suites équivalentes. Deux suites (un )n∈N et (vn )n∈N , réelles ou complexes, sont équivalentes x
e −1 ∼ x
x→0
lorsque n −→ +∞ lorsque
un = vn + o(vn ) sh x ∼ x
n→+∞ x→0
arctan x ∼ x
ce que l’on note un ∼ vn . Ceci se produit si et seulement si x→0
n→+∞
ln x ∼ x−1
x→1
un
−→ 1. et en cas de limite non nulle :
vn n→+∞
(1.6) Dans le contexte 1.5, si vn −→ l (réel, complexe ou ±∞), alors un −→ l. Si la suite (vn ) ex ∼ 1
x→0
n→+∞ n→+∞
cos x ∼ 1
est bornée, alors la suite (un ) l’est aussi. x→0

(1.7) Si la suite (un ) converge vers le nombre fini et non nul l, alors un ∼ l lorsque n → +∞. Idem
pour une fonction. (2.3) Formule de Taylor-Young. Soit f : I → C une fonction de classe C n sur l’intervalle I et a
un point de I .
(1.8) On ne peut pas ajouter membre à membre des équivalences.
• Lorsque x → a :
(1.9) On peut multiplier membre à membre des équivalences à condition que le nombre de ces relations n
X (x − a)k
soit fini et invariable. f (x) = f (k) (a) + o ((x − a)n ) .
k!
(1.10) On cherchera donc un équivalent à une fonction (ou à une suite) se présentant comme quotient k=0

et produit de fonctions en recherchant un équivalent de chacun des facteurs et en les multipliant. • En particulier, soit f une fonction de classe C n sur un voisinage de 0. Alors f admet le
développement limité d’ordre n au voisinage de 0 :
(1.11) On ne peut pas composer une équivalence par une fonction. Si on soupçonne qu’on obtientrait
une équivalence par composition, il faudra le démontrer en utilisant 1.3. f (x) = a0 + a1 x + . . . + an xn + o(xn )
x→0
1. On peut utiliser cette caractérisation pour trouver un équivalent à une somme, en ”jaugeant” chaque terme par rapport aux (k)
f (0)
autres. avec ak = k! pour tout k .
1
(2.4) Croissance comparée. On se donne des constantes α et β strictement positives. (3.7) Fonction continue sur un segment. Soit f une fonction continue sur un segment I = [a, b].
• f (I) est un segment.
• α 
(ln x) = o xβ lorsque x → +∞ • f est bornée sur I et atteint ses bornes : il existe deux réels x1 et x2 de I tels que
f (x1 ) = inf f, f (x2 ) = sup f.
• I

xα = o eβx lorsque x → +∞ I

(3.8) Théorème de la limite monotone. Toute suite croissante majorée est convergente. Toute
• ∀a > 1, xα = o (ax ) lorsque x → +∞ suite décroissante minorée est convergente. Toute suite croissante non majorée tend vers ∞ ; toute
suite décroissante non minorée tend vers −∞. Toute fonction croissante possède, en tout point, une
limite à gauche ; celle-ci est finie si et seulement si la fonction est majorée ; etc.
• e−βx = o 1

xα lorsque x → +∞
(3.9) Fonctions réciproques. Soit I un intervalle et f : I → R une application continue, strictement
monotone sur I .
• 1

∀a < 1, ax = o lorsque x → +∞

• Alors J = f (I) est un intervalle de même nature que I (ouvert, fermé, semi-ouvert).
• f réalise une bijection de I sur J et f −1 : J → I est continue et de même sens de monotonie
• α 1

|ln x| = o xβ
lorsque x → 0+ que f .
• Si I = [a, b] et f est croissante (resp. décroissante), alors J = [f (a), f (b)] (resp. [f (b), f (a)]).
• nα = o (n!) lorsque n → +∞ • Si I =]a, b], alors J =] lim f (x), f (b)], . . .
x→a
• Le graphe de f −1 s’obtient par symétrie du graphe de f par rapport à la première bissectrice
• pour tout a > 1, an = o (n!) lorsque n → +∞. y = x.
Dérivabilité
Limites, continuité (4.1) Dérivabilité : définition formelle. Une fonction f est dérivable en un point a lorsque le taux
f (x)−f (a)
(3.1) Définition formelle d’une limite nulle en +∞. La fonction f tend vers 0 lorsque x → +∞ d’accroissement x−a possède une limite finie lorsque x → a. Cette limite est notée f 0 (a) :
lorsqu’à chaque fois qu’on se donne un nombre ε > 0, il existe un rang X tel que pour tout x ≥ X f (x) − f (a)
on ait |f (x)| ≤ ε. Il faut bien prendre garde que  ne peut prendre que des valeurs numériques et ne f 0 (a) = lim ·
x→a x−a
peut être en aucun cas une fonction de la variable x.
√ Le recours à cette définition formelle est nécessaire pour étudier la dérivabilité d’une fonction de la
(3.2) Utilisation typique. Montrer qu’il existe un rang X > 0 tel que ln x ≤ x pour tout x ≥ X .
forme
ln x (
Réponse : on sait que √ −→ 0. Il existe alors, en prenant ε = 1 dans 2.3, un rang X > 0 tel que expression si x 6= a
x x→+∞ f : x 7→

ln valeur si x = a.
√xx ≤ 1 pour tout x ≥ X , d’où le résultat.

(3.3) Continuité. On dit que f est continue en x0 quand f (x) → f (x0 ) lorsque x → x0 . Le recours (4.2) Théorème de prolongement des fonctions de classe C 1 . Soit f une fonction définie et
à cette définition formelle est nécessaire pour étudier la continuité d’une fonction de la forme continue sur un intervalle [a, b], de classe C 1 sur [a, x0 [∪]x0 , b] et telle que f 0 (x) possède une limite
( finie l lorsque x → x0 . Alors f est de classe C 1 sur [a, b] et f 0 (x0 ) = l.
expression si x 6= x0
f : x 7→ (4.3) Théorème de Rolle : soit f : [a, b] → R une fonction continue sur le segment [a, b], dérivable
valeur si x = x0 . sur ]a, b[ et telle que f (a) = f (b). Alors il existe un point c ∈]a, b[ tel que f 0 (c) = 0.
(4.4) Théorème des accroissements finis : soit f : [a, b] → R une fonction continue sur le segment
(3.4) On dit que f est continue sur I lorsque f est continue en tout point de I . Tout produit, somme, [a, b], dérivable sur ]a, b[. Alors il existe un point c ∈]a, b[ tel que f (b) − f (a) = (b − a)f 0 (c).
quotient (lorsqu’il est défini) et composée de fonctions continues est une fonction continue. (3.5) Si
(4.5) Dérivation d’une fonction réciproque. Soit f : I → R une application définie, dérivable et
ϕ est une fonction continue en un point a et (an ) est une suite qui converge vers a, alors la suite strictement monotone sur un intervalle I , réalisant donc une bijection de I sur son image J = f (I)
(ϕ(an )) converge vers ϕ(a). et g son application réciproque.
(3.6) Ceci permet de justifier rigoureusement de nombreuses existences de limites, ou d’équivalents.
α
• Soit a ∈ I tel que f 0 (a) 6= 0 et b = f (a). Alors g est dérivable au point b et g0 (b) = f 01(a) ·
α α un |un | • En conséquence si f 0 ne s’annule pas sur I , alors g est dérivable sur J et pour tout y ∈ J ,
Par exemple, si un ∼ vn , alors |un | ∼ |vn | car −→ 1 et alors α =
n→+∞ n→+∞ vn n→+∞ |vn |
α 1
un
−→ |1|α , c’est à dire 1, par continuité de la fonction ϕ : t 7→ |t|α en 1. g 0 (y) = ·
vn n→+∞ f 0 (g(y))
2
sh x
(4.6) Formule de Leibniz. Si f et g sont deux fonctions n-fois dérivables sur I , alors le produit f g (5.6) La fonction th : x 7→ ch x établit une bijection de R sur ] − 1, 1[. Son application réciproque
est n-fois dérivable sur I et argth est définie, continue, strictement croissante et de classe C ∞ sur ] − 1, 1[ avec
  n
X n (k)
(f g)(n) = f × g (n−k) . d 1
k ∀x ∈] − 1, 1[, (argth x) = ·
k=0 dx 1 − x2
Fonctions usuelles 1 1+x
∀x ∈ R, argth x = ln
2 1−x
(5.1) La fonction sin établit une bijection de [− π2 , π2 ] sur [−1, 1]. Son application réciproque arcsin
est définie, continue et strictement croissante sur [−1, 1], de classe C ∞ sur ] − 1, 1[ avec

d 1
∀x ∈] − 1, 1[, (arcsin x) = √ ·
dx 1 − x2
(5.2) La fonction cos établit une bijection de [0, π] sur [−1, 1]. Son application réciproque arccos est
définie, continue et strictement décroissante sur [−1, 1], de classe C ∞ sur ] − 1, 1[ avec

d −1
∀x ∈] − 1, 1[, (arccos x) = √ · Intégrales propres
dx 1 − x2
(6.1) Une fonction f : I = [a, b] → R ou C est dite continue par morceaux sur I si f est continue
(5.3) La fonction tan établit une bijection de ] − π2 , π2 [ sur R. Son application réciproque arctan est
sur I sauf en un nombre fini de points en lesquels f possède des limites finies à gauche et à droite.
définie, de classe C ∞ et strictement croissante sur R avec
(6.2) Une fonction continue par morceaux sur un segment, en particulier une fonction continue, possède
d 1 une intégrale sur ce segment. Ceci permet de justifier la définition de certaines fonctions se présentant
∀x ∈ R, (arctan x) = ·
dx 1 + x2 comme une intégrale dépendant d’un paramètre : si [a, b] est un segment et g : (x, t) 7→ g(x, t) est une
π π fonction définie sur I ×[a, b] (où I est un intervalle) telle que pour tout x ∈ I , l’application t 7→ g(x, t)
On a lim arctan x = et lim arctan x = − . Z b
x→+∞ 2 x→−∞ 2 soit continue sur le segment [a, b], alors l’application f : x 7→ g(x, t)dt est parfaitement définie
a
sur I .
(6.3) Passage à la limite dans une intégrale : le passage à la limite n’est pas autorisé.
Z b
Pour montrer par exemple qu’une intégrale g(x, t)dt tend vers 0 lorsque x → +∞ on pourra chercher
a
à créer un contexte de théorème des gendarmes, en majorant convenablement |g(x, t)| par une
fonction dont l’intégrale est calculable et fournit un résultat qui tend vers 0.
(6.4) Théorème fondamental : lien entre primitives et intégrales. Soit I un intervalle et f
ex −e−x une fonction définie et continue sur I , à valeurs réelles complexes.
(5.4) La fonction sh : x 7→ 2 établit une bijection de R sur R. Son application réciproque argsh Z x
est définie, continue, strictement croissante et de classe C ∞ sur R avec • Soit a un point quelconque de I . Alors la fonction x 7→ f (t)dt est l’unique primitive de f
a
d 1 qui s’annule en a :
∀x ∈ R, (argsh x) = √ ·
Z x
dx x2 + 1 si F (x) = f (t)dt
a
F 0 (x) = f (x)
 
alors
p
∀x ∈ R, argsh x = ln x + x2 + 1
x −x
• Pour toute primitive G de f sur I , tout a et tout x de I ,
(5.5) La fonction ch : x 7→ e +e 2 établit une bijection de [0, +∞[ sur [1, +∞[. Son application Z x
réciproque argch est définie, continue et strictement croissante sur [1, +∞[ et de classe C ∞ sur f (t)dt = G(x) − G(a).
]1, +∞[ avec a

∀x ∈]1, +∞[,
d
(argch x) = √
1
· • Si f est de classe C 1 sur I , alors pour tout a et tout x de I on a
dx 2
x −1 Z x
 p  f (x) − f (a) = f 0 (t)dt.
∀x ∈ [1, +∞[, argch x = ln x + x2 − 1 a

3
Nombres complexes • Suites géométriques :
1 − an+1
1 + a + a2 + . . . + an = (a 6= 1)
(7.1) Exponentielle complexe. Pour tout réel θ , on note eiθ le nombre complexe cos θ + i sin θ . 1−a
n+1
1−a
Alors ap + ap+1 + . . . + ap+n = ap (a 6= 1).

e = 1 eiθ = e−iθ
0
ei(θ+θ ) = eiθ × eiθ
0 1−a
 n • Suites arithmétiques : soit (un ) la suite arithmétique de premier terme u0 et de raison r .
eiθ = einθ (u0 + un )(n + 1)
n (de Moivre) Alors un = u0 + nr et u0 + u1 + . . . + un = .
(cos θ + i sin θ) = cos nθ + i sin nθ 2
(7.5) Inégalités classiques.

cos θ = 21 (eiθ + e−iθ )
(Euler)
• Pour tout réel t, |sin t| ≤ 1, |cos t| ≤ 1
sin θ = 2i 1
(eiθ − e−iθ ) • Pour tout réel t, |sin t| ≤ |t|
• Pour tous réels ou complexes x et y,
θ θ θ
1 + eiθ = ei 2 (e−i 2 + ei 2 ) |x + y| ≤ |x| + |y| ,
θ θ |x − y| ≤ |x| + |y| ,
= 2 cos ei 2
2 ||x| − |y|| ≤ |x − y| .
θ θ θ
1 − eiθ = ei 2 (e−i 2 − ei 2 )
θ θ • Inégalité des accroissements finis : soit f : [a, b] → R ou C une fonction continue
= −2i sin ei 2 sur le segment [a, b], dérivable sur ]a, b[ et telle que |f 0 (x)| ≤ k pour tout x ∈]a, b[. Alors
2
|f (b) − f (a)| ≤ k |b − a|. Dans ce cas, f est k -lipschitzienne.

Pour tout nombre complexe z = x + iy , on note ez le nombre complexe ex × eiy : • Inégalité de la moyenne : soit f : [a, b] → C (a < b) une application continue par morceaux.
Alors
ez ex+iy = ex × eiy = ex (cos y + i sin y),

= Z b Z b
f (t)dt ≤ |f (t)| dt.

0 0
ez+z ez ez

= a a

(7.2) Racines n-ièmes. Pour tout entier n ≥ 1, l’équation z n = 1 possède n racines distinctes, Équations différentielles
appelées racines n-ièmes de l’unité : ce sont les complexes ωk définis par
kπ (8.1) Équations différentielles linéaires du premier ordre. Soit a, b, f des fonctions définies et
ωk = e2i n
continues sur un intervalle I , à valeurs réelles ou complexes, la fonction a ne s’annulant pas sur I .

avec k ∈ J1, nK (ou toute autre suite de n entiers consécutifs). Ces nombres sont situés sur le cercle
• Les solutions de l’équation différentielle (H) : a(x)y0 + b(x)y = 0 sur l’intervalle I , sont les
fonctions de la forme
unité et sont les sommets d’un polygône régulier ; leur somme est nulle.
t 7→ y(t) = Ce−A(x)
(7.3) our tout nombre complexe Z 6= 0 et tout entier n ≥ 1, l’équation z n = Z possède n racines
distinctes, appelées racines n-ièmes de Z : ce sont les complexes zk définis par où C est une constante quelconque et A une primitive de ab sur I .
• En notant y0 (x) = e−A(x) , les solutions de l’équation différentielle (E) : a(x)y 0 +b(x)y = f (x)
1 iθ0
zk = |Z| e k n e 2i kπ
n , – sont de la forme y(x) = y1 (x) + Cy0 (x) si on dispose d’une solution particulière y1 de (E),
– peuvent s’obtenir en effectuant le changement de fonction inconnue y(x) = C(x)y0 (x)
où θ0 est un argument de Z et k ∈ J1, nK (ou toute autre suite de n entiers consécutifs). (méthode de variation de la constante) etZ alors
f (x)
(7.4) Identités remarquables. Pour tous nombres réels ou complexes a et b : C(x) = dx.
a(x)y0 (x)
• a3 − b3 = (a − b)(a2 + ab + b2 )
(8.2) Équations différentielles linéaires du deuxième ordre à coefficients constants. Les
• a3 + b3 = (a + b)(a2 − ab + b2 ) solutions de l’équation différentielle (E) : ay 00 + by 0 + cy = 0, où a, b, c sont des nombres complexes
avec a 6= 0, s’obtiennent en résolvant l’équation caractéristique
• an − bn = (a − b)(an−1 + an−2 b + . . . + abn−2 + bn−1 )
(Ec ) ar2 + br + c = 0.
4
• Si (Ec ) possède deux racines distinctes r1 et r2 , les solutions de (E) sont les fonctions

y : t 7→ Aer1 t + Ber2 t ,

où A et B sont des scalaires quelconques. En particulier, les solutions de l’équation différentielle

y 00 − ω 2 y = 0

sont de la forme
y : t 7→ Aeωt + Be−ωt .
• Si (Ec ) possède une racine double r , les solutions de (E) sont les fonctions

y : t 7→ Aert + Btert ,

où A et B sont des scalaires quelconques.


• Lorsque a, b, c sont réels et que (Ec ) possède deux racines complexes distinctes r1 = α + iβ et
r2 = α − iβ (qui sont alors conjuguées), les solutions de (E) sont les fonctions

y : t 7→ eαt (A cos βt + B sin βt) .

En particulier, les solutions de l’équation différentielle

y 00 + ω 2 y = 0

avec ω ∈ R∗ , sont de la forme

y : t 7→ A cos ωt + B sin ωt.

5
Résumé du chapitre II : intégrales impropres remplacée par toute autre borne t0 > 0.
Z +∞
−at
(2.3) Pour un paramètre réel a, l’intégrale e dt converge si et seulement si a > 0.
0
Intégrales généralisées
Z 1
(2.4) L’intégrale ln tdt est convergente.
0
(1.1) Soit f : [a, b[→ R ou C une fonction continue (par morceaux), avec a, b ∈ R ou bien a ∈ R et
b = +∞. On dit que f possède une intégrale généralisée sur [a, b[ lorsque la fonction Théorèmes de comparaison
Z x
(3.1) Soit f et g deux fonctions définies (et cpm) sur un intervalle I = [a, b[ à valeurs réelles positives
F : x 7→ f (t)dt
a et vérifiant
∀t ∈ [a, b[, 0 ≤ f (t) ≤ g(t)
possède une limite finie L lorsque x → b.
(ou seulement pour t assez voisin de b).
(1.2) Lorsque 1.1 a lieu, le nombre L est noté
Z b
Z b Z b
f (t)dt. • si g(t)dt est convergente, alors il en est de même pour f (t)dt,
a Zab Z ba
• si f (t)dt est divergente, alors il en est de même pour g(t)dt.
(1.3) L’usage veut que la question ”f possède-t-elle une intégrale généralisée sur [a, b[ ?” soit rem- a a
Z b (3.2) Lorsque des fonctions susceptibles d’être comparées sont négatives, on les multipliera par −1 pour
placée par ”l’intégrale f (t)dt est-elle convergente ?”. Lorsque 1.1 a lieu, on dit alors que l’intégrale se ramener à 3.1.
a
Z b Z b (3.3) Soit f et g deux fonctions définies à valeurs réelles positives sur un intervalle I = [a, b[ et
f (t)dt est convergente. Lorsque 1.1 n’a pas lieu, on dit alors que l’intégrale f (t)dt est diver- vérifiant
a
gente.
a f (t)∼g(t) lorsque t → b.
(1.4) On a donc le ”lexique” suivant : pour une intégrale, (La fonction g est souvent une fonction de référence). Alors les intégrales

converger=exister, diverger=ne pas exister.


Z b Z b
f (t)dt et g(t)dt
Z b a a
(1.5) La manipulation mathématique de f (t)dt (intégration par parties, changement de variable,
a sont de même nature, i.e. toutes deux convergentes ou toutes deux divergentes.
majoration . . . ) n’a pas de sens tant que la convergence, c’est à dire l’existence, de l’intégrale n’a pas
(3.4) Le résultat 3.3 est valable si l’on sait seulement que g(t) est positif pour t assez voisin de b.
été prouvée.
(3.5) Le résultat 3.3 peut ne pas être valable lorsque les fonctions en jeu n’ont pas de signe constant
(1.6) Concepts analogues pour une fonction f :]a, b] → R ou C.
au voisinage de b.
(1.7) On dit qu’une fonction f :]a, b[→ C, avec a, b réels ou ±∞ possède une intégrale généralisée
(3.6) On a des résultats analogues à 3.1 et 3.3 pour une intégrale impropre sur un intervalle ]a, b].
sur ]a, b[ lorsque, en se fixant n’importe quel c ∈]a, b[, f possède une intégrale généralisée sur ]a, c]
et sur [c, b[. (3.7) La mise en œuvre des théorèmes de comparaison nécessite une comparaison (majoration,
Z c Z b équivalence) des fonctions au voisinage de la borne impropre et non de leurs intégrales sur [a, x].
(1.8) Avec la convention 1.3, 1.7 a lieu lorsque chacune des intégrales f (t)dt, f (t)dt est
a c Autres théorèmes
convergente.
(4.1) Absolue convergence. Pour une fonction f : [a, b[→ R ou C, si l’intégrale
Z b
Intégrales classiques
|f (t)| dt
a
Z +∞
1
(2.1) Intégrales de Riemann. dt converge si et seulement si α > 1. La borne 1 peut être est convergente, alors l’intégrale
1 tα Z b
remplacée par toute autre borne t0 > 0. f (t)dt
Z 1
1 a
(2.2) Intégrales de Riemann. dt converge si et seulement si α < 1. La borne 1 peut être l’est aussi. On dit alors qu’on a affaire à une intégrale absolument convergente.
0 tα
6
Z b
(4.2) Intégrale ”banale”. Soit f :]a, b] → R ou C (continue) où a et b sont deux réels. Si la fonction
φ(t)dt est convergente.
f , a priori non définie en a, possède néanmoins une limite finie l en a, alors l’intégrale a
Z b (Autrement dit, φ est intégrable sur I ). On dit dans ce cas que g vérifie l’hypothèse de domination sur
f (t)dt D0 × I .
a
(7.4) Continuité des intégrales dépendant d’un paramètre. On suppose que
est convergente. C’est en effet une intégrale ”banale” de fonction définie et continue sur le segment • pour tout t ∈ I , l’application x 7→ g(x, t) est continue sur D0 ,
[a, b], après prolongé f par continuité en a en posant f (a) = l. • pour tout x ∈ D0 , l’application t 7→ g(x, t) est continue par morceaux sur I ,
(4.3) Le principe 4.2 n’est pas valable lorsque la borne impropre est infinie. • g vérifie l’hypothèse de domination sur D0 × I .
Alors f est continue sur D0 .
Fonctions intégrables (7.5) Dans le contexte précédent, si x0 est un point de D0 , alors f (x) → f (x0 ) lorsque x → x0
(continuité de f en x0 ) i.e. :
(5.1) Fonction intégrable. On dit que f : I → R ou C est intégrable
Z sur I si f admet sur I une
Z b Z b
intégrale absolument convergente. L’intégrale de f sur I est notée f. C’est la valeur de son intégrale g(x, t)dt −→ g(x0 , t)dt.
I x→x0
a a
généralisée sur I .
(5.2) Changement de variable. Soit f une fonction continue par morceaux et intégrable sur un (7.6) En revanche, le passage à la limite n’est pas permis lorsque le paramètre x → +∞.
intervalle I et ϕ une application définie et de classe C 1 sur un intervalle I 0 , établissant une bijection (7.7) Pour montrer par exemple qu’une intégrale tend vers 0 lorsque x → +∞ on pourra chercher à
de I 0 sur I . Alors l’application t 7→ f (ϕ(t)). |ϕ0 (t)| est intégrable sur I 0 et majorer convenablement |g(x, t)| par une fonction dont l’intégrale est calculable et fournit un résultat
Z Z qui tend vers 0.
f= f ◦ ϕ × |ϕ0 | . (7.8) Il arrivera fréquemment que l’on prouve la continuité, par exemple sur ]0, +∞[, en prouvant la
I I0 continuité sur des sous-intervalles du type [A, B] pour se débarrasser de x par la majoration x ≤ B et
la minoration x ≥ A afin de majorer convenablement |g(x, t)| indépendamment de x sur [A, B].
Manipulation d’intégrales convergentes
(7.9) Dérivabilité d’une intégrale dépendant d’un paramètre. On suppose que
(6.1) On prendra soin de ”couper le courant”, c’est à dire : se ramener à la définition 1.1, manipuler • pour tout x ∈ D0 , l’application t 7→ g(x, t) est continue par morceaux et intégrable sur I ,
alors classiquement une intégrale propre puis passer à la limite dans les expressions obtenues, c’est à • g possède une dérivée partielle ∂x
∂g
par rapport à la variable x sur D0 × I ,
dire ”rétablir le courant”. • pour tout t ∈ I , l’application x 7→ ∂g
∂x (x, t) est continue sur D0 ,
(6.2) On procédera ainsi pour effectuer une intégration par parties ou un changement de variable (mais • pour tout x ∈ D0 , l’application t ∂g
7→ ∂x (x, t) est continue par morceaux sur I ,
on peut aussi utiliser 5.2). • ∂g
∂x vérifie l’hypothèse de domination sur D0 × I .
Alors f est de classe C 1 sur D0 et
Intégrales dépendant d’un paramètre
Z b
∂g
(7.1) Domaine de définition. Le domaine de définition D de l’application f 0 (x) = (x, t)dt.
a ∂x
Z b
f : x 7→ g(x, t)dt (7.10) On prouvera fréquemment le caractère C 1 en procédant comme en 7.7 pour rechercher une
∂g
a dominante intégrable à ∂x .

intégrale impropre en a ou en b ou en a et en b, est constitué des réels x pour lesquels l’intégrale est (7.11) Cas d’une intégrale propre à paramètre. Dans le contexte 7.1, si l’intervalle d’intégration
Z b
convergente. I est un segment, donc si g(x, t)dt est une intégrale banale et si D0 = [A, B] est également un
Z b a
(7.2) Si l’intégrale g(x, t)dt n’est pas impropre, c’est à dire si [a, b] est un segment et si pour tout segment, on trouvera aisément une constante C1 telle que
a
x ∈ D, l’application t 7→ g(x, t) est continue sur [a, b], alors f (x) existe naturellement pour tout ∀(x, t) ∈ D0 × I, |g(x, t)| ≤ C1 ,
x ∈ D.
(7.3) Dominante intégrable. Une dominante intégrable de g sur D0 × I , où D0 est une partie de inégalité fournissant une dominante intégrable pour g sur D0 × I , car une fonction constante est
∂g
D et I est l’intervalle d’intégration (d’extrémités a et b), est une fonction φ : t 7→ φ(t) définie sur I évidemment intégrable sur un segment. Remarque bien sûr analogue pour ∂x . La constante C1 pourra
∂g
à valeurs ≥ 0 et vérifiant être directement trouvée par majoration ou par un argument théorique : g (ou ∂x ) étant continue sur
∀(x, t) ∈ D0 × I, |g(x, t)| ≤ φ(t) le domaine fermé borné [A, B] × [a, b], elle y est bornée.
7
P
Résumé du chapitre III : séries numériques (3.1) Critère général. Si un ≥ 0, la série un converge si et seulement si la suite (Sn ) (qui est
croissante) est majorée. Dans le cas contraire la suite (Sn ) tend vers +∞.
(3.2) Comparaison avec une intégrale. Si un = f (n) avec f continue, positive et décroissante
X Z +∞
Définitions sur [0, +∞[, alors un et f (t)dt sont de même nature.
n≥0 0
n
X X Z +∞ Z +∞
(1.1) La série un est dite convergente lorsque la suite (Sn ) définie par Sn = uk converge vers (3.3) En cas de convergence dans 3.2, on a f (t)dt ≤ Rn ≤ f (t)dt.
n≥0 k=0 n+1 n
un certain nombre S appelé somme de la série et alors noté (3.4) Théorème de comparaison. Si 0 ≤ un ≤ vP n à partir d’un certain rang, alors la convergence
P
+∞
de la série vn entraı̂ne la convergence de la série un .
X X X
S= uk . (3.5) Théorème de comparaison. Si un ∼ vn et si vn ≥ 0, alors les séries un et vn
k=0 n→+∞
n≥0 n≥0
sont de même nature.
Dans le cas contraire, la série est dite divergente.
(3.6) Les théorèmes de comparaison peuvent tomber en défaut si les termes généraux n’ont pas un
signe constant.
(1.2) Le nombre Sn est appelé somme partielle de rang n de la série.
un+1
+∞
X (3.7) Règle de d’Alembert. Si un > 0 et si un tend vers l lorsque n → +∞, alors la série
(1.3) Dans le contexte 1.1 de convergence, le nombre Rn = S − Sn =
X
uk est le reste d’ordre un
k=n+1 n≥0
n de la série. Ainsi, Sn −→ S et Rn −→ 0.
n→+∞ n→+∞ • converge lorsque l < 1
• diverge lorsque l > 1.
(1.4) Dans le contexte 1.1, Sn est une valeur approchée de S à moins de |Rn | près. • lorsque l = 1 (cas très fréquent), cette règle ne permet pas de conclure.
Lorsque l > 1, on a même un → +∞.

(1.5) Comme pour les intégrales impropres, on ne manipulera pas la somme d’une série avant de savoir Critères de convergence (terme général quelconque)
si elle est convergente ! Même en cas de convergence, toute manipulation se fera le courant coupé. X
(3.8) Pour qu’une série un converge, il est nécessaire mais en général pas suffisant (il suffit de
Séries classiques n≥0
1
P
X penser à la série n) que un → 0 lorsque n → +∞ :
n
(2.1) La série géométrique r (avec r ∈ C) est convergente si et seulement si |r| < 1 : X
n≥0 un converge =⇒ un −→ 0
n→+∞
n≥0
+∞
X 1 P
∀r ∈ C avec |r| < 1 : rn = donc si un ne tend pas vers 0, il est certain que la série un diverge.
n=0
1−r
X X
+∞
(3.9) Convergence absolue. Si la série |un | est convergente, alors la série un converge aussi.
X 1 n≥0 n≥0
(2.2) La série de Riemann α
, avec α ∈ R, est convergente si et seulement si α > 1.
n=1
n
P (3.10) Séries alternées. Si (vn ) est une
Xsuite positive, décroissante (ou seulement à partir d’un certain
(2.3) Série télescopique. Soit (vn ) une suite convergente, de limite V . Alors la série (vn+1 − vn )
rang) et de limite nulle, alors la série (−1)n vn est convergente. On a alors
est convergente (de somme V − v0 ) car sa somme partielle Sn vaut vn+1 − v0 .
n≥0

(2.4) Inversement, si une suite (vn ) est telle que la série


P
(vn+1 − vn ) soit convergente, alors la S2p+1 ≤ S ≤ S2p et |Rn | ≤ vn+1
suite (vn ) est convergente.
pour tout p et pour tout n (ou seulement à partir du rang de décroissance).
Critères de convergence (terme général ≥ 0)
8
Résumé du chapitre IV : séries entières (2.6) La série entière
X an
xn+1
n+1
n≥0

Généralités est la primitive qui s’annule en 0 de la série entière


X
(1.1) Le rayon de convergence de la série entière an z n est l’unique R tel que la série
P P
an z n an xn .
converge absolument lorsque |z| < R et diverge lorsque |z| > R . n≥0

(1.2) Le disque de convergence est le plus grand disque ouvert sur lequel la série entière converge Son rayon de convergence est R.
absolument. (2.7) Théorème de continuité
P
an Rn converge, où R est le rayon de
P auxn bords. Si la série
(1.3) Pour une série entière de la variable réelle, l’intervalle de convergence est le plus grand intervalle convergence de la série entière an x , alors la fonction
ouvert sur lequel la série entière converge absolument. +∞
X
(1.4) Pour déterminer le rayon de convergence d’une série entière
P n
an z avec an 6= 0, on pourra S : x 7→ an xn
un+1 (z) n=0
poser un (z) = |an z n | et étudier la limite du rapport un (z) en vue d’appliquer la règle de
d’Alembert. est continue sur ] − R, R]. Résultat analogue en −R.

(1.5) On posera de même un (z) = an z 2n pour une série entière du type an z 2n .
P
En particulier
+∞
X +∞
X
an xn −→− an R n
x→R
Séries entières d’une variable réelle n=0 n=0

ce qui permet de prolonger des identités aux extrémités de l’intervalle de convergence.


an xn de rayon de convergence R 6= 0 est continue sur ] − R, R[.
P
(2.1) Une série entière
bm xm est identiquement nulle sur un
P
+∞ (2.8) Théorème d’identification. Une série entière
X
(2.2) Théorème de dérivation terme à terme. Une série entière S(x) = an xn de rayon de intervalle si et seulement si tous ses coefficients bm sont nuls.
n=0
(2.9) RésolutionPd’une équation différentielle. Pour trouver une solution sous forme de série
convergence R 6= 0 est de classe C ∞ sur ] − R, R[ et
entière y(x) = an xn , on injectera y, y 0 , y 00 dans l’équation sous forme de séries, après avoir
+∞
X évoqué le théorème de dérivation terme à terme. Par des changements d’indices convenables, on écrira
S 0 (x) nan xn−1 bm xm = 0 ce qui conduira, d’après (2.8), à une relation de récurrence
P
= l’équation sous la forme
n=1 entre les an . On explicitera les an et on vérifiera que le rayon de convergence de la série entière
+∞
X obtenue est non nul.
S (p) (x) = n(n − 1) . . . (n − p + 1)an xn−p
n=p
Développement en série entière
pour tout p ≥ 1 et tout x ∈] − R, R[.
(3.1) Une fonction f définie (au moins) au voisinagePde 0 est dite développable en série entière au
(2.3) Toutes les séries entières dérivées de S ont pour rayon de convergence R, rayon de S .
voisinage de l’origine lorsqu’il existe une série entière an xn de rayon R > 0 telle que
(2.4) Les coefficients ap sont liés à S par :
+∞
X
f (x) = an xn
S p (0)
ap = n=0
p!
pour tout x ∈] − R, R[.
pour tout entier p. (3.2) Théorie. Si une fonction f est DSE0, elle est alors nécesairement de classe C ∞ au voisinage de
f (n) (0)
(2.5) Théorème d’intégration terme à terme. Si [a, b] est inclus dans ] − R, R[ alors 0 et an = n! pour tout n ; le développement de f est alors sa série de Taylor :
+∞ +∞ Z
! +∞ (n)
Z bX b
X X f (0) n
an tn dt = an tn dt . f (x) = x
a n=0 n=0 a n=0
n!
9
sur un intervalle convenable. Développements classiques
(3.3) Théorie. Un moyen (théorique) de prouver qu’une fonction f est DSE0 est donc de montrer que On retiendra essentiellement les développements de 1−x 1
, ex et (1 + x)α et on obtiendra les autres par
la différence substitution, dérivation et intégration (cf. paragraphe suivant).
N
X f (n) (0) n Les développements suivants font partie de la branche série géométrique :
f (x) − x
n=0
n!
+∞
1 X
tend vers 0 lorsque N → +∞ pour tout x d’un certain intervalle. Ceci peut s’obtenir par l’intermédiaire ∀z ∈ C avec |z| < 1 = zn (4.1)
de l’inégalité de Taylor-Lagrange, dans la mesure où x étant fixé, cette différence est majorée par
1−z n=0
+∞
|x|
n+1 1 X
Mn+1,x ∀x ∈] − 1, 1[ = xn (4.2)
(n + 1)! 1−x n=0
+∞
où Mn+1,x = max f n+1 (t) .

1 X
t∈[0,x] ∀x ∈] − 1, 1[ = nxn−1 (4.3)
(1 − x)2 n=1
+∞
X +∞
(3.4) Si f 0 est DSE0 avec f 0 (x) = bn xn pour tout x ∈] − R, R[ alors f est DSE0 et 1 X
∀x ∈] − 1, 1[ = (−1)n xn (4.4)
n=0 1+x n=0
+∞ +∞
X bn n+1 1 X xn
∀x ∈] − R, R[, f (x) = f (0) + x ∀x ∈] − |a| , |a| [ = − (4.5)
n=0
n+1 x−a an+1
n=0
+∞ +∞ n+1
X x
∀x ∈] − 1, 1[ ln(1 − x) −
X
(3.5) Si f est DSE0 avec f (x) = an xn pour tout x ∈] − R, R[ alors f 0 est DSE0 et = (4.6)
n=0
n +1
n=0
+∞
+∞
X (−1)n xn+1
X ∀x ∈] − 1, 1[ ln(1 + x) = (4.7)
∀x ∈] − R, R[, f 0 (x) = nan xn−1 n=0
n+1
n=1 +∞
X (−1)n x2n+1
(3.6) Une fraction rationnelle ne possédant pas 0 comme pôle est DSE0. Son développement peut ∀x ∈] − 1, 1[ arctan x = · (4.8)
2n + 1
s’obtenir en la décomposant en éléments simples sur R ou sur C, c’est à dire en combinaison de n=0
1 1
fractions du type a−x , (a−x)2 etc. et en faisant apparaı̂tre la somme de la série géométrique :
Développements de la branche exponentielle :
+∞ +∞ n
1 1 1 X  x n X z
= = ∀z ∈ C ez = (4.9)
a 1 − xa

a−x a n=0 a n!
n=0
+∞ n
pour tout x tel que xa < 1. Par théorème de dérivation terme à terme : X x
∀x ∈ R ex = (4.10)
+∞ n=0
n!
1 1 X n  x n−1
= . +∞
(a − x)2 a n=1 a a X x2n
∀x ∈ R chx = (4.11)
n=0
(2n)!
(3.7) Les fonctions du type ln(R(x)) ou arctan(R(x)) où R est une fraction rationnelle de la
+∞
variable x sont DSE0. Les développements s’obtiennent en combinant 3.4 et 3.6. X x2n+1
∀x ∈ R shx = (4.12)
(3.8) Obtention d’un développement via une équation différentielle. Si on cherche le DSE0 n=0
(2n + 1)!
de f par cette méthode, on mettra en évidence un problème de Cauchy (équation différentielle + +∞
X (−1)n x2n
condition(s) initiale(s)) dont f est solution. On recherchera par ailleurs la solution de ce problème ∀x ∈ R cos x = (4.13)
(2n)!
sous forme de série entière en suivant 2.9. On invoquera l’unicité d’une solution à un problème de n=0
Cauchy pour en déduire que f et cette série entière coı̈ncident. +∞
X (−1)n x2n+1
∀x ∈ R sin x = · (4.14)
n=0
(2n + 1)!
10
Développements de la branche (1 + x)α (α ∈ R) :

+∞
X α(α−1)...(α−n+1) n
∀x ∈] − 1, 1[ (1 + x)α = 1+ x (4.15)
n=1
n!
+∞
1 X (2n)! n
∀x ∈] − 1, 1[ √ = (−1)n x (4.16)
1+x n=0
22n (n!)2
+∞
X (2n)! x2n+1
∀x ∈] − 1, 1[ arcsin x = · (4.17)
n=0
22n (n!)2 2n + 1

Sommation des séries entières

Supposons connue la somme d’une série entière : pour tout x ∈] − R, R[,

+∞
X
an xn = S(x)
n=0

où S est une expression connue. Alors

+∞
X
∀x ∈] − R, R[, an xn = S(x) − a0
n=1
+∞
√ √ X
∀x ∈] − R, R[, an x2n = S(x2 )
n=0
+∞
X
∀x ∈] − R, R[, (−1n )an xn = S(−x)
n=0
+∞
X
∀x ∈] − R, R[, an xn+1 = xS(x)
n=0
+∞
X S(x)
∀x ∈] − R, R[\{0}, an xn−1 =
n=0
x
+∞
X
∀x ∈] − R, R[, nan xn−1 = S 0 (x)
n=1

11
Résumé du chapitre V : algèbre linéaire tels que u(x) = ~0. C’est un sous-espace de E .
(3.5) L’image de l’application linéaire u : E → F , noté Imu, est l’ensemble des vecteurs de F de la
forme u(x), x ∈ E . C’est un sous-espace de F .
Familles libres, génératrices, bases (3.6) Un vecteur y de F est dans l’image de u s’il existe un vecteur x de E tel que y = u(x).

(1.1) Une famille (x1 , . . . , xm ) est dite libre si une égalité telle que λ1 x1 + . . . + λm xm = ~0 entraı̂ne : (3.7) Dans le contexte (2.4), la projection sur A et parallèlement à B est l’application p de E dans E
λ1 = 0, . . . , λm = 0. qui à tout z de E associe x. C’est une application linéaire qui est caractérisée par :

(1.2) Une famille (x1 , . . . , xm ) est dite génératrice si tout vecteur de E peut s’écrire comme combi- p(z) = z ⇔ z ∈ A, p(z) = ~0 ⇔ z ∈ B.
naison linéaire des vecteurs (x1 , . . . , xm ).
Elle vérifie p ◦ p = p et Ker p = B , Imp = A.
(1.3) Une famille B = (x1 , . . . , xm ) est une base lorsqu’elle est libre et génératrice. Ceci a lieu si et
seulement si tout vecteur de E peut s’écrire de façon unique comme combinaison linéaire des vecteurs (3.8) Réciproquement, un projecteur p de E i.e. un endomorphisme de E vérifiant p ◦ p = p, est la
(x1 , . . . , xm ). Les scalaires (λ1 , . . . , λm ) de cette combinaison sont appelés composantes de x dans projection sur Imp et parallèlement à Ker p, qui sont deux sous-espaces supplémentaires de E .
la base B . (3.9) Dans le contexte (2.4), la symétrie par rapport à A et parallèlement à B est l’application s de E
(1.4) L’espace E est de dimension finie lorsqu’il possède (au moins) une base (constituée d’un nombre dans E qui à tout z de E associe x − y . C’est une application linéaire qui est caractérisée par :
fini de vecteurs de E ). Toute base de E possède alors le même nombre d’éléments. Ce nombre commun
s(z) = z ⇔ z ∈ A, s(z) = −z ⇔ z ∈ B.
est appelé dimension de E .
(1.5) Si dim E = n, pour qu’une famille (x1 , . . . , xn ) soit une base de E , il suffit qu’elle soit libre. Elle vérifie s ◦ s = IdE .

(1.6) Si dim E = n, pour qu’une famille (x1 , . . . , xn ) soit une base de E , il suffit qu’elle soit (3.10) Réciproquement, tout endomorphisme s de E vérifiant s ◦ s = IdE est la symétrie par rapport
génératrice. à Ker (s − IdE ) (les invariants de s) et parallèlement à Ker (s + IdE ) (les vecteurs transformés en
leur opposé) qui sont deux sous-espaces supplémentaires de E .
Sous-espaces vectoriels
(3.11) Base de l’image. Lorsque E est de dimension finie et que B = (~ e1 , . . . , ~en ) est une base de
E , l’image de u est le sous-espace vectoriel engendré par u(~e1 ), . . . , u(~en ), qui est donc une partie
(2.1) A est un sous-espace vectoriel si ~0 ∈ A et si A est stable par addition interne et multiplication
génératrice de Imu. On en obtient une base en supprimant de cette famille les vecteurs qui sont
externe.
combinaisons d’autres vecteurs i.e. en extrayant la plus grande famille libre possible.
(2.2) Si A et B sont des sous-espaces de E , A + B est l’ensemble constitué de tous les vecteurs z de
(3.12) Rang. Lorsque dim E < ∞, le rang d’une application linéaire u : E → F , noté rg (u),
la forme x + y avec x ∈ A et y ∈ B . C’est toujours un sous-espace de E .
est la dimension de son image Im(u). C’est la longueur de la plus grande famille libre extraite de
(2.3) Lorsque dim E < +∞, dim(A + B) = dim A + dim B − dim(A ∩ B). u(~e1 ), . . . , u(~en ).
(2.4) Le sous-espace B est un supplémentaire de A dans E lorsque A + B = E et A ∩ B = {~0}. (3.13) Si dim E < ∞ et u : E → F est linéaire, alors
Ceci a lieu si et seulement si tout z de E s’écrit de façon unique z = x + y avec x ∈ A et y ∈ B .
dim Ker (u) + dim Im(u) = dim(E)
(2.5) Lorsque dim E < +∞, (2.4) a lieu si et seulement si A∩B = {~0} et dim A+dim B = dim E .
(2.6) Lorsque dim E < +∞, pour démontrer que deux sous-espaces F et G sont égaux, il suffit de (3.14) L’application linéaire u : E → F est injective 1 si et seulement si Ker u = {~0}.
démontrer par exemple que F ⊂ G et dim F = dim G.
(3.15) L’application linéaire u : E → F est surjective 2 si et seulement si Imu = F .
Applications linéaires
(3.16) Un isomorphisme de E dans F est une application linéaire bijective u de E dans F . L’application
(3.1) Une application u : E → F , entre deux espaces vectoriels, est dite linéaire lorsque u(αx+βy) = u−1 : F → E est linéaire.
αu(x) + βu(y) pour tout (x, y) de E et tout (α, β) de K. (3.17) Un automorphisme de E dans E est une application linéaire bijective u de E dans lui-même.
(3.2) Pour montrer que deux applications linéaires u et v de E dans F sont égales, il suffit de vérifier (3.18) Lorsque dim E < ∞, pour qu’un endomorphisme de E soit un automorphisme, il suffit que u
qu’elles coı̈ncident sur une base de E bien choisie.
1. Formellement, u : E → F est dite injective lorsque deux éléments de E distincts ont des images distinctes. Ou
(3.3) Un endomorphisme de E est une application linéaire de E dans lui-même. encore, lorsque u(x) = u(x0 ) ⇒ x = x0 .
2. Formellement, u : E → F est dite surjective lorsque tout élément de l’espace d’arrivée F possède (au moins) un
(3.4) Le noyau de l’application linéaire u : E → F , noté Ker u, est l’ensemble des vecteurs x de E antécédant par u. C’est à dire si pour tout y de F , il existe x ∈ E tel que u(x) = y .
12
soit injective donc il suffit que Ker u = {~0}. un automorphisme de E si et seulement si M est inversible. Dans ce cas, M −1 est la matrice de u−1
dans B .
(3.19) Lorsque dim E < ∞, pour qu’un endomorphisme de E soit un automorphisme, il suffit que u
soit surjective donc que rg (u) = dim E . (4.9) La matrice dans la base B de la famille F de p vecteurs de E est la matrice P dont la première
colonne est constituée de la matrice colonne dans B du premier vecteur de F etc.
Matrices
(4.10) Dans le contexte (4.9), lorsque dim E = n, la famille F de n vecteurs de E est une base de
(4.1) Soit u un endomorphisme de E et B = (~ e1 , . . . , ~en ) une base de E . La matrice de u dans la E si et seulement si P est inversible. Dans ce cas, P est appelée matrice de passage de la base B à la
base B est la matrice carrée n × n obtenue en écrivant : base F .
(4.11) Formule de changement de base. Dans le contexte (4.10), si x est un vecteur de E , X et
• e1 ) dans la base B
dans sa première colonne les composantes de u(~ X 0 sont les matrices colonnes de x dans B et F , on a X 0 = P −1 X .
(4.12) Formule de changement de base. Dans le contexte (4.10), si u est un endomorphisme de
• ...
u, M et M 0 les matrices de u dans B et F , on a M 0 = P −1 M P .

• dans sa nième colonne les composantes de u(~


en ) dans la base B .
Éléments propres
 
u(~e1 ) dans B
Composantes

u(~e2 ) dans B
Composantes

u(~en ) dans B
Composantes
(5.1) Une valeur propre d’un endomorphisme u du K-espace vectoriel E est un scalaire λ ∈ K pour
 
 
lequel il existe un vecteur non nul ~
x tel que u(~x) = λ~x. On dit alors que ~x est un vecteur propre
 
 
matB (u) =  ... associé à la valeur propre λ.
 

 
(5.2) Le sous-espace propre associé à la valeur propre λ est le noyau Ker (u − λIdE ). Ses éléments,
 
 
autres que le vecteur nul, sont tous les vecteurs propres associés à la valeur propre λ.
 
de

de

de
(5.3) En particulier, le scalaire λ = 0 est une valeur propre de u si et seulement s’il existe un vecteur
(4.2) Plus généralement lorsque B = (e1 , . . . , en ) est une base de E , B 0 = (f1 , . . . , fp ) une base x tel que u(~x) = ~0 c’est à dire si et seulement si Ker (u) n’est pas réduit au vecteur nul.
non nul ~
de F et u : E → F une application linéaire, la matrice M de u dans les bases (B, B 0 ) est obtenue Dans ce cas, le sous-espace propre associé à 0 n’est autre que le noyau de u.
en écrivant dans sa première colonne les composantes de u(e1 ) dans la base B 0 ,. . . , dans sa nième
colonne les composantes de u(en ) dans la base B 0 . C’est une matrice à p lignes et n colonnes. (5.4) Si E est de dimension finie, le scalaire λ = 0 est une valeur propre de u si et seulement si u n’est
pas bijectif.
(4.3) Soit M ∈ Mn (K), B = (~ ~ 1, . . . , X
e1 , . . . , ~en ) la base canonique de Kn , (X ~ n ) les vecteurs
(5.5) Si p est la projection sur A et parallèlement à B avec E = A ⊕ B , alors les valeurs propres de
colonnes de M i.e. les vecteurs dont les composantes dans B sont les colonnes respectives de M .
L’endomorphisme canoniquement associé à M est l’endomorphisme u de Kn défini à travers B par
p sont 1 et 0. Le sous-espace associé à 1 est A, celui associé à 0 est B .
∀i ∈ {1, . . . , n}, ~ i.
u(~ei ) = X (5.6) Si s est la symétrie par rapport à A et parallèlement à B avec E = A ⊕ B , alors les valeurs
propres de s sont 1 et −1. Le sous-espace associé à 1 est A, celui associé à −1 est B .
(4.4) Le rang d’une matrice est le rang de l’endomorphisme qui lui est canoniquement associé ou de
tout endomorphisme qu’elle représente. (5.7) Une famille de vecteurs propres associés à des valeurs propres différentes est une famille libre.
(4.5) Dans
  le contexte (4.1), si x ∈ E et (x1 , . . . , xn ) ses composantes dans B , le vecteur colonne
x1 Déterminants
 .. 
X =  .  est appelé matrice colonne de x dans B. La matrice colonne de y = u(x) dans B est
xn (6.1) Il existe une application déterminant, notée dét, qui agit sur les endomorphismes de E et sur les
alors Y = M X . matrices carrées n × n. Une base B de E étant donnée, il existe une application appeleée déterminant
relativement à la base B , notée détB , qui agit sur toute famille de n vecteurs de E . Un déterminant
(4.6) Soit B une base de E , u et v deux endomorphismes de E , M et M 0 leurs matrices dans B . Alors
est un scalaire.
la matrice de u ◦ v dans B est M.M 0 .
déf
(4.7) En particulier, M r est la matrice de ur = |u ◦ .{z
. . ◦ u} dans B .
r fois

(4.8) Soit B une base de E , u un endomorphisme de E et M la matrice de u dans B . Alors u est Propriétés de base
13
– Pour M, N ∈ Mn (K) : • En permutant deux colonnes (resp lignes) d’une matrice, on transforme le déterminant en son
opposé.
M est inversible ⇐⇒ dét(M ) 6= 0 • En permutant deux vecteurs d’une famille de n vecteurs, on transforme le déterminant en son
dét(M N ) = dét(M ).dét(N ) opposé.
dét(In ) = 1
1
dét(M −1 ) = (M inversible). Calcul d’un déterminant
dét(M )  
a1 0 . . . 0
– Pour u, v ∈ L(E) (où E est un espace de dimension finie n) : . 
 0 a2 . . . .. 

• Soit D =  .
 . Alors dét(D) = a1 .a2 . . . an .
u est un automorphisme de E ⇐⇒ dét(u) 6= 0  .. . . . . . . 0 

dét(u ◦ v) = dét(u).dét(v) 0 . . . 0 an
 
dét(IdE ) = 1 a1 termes
1  0 a2 qcq 
dét(u−1 ) =
dét(u)
(u automorphisme) • Soit T =  .

 .. . . . . . .
. Alors dét(T ) = a1 .a2 . . . an .


dét(u) = dét(M ) (B base quelconque, M = matB (u)). 0 ... 0 an
Le déterminant d’une matrice diagonale ou triangulaire est donc le produit des éléments situés sur sa
– Pour F = (~x1 , . . . , ~xn ) famille de n vecteurs de E (dim(E) = n), B base de E et M matrice de
diagonale.
F dans B (la 1-ère colonne de M est constituée des composantes de ~x1 dans B . . .)  
A C
déf
détB (F) = dét(M )
 
 
(~x1 , . . . , ~xn ) base de E ⇐⇒ détB (F) 6= 0. • Soit M une matrice carrée de la forme M = 
0 . . . 0
 .. ..
 où A est carrée d’ordre p,

B

. . 
0 ... 0
B est carrée d’ordre q = n − p et C est une matrice (p, q). Alors dét(M ) = dét(A).dét(B)
Si B et B 0 sont deux bases de E et F est une famille de n vecteurs, alors
(calcul d’un déterminant par blocs).
détB0 (F) = détB0 (B)détB (F).
• Soit M = (aij ) ∈ Mn (K). On note ∆ij le déterminant de la matrice carrée (n − 1) × (n − 1)
Propriétés complémentaires obtenue en supprimant la i-ème ligne et la j -ème colonne de M . En choisissant de développer
dét(M ) suivant sa i-ème ligne, on a
• dét(t M ) = dét(M ) n

X
dét(kM ) = k n dét(M ) pour tout scalaire k dét(M ) = (−1)i+k aik ∆ik .
• On ne change pas la valeur d’un déterminant en ajoutant à l’une de ses colonnes (resp. lignes) k=1
une combinaison linéaire des autres colonnes (resp. lignes) En choisissant de développer dét(M ) suivant sa j -ème colonne, on a
• Le calcul du déterminant est une opération multilinéaire par rapport aux colonnes : considérons
n
des colonnes X
dét(M ) = (−1)k+j akj ∆kj .
C1 , C10 , C2 , . . . , Cn k=1
et un scalaire α. Alors

dét(αC1 , C2 , . . . , Cn ) = αdét(C1 , C2 , . . . , Cn ) • Les facteurs (−1)i+k et (−1)k+j correspondent à la distribution suivante des signes + et − :
dét(C1 + C10 , C2 , . . . , Cn ) dét(C1 , C2 , . . . , Cn ) + dét(C10 , C2 , . . . , Cn )
 
= + − + − ...
− + − + . . .
(et cette propriété mise en évidence sur la 1ère colonne est bien entendu valable sur les autres .
 
+ − + − . . .
colonnes).
 
..
• De même, le calcul du déterminant est une opération multilinéaire par rapport aux lignes. .
14
Résumé du chapitre VI : réduction (3.1) Un endomorphisme u de E (espace de dimension finie) est dit diagonalisable si E possède une
base constituée de vecteurs propres pour u.
(3.2) De façon équivalente, u est diagonalisable lorsqu’il existe une base B dans laquelle la matrice de
Matrices semblables u est diagonale.
(3.3) Une matrice carrée M ∈ Mn (K) est dite diagonalisable sur K si elle est semblable à une matrice
(1.1) Les matrices carrées M et N de Mn (K) sont semblables dans K si et seulement s’il existe
diagonale c’est à dire s’il existe une matrice diagonale D ∈ Mn (K) et une matrice inversible P ∈
une matrice inversible P à coefficients dans K telle que N = P −1 M P .
Mn (K) telles que D = P −1 M P. Ceci se produit si et seulement si l’endomorphisme u canoniquement
(1.2) Dans le contexte 1.1, on a N m = P −1 M m P pour tout entier m ∈ N. associé à M est lui-même diagonalisable.
(1.3) En notant u l’endomorphisme de Kn canoniquement associé à M , les matrices carrées M et N (3.4) Plus généralement, soit u un endomorphisme d’un espace E , B une base de E et M la matrice
de Mn (K) sont semblables dans K si et seulement si il existe une base C de Kn telle que N soit la de u dans B . Alors u est diagonalisable si et seulement si M est diagonalisable.
matrice de u dans C .
(3.5) CNS de diagonalisation. Un endomorphisme u de E est diagonalisable si et seulement si
(1.4) Trace : la trace Tr(M ) de M = (aij ) ∈ Mn (K) est la somme a11 + . . . + ann des ses d1 + · · · + dp = n, où n = dim E et d1 , · · · , dp sont les dimensions des différents sous-espaces
éléments diagonaux. On a Tr(M N ) = Tr(N M ) pour toutes matrices carrées M et N d’ordre n. propres de u. Si tel est le cas, on obtient une base de vecteurs propres pour u par réunion de bases de
Deux matrices semblables ont même trace mais la réciproque est grossièrement fausse ! ! chacun de ses sous-espaces propres.

Polynôme caractéristique (3.6) Soit u un endomorphisme du K espace vectoriel E , dim E = n. Alors u est diagonalisable si et
seulement si les conditions suivantes sont réalisées :
(2.1) Les valeurs propres d’une matrice carrée M d’ordre n à coefficients dans K sont les valeurs • les racines de son polynôme caractéristique sont toutes dans K (superflu si K = C) et
propres de l’endomorphisme de Kn canoniquement associé à M , c’est à dire les scalaires λ ∈ K pour • en notant λ1 , . . . , λp les différentes valeurs propres de u,
lesquels il existe un vecteur colonne X non nul de Kn , appelé vecteur colonne propre de M , tel que
M X = λX . di = αi ,
(2.2) Pour toute valeur propre λ de M , le noyau Ker (M − λIn ) est appelé sous-espace propre de M
associé à λ. pour tout i, où di est la dimension du sous-espace propre associé à λi et αi sa multiplicité
algébrique.
(2.3) Si u ∈ L(E) avec dim E = n, si B est une base de E et M est la matrice de u dans B , alors (3.7) Lorsque u est diagonalisable, pour chaque valeur propre de u, la dimension de son sous-espace
u et M ont les mêmes valeurs propres et les vecteurs colonnes propres de M sont les vecteurs des propre associé est égale à sa multiplicité.
composantes dans B des vecteurs propres de u.
(3.8) Une matrice carrée M ∈ Mn (K) est diagonalisable si et seulement si d1 + · · · + dp = n, où
(2.4) Polynôme caractéristique. Si dim(E) = n et u ∈ L(E), le polynôme caractéristique de d1 , · · · , dp sont les dimensions des différents sous-espaces propres de M .
u est le polynôme dét(u − λIdE ). C’est un polynôme de degré n de la forme (−1)n λn + . . .. Ses
racines dans K sont les valeurs propres de u. (3.9) Si M est diagonalisable, on a une égalité du type D = P −1 M P où D est une matrice diagonale
dont la diagonale est formée des valeurs propres de M , chacune apparaissant un nombre de fois égal
(2.5) Si M ∈ Mn (K), le polynôme caractéristique de M est le polynôme dét(M − λIn ). C’est un à sa multiplicité et P la matrice dont les colonnes sont les composantes de vecteurs constituant des
polynôme de degré n de la forme (−1)n λn + . . .. Ses racines dans K sont les valeurs propres de M . bases de chacun des sous-espaces propres Ker (M − λ1 In ), . . . , Ker (M − λp In ) de M . Sur chaque
(2.6) Si la matrice M représente l’endomorphisme u dans une certaine base, alors le polynôme ca- colonne de P apparaı̂t un vecteur propre associé à une valeur propre qui se présente sur la case de
ractéristique de u est celui de M . numéro correspondant de la diagonale de D .

(2.7) Deux matrices semblables ont le même polynôme caractéristique mais la réciproque est fausse ! ! (3.10) Si le polynôme caractéristique de M ∈ Mn (K) possède n racines dans K, toutes simples i.e.
deux à deux distinctes, alors M est diagonalisable dans K.
(2.8) Multiplicité. Si λ est une valeur propre d’un endomorphisme u, resp. d’une matrice carrée M ,
sa multiplicité est sa multiplicité en tant que racine du polynôme caractéristique de u, resp. de M . (3.11) La réciproque de 3.10 est fausse : M ∈ Mn (K) peut fort bien être diagonalisable tout en ayant
strictement moins que n valeurs propres ; c’est le cas par exemple des projections ou des symétries, qui
(2.9) Si α est l’ordre de multiplicité de la valeur propre λ et d la dimension de son sous-espace propre sont toujours diagonalisables, mais ne possèdent chacune que deux valeurs propres.
associé, alors d ≤ α.
(2.10) En particulier, si α = 1, c’est à dire si λ est une valeur propre simple, alors son sous-espace Trigonalisation
associé est une droite vectorielle.
(4.1) Un endomorphisme u de E (espace de dimension finie) est dit trigonalisable s’il existe une base
Diagonalisation B dans laquelle la matrice de u est triangulaire.
15
(4.2) Une matrice carrée M ∈ Mn (K) est dite trigonalisable sur K si elle est semblable à une ma-
trice triangulaire c’est à dire s’il existe une matrice triangulaire T ∈ Mn (K) et une matrice inversible
P ∈ Mn (K) telles que T = P −1 M P.
(4.3) Un endomorphisme u de E , espace vectoriel de dimension finie sur R est trigonalisable si et
seulement si son polynôme caractéristique ne possède que des racines réelles.
(4.4) Trigonalisation dans R. Une matrice carrée M à coefficients réels est trigonalisable sur R si et
seulement si son polynôme caractéristique ne possède que des racines réelles. Toute matrice triangulaire
semblable à T a sa diagonale constituée des valeurs propres de M , chacune étant répétée un nombre
de fois égal à sa multiplicité.
(4.5) Un endomorphisme u de E , espace vectoriel de dimension finie sur C est toujours trigonalisable.
(4.6) Trigonalisation dans C. Une matrice carrée M à coefficients complexes est toujours trigona-
lisable sur C. Toute matrice triangulaire semblable à T a sa diagonale constituée des valeurs propres
de M , chacune étant répétée un nombre de fois égal à sa multiplicité.
(4.7) Une matrice nilpotente est une matrice carrée N telle que N p = 0 pour un certain entier p.
(4.8) Une matrice triangulaire à diagonale nulle est nilpotente.
(4.9) Si M est une matrice carrée qui peut s’écrire sous la forme M = ∆ + N avec N nilpotente et
∆N = N ∆, alors on peut appliquer la formule du binôme pour calculer les puissances de M à partir
de M r = (N + ∆)r .
(4.10) Si  
a 0 0
T = 0 b 1
0 0 b
alors  n 
a 0 0
Tn =  0 bn nbn−1  .
0 0 bn

16

Résumé du chapitre VII : Produit scalaire, espaces euclidiens x 7→ ~x est une norme sur E , c’est à dire qu’elle vérifie :
(1.5) Norme associée. L’application ~

~x ≥ 0

λ~x = |λ| ~x
Généralités
~x + ~y ≤ ~x + ~y
(1.1) Produit scalaire sur un espace vectoriel réel E : c’est une application h., .i définie sur E × E ~x = 0 ⇔ ~x = ~0

à valeurs réelles bilinéaire, symétrique et définie positive i.e. vérifiant pour tous vecteurs ~
x, ~y , ~z et tous
scalaires a, b : x, ~y de E et tout λ ∈ R.
pour tous ~

ha~x + b~y , ~zi = ah~x, ~zi + bh~y , ~zi x et ~y de E sont dits orthogonaux lorsque h~x, ~y i = 0, ce que
(1.6) Orthogonalité : deux vecteurs ~
x ⊥ ~y .
l’on note alors ~
h~x, a~y + b~zi = ah~x, ~zi + bh~y , ~zi
h~y , ~xi = h~x, ~y i (1.7) Famille orthogonale. Une famille (~ xi )i∈I de vecteurs de E est dite orthogonale si pour tout
i, j de I tels que i 6= j, on a ~xi ⊥ ~xj . Si de plus tous les vecteurs de cette famille sont de norme un,
h~x, ~xi ≥ 0 et h~x, ~xi = 0 ⇔ ~x = ~0.
la famille est dite orthonormale.
p
La quantité h~x, ~xi est notée ~x . (1.8) Une famille orthogonale de vecteurs tous non nuls est libre.
On dit que E est un espace préhilbertien. 2 2 2

2
x et ~y , ~x + ~y = ~x + ~y + 2h~x, ~y i.
(1.9) Quels que soient les vecteurs ~
x, ~y ) ∈ E
(1.2) Inégalité de Cauchy-Schwarz : pour tout (~
(1.10) Théorème de Pythagore. Les vecteurs ~
x et ~y sont orthogonaux si et seulement si
|h~x, ~y i| ≤ ~x . ~y ,
~x + ~y 2 = ~x 2 + ~y 2 .

avec égalité si et seulement si la famille (~


x, ~y ) est liée. De plus,
(1.11) Famille orthogonale. Si les vecteurs ~
x1 , . . . , ~xr sont deux à deux orthogonaux, alors

h~x, ~y i = ~x . ~y
~x1 + . . . + ~xr 2 = ~x1 2 + . . . + ~xr 2 .

si et seulement si les vecteurs ~


x et ~y sont colinéaires et de même sens. Espaces euclidiens

(1.3) Exemples. Soit n ∈ N∗ . L’application h , i : Rn × Rn → R définie pour tout ~


x = (x1 , . . . , xn ) (2.1) Espace euclidien. C’est un espace vectoriel de dimension finie doté d’un produit scalaire.
et tout ~
y = (y1 , . . . , yn ) par Dans toute la suite, E désigne un espace euclidien de dimension n.
n
X
h~x, ~y i = xk yk (2.2) Construction de bases orthonormées. Soit une base (~
v1 , . . . , ~vn ) de E . Alors il existe une
k=1 base orthonormée (~
e1 , . . . , ~en ) de E telle que :
est un produit scalaire sur Rn appelé produit scalaire canonique. On a donc l’inégalité de Cauchy- 1
Schwarz v ~e1 =
~v1 ~v1 ,

u
Xn uX n n
X

xk yk ≤ t

x2k yk2 . ~e2 = a~e1 + b~v2 avec a et b convenables,

k=1 k=1 k=1 ~e3 = c~e1 + d~e2 + e~v3 avec c, d et e convenables,
(1.4) On fixe deux réels a et b avec a < b et on note E l’espace vectoriel des fonctions continues sur ep (1 ≤ p ≤ n) est combinaison de ~e1 , . . . , ~ep−1 et ~vp .
chaque ~
[a, b]. L’application h , i : E × E → R définie pour tout f, g dans E par
C’est le procédé de Gram-Schmidt.
Z b
hf, gi = f (x)g(x)dx (2.3) Base orthonormée d’un sous-espace F . On applique le procédé de Gram-Schmidt à une
a base (~
v1 , . . . , ~vr ) de F .
est un produit scalaire. L’inégalité de Cauchy-Schwarz donne (2.4) Expression du produit scalaire dans B 
uneb.o.n. Soit = (~e1 , . . . , ~en ) une base ortho-
Z s x1 y1
b Z b Z b  ..   .. 
normée de E , ~
x et ~y deux vecteurs de E , X =  .  et Y =  .  les matrices colonnes de leurs

f (x)g(x)dx ≤ f 2 (x)dx g 2 (x)dx


a a a xn yn
17
composantes dans B . Alors : (où a1 , . . . , an sont des constantes non nulles) est un hyperplan de Rn dont un vecteur normal est le
vecteur A ~ = (a1 , . . . , an ).
n
X
x1 = h~x, ~e1 i, . . . , xn = h~x, ~en i i.e. ~x = h~x, ~ek i~ek . (3.11) Projection orthogonale sur un hyperplan. Si ~a est un vecteur unitaire normal à l’hyperplan
k=1 H , alors la projection orthogonale p sur H est donnée par
h~x, ~y i = t X.Y = x1 y1 + · · · xn yn .
∀~x ∈ E, p(~x) = ~x − h~a, ~xi~a
2
~x = x21 + · · · + x2n .
(3.12) Réflexion d’hyperplan H . C’est la symétrie orthogonale s par rapport à l’hyperplan H . Elle
est donnée par
Projections, symétries orthogonales
s(~x) = ~x − 2h~a, ~xi~a
(3.1) Orthogonal d’un sous-espace F . C’est le sous-espace F ⊥ = {~ y ∈ E / ∀~x ∈ F, h~x, ~y i = 0}
où ~a est un vecteur unitaire normal à H .
constitué des vecteurs de E qui sont orthogonaux à n’importe quel vecteur de F .
(3.13) Soit D une droite vectorielle, dirigée par un vecteur ~
v et p la projection orthogonale sur D. Alors
(3.2) Somme directe orthogonale. On a la somme directe : E = F ⊕ F ⊥ .
x ∈ E,
pour tout ~
⊥ 1
(3.3) Bi-orthogonal. Pour tout sous-espace F de E , F ⊥ = F. p(~x) = 2 h~x, ~v i~v .
~v
(3.4) Projection orthogonale p. C’est la projection sur F et parallèlement à F ⊥ définie, lorsque ~
x
x = ~x1 + ~x2 avec ~x1 ∈ F et ~x2 ∈ F ⊥ , par p(~x) = ~x1 .
est décomposé sous la forme ~ (3.14) Distance à un sous-espace F . Pour tout ~
x de E , la distance de ~x à F est le réel
(3.5) Expression de la projection orthogonale. Si (~
e1 , . . . , ~er ) est une base orthonormée de F , 
inf ~y − ~x , ~y ∈ F ,
alors
∀~x ∈ E, p(~x) = h~x, ~e1 i~e1 + · · · + h~x, ~er i~er noté d(~
x, F ).
(3.6) Soit (~v1 , . . . , ~vr ) une base non nécessairement orthogonale du sous-espace F , p la projection (3.15) Expression de la distance. Pour tout ~
x de E
orthogonale sur E et ~ x ∈ E.
• Alors p(~x) est l’unique combinaison des vecteurs ~v1 , . . . , ~vr telle que ~x − p(~x) soit orthogonal

d(~x, F ) = ~x − p(~x)
à chaque vecteur ~ vk .
r
où p(~
x) est le projeté orthogonal de ~x sur F .

X
On peut donc rechercher p(~
x) sous la forme p(~x) = λi~vi et résoudre le système d’équations
i=1 (3.16) Principe des moindres carrés. On se donne un système linéaire S de m équations à n
 r inconnues AX = B , d’inconnue X et de second membre B . Résoudre S suivant le principe des
2
moindres carrés, c’est trouver un vecteur Y de Rn pour lequel la quantité AY − B soit minimum.
 X
h~
x − λi~vi , ~v1 i = 0



Tout vecteur Y tel que AY soit le projeté orthogonal de B sur ImA réalise ce minimum. Il est à noter



 i=1
.. que S peut ne pas posséder de solution ”classique”.
.
r


 X
 Automorphismes orthogonaux
 h~x − λi~vi , ~vr i = 0.



i=1
E désigne toujours un espace euclidien de dimension n.

(3.7) Symétrie orthogonale s. C’est la symétrie par rapport à F et parallèlement à F définie,
(4.1) Automorphisme orthogonal. C’est un endomorphisme u de E qui vérifie
x est décomposé sous la forme ~x = ~x1 + ~x2 avec ~x1 ∈ F et ~x2 ∈ F ⊥ , par s(~x) = ~x1 − ~x2 .
lorsque ~

u(~y ) − u(~x) = ~y − ~x
x) = 2p(~x) − ~x pour tout ~x ∈ E .
(3.8) Expression de la symétrie orthogonale. s(~
(3.9) Normale à un hyperplan. Soit H un hyperplan de E (sous-espace de dimension n − 1). Alors (conservation de la distance associée à la norme) ou, de façon équivalente, lorsque
H ⊥ est une droite vectorielle appelée normale à H . Tout vecteur directeur de cette normale est dit
normal à H . u(~x) = ~x

(3.10) Dans l’espace Rn muni de son produit scalaire canonique, l’ensemble x ∈ E (conservation de la norme).
pour tout ~
n
H = {~x = (x1 , . . . , xn ) ∈ R / a1 x1 + . . . + an xn = 0}. (4.2) Groupe orthogonal. L’ensemble O(E) de tous les automorphismes orthogonaux de E , muni
18
 
de la loi de composition des applications, est un groupe, appelé groupe orthogonal de E . C’est un 1 0 0
sous-groupe du groupe GL(E) des automorphismes de E . associé à M ) soit M (θ) = 0 cos θ − sin θ. M est donc semblable à M (θ). On dit que f est
0 sin θ cos θ
(4.3) Caractérisation des automorphismes orthogonaux. Les propriétés suivantes sont la rotation d’axe dirigé et orienté par ~
u et d’angle θ.
équivalentes :
v ) = cos θ~v + sin θ~u ∧ ~v pour tout ~v orthogonal à ~u. On peut donc facilement trouver θ en
On a f (~
(i) u est un automorphisme orthogonal,
se donnant un vecteur ~v orthogonal à ~u, en calculant f (~v ) au moyen de la matrice M de f dans la
x), u(~y )i = h~x, ~y i pour tout (~x, ~y ) ∈ E 2 ,
(ii) u conserve le produit scalaire, i.e. hu(~ base canonique et en comparant cette valeur avec celle donnée par cette formule.
(iii) u transforme toute base orthonormée en une base orthonormée,
Réduction des matrices symétriques
(iv) il existe une base orthonormée B telle que u(B) soit une base orthonormée.
E désigne toujours un espace euclidien de dimension n.
(4.4) Exemple : une symétrie orthogonale vérifie (iv). C’est donc un automorphisme orthogonal.
(5.1) Endomorphismes symétriques. Un endomorphisme u de E est dit symétrique lorsque :
(4.5) Caractérisation matricielle des automorphismes orthogonaux. Soit u ∈ L(E), B une
base orthonormée de E et M la matrice de u dans B . Alors u ∈ O(E) si et seulement si t M.M = In ∀(~x, ~y ) ∈ E 2 , hu(~x), ~y i = h~x, u(~y )i.
i.e. si et seulement si M est inversible et
(5.2) Caractérisation des endomorphismes symétriques. Un endomorphisme u de E est
M −1 t
= M. symétrique si et seulement s’il existe une base orthonormée B0 de E dans laquelle la matrice M
de u est symétrique, i.e. t M = M . Cette propriété a alors lieu quelle que soit la base orthonormée B
(4.6) Matrices orthogonales. Une matrice M ∈ Mn (R) vérifiant t M.M = In i.e. M −1 = t M , de E .
est une matrice orthogonale. (5.3) Diagonalisation des endomorphismes symétriques. Tout endomorphisme symétrique u de
(4.7) Groupe orthogonal. C’est l’ensemble O(n) des matrices orthogonales d’ordre n, qui constitue E est diagonalisable. De plus, ses sous-espaces propres sont deux à deux orthogonaux et E possède
un groupe pour la multiplication matricielle. C’est un sous-groupe du groupe GLn (R) (matrices inver- alors une base orthonormée de vecteurs propres pour u.
sibles d’ordre n). (5.4) Diagonalisation des matrices symétriques. Une matrice carrée M symétrique d’ordre n à
(4.8) Exemple important. La matrice de passage d’une base orthonormée à une autre base ortho- coefficients réels est diagonalisable sur R. De plus, ses sous-espaces propres sont deux à deux orthogo-
normée est une matrice orthogonale. naux (lorsque l’espace Rn est muni de sa structure euclidienne canonique). Il existe donc une matrice
orthogonale P , matrice dans la base canonique d’une base orthonormée de vecteurs colonnes propres
(4.9) Caractérisation des matrices orthogonales. Une matrice carrée M d’ordre n est orthogo- pour M , et une matrice diagonale D , constituée des valeurs propres correspondantes, telles que
nale si et seulement si les colonnes de M (considérées comme vecteurs de Rn muni de sa structure
euclidienne canonique) sont toutes de norme 1 et deux à deux orthogonales. D = t P M P.
(4.10) Matrices orthogonales d’ordre 2. Les matrices M ∈ O2 (R) sont de la forme Formes quadratiques

(6.1) Forme quadratique sur Rn : c’est une application polynomiale homogène de degré 2, c’est à
 
cos θ − sin θ
M= dire une application Q de la forme
sin θ cos θ
Q : Rn −→ R
i.e. la matrice dans B de la rotation d’axe dirigé et orienté par ~ı et d’angle θ , ou de la forme Xn X
  ~v = (x1 , . . . , xn ) 7−→ ak x2k + 2 aij xi xj
cos θ sin θ
M= k=1 1≤i<j≤n
sin θ − cos θ
où a1 , . . . , an et (aij )1≤i<j≤n sont des constantes réelles.
i.e. M est la matrice dans B de la symétrie orthogonale par rapport à la droite dirigée par le vecteur
(6.2) La matrice
~u = cos θ2~ı + sin θ2 ~.  
a1 a12 ... a1 n−1 a1n
(4.11) Matrices orthogonales d’ordre 3 : symétries Si M est symétrique, alors M est la matrice  .. 
 a12 a2 . 
d’une symétrie orthogonale, qui est une réflexion si dét(M ) = −1 et un retournement si dét(M ) = 1. 
 ..

.. .. .. .. 
M = .
 . . . . 
(4.12) Matrices orthogonales d’ordre 3 : rotations Si M n’est pas symétrique et si dét(M ) = 1,  ..

.. .. .. .. 
M est la matrice d’une rotation : 1 est une valeur propre de M et son sous-espace associé est une droite.  .
 . . . . 

En choisissant un vecteur directeur unitaire ~u de ce sous-espace, il existe alors θ (unique à 2π près) , a1n−1 an−1 an−1 n 
tel que dans tout repère orthonormé direct (~
u, ~v , w)
~ la matrice de f (endomorphisme canoniquement a1n an−1 n an
19
x = (x1 , . . . , xn ) de Rn on
s’appelle la matrice de Q dans la base canonique. (6.3) Pour tout vecteur ~ (6.10) Forme bilinéaire symétrique sur Rn : c’est une application φ définie sur Rn × Rn à valeurs
a réelles et vérifiant pour tous vecteurs ~
u, ~v , w
~ et tous scalaires α, β :
Q(~x) = t XM X
  φ(α~u + β~v , w)
~ = αφ(~u, w)
~ + βφ(~v , w)
~
x1
 . 
où X est le vecteur colonne  .. .
φ(~u, α~v + β w)
~ = αφ(~u, ~v ) + βφ(~u, w)
~
xn
(6.4) Réduction d’une forme quadratique. Soit Q une forme quadratique sur Rn . Alors il existe φ(~v , ~u) = φ(~u, ~v )
une base orthonormée B 0 dans laquelle l’expression de Q est de la forme
(6.11) Matrice d’une forme bilinéaire. Soit φ une forme bilinéaire symétrique sur Rn et B =
Q(~x) = λ1 x02 02
1 + · · · + λn xn (6.5) (~e1 , . . . , ~en ) la base canonique (ou toute autre base).
• On considère la matrice M ∈ Mn (R) :
x de composantes (x01 , . . . , x0n ) dans B . Cette expression est dite forme réduite pour
pour tout vecteur ~
Q.
 
φ(~e1 , ~e1 ) ... φ(~e1 , ~en )
(6.6) Obtention pratique. .. ..
M =
 
. .
• Soit B la base canonique de Rn (ou toute autre base orthonormée),

φ(~en , ~e1 ) . . . φ(~en , ~en )
• M la matrice de Q dans B,
• λ1 , . . . , λn les valeurs propres de M (répétées autant de fois que leur multiplicité), appelée matrice de φ dans B .
• B0 = (~v1 , . . . , ~vn ) une base orthonormée de vecteurs propres pour M , associés respectivement • x, ~y ), de matrices colonnes respectives X et Y dans B , on a :
Pour tout (~
aux valeurs propres (λ1 , . . . , λn ).
• Alors φ(~x, ~y ) = t X.M.Y
Q(~x) = λ1 x02
1 + ··· + λn x02
n
(6.12) Forme polaire. Soit φ une forme bilinéaire symétrique sur Rn .
pour tout vecteur ~ x de composantes (x01 , . . . , x0n )
dans B 0 . • L’application φ définie sur Rn par
(6.7) Forme définie positive. . . . Une forme quadratique Q sur Rn est dite (respectivement) positive, Q(~x) = φ(~x, ~x)
x non nul de Rn on a respectivement
définie positive, négative, définie négative si pour tout vecteur ~
est une forme quadratique sur Rn .
Q(~x) ≥ 0, Q(~x)i0, Q(~x) ≤ 0, Q(~x) < 0. • On dit que φ est la forme polaire de Q. On a alors la formule de polarisation

(6.8) Condition nécessaire et suffisante à la définie positivité. . . . La forme quadratique Q 1


φ(~x, ~y ) = (Q(~x + ~y ) − Q(~x) − Q(~y )).
est définie positive (resp. positive) si et seulement elle admet une forme réduite 2

Q(~x) = λ1 x21 + · · · + λn x2n


• Les matrices de φ et de Q dans la base canonique coı̈ncident :

φ(~x, ~y ) = t XM Y, Q(~x) = t XM X
avec λ1 i0, . . . , λn i0 (resp. λ1 ≥ 0, . . . , λn ≥ 0). Toute forme réduite de Q a alors ses coefficients
qui vérifient ces inégalités. pour tous vecteurs ~
x, ~y de matrice colonne X, Y dans la base canonique.
(6.9) Réduction d’une conique. Soit Γ la conique d’équation

ax2 + 2bxy + cy 2 + 2dx + 2ey + f = 0

et  
a b
M=
b c
la matrice de la forme quadratique associée. Alors :
• si détM > 0, Γ est une ellipse (éventuellement dégénérée)
• si détM < 0, Γ est une hyperbole (éventuellement dégénérée)
• si détM = 0, Γ est une parabole.
20
Résumé du chapitre VIII : séries de Fourier

(13) Coefficients de Fourier sous forme trigonométrique d’une fonction T -périodique f et


continue par morceaux sur [0, T ] et à valeurs réelles :
Z T
1
a0 = f (t)dt
T 0
 Z T
2
an = T 0 f (t) cos(nωt)dt




∀n ≥ 1,
 Z T

 2
bn =
 f (t) sin(nωt)dt,
T 0

avec ω = T
.
(14) Somme partielle de rang n de la série de Fourier associée :
n
X
Sn (t) = a0 + [ak cos(kωt) + bk sin(kωt)] .
k=1
(15) Coefficients de Fourier sous forme exponentielle :
1
Z T
∀p ∈ Z, cp = f (t)e−ipωt dt.
T 0
(16) Somme partielle de rang n exprimée avec les coefficients exponentiels :
n
X
Sn (t) = cp eipωt .
p=−n

(17) Si f est paire, alors


Z T Z T
2 2 4 2
bn = 0, a0 = f (t)dt, an = f (t) cos(nωt)dt
T 0 T 0

(18) Si f est impaire, alors


Z T
4 2
an = 0, bn = f (t) sin(nωt)dt
T 0

(19) Formule de Parseval : si f est continue par morceaux sur [0, T ], alors
+∞ Z T
1 X 2 1
a20 + an + b2n = f (t)2 dt,

2 n=1 T 0
p=+∞ Z T
X 1
|cp |2 = f (t)2 dt.
p=−∞
T 0

(20) Théorème de Dirichlet : si f est de classe C 1 par morceaux sur [0, T ], alors
+∞
f (t − 0) + f (t + 0) X 
∀t ∈ R, = a0 + an cos(nωt) + bn sin(nωt)
2 n=1
où f (t − 0) et f (t + 0) sont les limites à gauche et à droite de f en t.
(21) Cas particulier important : si f est C 1 par morceaux sur [0, T ] et continue en t, alors
+∞
X 
f (t) = a0 + an cos(nωt) + bn sin(nωt) .
n=1
(22) Théorème de Dirichlet, version complexe : si f est C 1 par morceaux sur [0, T ], alors
+∞
f (t − 0) + f (t + 0) X
∀t ∈ R, = cp (f )eipωt .
2 p=−∞

21
Résumé du chapitre IX : fonctions de plusieurs variables Fonctions de classe C 1

Les définitions et résultats sont donnés dans des cas particuliers (deux variables). Les généralisations

Les points marqués d’un ? pourront être réservés à une seconde lecture.
sont évidentes.
(2.1) Soit f : U ⊂ R2 → Rp et X0 = (x0 , y0 ) ∈ U . On dit que f possède une dérivée partielle par
Généralités rapport à la première variable en X0 si l’application φ : x 7→ f (x, y0 ) est dérivable en x0 . Dans ce
cas, on pose
∂f
(x0 , y0 ) = φ0 (x0 )

L’espace vectoriel Rn est muni de la norme euclidienne associée au produit scalaire canonique.
∂x
Points et vecteurs seront assimilés.
qui est un vecteur lorsque p ≥ 2 et un réel lorsque p = 1.
~ 0 ∈ Rn et r un réel > 0. La boule ouverte (resp. fermée) de centre X
(1.1) Soit X ~ 0 et de rayon r est
~ ~ ~

l’ensemble des X ∈ E tels que X − X0 < r (resp. ≤).
(2.2) Le recours à cette définition est indispensable pour (par exemple) une fonction de la forme

?
(
~ ≤ R pour tout expression si (x, y) 6= (0, 0)
n

(1.2) Une partie U de R est bornée s’il existe un réel R > 0 tel que l’on ait X f : (x, y) 7→
~
X de U , donc si U est incluse dans une boule centrée en ~0. valeur si (x, y) = (0, 0).

(1.3) Une partie U de Rn est dite ouverte si aucun point de U n’est un point de sa frontière ou encore ∂f
à travers la dérivée de y 7→ f (x0 , y).
~ de U , il existe une boule centrée en X
~ , de rayon convenable, entièrement incluse
(2.3) On définit de même ∂y (x0 , y0 )
si pour tout point X
dans U . Une partie F de Rn est dite fermée si tout point de la frontière de F est un point de F . (2.4) On dit que f est de classe C 1 sur U lorsque les conditions suivantes sont réalisées :
~ p )p∈N de vecteurs de E converge vers le vecteur X
(1.4) Une suite (X ~p − X
~ de E si X ~ → 0
• en tout point X de U , f possède des dérivées partielles par rapport à la première et la deuxième
variable,
~ est la limite de cette suite. En notant X
~ p = (x1,p , . . . , xn,p ) et
lorsque p → +∞. On dit alors que X • les applications
X~ = (x1 , . . . , xp ), ceci se produit si et seulement si les suites coordonnées (x1,p )p∈N , . . . , (xn,p )p∈N ∂f ∂f
: U → Rp : U → Rp
convergent respectivement vers x1 , . . . , xp . ∂x ∂y
X 7→ ∂f X 7→ ∂f
? (1.5) Une application f : U ⊂ Rn → Rp est dite continue en X ~ 0 ∈ U lorsque
l’on se donne un nombre ε > 0, il existe un réel η > 0 tel que dès que X ∈ U et
à chaque fois
X ~ −X
que
~ 0 < η, sont continues sur U .
∂x (X) ∂y (X)

~ − f~(X ~ 0 ) < ε. Ceci a aussi lieu si et seulement si pour toute suite (X


~ (q) ) convergeant ∂f ∂f
(2.5) Une application f est dite de classe C 2 sur U ⊂ R2 si f est de classe C 1 sur U et si

on a f (X) ∂x et ∂y
~ ~ (q) ~ ~
vers X0 , la suite (f (X )) converge vers f (X0 ). L’application f est dite continue sur U si elle est sont de classe C 1 sur U .
continue en chacun de ses points.
(2.6) Théorème de Schwarz : si f est de classe C 2 sur U , alors
~ →
(1.6) Une application f : U ⊂ Rn → Rp , X ~ = (f1 (X),
7 f (X) ~ . . . , fp (X))
~ est continue en X
~0
~ 0 (resp. ∂2f ∂2f
(resp. sur U ) si et seulement si f1 , . . . , fp sont des applications (numériques) continues en X ∀X ∈ U, (X) = (X).
∂x∂y ∂y∂x
sur U ).
(2.7) Toute application de classe C 1 sur un domaine y est continue.
(1.7) Toute fonction continue sur un domaine fermé et borné de Rn y est bornée et atteint ses bornes.
(2.8) Si f est de classe C 1 , alors il existe c ∈]a, a0 [ tel que
(1.8) Toute combinaison linéaire de fonctions continues est une fonction continue.
∂f
(1.9) Le produit de deux fonctions numériques continues est une fonction continue. f (x, y 0 ) − f (x, y) = (y 0 − y) (x, c)
1
∂y
(1.10) Si f est une fonction numérique continue qui ne s’annule pas, alors f est une fonction continue.
dès lors que f est C 1 sur un domaine contenant le segment joignant (x, y) et (x, y 0 ).
(1.11) La composée de deux applications continues est une application continue.
(1.12) Toute fonction polynomiale à plusieurs variables est une fonction continue.
Composition
(1.13) On peut prouver la non continuité d’une application f en (0, 0) (pour fixer les idées) en
exhibant un chemin menant à (0, 0) sur lequel f ne tend pas vers (0, 0). (3.1) On se donne

(1.14) Toute fraction rationnelle à plusieurs variables est une fonction continue sur le domaine où elle f : V ⊂ R2 −→ Rp φ : I ⊂ R −→ R2 
est définie. (x, y) 7−→ f (x, y) t 7−→ φ1 (t), φ2 (t)
22
(4.4) Plus généralement,
 ∂f1 ∂f1 
de classe C 1 et telles que ϕ(I) ⊂ V . Alors ∂x1 (X0 ) ... ∂xn (X0 )
.. ..
Jf (X0 ) = 
 
. . 
F = f ◦ φ : t 7→ f (φ1 (t), φ2 (t)) ∂fp ∂fp
∂x1 (X0 ) ... ∂xn (X0 )

est de classe C 1 sur I et


? (4.5) La matrice jacobienne de f en X0 est la matrice de l’application linéaire df (X0 ) dans les
bases canoniques respectives de Rn et Rp . Cette matrice est notée Jf (X0 ).
∂f ∂f
F 0 (t) = φ01 (t) (φ1 (t), φ2 (t)) + φ02 (t) (φ1 (t), φ2 (t))
∂x ∂y (4.6) Si f : U ⊂ R3 → R alors Jf (x, y, z) est le gradient de f en (x, y, z) :
 
(3.2) On se donne −−→ ∂f ∂f ∂f
Jf (x, y, z) = gradf (x, y, z) = (x, y, z), (x, y, z), (x, y, z) .
∂x ∂y ∂z
f : V ⊂ R2 −→ R g : U ⊂ R2 −→ R2
(4.7) Si f et g sont deux applications de classe C 1 telles que f ◦ g soit définie sur un domaine D , alors

(x, y) 7−→ f (x, y) (u, v) 7−→ g1 (u, v), g2 (u, v)
f ◦ g est de classe C 1 sur D et pour tout X ∈ D,
de classe C 1 telles que g(U ) ⊂ V et
? d(f ◦g) (X) = df (g(X)) ◦ dg (X) (composée des différentielles)

h = f ◦ g : (u, v) 7→ f g1 (u, v), g2 (u, v) . Jf ◦g (X) = Jf (g(X)).Jg (X) (produit des matrices jacobiennes).

Alors pour tout (u, v) ∈ U , (4.8) Un C 1 -difféomorphisme de U ⊂ Rn sur V ⊂ Rn est une application f : U → V qui est une
bijection de U sur V , qui est de classe C 1 sur U et telle que f −1 est de classe C 1 sur V .
∂h ∂g1 ∂f   ∂g
2 ∂f  
(4.9) Si f : U → V est un C 1 -difféomorphisme, alors pour tout X ∈ U , df (X) est un automorphisme
(u, v) = (u, v) · g(u, v) + (u, v) · g(u, v))
∂u ∂u ∂x ∂u ∂y −1
de Rn et ? (df (X) est la différentielle de f −1 en Y = f (X) :
∂h ∂g1 ∂f   ∂g
2 ∂f  
−1
(u, v) = (u, v) · g(u, v) + (u, v) · g(u, v)) ? df −1 (Y ) = df (X)
∂v ∂v ∂x ∂v ∂y
−1
Jf −1 (Y ) = Jf (X) .
Différentielles, matrices jacobiennes
Extremums
?
point de U . Alors lorsque X = (h, k) → ~0 = (0, 0),
p 1
(4.1) Formule de Taylor Soit f : U → R une application de classe C et X0 = (x0 , y0 ) un
?U (5.1) Formule de Taylor à l’ordre deux. Soit f : U ⊂ R2 → R une application de classe C 2
sur et X0 = (x0 , y0 ) un point fixé de U . Alors, lorsque (h, k) → (0, 0) :
  
∂f ∂f
lim √ 1
f (x0 + h, y0 + k) − f (x0 , y0 ) − h (X0 ) + k (X0 ) = ~0. ∂f ∂f
(h,k)→(0,0) h2 +k2 ∂x ∂y f (x0 + h, y0 + k) = f (X0 ) + h (X0 ) + k (X0 )+
∂x ∂y
? (4.2) Lorsque f est de classe C 1 sur U ⊂ R2 → Rp , la différentielle de f en X0 est l’application
linéaire de R2 dans Rp , notée df (X0 ) , définie pour tout (h, k) de R2 par
1  2 ∂2f
h (X0 ) + 2hk
∂2f
(X0 ) + k
2
2∂ f
(X0 )

+ o
 
(h, k) 2
2 ∂x2 ∂x∂y ∂y 2
∂f ∂f (5.2) Soit f : U ⊂ R2 → R une application de classe C 1 sur domaine ouvert U et X0 un point de U
df (X0 )(h, k) = h (X0 ) + k (X0 ) . ou plus généralement un domaine U quelconque et un point X0 intérieur à U .
∂x ∂y
Si f présente un extrémum local en X0 , alors
(4.3) Si f : U ⊂ R2 → R2 avec f (x, y) = (f1 (x, y), f2 (x, y)), la matrice jacobienne Jf (x, y)
de f en (x, y) est donnée par
∂f ∂f
(X0 ) = 0, (X0 ) = 0.
∂x ∂y
!
∂f1 ∂f1
∂x (x, y) ∂y (x, y) (5.3) La réciproque de (4.5) est fausse.
Jf (x, y) = ∂f2 ∂f2
∂x (x, y) ∂y (x, y)
∂f ∂f
(5.4) Un point X0 tel que ∂x (X0 ) = ∂y (X0 ) = 0 est un point critique pour f .
23
(5.5) Valable seulement pour les fonctions de deux variables :
Soit f : U ⊂ R2 → R une application de classe C 2 sur un domaine ouvert U et X0 ∈ U un point
critique de f ou plus généralement un domaine U quelconque et un point X0 intérieur à U et critique
pour f . On pose
∂2f  ∂2f  ∂2f 
r= X0 , s= X0 , t= X0 .
∂x2 ∂x∂y ∂y 2
• Si rt − s2 > 0, alors f présente un extremum local en X0 qui est un minimum si r > 0, un
maximum si r < 0.
• Si rt − s2 < 0, alors f ne présente pas d’extremum en X0 .
• Si rt − s2 = 0, on ne peut rien dire a priori.

Résolution d’équations aux dérivées partielles

(6.1) Principe : si une fonction de classe C 1 vérifie l’équation

∂f
(x, y) + a(x, y)f (x, y) = 0,
∂x
alors la forme générale de f s’obtient à partir des solutions de l’équation différentielle

u0 (x) + a(x, y)u(x) = 0,

obtenue en fixant y , en transformant les constantes en fonctions arbitraires de classe C 1 de la variable


y . Ce principe s’étend aux équations du deuxième ordre.
∂f
(6.2) En particulier si ∂x = 0, alors il existe une fonction d’une variable C telle que

f (x, y) = C(y).

(6.3) Effectuer le changement de variable (”implicite”)



x = ϕ1 (u, v)
y = ϕ2 (u, v),

pour résoudre une équation (E) consiste à considérer la fonction F définie (”explicitement”) par

F (u, v) = f ϕ1 (u, v), ϕ2 (u, v) ,

et à calculer les dérivées partielles de F en fonction des dérivées partielles de f .


(6.4) Effectuer le changement de variable (”explicite”)

u = ψ1 (x, y)
v = ψ2 (x, y),

pour résoudre (E) consiste à considérer la fonction F définie (”implicitement”) par



f (x, y) = F ψ1 (x, y), ψ2 (x, y) ,

et à calculer les dérivées partielles de f en fonction des dérivées partielles de F


24
Rappels de géométrie Droites dans l’espace

(2.1) Représentation paramétrique de la droite D passant par le point M0 (x0 , y0 , z0 ) et dirigée par
−−−→
u = (a, b, c) : M (x, y, z) ∈ D si et seulement s’il existe un scalaire λ ∈ R tel que M0 M = λ~
~ u, d’où la
Droites dans le plan représentation 
x = x0 + λa

(1.1) Équation cartésienne de la droite D passant par le point M0 (x0 , y0 ) et dirigée par ~u = (a, b) : λ 7→ y = y0 + λb
−−−→ 
on écrit que M (x, y) ∈ D si et seulement si M0 M et ~u sont liés, donc si et seulement si 
z = z0 + λc.

x − x0
(2.2) Réciproquement, une représentation
a

y − y0 =0 
b x = x0 + λa

λ 7→ y = y0 + λb
(1.2) Équation cartésienne de la droite D passant par le point M0 (x0 , y0 ) et orthogonale au vecteur 

z = z0 + λc
n = (α, β) : on écrit que M (x, y) ∈ D si et seulement si
~
avec (a, b, c) 6= (0, 0, 0), est celle de la droite passant par le point (x0 , y0 , z0 ) et dirigée par le vecteur
−−−→ (a, b, c).
hM0 M , ~
ni = 0
(2.3) Système d’équations cartésiennes d’une droite :
(1.3) Réciproquement, une équation αx + βy + γ = 0 avec (α, β) 6= (0, 0) est celle d’une droite dirigée (
par (−β, α). Un vecteur qui lui est normal est (α, β). ax + by + cz + d = 0
(1.4) Représentation paramétrique de la droite D passant par le point M0 (x0 , y0 ) et dirigée par a0 x + b0 y + c0 z + d0 = 0
−−−→
u = (a, b) : M (x, y) ∈ D si et seulement s’il existe un scalaire λ ∈ R tel que M0 M = λ~
~ u, d’où la définit, lorsque les triplets (a, b, c) et (a0 , b0 , c0 ) sont non proportionnels, une droite D apparaissant comme
représentation ( intersection des plans P : ax + by + cz + d = 0 et P 0 : a0 x + b0 y + c0 z + d0 = 0.
x = x0 + λa
λ 7→ (2.4) Passage d’une représentation paramétrique à un système d’équations cartésiennes : si
y = y0 + λb.

(1.5) Réciproquement, une paramétrisation x = x0 + λa

( λ 7→ y = y0 + λb
x = x0 + λa 

z = z0 + λc
λ 7→
y = y0 + λb
est une paramétrisation de D, on obtient un système d’équations cartésiennes de D en éliminant λ entre
avec (a, b) 6= (0, 0), est celle de la droite passant par le point (x0 , y0 ) et dirigée par le vecteur (a, b). x, y et z . Si, par exemple, c 6= 0, on tire λ = 1c (z − z0 ) que l’on injecte dans x et y , obtenant le système
(1.6) Passage d’une équation cartésienne à une représentation paramétrique : si D a pour équation
(
x = x0 + ac (z − z0 )
γ β
αx + βy + γ = 0 alors, par exemple, α 6= 0 et on a x = − α −α y donc D est l’ensemble des points de la y = y0 + cb (z − z0 .)
γ β
forme (− α −α y, y), ce qui donne la paramétrisation
( (2.5) Passage d’un système d’équations cartésiennes à une représentation paramétrique : si D a pour
γ β équations
x = −α − α
y
y 7→ (
y=y ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
que l’on peut écrire aussi : (
γ

β
 alors on cherche à exprimer les trois coordonnées en fonction de l’une d’entre elles. Par exemple, si
x = −α + λ −α
λ 7→ (
y = λ.1, x − 3y − z − 1 = 0
D:
γ β x+y+z−1=0
donc D est la droite passant par (− α , 0) et dirigée par le vecteur (− α , 1).
alors, en sommant, 2x−2y−2 = 0, d’où x = y+1 et la première donne z = x−3y−1 = y+1−3y−1 = −2y .
(1.7) Passage d’une représentation paramétrique à une équation cartésienne : si Les points de D sont donc les points de la forme (1 + y, y, −2y), d’où la représentation
(
x = x0 + λa
 
λ 7→ x = 1 + y
 x = 1 + λ.1

y = y0 + λb y 7→ y = y ou encore λ 7→ y = 0 + λ.1
 
z = −2y z = 0 + λ.(−2)
 
est une paramétrisation de D, on en obtient une équation cartésienne en éliminant le paramètre λ entre
x et y . Si a 6= 0, λ = − a1 (x − x0 ). En injectant cette expression dans y , on obtient une équation de D. ce qui fait apparaı̂tre D comme la droite passant par le point (1, 0, 0) et dirigée par le vecteur ~u =
(1.8) Distance d’un point M (x1 , y1 ) à la droite D : ax + by + c = 0 : (1, 1, −2).
(2.6) Distance d’un point M à la droite D, droite passant par le point M0 et dirigée par le
|ax1 + by1 + c| −−→
d(M1 , D) = √ vecteur ~u. Par définition, il s’agit de la distance HM = kHM k, où H est le projeté orthogonal de M
a2 + b2 −−−→
sur D. On peut la calculer sans avoir à trouver le point H en procédant ainsi : on écrit ~u ∧ M0 M =
25
(3.5) Passage d’une représentation paramétrique à une équation cartésienne : si P admet la pa-
ramétrisation 
0
x = x0 + λa + µa

λ 7→ y = y0 + λb + µb 0

z = z0 + λc + µc0 ,

on cherche à exprimer les paramètres λ, µ en fonction de deux coordonnées, par exemple x et y , et on


injecte ces expressions dans z .
−−−→ −−→ −−−→ −−→ −−→ −−−→
u ∧ (M0 H + HM ) = ~
~ u ∧ M0 H + ~u ∧ HM = ~ u ∧ HM puisque les vecteurs ~u et M0 H sont liés. En prenant (3.6) Équation du plan P passant par le point M0 (x0 , y0 , z0 ) et normal au vecteur ~n = (a, b, c). Un point
−−−→ −−→ −−→ −−→
la norme des deux membres, il vient : k~u ∧ M0 M k = k~u ∧ HM k = k~ukkHM k, du fait que ~u ⊥ HM . D’où M (x, y, z) ∈ P si et seulement si
−−−→
−−−→ hM0 M , ~
ni = 0
−−→ k~
u ∧ M0 M k
d(M, D) = kHM k = ce qui donne l’équation a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0.
k~
uk
(3.7) Distance d’un point M (x1 , y1 , z1 ) au plan P : ax + by + cz + d = 0 :
Plans dans l’espace |ax1 + by1 + cz1 + d|
d(M1 , P ) = √
a2 + b2 + c2
(3.1) Représentation paramétrique du plan P passant par le point M0 (x0 , y0 , z0 ) et dirigé par
u = (a, b, c) et ~v = (a0 , b0 , c0 ) : M (x, y, z) ∈ P si et seulement s’il existe des scalaires (λ, µ) tels que
~
−−−→
M0 M = λ~ u + µ~v d’où la représentation

0
x = x0 + λa + µa

λ 7→ y = y0 + λb + µb0
z = z0 + λc + µc0 .

(3.2) Réciproquement, une représentation



0
x = x0 + λa + µa

λ 7→ y = y0 + λb + µb0
z = z0 + λc + µc0

est celle d’un plan passant par le point (x0 , y0 , z0 ) et dirigé par les vecteurs ~u = (a, b, c) et ~v = (a0 , b0 , c0 ).
Un vecteur normal à ce plan est ~u ∧ ~v .
(3.3) Équation cartésienne du plan P passant par le point M0 et dirigé par les vecteurs (~u, ~v ) :
−−−→
on écrit que M ∈ D si et seulement si les vecteurs (M0 M , ~u, ~v ) sont liés, donc si et seulement si le
déterminant (dans une base quelconque)
−−−→
dét(M0 M , ~
u, ~v ) = 0

On obtient une équation de la forme ax + by + cz + d = 0. Noter que le vecteur (a, b, c) est normal à P .
(3.4) Réciproquement, l’équation ax + by + cz + d = 0 avec (a, b, c) 6= (0, 0, 0) est celle d’un plan P . On
en trouve deux vecteurs directeurs à l’aide d’une paramétrisation que l’on obtient, par exemple lorsque
a 6= 0, en écrivant x = a1 (−by−cz−d). P est donc l’ensemble des points de la forme ( a1 (−by−cz−d), y, z),
d’où la représentation 
1
x = a (−by − cz − d)

y=y

z=z

ou encore 
d b c
x = − a + λ.(− a ) + µ(− a )

(λ, µ) 7→ y = λ

z = µ,

faisant apparaı̂tre P comme le plan passant par le point (− ad , 0, 0) et dirigé par les vecteurs (− ab , 1, 0)
et (− ac , 0, 1).
26
Résumé du chapitre X : courbes planes et gauches (1.5) Lorsque x(t) −→ a et y(t) −→ b où a et b sont deux réels, on dit que le point (a, b) est un
t→t0 t→t0
0
y (t)
point asymptote de γ . Si de plus −→ l, la droite passant par (a, b) et de pente l est tangente
x0 (t) t→t0
Généralités à γ . (1.6) Tangente à une courbe plane. Soit F : U ⊂ R2 → R une fonction de classe C 1 . On
considère la courbe Γ d’équation F (x, y) = 0 (supposée non vide).
(1.1) Tangente soit p le plus petit entier tel que f (p) (t0 ) 6= ~0. Alors f (p) (t0 ) 6= ~0 dirige la tangente • Alors en tout point M (x0 , y0 ) de Γ pour lequel
à γ en M . Le point M (t0 ) est dit régulier si p = 1 et γ est régulière si tous ses points sont réguliers.
−−→

(1.2) Disposition locale. Soit q le plus petit entier tel que les vecteurs f (p) (t0 ), f (q) (t0 ) soient
gradF (x0 , y0 ) 6= ~0,
linéairement indépendants. On a alors les dispositions locales suivantes :
Γ est (localement) une courbe régulière, dont le vecteur tangent en M (x0 , y0 ) est normal au
• p impair, q pair : disposition ordinaire (par exemple p = 1, q = 2) −−→
vecteur gradF (x0 , y0 ).
• Une équation de la tangente à Γ en M (x0 , y0 ) est donc

∂F ∂F
(x − x0 ) (x0 , y0 ) + (y − y0 ) (x0 , y0 ) = 0
∂x ∂y
• p impair, q impair : point d’inflexion (par exemple p = 1, q = 3)
Courbes en coordonnées polaires

Pour tout θ , on note ~ u(θ) = cos θ~ı + sin θ~ et ~v (θ) = − sin θ~ı + cos θ~. Le repère O, ~u(θ), ~v (θ )
• p pair, q impair : point de rebroussement de première espèce (par exemple p = 2, q = 3)
u0 (θ) = ~v (θ), ~v 0 (θ) = −~u(θ).
sera noté Rθ . Il est orthonormé direct et ~
On se donne une application θ 7→ r(θ), θ ∈ I . La courbe γ d’équation polaire r = r(θ) est constituée
−−→
des points M (θ) définis par OM (θ) = r(θ)~
u(θ) i.e. par l’ensemble des points de coordonnées polaires
• p pair, q pair : point de rebroussement de deuxième espèce (par exemple p = 2, q = 4)
(r(θ), θ), θ parcourant I .
(2.1) Symétries.
• si r(−θ) = r(θ), alors les points M (θ) et M (−θ) sont symétriques par rapport à l’axe Ox ; γ
(1.3) Les points d’inflexion de la courbe γ = (I, f ) sont à rechercher parmi les points vérifiant est donc symétrique par rapport à l’axe Ox.

det(f 0 (t), f 00 (t)) = 0.


• si r(−θ) = −r(θ), alors les points M (θ) et M (−θ) sont symétriques par rapport à l’axe Oy ;
γ est donc symétrique par rapport à l’axe Oy .

(1.4) Si f (t) → +∞ quand t → t0 où t0 est un réel ou encore ±∞, on dit que γ présente une • si r(θ + π) = r(θ), alors les points M (θ) et M (θ + π) sont symétriques par rapport à O ; γ
branche est donc symétrique par rapport à O .
(infinie. Ce phénomène se produit dans les cas suivants : • si r(π − θ) = r(θ), alors les points M (θ) et M (π − θ) sont symétriques par rapport à l’axe
x(t) −→ ±∞
• si alors la droite y = l est asymptote à γ , Oy ; γ est donc symétrique par rapport à l’axe Oy .
y(t) −→ l ∈ R • si r(π − θ) = −r(θ), alors les points M (θ) et M (π − θ) sont symétriques par rapport à l’axe
Ox ; γ est donc symétrique par rapport à l’axe Ox.
(
x(t) −→ l ∈ R
• si alors la droite x = l est asymptote à γ , (2.2) Intervalle d’étude. On suppose que la fonction θ 7→ r(θ) est 2π -périodique.
y(t) −→ ±∞
( • Si r(−θ) = r(θ), il suffit d’étudier et de tracer γ sur [0, π] ; on complète le tracé par une symétrie
x(t) −→ ±∞ par rapport à l’axe Ox.
• si
y(t)
on considère le rapport a(t) = x(t) : • Si r(−θ) = −r(θ), il suffit d’étudier et de tracer γ sur [0, π] ; on complète le tracé par une
y(t) −→ ±∞
symétrie par rapport à l’axe Oy .
1. si a(t) −→ ±∞, alors γ présente une branche parabolique dans la direction Oy . • si r(θ + π) = r(θ), il suffit d’étudier et de tracer γ sur [0, π] ; on complète le tracé par une
2. si a(t) −→ 0, alors γ présente une branche parabolique dans la direction Ox. symétrie par rapport à O .
3. si a(t) −→ a ∈ R∗ , on étudie b(t) = y(t) − ax(t) : • si r(π − θ) = r(θ), il suffit d’étudier et de tracer γ sur [− π2 , π2 ] ; on complète le tracé par une
symétrie par rapport à l’axe Oy .
(a) si b(t) −→ b ∈ R, la droite y = ax + b est asymptote à γ .
• si r(π − θ) = −r(θ), il suffit d’étudier et de tracer γ sur [− π2 , π2 ] ; on complète le tracé par une
(b) dans les autres cas, on dit que la droite y = ax est une direction asymptotique. symétrie par rapport à l’axe Ox.
27
(2.3) Tangente en un point distinct de l’origine. Si r(θ0 ) 6= 0, la tangente à γ est dirigée par • La tangente à γ en son point (x0 , y0 ) admet l’équation
xx0 yy0
r0 (θ0 )~u(θ0 ) + r(θ0 )~v (θ0 ) − 2 = 1.
a2 b
• Une paramétrisation de la branche x ≥ a de γ est t 7→ (ach t, bsh t).
(2.4) Tangente à l’origine. Si r(θ0 ) = 0, la tangente à γ est dirigée par ~
u0 c’est à dire la • Les droites y = ab x et y = − ab x sont les asymptotes à γ . L’hyperbole est dite équilatère
lorsque les asymptotes sont orthogonales, c’est à dire lorsque b = a.
droite d’angle polaire θ = θ0 • Soit F 0 (c, 0). Les points F et F 0 sont les foyers de γ et la droite (F F 0 ) est l’axe focal. On a
|M F − M F 0 | = 2a en tout point de γ .
(2.5) Points multiples : on les recherche sur un intervalle description totale J de la courbe à travers • Réciproquement, étant donnés deux points F (−c, 0) et F 0 (c, 0) et un réel a tels que 0 < a < c,
la résolution des systèmes l’ensemble des points du plan M du plan vérifiant

(
r(θ1 ) = −r(θ2 )
 |M F − M F 0 | = 2a
r(θ1 ) = r(θ2 )
θ1 = θ2 + (2k + 1)π
θ1 = θ2 + 2kπ  est une hyperbole de foyers F et F ’.
, θ1 , θ2 ∈ J

(3.4) Ellipses.
x2 y2
pour les points multiples autres que O et en résolvant r(θ) = 0 pour ce qui concerne l’origine. • La courbe γ d’équation
a2
+
b2
= 1, avec 0 < b < a, est l’ellipse de foyer F (c, 0), où
√ 2
c = a − b , de directrice D : x = ac et d’excentricité e = ac .
2 2

• La tangente à γ en son point (x0 , y0 ) admet l’équation


Coniques
xx0 yy0
+ 2 = 1.
(3.1) Nature d’une conique : soit Γ la conique d’équation a2 b

ax2 + 2bxy + cy 2 + dx + ey + f = 0 • Une paramétrisation de γ est t 7→ (a cos t, b sin t).


• Soit F 0 (−c, 0). Les points F et F 0 sont les foyers de γ et la droite (F F 0 ) est l’axe focal. On a
M F + M F 0 = 2a en tout point de γ .

a b
dans le repère (O;~ı, ~) et δ = = ac − b2 le déterminant de la matrice de la forme quadratique
• Réciproquement, étant donnés deux points F (c, 0) et F 0 (−c, 0) et un réel a > 0, l’ensemble

b c
(x, y) 7→ ax2 + 2bxy + cy 2 : des points du plan M du plan vérifiant

 M F + M F 0 = 2a
δ > 0, γ est une ellipse

δ = 0, γ est une parabole est une ellipse de foyers F et F ’.

δ < 0, γ est une hyperbole

Courbes particulières en polaires
Pour déterminer ses caractéristiques, on adapte la méthode de réduction des quadriques. 1 1
(4.1) Droite en polaires. r = a cos θ est une représentation polaire de la droite verticale x = a.
(3.2) Paraboles.
(4.2) Droite en polaires.
• La courbe γ d’équation y2 = 2px est la parabole de foyer F ( p2 , 0) et de directrice D : x = − p2 .
• La tangente à γ en son point (x0 , y0 ) admet l’équation 1 1
r= =√
a cos θ + b sin θ a2 + b2 cos(θ − θ0 )
yy0 − p(x + x0 ) = 0.
  est l’équation polaire d’une droite ne passant pas par O et normale à ~
n = (cos θ0 , sin θ0 ).
• 2
γ admet la paramétrisation t 7→ t2 , pt . a
a en polaires : r = a cos θ est une représentation polaire du cercle de centre ( 2 , 0) et
(4.3) Cercle
de rayon 2 ; ce cercle passe par l’origine.

(3.3) Hyperboles.
x2 y2 √ (4.4) Cercle en polaires :
• La courbe γ d’équation
a2

b2
= 1 est l’hyperbole de foyer F (−c, 0), où c = a2 + b2 , de
a2
p
directrice D : x = c et d’excentricité e = ac . r = a cos θ + b sin θ = a2 + b2 cos(θ − θ0 )
28

est l’équation polaire du cercle passant par O , de diamètre a2 + b2 et dont le centre est situé sur la ~ (t) = (cos α(t), sin α(t)), alors
(5.7) Rayon de courbure. Si α est une fonction angulaire i.e. T
demi-droite dirigée par ~
u(θ0 ).
1 α0 (t)
(4.5) Conique en polaires : r = a+bccos θ , lorsque a 6= 0 (sinon on retrouve une droite), qui est de = 0 ·
R(t) S (t)
la forme r = 1+epcos θ , est une conique d’excentricité e, de foyer O et d’axe focal Ox.
(5.8) Paramétrisation normale. Toute courbe régulière
γ possède une paramétrisation normale i.e.
Éléments métriques une paramétrisation γ = (J, g) telle que g 0 (s) = 1 pour tout s ∈ J . On dit alors que γ est
paramétrée par une abscisse curviligne. Si J = [a, b], alors b − a est la longueur de γ .
(5.1) Longueur de la portion de γ située entre M (a) et M (b) (a < b) :
(5.9) Paramétrisation normale : courbure théorique. Si (J, g) est une paramétrisation normale
Z b 0
Z b p de la courbe régulière γ , le vecteur g 0 (s) est noté ~
τ (s) ; étant de norme 1, il existe un réel α(s) tel que
f (t) dt = x02 (t) + y 02 (t)dt ~τ (s) = (cos α(s), sin α(s)). La fonction α est appelée fonction angulaire 2 . La fonction c : s 7→ α0 (s)
a a est la courbure.

(5.2) Abscisse curviligne d’origine le point M (t0 ) et orientée dans le sens des t croissants : (5.10) Formules de Frenet théoriques. Si (J, g) est une paramétrisation normale de la courbe
bi-régulière γ , alors
Z t
d~τ (s) 1 d~n(s) 1
0
t 7→ St0 (t) = f (u) du.
= ~n(s), =− ~τ (s)
t0 ds R(s) ds R(s)
Pour toute abscisse curviligne S (qu’elle qu’en soit son origine), on a (5.11) Longueur en polaires de la portion de γ située entre M (θ1 ) et M (θ2 ) (θ1 < θ2 ) :

S 0 (t) = f 0 (t)

Z θ2 p
r2 (θ) + r02 (θ) dθ
θ1
~ (t), N
~ (t) où T~ (t) = 1 f 0 (t) et où N
~ (t)

(5.3) Repère de Frenet. C’est le repère M (t); T f 0 (t)
~ (t) par rotation d’angle + π .
se déduit 1 de T (5.12) Abscisse curviligne en polaires d’origine M (θ0 ) orientée vers les θ croissants :
2

(5.4) Formules de Frenet, rayon de courbure. Soit γ = (I, f ) une courbe régulière et S une
Z θ p
~ 0 (t) est colinéaire au vecteur N
~ (t). La courbure c(t) est θ 7→ Sθ0 (θ) = r2 (u) + r02 (u) du.
abscisse curviligne sur γ . Alors le vecteur T θ0
~ (t) = S (t)c(t)N
alors définie par T 0 0 ~ (t).
(5.13) Repère de Frenet en polaires. comme pour les courbes planes, avec
(5.5) La courbe γ est bi-régulière si et seulement si c0 (t) 6= 0 pour tout t. Dans ce cas, le rayon de
1
courbure R(t) est défini par R(t) = c(t) : 1
T~ (θ) = p (r0 (θ0 )~u(θ0 ) + r(θ0 )~v (θ0 )).
r2 (θ) + r02 (θ)
1 ~0 1 ~
T (t) = N (t)
S 0 (t) R(t) Enveloppe, développée, développantes

1 ~0 1 ~ (6.1) Enveloppe de la famille de droites (Dt ), définies par


On a aussi S 0 (t) N (t) = − R(t) T (t).
(5.6) Soit γ une courbe bi-régulière de paramétrisation f : t 7→ (x(t), y(t)). Alors Dt : a(t)x + b(t)y + c(t) = 0.
3
(x02 (t) + y 02 (t)) 2 C’est la courbe t 7→ (x(t), y(t)) où (x(t), y(t)) est solution du système
R(t) =
x (t)y 00 (t) − x00 (t)y 0 (t)
0

kf 0 (t)k3  a(t)x + b(t)y + c(t) = 0
=
Dét(f 0 (t), f 00 (t))
a0 (t)x + b0 (t)y + c0 (t) = 0

où Dét est le produit mixte, c’est à dire la valeur du déterminant dans n’importe quelle base orthonormée
directe. (6.2) Développée d’une courbe plane : c’est l’enveloppe de la famille des normales à cette courbe.

1. Si T~ (t) = (a(t), b(t)), alors N


~ (t) = (−b(t), a(t)). 2. En quelque sorte, c’est un compteur angulaire.
29
(6.3) Développantes d’une courbe γ : toute courbe C dont la développée est γ .
(6.4) Développantes d’une courbe γ : courbe de paramétrisation

φ(t) = f (t) + λ − S(t) T~ (t)




~ (t) le vecteur unitaire tangent, orientés dans le sens des t


où S(t) est une abscisse curviligne sur γ , T
croissants et λ une constante quelconque.

Courbes gauches

L’espace (éventuellement euclidien et orienté) est muni d’un repère R = O;~ı, ~, ~k (éventuellement


orthonormé direct). Une courbe gauche γ définie par la paramétrisation f : t 7→ x(t), y(t), z(t) est
donnée.
(7.1) Tangente en M (t) : droite passant par M (t) et dirigée par f (p) (t) où p est le plus petit entier
tel que f (p) (t) 6= ~0.

(7.2) Plan osculateur en M (t) : plan passant par M (t) et dirigé par f (p) (t), f (q) (t) où q est le

plus petit entier supérieur à p tel que f (p) (t), f (q) (t) soit libre.
(7.3) Plan normal en M (t) : plan passant par M (t) et normal à la tangente à γ en M (t).
(7.4) Longueur de la portion de γ située entre M (a) et M (b) (a < b) :
Z b 0
Z b p
f (t) dt = x02 (t) + y 02 (t) + z 02 (t)dt.
a a

30
Résumé du chapitre XI : surfaces régulier pour S ).
(1.9) Intersection de deux surfaces. On se donne deux surfaces

Généralités Σ : F (x, y, z) = 0, Σ0 : G(x, y, z) = 0

(1.1) Ligne coordonnée. Soit S la surface paramétrée (D, f ) et M (u0 , v0 ) fixé. Les courbes d’intersection non vide et M un point de leur intersection, régulier pour les deux surfaces. Si le plan
tangent P à Σ en M est non confondu avec le plan tangent P 0 à Σ0 en M , alors Σ ∩ Σ0 est, sur un
u 7→ f (u, v0 ), v 7→ f (u0 , v) certain voisinage de M , une courbe régulière γ dont la tangente en M est la section des plans P et
P 0.
sont appelées respectivement première et seconde ligne coordonnée au point M (u0 , v0 ).
(1.10) La projection de γ sur le plan z = 0 s’obtient par élimination de z entre les deux équations
Il est important d’étudier la nature géométrique des lignes coordonnées (droites. . . ) définissant γ , afin d’obtenir une relation de la forme R(x, y) = 0, qui définit alors en général une
courbe du plan. On obtient de même les projections sur les autres plans de coordonnées.
(1.2) Plan tangent à une nappe paramétrée. Soit S = (D, f ), avec
 Cylindres
f (u, v) = X(u, v), Y (u, v), Z(u, v) .
(2.1) Cylindre. C’est une surface Σ qui est la réunion d’une famille de droites parallèles, appelées les
∂f
(u, v), ∂f

Le point M (u, v) est dit régulier si la famille ∂u ∂v (u, v) est libre. Le plan tangent à S en génératrices. La direction du cylindre est la direction commune aux génératrices.
∂f ∂f

M (u, v) est le plan passant par M (u, v) et dirigé par les vecteurs ∂u (u, v), ∂v (u, v) . Un vecteur (2.2) Base, section droite. La section d’un cylindre par un plan non parallèle à la direction est appelée
normal à ce plan est le vecteur base. Lorsque ce plan est orthogonal à la direction, on parle de section droite.
∂f ∂f
(u, v) ∧ (u, v) (2.3) Équation d’un cylindre. La surface Σ d’équation F (x, y) = 0 est un cylindre de direction
∂u ∂v
Oz . Une base (ou section droite en cas de r.o.n.) est la courbe γ d’équations
(1.3) Plan tangent à une surface d’équation cartésienne. Soit Σ la surface d’équation
−−→ 
F (x, y, z) = 0. Le point M (x, y, z) est dit régulier si gradF (M ) 6= ~0. Le plan tangent à Σ en F (x, y) = 0
M est le plan passant par M et normal au vecteur z = 0.

−−→

gradF (M ) (2.4) Équation d’un cylindre. La surface Σ d’équation F ϕ(x, y, z), ψ(x, y, z) = 0, où ϕ, ψ sont
deux fonctions affines telles que les équations ϕ(x, y, z) = 0 et ψ(x, y, z) = 0 définissent deux plans
(1.4) Contour apparent. Le contour apparent de Σ dans la direction ~ u (vecteur non nul donné) est P et Q non parallèles, sécants en une droite D, est un cylindre dont la direction est parallèle à celle
l’ensemble des points M de Σ pour lesquels le vecteur ~
u est parallèle au plan tangent à Σ en M . de la droite D .

(1.5) Contour apparent. Le contour apparent de Σ du point de vue du point Ω (point donné) est (2.5) Cylindre de directrice et direction données. Le cylindre de directrice γ (courbe donnée)
l’ensemble des points M de Σ pour lesquels le point Ω est contenu dans le plan tangent à Σ en M . et de direction ~
u (vecteur non nul donné) est la surface Σ obtenue par réunion de toutes les droites de
direction ~
u et qui passent par les points de γ .
(1.6) Courbe tracée sur une surface. Soit S = (D, f ) une nappe paramétrée. La courbe γ
(2.6) Mise en équation. Dans le contexte 3.5, si γ est définie par la paramétrisation

t 7→ f u(t), v(t) , t ∈ I, 
t 7→ x(t), y(t), z(t) , t ∈ I
est (quelles que soient les applications u et v , à valeurs dans D et définies sur un certain intervalle I ) 
tracée sur S . x = x(t) + λa

(1.7) Courbe tracée sur une surface. Soit S la surface d’équation F (x, y, z) = 0 et γ : t 7→ alors M ∈ Σ si et seulement s’il existe λ ∈ R et t ∈ I tels que y = y(t) + λb

(x(t), y(t), z(t)) une courbe telle que 
z = z(t) + λc.
Ainsi,
∀t ∈ I, F (x(t), y(t), z(t)) = 0.

x = x(t) + λa

On dit que γ est tracée sur S . (λ, t) 7→ y = y(t) + λb

z = z(t) + λc.

(1.8) Tangente à une courbe tracée sur une surface. Dans le contexte 2.1 ou 2.2, la tangente
à γ en un point M (supposé régulier pour γ ) est incluse dans le plan tangent à S en M (supposé est une paramétrisation de Σ, qui peut conduire à une équation par élimination des paramètres.
31
~ 6= ~0 un vecteur et une application φ : I → R3 .
(2.7) Exemple de cylindre paramétré. Soient K alors la section du cône Σ par le plan h(x, y, z) = 1 en est une base.
La surface S de paramétrisation
(3.8) Base (contexte (3.6)). Soit h(x, y, z) = 0 l’équation d’un plan P0 . Si Ω est la seule solution de
~ (u, v) ∈ I ×R
f : (u, v) 7→ φ(u) + v K, (
h(x, y, z) = 0
est un cylindre de direction K ~ , car pour tout u0 , la ligne coordonnée v 7→ f (u0 , v) est une pa- 
~. F ϕ(x, y, z), ψ(x, y, z), θ(x, y, z) = 0,
ramétrisation de la droite passant par M (u0 , v0 ) et dirigée par K
(2.8) Cylindre circonscrit. Le cylindre Σ de direction ~ u (vecteur non nul donné) circonscrit à la alors la section du cône Σ par le plan h(x, y, z) = 1 en est une base.
surface donnée S d’équation F (x, y, z) = 0 est la surface obtenue par réunion de toutes les droites (3.9) Cône de directrice et de sommet donnés. Le cône Σ de directrice γ (courbe donnée) et
de direction ~
u et tangentes à S . de sommet Ω (point donné) est la surface obtenue par réunion de toutes les droites passant par Ω et
(2.9) Mise en équation. Dans le contexte (2.8), un point M (x, y, z) rencontrant γ . On dit aussi que Σ est le cône circonscrit à γ et de sommet Ω.
 appartient à Σ si et seulement
s’il existe un scalaire λ tel que le point Nλ x + λa, y + λb, z + λc soit un point de S en lequel le (3.10) Mise en équation. Si γ est définie par un système d’équations cartésiennes ou par une pa-
gradient de F est orthogonal au vecteur ~ u. ramétrisation, on procède comme en (2.6).
(2.10) Mise en équation. Dans le contexte (2.8), un point M (x, y, z) appartient à Σ si et seulement ~ :I →
(3.11) Exemple de cône paramétré. Soient Ω un point de l’espace et une application B
s’il existe un scalaire λ tel que 3 ~
R − {0}. La surface S de paramétrisation
( 
F x + λa, y + λb, z + λc = 0
~
f : (u, v) 7→ Ω + uB(v) , (u, v) ∈ R × I
a ∂F ∂F ∂F
  
∂x x + λa, y + λb, z + λc + b ∂y . . . + c ∂z . . . = 0,

ce qui fournit une équation de Σ après élimination de λ entre ces deux équations. est un cône de sommet Ω, car pour tout v0 , la ligne coordonnée u 7→ f (u, v0 ) est une représentation
paramétrique de la droite (ΩM ).
Cônes
(3.12) Cône circonscrit. Le cône Σ circonscrit à une surface S donnée d’équation F (x, y, z) = 0 et
(3.1) Cône. C’est une surface qui est la réunion d’une famille de droites, appelées génératrices, passant de sommet Ω donné est la surface obtenue par réunion de toutes les droites passant par Ω et tangentes
toutes par un même point Ω, appelé sommet. à S .
(3.2) Base. C’est la section d’un cône par un plan qui rencontre, ailleurs qu’au sommet, toutes les (3.13) Mise en équation. Dans le contexte (3.12), un point M (x, y, z) appartient à Σ si et seulement
génératrices. s’il existe un scalaire λ tel que le point Nλ a + λ(x − a), b + λ(y − b), c + λ(z − c) soit un point
−−→
(3.3) Directrice. C’est une courbe de l’espace qui rencontre, ailleurs qu’au sommet, toutes les de S en lequel le gradient de F est orthogonal à ΩM .
génératrices d’un cône.
(3.14) Mise en équation. Dans le contexte (3.12), un point M (x, y, z) appartient à Σ si et seulement
(3.4) Fonction homogène. C’est une fonction F : U ⊂ R3 → R pour laquelle il existe un réel k tel s’il existe un scalaire λ tel que
que (
∀(x, y, z) ∈ U, ∀λ 6= 0, F (λx, λy, λz) = λk F (x, y, z).

F a + λ(x − a), b + λ(y − b), c + λ(z − c) = 0
(x − a) ∂F ∂F ∂F
  
(3.5) Équation d’un cône. La surface Σ d’équation F (x, y, z) = 0 où F est une fonction homogène, ∂x Nλ + (y − b) ∂y Nλ + (z − c) ∂z Nλ = 0 .
est un cône de sommet O .
Surfaces de révolution
(3.6) Équation d’un cône. La surface Σ d’équation
(5.1) Surface de révolution. C’est une surface Σ qui est la réunion d’une famille de cercles de même

F ϕ(x, y, z), ψ(x, y, z), θ(x, y, z) = 0
axe D . Les cercles sont appelés les parallèles de Σ, la droite D axe de révolution.
où F est une fonction homogène et où ϕ, ψ, θ sont trois fonctions affines telles que les équations
(5.2) Méridienne. C’est la section d’une surface de révolution par un plan contenant l’axe de
ϕ(x, y, z) = 0, ψ(x, y, z) = 0, et θ(x, y, z) = 0 définissent trois plans concourants en un point Ω,
révolution.
est un cône de sommet Ω.
(5.3) Demi-méridienne. C’est la section d’une surface de révolution par un demi-plan contenant l’axe
(3.7) Base (contexte (3.5)). Soit h(x, y, z) = 0 l’équation d’un plan P0 (par exemple l’un des plans
de révolution.
de coordonnées). Si (0, 0, 0) est la seule solution du système
( (5.4) Équation d’une surface de révolution. La surface Σ d’équation
h(x, y, z) = 0
F (x, y, z) = 0, F (x2 + y 2 , z) = 0
32
est une surface de révolution d’axe Oz . Une méridienne, section de Σ par le plan y = 0, est la courbe Quadriques
γ d’équations
2

F (x , z) = 0
y = 0.
(5.5) Équation d’une surface de révolution : F (S, P ) = 0. La surface Σ d’équation
(7.1) Quadrique. C’est une surface Σ d’équation F (x, y, z) = 0 où F est un polynôme de degré 2.
F (x − a)2 + (y − b)2 + (z − c)2 , φ(x, y, z) = 0


(7.2) Equation réduite d’une quadrique. C’est une équation, dans un repère convenable, ne
où φ est une application affine et P le plan d’équation φ(x, y, z) = 0, est une surface de révolution comportant pas les ”termes croisés” xy, xz, yz donc de l’un des types suivants :
d’axe D , normale au plan P passant par Ω(a, b, c).
(5.6) Surface de révolution de méridienne et d’axe donnés. La surface de révolution d’axe D
et de méridienne γ est la surface S engendrée par révolution de γ autour de D .
(5.7) Mise en équation. Dans le contexte (5.6), un point M appartient à Σ si et seulement s’il est λ1 X 2 + λ2 Y 2 + λ3 Z 2 = c,
l’image d’un point de γ par une rotation d’axe D . λ1 X 2 + λ2 Y 2 + µZ = 0, (µ 6= 0)
(5.8) Mise en équation. Dans le contexte (5.6), si γ est définie par la paramétrisation λ1 X 2 + λ2 Y 2 = c,
 λ1 X 2 + µY + νZ = 0.
t 7→ x(t), y(t), z(t) , t ∈ I

on obtient une paramétrisation de Σ en écrivant la traduction analytique de la rotation rθ d’axe D


(pour une orientation arbitraire) et d’angle θ quelconque appartenant à [0, 2π]. Les points de Σ sont
alors les points de la forme rθ f (t) , t ∈ I, θ ∈ [0, 2π]. (7.3) Obtention d’une équation réduite de quadrique sans partie affine. Si Σ a pour équation
Q(x, y, z) = c, où Q est une forme quadratique et c est une constante, il suffit de calculer les valeurs
propres de la matrice de Q. Si λ1 , λ2 , λ3 sont les valeurs propres, alors Σ admet l’équation réduite
Surfaces réglées

(6.1) Surface réglée. C’est une surface Σ qui est la réunion d’une famille de droites, appelées
génératrices.
λ1 X 2 + λ2 Y 2 + λ3 Z 2 = c
(6.2) Surface réglée. De façon équivalente à 7.1, une surface Σ est réglée si par tout point M de Σ
il passe une droite incluse dans Σ.
(6.3) Exemples de surfaces réglées. Les cylindres et les cônes sont des surfaces réglées.
(6.4) Exemple de surface réglée. Une surface paramétrée S = (D, f ) dont les lignes coordonnées dans un repère orthonormé (O; ~
u1 , ~u2 , ~u3 ), où ~ui est associé à la valeur propre λi , . . .
v 7→ f (u0 , v) (ou u 7→ f (u, v0 )) sont des droites est une surface réglée. (7.4) Centre de symétrie. Si Ω est un point en lequel ∂F
= ∂F
= ∂F
= 0, alors Ω est un centre
∂x ∂y ∂z
(6.5) Surface développable. C’est une surface réglée dont tous les points réguliers situés sur une de symétrie de Σ (il peut en exister une infinité).
même génératrice ont le même plan tangent.
(7.5) Obtention d’une équation réduite de quadrique avec partie affine. Si Σ possède un centre
(6.6) Surface développable : CNS. Une surface réglée Σ est développable si et seulement si les de symétrie Ω, on écrit son équation dans le repère (Ω;~ı, ~, ~k). Celle-ci ne comporte plus de partie
normales (aux plans tangents) à Σ aux points (réguliers) situés sur une même génératrice ont la même affine et on se ramène à (7.3).
direction.
(7.6) Obtention d’une équation réduite de quadrique avec partie affine. Si Σ ne possède pas un
(6.7) Surface développable : CNS. Soit S = (D, f ) une nappe paramétrée telle que, pour tout centre de symétrie, on recherche une base orthonormée de vecteurs propres de la matrice de la partie
u0 , la ligne coordonnée v 7→ f (u0 , v) est une droite. Alors Σ est développable si et seulement si, pour quadratique de l’équation. On applique ensuite les formules de changement de base pour transformer
∂f
tout u0 , la direction du vecteur ∂u ∧ ∂f
∂v (u0 , v) (aux point réguliers) ne dépend pas de v . la partie affine de l’équation. Des mises sous forme canonique complétées par un changement d’origine
conduisent à une forme réduite dans un repère convenable.
(6.8) Exemples de surfaces développables. Les cylindres et les cônes sont des surfaces
développables. (7.7) Classification des quadriques. Dans un repère convenable (sauf cas d’exception : vide, sin-
La surface engendrée par les tangentes à une courbe gauche régulière est développable. gleton, une droite, un ou deux plans), une quadrique admet une équation réduite de l’un des types
33
suivants :

X2 Y2 Z2
+ + =1 : ellipsoı̈de ; de révolution si a=b
a2 b2 c2
X2 Y2 Z2
+ − 2 =1 : hyperboloı̈de à une nappe ; de révolution si a=b
a2 b2 c
X2 Y2 Z2
− − 2 =1 : hyperboloı̈de à deux nappes ; de révolution si b=c
a2 b2 c
X2 Y2 Z2
+ − 2 =0 : cône ; cône de révolution si a=b
a2 b2 c
X2 Y2 Z
+ =2 : paraboloı̈de elliptique ; paraboloı̈de de révolution si a=b
a2 b2 c
X2 Y2 Z
− =2 : paraboloı̈de hyperbolique
a2 b2 c
X2 Y2
+ =1 : cylindre elliptique ; cylindre de révolution si a=b
a2 b2
X2 Y2
− =1 : cylindre hyperbolique
a2 b2
X2
+ αY + βZ = 0 : cylindre parabolique.
a2
(7.8) Hyperboloı̈de à une nappe. C’est une surface réglée non développable. Lorsqu’il est de
révolution, il est engendré par rotation d’une droite autour d’un axe qui lui est non sécant.
(7.9) Paraboloı̈de hyperbolique. C’est une surface réglée non développable.

34
Résumé du chapitre XII : systèmes et équations différentiels ramène la résolution du système homogène

X 0 = AX
Systèmes différentiels à celle du système
Y 0 = T Y.
(1.1) Système différentiel. C’est une équation du type
Les solutions du système initial s’obtiennent par X = P Y .
X 0 = AX + B(t),
Il est à noter que l’expression de P −1 n’intervient à aucun moment dans cette démarche.
dont l’inconnue est une fonction t 7→ X(t) ∈ Mn,1 (R), où A est une matrice carrée d’ordre n donnée,
(1.10) Résolution par réduction : cas non homogène. Le changement (1.9) ramène la résolution
t 7→ B(t) une fonction continue donnée sur un intervalle I et à valeurs dans Mn,1 (R)
du système non homogène
(1.2) Système homogène. C’est un système du type X 0 = AX + B(t)

X 0 = AX. à celle du système


Y 0 = T Y + P −1 B(t).
(1.3) Courbe intégrale. La courbe t 7→ X(t) (plane lorsque n = 2, gauche lorsque n = 3) associée
Cette démarche nécessite la connaissance de la matrice P −1 .
à une solution de (S) est appelée courbe intégrale de (S).
(1.11) Les solutions réelles du système différentiel
(1.4) Problème de Cauchy : existence et unicité. Dans le contexte (1.1), pour tout t0 ∈ I et
tout X0 ∈ Mn,1 (K), le problème de Cauchy :
(S) : X 0 = AX
(
X 0 (t) = AX + B(t) où A est une matrice à coefficients réels, sont les parties réelles des solutions de (S) lorsqu’il est
X(t0 ) = X0 considéré comme système à coefficients complexes.

possède une solution et une seule définie sur tout I . En particulier, le problème de Cauchy homogène Équations différentielles linéaires du premier ordre
(
X 0 (t) = AX On se donne un intervalle I , des fonctions a, b et f définies et continues sur I et à valeurs dans K
X(t0 ) = X0 (K = R ou C), et l’on considère l’équation différentielle

possède une solution et une seule définie sur tout R. (E) a(t)y 0 (t) + b(t)y(t) = f (t).
(1.5) Ensemble des solutions. Les solutions d’un système différentiel X 0 = AX , où A est une
On supposera que a ne s’annule pas sur I
matrice carrée d’ordre n, constituent un espace de dimension n. Concrètement, une telle solution
dépend de n constantes. (2.1) Problème de Cauchy : existence et unicité. Pour tout t0 donné dans I et tout y0 ∈ K, il
(1.6) Solutions d’un système non homogène. Dans le contexte (1.1), si t 7→ X1 (t) est une existe une solution et une seule, définie sur tout I , au problème de Cauchy :
solution du système X 0 = AX + B(t), alors les solutions sont toutes de la forme (
a(t)y 0 + b(t)y = f (t)
t 7→ X(t) + X1 (t), y(t0 ) = y0
où X est une solution quelconque du système différentiel homogène X 0 = AX associé.
possède une solution et une seule définie sur tout I .
(1.7) Méthode de résolution. On peut rechercher une combinaison linéaire des lignes du système
(2.2) Solutions. Les solutions de l’équation homogène ay 0 + by = 0 sont les fonctions t 7→ Ce−A(t) ,
qui aboutit à une équation différentielle ordinaire.
où A est une primitive de ab sur I :
(1.8) Intégrale première. C’est une relation satisfaite a priori par les inconnues (composantes de
X ), obtenue généralement par considération d’une combinaison convenable des lignes du système.
Z
b(t)
− dt
(1.9) Résolution par réduction : cas homogène. Si T = P −1
AP , i.e. si A est semblable à la y(t) = Ce a(t)
matrice T , le changement
Y = P −1 X Leur ensemble constitue une droite vectorielle.
35
(2.3) Équations non homogènes. Si l’on dispose d’une solution y1 de (E), dite solution particulière, Pour trouver des solutions définies sur tout I , on pourra découper I en des sous-intervalles sur lesquels
alors les solutions de (E) sont toutes de la forme a ne s’annule pas, résoudre sur ces sous-intervalles puis étudier le raccordement des solutions.

t 7→ y(t) + y1 (t), (3.5) Méthode de variation de la constante. Si y0 est une solution de l’équation homogène

a(t)y 00 + b(t)y 0 + c(t)y = 0,


où y est une solution quelconque de l’équation homogène associée.
(2.4) Si l’on ne dispose pas de solution particulière, on peut appliquer la méthode de variation de la qui ne s’annule pas sur I , le changement
constante, qui consiste à rechercher une solution sous la forme y(t) = C(t)e−A(t) et alors y = Cy0
Z ramène la résolution de
f (t) a(t)y 00 + b(t)y 0 + c(t)y = f (t),
C(t) = dt
a(t)y0 (t)
à une équation différentielle linéaire du premier ordre d’inconnue u = C 0 et alors

où y0 (t) = e−A(t) .


Z
b
K −
C= 2e a
Équations différentielles linéaires du deuxième ordre y0
On se donne un intervalle I et des fonctions a, b, c, f définies et continues sur I et à valeurs dans K (
K = R ou C), et l’on considère l’équation différentielle Équations différentielles non linéaires

On considère une équation différentielle


(E) a(t)y 00 (t) + b(t)y 0 (t) + c(t)y(t) = f (t).
(E) y 0 = f (x, y)
On supposera que a ne s’annule pas sur I
où f est une application de deux variables (définie et de classe C 1 sur un domaine U de R2 ).
(3.1) Problème de Cauchy : existence et unicité. Pour tout t0 donné dans I et tout couple de
constantes (y0 , y1 ) ∈ K2 , il existe une solution et une seule, définie sur tout I , au problème de Cauchy (4.1) Solution maximale de (E). C’est un couple (I, y) où y est une solution de (E) définie sur
 l’intervalle I et qui est non prolongeable en une solution de (E) sur un intervalle plus grand que I .
00 0
a(t)y + b(t)y + c(t)y = f (t)
 (4.2) Théorème de Cauchy-Lipschitz. Pour tout (x0 , y0 ) ∈ U , le problème de Cauchy
y(t0 ) = y0 (
 0 y 0 = f (x, y)

y (t0 ) = y1 .
y(x0 ) = y0
(3.2) Ensemble des solutions d’une équation homogène. Les solutions de l’équation homogène
possède une solution maximale et une seule, définie sur un intervalle ouvert contenant x0 en son
(E0 ) a(t)y 00 (t) + b(t)y 0 (t) + c(t)y(t) = 0 intérieur.
Ce théorème peut être utile pour montrer, en supposant par exemple que la fonction nulle soit solution
constituent un espace vectoriel de dimension 2 : il existe un couple (y1 , y2 ) de solutions de (E0 ), de (E), qu’une solution est constamment nulle dès lors qu’elle s’annule en un certain point x0 .
linéairement indépendantes, tel que toute solution y de (E) soit de la forme
(4.3) Équation à variables séparées. C’est une équation de la forme
y = λ1 y1 + λ2 y2 .
(E) a(y(x))y 0 (x) = b(x), x ∈ I. (4.4)
(3.3) Solutions d’une équation non homogène. Si t 7→ v(t) est une solution de l’équation non
L’équation (E) équivaut à l’existence d’une constante C telle que
homogène
a(t)y 00 + b(t)y 0 + c(t)y = f (t), Z Z
a(y(x))y 0 (x) dx = b(x) dx + C
alors les solutions sont toutes de la forme

t 7→ y(t) + v(t), Le reste est affaire de calcul intégral et de possibilité de tirer y(x).

où y est une solution quelconque de l’équation homogène associée. (4.5) De façon plus précise, (E) équivaut à

(3.4) Cas où la fonction a s’annule. Dans ce cas de figure, 2.4 et 2.5 peuvent tomber en défaut. A0 (y(x))y 0 (x) − B 0 (x) = 0
36
où A est une primitive de t →
7 a(t) et B une primitive de b. Ainsi, y est solution de (E) si et seulement
s’il existe une constante C telle que

(F ) ∀x ∈ I, A(y(x)) − B(x) = C.

Le cas échéant, et après discussion, on peut exprimer y(x).


(4.6) Système autonome. C’est un système de deux équations différentielles du premier ordre de la
forme (
dx
dt = φ(x, y)
(S) : dy
dt = ψ(x, y)

où φ et ψ sont deux fonctions données, définies et continues sur un domaine U de R2 . Une solution
1
de (S) est un couple
 (x, y) de fonctions définies et de classe C sur un intervalle I tel que pour tout
t ∈ I , x(t), y(t) ∈ U et (
x0 (t) = φ x(t), y(t)


y 0 (t) = ψ x(t), y(t)





La trajectoire associée à cette solution est la courbe γ de paramétrisation t 7→ x(t), y(t) .
(4.7) Théorème de Cauchy-Lipschitz. On suppose que φ et ψ sont de classe C 1 sur U . Alors pour
tout t0 ∈ R et tout (x0 , y0 ) ∈ U , il existe une solution maximale unique (x, y, I) au problème de
Cauchy 
dx

 = φ(x, y)
dt







dy
= ψ(x, y)



 dt




(x(t ), y(t )) = (x , y )
0 0 0 0

définie sur un intervalle ouvert contenant t0 en son intérieur.


(4.8) Trajectoire d’un champ de vecteurs. Une trajectoire du champ de vecteurs

~ : M 7→ (P (M ), Q(M ))
V

est une trajectoire du système autonome

dx


 = P (x, y)
 dt

 dy = Q(x, y).



dt

37
Résumé du chapitre XIII : intégrales multiples, analyse vectorielle Alors !
ZZZ ZZ Z ψ(x,y)
f (x, y, z)dxdydz = f (x, y, z)dz dxdy
K A φ(x,y)
Intégrales multiples
pour toute fonction f définie sur K .
(1.1) Aire. L’aire d’une partie D du plan est l’intégrale double (1.7) Intégration par couches. Soit K une partie de l’espace comprise entre les plans de cotes a et
ZZ b (a < b) et Kz la section de K par le plan de cote z . Alors pour toute fonction f définie sur K ,
dxdy. ZZZ Z b Z Z 
D
f (x, y, z)dxdydz = f (x, y, z)dxdy dz.
(1.2) Volume. Le volume d’une partie V de l’espace est l’intégrale triple K a Kz

(1.8) Cas particulier. Soit K un domaine de la forme A × [a, b] où A est une partie du plan et f
ZZZ
dxdydz. une fonction de la forme
V
f (x, y, z) = g(x, y)h(z).
(1.3) Symétries. Si A est un domaine réunion de deux sous-domaines B ∪ C symétriques dans une
symétrie s alors Alors !
ZZZ Z Z  Z b
g(x, y) dxdy ×
Z
f (x, y, z) dxdydz = h(z) dz .
Z



 f = 2 f lorsque f (s(M )) = f (M ) pour tout M de A, K A a
 A B

Z (1.9) Changement de variables. Si φ établit une bijection de L (ensemble décrit par les nouvelles
variables) sur l’ensemble K (ancien domaine), 1 alors


 f =0 lorsque f (s(M )) = −f (M ) pour tout M de A.


A
ZZ ZZ

(1.4) Calcul d’une intégrale sur un compact élémentaire. Soit K un domaine du type f (x, y)dxdy = f φ(u, v) |Jφ (u, v)| dudv
K L
K = (x, y) ∈ R2 / a ≤ x ≤ b et φ(x) ≤ y ≤ ψ(x) ,

où |Jφ (u, v)| est la valeur absolue du jacobien de φ en (u, v).
où φ, ψ sont deux fonctions continues sur [a, b] avec a < b et
De même,
φ(x) ≤ ψ(x) pour tout x de [a, b]. ZZZ ZZZ

f (x, y, z)dxdydz = f φ(u, v, w) |Jφ (u, v, w)| dudvdw
Alors ! K L
ZZ Z b Z ψ(x)
f (x, y)dxdy = f (x, y)dy dx
K a φ(x) pour des parties K et L de l’espace 2 .

pour toute fonction f définie sur K . (1.10) Passage en coordonnées polaires. Ce changement consiste à poser

(1.5) Cas particulier (Fubini). Si K=[a, b] × [c, d], alors


(
x = r cos θ
y = r sin θ
! Z !
ZZ Z b d
g(x)h(y)dxdy = g(x)dx h(y)dy .
K a c avec a priori
(
(1.6) Intégration par piles. Soit K un domaine de l’espace du type r≥0
−π ≤ θ ≤ π (ou 0 ≤ θ ≤ 2π).
K = (x, y, z) ∈ R3 / (x, y) ∈ A et φ(x, y) ≤ z ≤ ψ(x, y) ,


On a |J| = r .
où φ, ψ sont deux fonctions continues sur une partie A du plan telles que
1. ou seulement entre L et K privés chacun au plus d’une courbe.
φ(x, y) ≤ ψ(x, y) pour tout (x, y) ∈ A . 2. en bijection par φ au pire lorsque K et L sont privés d’une portion de surface.
38
(1.11) Passage en coordonnées cylindriques. Ce changement consiste à poser une courbe fermée (x(a) = x(b), y(a) = y(b)) la frontière d’un domaine K , parcourue positivement.
 L’aire A de K vaut
x = r cos θ
 Z Z
1
Z
y = r sin θ A= xdy, A = − ydx, A = xdy − ydx
 −→
∂K
−→
∂K 2 −→
∂K
z=z

c’est à dire au choix
avec a priori Z b Z b Z b
1

 r≥0
 A= x(t)y 0 (t)dt A = − y(t)x0 (t)dt A = (x(t)y 0 (t) − y(t)x0 (t))dt
−π ≤ θ ≤ π (ou 0 ≤ θ ≤ 2π) a a 2 a

z ∈ R.

cette dernière formule étant appliquée si elle facilite les calculs.
On a |J| = r . (2.4) Cas où γ est définie en polaires. Soit
(1.12) Passage en coordonnées sphériques. Ce changement consiste à poser
γ : r = r(θ), θ1 ≤ θ ≤ θ2

x = r cos θ sin ϕ
 une courbe fermée (r(θ1 ) = r(θ2 )) la frontière de K ortientée positivement. Alors
y = r sin θ sin ϕ
θ2
 Z
z = cos ϕ 1

A= r2 (θ)dθ
2 θ1
avec a priori 
 r≥0
 (2.5) Aire d’une surface gauche. Si S est une surface de paramétrisation
−π ≤ θ ≤ π (ou 0 ≤ θ ≤ 2π)
 f : (u, v) 7→ f (u, v), (u, v) ∈ D,
0 ≤ ϕ ≤ π.

On a |J| = r 2 sin ϕ. l’aire de S est le réel ZZ


~ (u, v) dudv

N
D

Intégrales sur un arc. Aires ~ (u, v) =


où N ∂f
∧ ∂f
∂u (u, v) ∂v (u, v).
−→
(2.1) Bord orienté d’une partie bornée K du plan. C’est sa frontière ∂K oriéntée positivement.
~ : M 7→

(2.2) Formule de Green-Riemann. Pour tout champ de vecteurs V P (M ), Q(M ) Systèmes matériels
défini sur un domaine K ,
(3.1) Éléments d’inertie d’un volume matériel. Soit (K, ρ) un volume matériel, où K est une
Z ZZ  
∂Q ∂P partie de l’espace. Sa masse m et son centre d’inertie G(xG , yG , zG ) sont donnés par
P dx + Qdy = (x, y) − (x, y) dxdy
−→
∂K K ∂x ∂y ZZZ ZZZ
1
m= dxdydz, xG = xdxdydz.
m
Z
~ le long du bord orienté de K , définie par K K
où P dx + Qdy est la circulation de V
−→
∂K
(3.2) Élément de symétrie mécanique d’un système matériel (K, ρ). C’est un axe D , un plan
Z Z b P ou un point Ω tel, en notant s la symétrie, resp., par rapport à D, P , Ω, que
P x(t), y(t) x0 (t)+Q x(t), y(t) y 0 (t) dt,
  
P dx + Qdy = 
−→
∂K a s(K)  = K
−→ ρ s(M ) = ρ(M )
t ∈ [a, b] 7→ (x(t), y(t)) étant une paramétrisation de ∂K dans le sens positif.
pour tout M ∈ K . (3.3) Symétrie mécanique et centre d’inertie. Si le point Ω est un centre de
(2.3) Aire d’une partie délimitée K par une courbe fermée. Soit
symétrie mécanique du système matériel (K, ρ) de centre d’inertie G, alors G = Ω.
γ : t 7→ (x(t), y(t)), t ∈ [a, b] Si la droite D , respectivement le plan P , est un axe (resp. plan) de symétrie mécanique de ce système,
39
alors G ∈ D , resp. G ∈ P . et orientée dans le sens des t croissants est le réel
(3.4) Moment d’inertie. Soit L un point, une droite ou un plan et Z b
P x(t), y(t), z(t) x0 (t)+Q x(t), y(t), z(t) y 0 (t)+R x(t), y(t), z(t) z 0 (t) dt.
   
M 7→ dL (M ) a

Elle est notée


la distance de M à L. Le moment d’inertie du système matériel (K, ρ) par rapport à L est le réel
~ (M ).−−→
Z Z
ZZZ V dM ou P dx + Qdy + Rdz .
~
γ ~
γ
d2L (x, y, z)ρ(x, y, z)dxdydz.
K ~ dérive d’un potentiel scalaire f ,
(4.9) Circulation conservative. Lorqu’un champ V
Analyse vectorielle
~ (M ).−−→
Z
V dM = f (B) − f (A)
(4.1) Champ de vecteurs. C’est une application ~
γ

~ :M →

V 7 P (M ), Q(M ), R(M ) pour tout arc ~
γ d’extrémités A et B , orienté de A vers B . En particulier,

~ (M ).−−→
Z
définie sur une partie U de R3 et à valeurs dans R3 .
V dM = 0
~
γ
(4.2) Divergence. C’est le réel

∂P ∂Q ∂R ~ est à circulation conservative .


pour tout arc fermé i.e. V
~ (M ) =
divV (M ) + (M ) + (M ).
∂x ∂y ∂z (4.10) Champs de vecteurs plans. On dispose de définitions (potentiel scalaire, vecteur, circulation)
~ : U ⊂ R2 → R2 .
et théorèmes analogues dans le cas d’un champ de vecteurs V
(4.3) Rotationnel. C’est le vecteur
 
−→ ~ ∂R ∂Q ∂P ∂R ∂Q ∂P
rotV (M ) = (M ) − (M ), (M ) − (M ), (M ) − (M ) .
∂y ∂z ∂z ∂x ∂x ∂y
(4.4) Champ de scalaires. C’est une application

f : M 7→ f (M )

définie sur une partie U de R3 et à valeurs réelles.


(4.5) Gradient d’un champ de scalaires. C’est le vecteur
 
−−→ ∂f ∂f ∂f
gradf (M ) = (M ), (M ), (M ) .
∂x ∂y ∂z
~ . Dans le contexte (4.1), c’est un champ de scalaires f tel que
(4.6) Potentiel scalaire d’un champ V

~ (M ) = −
V
−→
gradf (M ) pour tout M de U .
~ dérive d’un potentiel scalaire.
On dit alors que V
(4.7) Potentiel scalaire. Dans le contexte (4.1), un champ de scalaires f est un potentiel scalaire du
champ V~ si et seulement si

∂f ∂f ∂f
∀M ∈ U, (M ) = P (M ), (M ) = Q(M ), (M ) = R(M ).
∂x ∂y ∂z
~ le long d’une courbe γ paramétrée
(4.8) Circulation. Dans le contexte (4.1), la circulation de V

t 7→ φ(t) = (x(t), y(t), z(t) , t ∈ [a, b]
40