Vous êtes sur la page 1sur 202

Lycée Louis-le-Grand — MPSI 2

Résumés de cours 2019–2020

D’après Monsieur Merle, compilé par Quentin De Muynck

36 semaines de mathématiques, dont 14 à distance...


Table des matières

Semaine 1 – Fonctions de R dans R, trigonométrie 1

Semaine 2 – Dérivation et intégration 7

Semaine 3 – Transformations du graphe, trigonométrie hyperboliques et réciproques,


intégration par parties et changement de variables 12

Semaine 4 – Ensembles, quantificateurs, opérations ensemblistes, logique. 15

Semaine 5 – Relations binaires, d’ordre, ordre naturel, minimum et max dans N, rela-
tions d’équivalence 20

Semaine 6 – Axiome du choix, construction de Z, ordre, anneau et sous-groupes de Z,


arithmétique 23

Semaine 7 – Les rationnels Q, les réels R, intervalles, bornes supérieurs, R, valeur


absolue et développement décimal 31

Semaine 8 – Développement d’un réel en base quelconque, applications, images directes


et réciproques, injectivité et surjectivité, lois internes, cardinaux 36

Semaine 9 – Cardinaux, sommes et produits finis, listes, arrangements et combinaisons 42

Semaine 10 – Sommes finies (téléscopage, fonctions génératrices), intégration par par-


ties itérée, début des complexes 46

Semaine 11 – Module, fonctions à valeurs dans C, exponentielle complexe, argument,


linéarisation et antilinéarisation 50

Semaine 12 – Équations polynomiales, géométrie dans le plan complexe, similitudes


directes et indirectes 56

Semaine 13 – Groupes, sous-groupes, monogènes, cycliques, morphismes, groupe sy-


métrique, anneaux 60

Semaine 14 – Idéaux, groupes et anneaux quotients 68

Semaine 15 – Z/nZ, théorème chinois, indicatrice d’Euler, complément HP, caracté-


ristique d’un anneau, équations différentielles d’ordre 1 70

Semaine 16 – Équations différentielles linéaires d’ordre 2, équations à variable sépa-


rables, espaces vectoriels 73

Semaine 17 – Applications linéaires, espaces affines, structure d’algèbre, espaces vec-


toriels normés, distance et espaces métriques 78

Semaine 18 – Applications lipschitziennes, normes équivalentes, limite dans un espace


métrique, sommes et produits de limites, suites de complexes et de réels 84

2
TABLE DES MATIÈRES 3

Semaine 19 – Suites de vecteurs, adjacentes, extraites, suites de Cauchy, séries de


vecteurs, séries de réels positifs 89

Semaine 20 – Croissances comparées, séries de Riemann, TCSI, critère de d’Alem-


bert, séries alternées, non-commutativité des séries semi-convergentes, transformation
d’Abel 95

Semaine 21 – Topologie dans un espace métrique, ouverts, fermés, adhérence, intérieur,


compacts, continuité ponctuelle 98

Semaine 22 – Théorèmes de composition, opérations algébriques sur les limites, conti-


nuité globale, TVI, continuité des applications linéaires et continuité uniforme 104

Semaine 23 – Comparaison au voisinage d’un point, domination, prépondérance, rela-


tion d’équivalence, développements limités, applications aux séries 109

Semaine 24 – Dérivabilité, opérations, dérivées d’ordre supérieurs, égalité des accrois-


sements finis, formules de Taylor, monotonie et dérivabilité, suites récurrentes d’ordre
1, fonctions convexes 114

Semaine 25 – Polynômes, arithmétique sur un anneau principal 123

Semaine 26 – Arithmétique, PGCD, PPCM, racines d’un polynôme 127

Semaine 27 – Racines d’un polynôme, fractions rationnelles 131

Semaine 28 – DES, calculs d’intégrales, matrices 136

Semaine 29 – Matrices, blocs, familles de vecteurs, dimension d’un espace vectoriel,


rang d’une famille, matrice d’une application linéaire, systèmes linéaires et pivot de
Gauss 142

Semaine 30 – Somme de sous-espaces vectoriels, supplémentaires, sommes directes,


projecteurs et symétries, sous-espaces propres, changement de bases 153

Semaine 31 – Diagonalisation et trigonalisation, trace d’un endomorphisme, matrices


équivalentes et semblables, hyperplans, déterminants (formes multilinéaires) 158

Semaine 32 – Déterminants (calculs), produits scalaires, espaces préhilbertiens, espaces


vectoriels normés de dimensions finies, orthogonalité 165

Semaine 33 – Orthogonalité en dimension finie, distance à un espace vectoriel, Gram-


Schmidt, endomorphismes (symétriques, orthogonaux) d’un espace euclidien, groupe
orthogonal, rotations, orientation d’un espace vectoriel réel, géométrie plane, isomé-
tries vectorielles 170

Semaine 34 – Angles, droites affines, géométrie dans l’espace, produit vectoriel, en-
sembles dénombrables et familles sommables, théorèmes de Fubini 177

Semaine 35 – Probabilités, conditionnelles et indépendance, variables aléatoires dis-


crètes 185

Semaine 36 – Convergence en loi, variables aléatoires indépendantes, espérance et


variance, propriétés de convergence, théorie de l’intégration, sommes de Riemann,
applications réglées 189
4 TABLE DES MATIÈRES
Semaine 1 – Fonctions de R dans R, trigonométrie

Semaine 1 : Résumé de cours

1 Fonctions de R dans R.
Notations : Nous emploierons dans les énoncés ci-dessous l’une des deux notations suivantes :
Notation a) : Soit D et E deux parties de R. On considère une application f , de D dans E, ce qui
signifie que, pour tout x ∈ D, on se donne un unique f (x) ∈ E.
Notation b) : On considère une fonction f de R dans R, ce qui signifie que, pour tout x ∈ R, on associe
ou bien aucun réel, ou bien un unique réel qui est alors noté f (x).
Remarque. En pratique, les deux mots application et fonction sont souvent considérés comme
synonymes et c’est le contexte qui permet de savoir laquelle des notations précédentes est employée.

1.1 Graphe d’une fonction

Définition. (Notation b)) Le domaine de définition de f , noté Df est l’ensemble des réels x ∈ R
pour lesquels la quantité f (x) est calculable.
Remarque. On peut ainsi passer d’une notation à l’autre :
Si f est une application de D dans E (notation a)), alors on peut voir f comme une fonction de R
dans R (notation b)) telle que D ⊂ Df .
Réciproquement, si f est une fonction de R dans R (notation b)), on peut voir f comme une application
de D dans E, pour toute partie D incluse dans Df et pour toute partie E contenant

f (D) = {f (x) / x ∈ D}.

Notation. Soit f une application de D dans E (notation a)).


Soit D′ une partie de D et E ′ une partie de E.
— On note f |D′ l’application de D′ dans E qui à x associe f (x). On dit que f |D′ est la restriction
de f à D′ .

— Lorsque, pour tout x ∈ D, f (x) ∈ E ′ , on note f |E l’application de D dans E ′ qui à x associe

f (x). On dit que f |E est la corestriction de f à E ′ .

— Lorsque, pour tout x ∈ D′ , f (x) ∈ E ′ , on note f |E ′ ′
D ′ l’application de D dans E qui à x associe
f (x).
Définition.
On se place dans le plan usuel, muni d’un repère orthonormé direct (O,~ı, ~).
La représentation graphique de f , aussi appelée le graphe de f , est l’ensemble des points du plan de
coordonnées (x, f (x)), lorsque x décrit Df (notation b)), ou bien lorsque x décrit D (notation a)).
Définition. Lorsque y = f (x), où x ∈ Df et y ∈ R,
— on dit que y est l’image de x par f et
— que x est un antécédent de y par f .
Tout élément x de Df possède une unique image f (x) par f ,
mais si y ∈ R, y peut ne posséder aucun antécédent par f , il peut aussi en posséder plusieurs.

1
1
Semaine 1 : Résumé de cours 1 Fonctions de R dans R.

Les définitions et propriétés qui terminent ce paragraphe sont à connaı̂tre même si on ne les démontrera
effectivement que plus tard.
Définition : Soit f une application d’un ensemble quelconque E dans un ensemble quelconque F
(ainsi E et F ne sont pas forcément des parties de R).
— On dit que f est surjective si et seulement si ∀y ∈ F, ∃x ∈ E, y = f (x). Ainsi,
f est surjective si et seulement si tout élément de F possède au moins un antécédent.
— On dit que f est injective si et seulement si ∀x, y ∈ E, [f (x) = f (y) =⇒ x = y]. Ainsi,
f est injective si et seulement si, pour tout couple d’éléments distincts de E, leurs images sont
différentes. f est injective si et seulement si tout élément de F possède au plus un antécédent.

Définition. Un polynôme P (à coefficients réels) est une application de R dans R (notation a)) de
la forme x 7−→ a0 + a1 x + · · · + an xn , où n ∈ N et a0 , . . . , an ∈ R.
Si an 6= 0, on dit que n est le degré de ce polynôme. On note n = deg(P ).
Par convention, l’application identiquement nulle est un polynôme de degré égal à −∞.

Définition. Soit P un polynôme et α ∈ R.


On dit que α est une racine de P si et seulement si P (α) = 0.
Propriété. Soit P un polynôme et α ∈ R. Alors α est une racine de P si et seulement si il existe un
polynôme Q tel que, pour tout x ∈ R, P (x) = (x − α)Q(x).
Propriété. Soit P un polynôme et α1 , . . . , αk k réels deux à deux distincts. Alors α1 , . . . , αk sont
des racines de P si et seulement si il existe un polynôme Q tel que, pour tout x ∈ R,
P (x) = (x − α1 )(x − α2 ) · · · (x − αk )Q(x).
Propriété. Soit P et Q deux polynômes. Alors l’application x 7−→ P (x)Q(x) de R dans R est aussi
un polynôme, que l’on note P Q. De plus, deg(P Q) = deg(P ) + deg(Q).
Théorème. Soit P un polynôme non nul à coefficients réels de degré n ∈ N. Alors le nombre de
racines de P est inférieur ou égal à n.

1.2 Premières caractéristiques d’une fonction

Définition. (Notation b))


— f est paire si et seulement si : ∀x ∈ Df , [−x ∈ Df ] ∧ [f (x) = f (−x)].
— f est impaire si et seulement si : ∀x ∈ Df , [−x ∈ Df ] ∧ [f (−x) = −f (x)].
— Soit T > 0. f est T -périodique si et seulement si
∀x ∈ Df , [x + T ∈ Df ] ∧ f (x + T ) = f (x).
Propriété.
— Le graphe d’une fonction paire est symétrique par rapport à l’axe des ordonnés.
— Le graphe d’une fonction impaire est symétrique par rapport à l’origine des axes.
— Le graphe d’une fonction T -périodique est invariant par la translation de vecteur T −

ı.
Définition. (notation a))
— f est croissante si et seulement si ∀x, y ∈ D, [x ≤ y =⇒ f (x) ≤ f (y)].
— f est strictement croissante si et seulement si
∀x, y ∈ D, [x < y =⇒ f (x) < f (y)].
— f est décroissante si et seulement si ∀x, y ∈ D, [x ≤ y =⇒ f (x) ≥ f (y)].
— f est strictement décroissante si et seulement si
∀x, y ∈ D, [x < y =⇒ f (x) > f (y)].
— f est monotone si et seulement si f est croissante ou décroissante.
— f est strictement monotone si et seulement si f est strictement croissante ou strictement
décroissante.

c Eric Merle 2 MPSI2 LLG


2
Semaine 1 : Résumé de cours 2 Trigonométrie

Propriété. Graphiquement, les antécédents de λ par f sont les abscisses des points d’intersection
du graphe de f avec la droite horizontale d’équation y = λ.
Propriété. Graphiquement, les solutions de l’inéquation f (x) ≥ λ, en l’inconnue x, sont les abscisses
des points du graphe de f situés au-dessus de la droite horizontale d’équation y = λ.
Définition. Une application f : D −→ E est majorée si et seulement si il existe M ∈ R tel que,
pour tout x ∈ D, f (x) ≤ M , c’est-à-dire si et seulement si le graphe de f est situé sous la droite
horizontale d’équation y = M .

1.3 Opérations sur les fonctions

Définition. (notation b)) Soit f et g deux fonctions de R dans R. Soit λ ∈ R.


— f + g est la fonction de R dans R définie par (f + g)(x) = f (x) + g(x).
On a Df +g = Df ∩ Dg .
— λf est la fonction de R dans R définie par (λf )(x) = λf (x).
On a Dλf = Df .
— f g est la fonction de R dans R définie par (f g)(x) = f (x) × g(x).
On a Df g = Df ∩ Dg .
— |f | est la fonction de R dans R définie par |f |(x) = [f (x)|. On a D|f | = Df .
— On définit de même f − g, f1 , fg .
Définition. f est bornée si et seulement si |f | est majorée.
Définition de la composition : (Notation b)) Soit f et g deux fonctions. On note
f (g(x)) = (f ◦ g)(x) : on définit ainsi une nouvelle fonction, f ◦ g. C’est la composée de f et g.
Application réciproque :
Soit f une application de D dans E (notation a)). On dit que f est bijective si et seulement si f est
injective et surjective. Dans ce cas, pour tout y ∈ E, il existe un unique xy ∈ D tel que y = f (xy ).
En notant xy = f −1 (y), on définit une application f −1 de E dans D, qui est également bijective. C’est
la bijection réciproque de la bijection f . On a (f −1 )−1 = f , f ◦ f −1 = IdE et f −1 ◦ f = IdD , où IdE
est l’application de E dans E qui à x associe x.
Propriété. Si f est une bijection d’une partie E de R vers une partie F de R, alors le graphe de f −1
est le symétrique du graphe de f pour la symétrie orthogonale selon la première diagonale, c’est-à-dire
la droite d’équation y = x.
Il faut savoir le démontrer.
Définition. Soit f et g deux applications définies sur D à valeurs dans R.
On dit que f est inférieure à g sur D, et on note f ≤ g, lorsque : ∀x ∈ D, f (x) ≤ g(x).
Remarque. La notation “f < g” désignera parfois la condition [∀x ∈ D, f (x) < g(x)],
et d’autres fois la condition [(f ≤ g) et (f 6= g)],
c’est-à-dire [∀x ∈ D, f (x) ≤ g(x)] et [∃x ∈ D, f (x) < g(x)].

2 Trigonométrie
2.1 Les fonctions circulaires

Définition. Soit θ ∈ R. On admet que le complexe eiθ est sur le cercle unité et que θ est l’angle
M1\M0 Meiθ (en notant Mz le point d’affixe z).
On pose cos(θ) = Re(eiθ ) et sin(θ) = Im(eiθ ).
Ainsi cos(θ) est l’abscisse du point Meiθ et sin(θ) est son ordonnée.

c Eric Merle 3 MPSI2 LLG


3
Semaine 1 : Résumé de cours 2 Trigonométrie

eiθ + e−iθ eiθ − e−iθ


Formules d’Euler : cos θ = et sin θ = .
2 2i
Propriété. Les fonctions cos et sin sont 2π-périodiques. cos est paire. sin est impaire.
sin θ cos θ
Définition des fonctions tangente et cotangente : tan θ = et cotan θ = .
cos θ sin θ
La fonction tangente est définie sur R \ ( π2 + πZ).
Formules : Soit OAB un triangle rectangle en A. Par définition, l’hypoténuse est le côté opposé à
\ l’angle au sommet O.
l’angle droit. Notons θ = AOB
OA longueur du côté adjacent AB longueur du côté opposé
Alors cos θ = = , sin θ = =
OB longueur de l’hypoténuse OB longueur de l’hypoténuse
AB longueur du côté opposé
et tan θ = = .
OA longueur du côté adjacent
Cette dernière formule permet d’interpréter géométriquement la quantité tan θ :

sin θ

tan θ

O cos θ 1

2.2 Graphes des fonctions circulaires


Il faut savoir tracer les graphes des fonctions cos, sin et tan.

2.3 Formulaire de trigonométrie


Il faut savoir établir chacune de ces formules.
Formule circulaire : Pour tout θ ∈ R, cos2 θ + sin2 θ = 1.
Formules de symétries : Lorsque les quantités qui interviennent sont définies,
cos(−θ) = cos(θ) sin(−θ) = − sin(θ) tan(−θ) = − tan(θ)
cos(π − θ) = − cos(θ) sin(π − θ) = sin(θ) tan(π − θ) = − tan(θ)
cos(π + θ) = − cos(θ) sin(π + θ) = − sin(θ) tan(π + θ) = tan(θ)
cos( π2 − θ) = sin(θ) sin( π2 − θ) = cos(θ) tan( π2 − θ) = cotan (θ)
cos( π2 + θ) = − sin(θ) sin( π2 + θ) = cos(θ) tan( π2 + θ) = −cotan (θ)
Il faut être capable de visualiser toutes ces formules sur le cercle trigonométrique.
Formule d’addition :
cos(a + b) = cos a cos b − sin a sin b et sin(a + b) = sin a cos b + cos a sin b.
cos(a − b) = cos a cos b + sin a sin b et sin(a − b) = sin a cos b − cos a sin b,
tan a + tan b tan a − tan b
tan(a + b) = et tan(a − b) = .
1 − tan a tan b 1 + tan a tan b
Formules de duplication : cos(2a) = cos2 a − sin2 a = 2 cos2 a − 1 = 1 − 2 sin2 a,
2 tan a
sin(2a) = 2 sin a cos a et tan(2a) = .
1 − tan2 a
Premières formules de linéarisation :

c Eric Merle 4 MPSI2 LLG


4
Semaine 1 : Résumé de cours 2 Trigonométrie

cos(2a) + 1 1 − cos(2a)
cos2 a = et sin2 a = ≥ 0.
2 2
2 cos a. cos b = cos(a + b) + cos(a − b),
2 sin a. sin b = cos(a − b) − cos(a + b),
2 sin a. cos b = sin(a + b) + sin(a − b).
Formules de factorisation :
p+q p−q
cos p + cos q = 2 cos cos ,
2 2
p+q p−q
cos p − cos q = −2 sin sin ,
2 2
p+q p−q
sin p + sin q = 2 sin cos ,
2 2
p−q p+q
sin p − sin q = 2 sin cos .
2 2
Il faut savoir les retrouver en utilisant les complexes.

Formules (hors programme) : en posant u = tan θ2 , on a
1 − u2 2u 2u
cos θ = 2
, sin θ = 2
, tan θ = .
1+u 1+u 1 − u2
Propriété. Lignes trigonométriques à connaı̂tre :
π π π π
θ 0 6 4 3 2
√ √
3 2 1
cos θ 1 2 √2 √2
0
1 2 3
sin θ 0 √2 2 1
3
√2
tan θ 0 3 1 3 non défini
La croissance de la fonction tangente sur [0, π2 [ aide à retenir la dernière ligne.

2.4 Equations trigonométriques


2.4.1 Résolution du système (S) : (cos x = c) ∧ (sin x = s)
2.4.2 Résolution de l’équation cos x = c

Définition. L’application cos réalise une bijection (décroissante) de [0, π] dans [−1, 1].
On note arccos l’application réciproque.
Propriété. Pour tout u, v ∈ R, cos u = cos v ⇐⇒ u ≡ ±v √ [2π].
3
Il faut savoir résoudre les équations suivantes : cos x = et cos x = cos( π3 − 2x).
2

2.4.3 Résolution de l’équation sin x = s

Définition. L’application sin réalise une bijection (croissante) de [− π2 , π2 ] dans [−1, 1]. On note arcsin
l’application réciproque. Il faut savoir tracer son graphe.
Propriété. Pour tout u, v ∈ R, sin u = sin v ⇐⇒ (u ≡ v [2π]) ∨ (u ≡ π − v [2π]).

2.4.4 Résolution de l’équation tan x = t

Définition. tan est une bijection (croissante) de ] − π π


2, 2[ dans R. On note arctan l’application
réciproque. Il faut savoir tracer son graphe.
Corollaire. Pour tout u, v ∈ R, tan u = tan v ⇐⇒ u ≡ v [π].

c Eric Merle 5 MPSI2 LLG


5
Semaine 1 : Résumé de cours 2 Trigonométrie

2.4.5 Expressions de la forme A cos x + B sin x.


Technique à connaı̂tre : transformation de A cos x + B sin x en r cos(x − ϕ).
Première méthode :
Soit (A, B) ∈ R \ {(0, 0)}.
p  A B 
A cos x + B sin x = A2 + B 2 √ cos x + √ sin x .
A2 + B 2 A2 + B 2
A B
Posons c = √ et s = √ . On a c2 + s2 = 1, donc on sait qu’il existe ϕ ∈ R tel que
A2 + B 2 A2 + B 2 √
c = cos ϕ et s = sin ϕ. Ainsi, en posant r = A2 + B 2 ,
A cos x + B sin x = r(cos ϕ cos x + sin ϕ sin x) = r cos(x − ϕ).
r est appelé l’amplitude et ϕ la phase.
On remarquera que, par construction, c + is = eiϕ , donc A + iB = reiϕ .
B
Seconde méthode : lorsque A 6= 0. Il existe ϕ tel que tan ϕ = .
A
sin ϕ A
Alors A cos x + B sin x = A(cos x + . sin x) = cos(x − ϕ).
cos ϕ cos ϕ
Sachez résoudre les équations
√ suivantes :
−3 cos x + 4 sin x = 10 et 3 cos x − sin x = 2.

c Eric Merle 6 MPSI2 LLG


6
Semaine 2 – Dérivation et intégration

Semaine 2 : Résumé de cours

1 Dérivation et intégration
1.1 Pente de la tangente

Propriété. Pour une droite d’équation y = px + y0 , on dit que p est sa pente et que y0 est l’ordonnée
à l’origine.
On dispose également des droites “verticales”, d’équation x = x0 , où x0 ∈ R, qui sont de pente infinie.
Deux droites affines du plan sont parallèles si et seulement si elles ont la même pente.
Propriété. Soit f : R −→ R une fonction. Pour tout x0 , x1 ∈ Df , avec x0 6= x1 , la corde du graphe
de f entre les abscisses x0 et x1 est par définition l’unique droite du plan passant par les points du
graphe de f d’abscisses x0 et x1 .
f (x1 ) − f (x0 )
Elle a pour équation : y − f (x0 ) = × (x − x0 ).
x1 − x0
f (x1 ) − f (x0 )
En particulier, la pente de cette droite est égale à .
x1 − x0
Définition. Soit f : R −→ R une fonction définie sur un intervalle I et soit x0 ∈ I.
f (x1 ) − f (x0 )
On dit que f est dérivable en x0 si et seulement si la quantité possède une limite lorsque
x1 − x0
0
x1 tend vers x0 . Dans ce cas, cette limite est notée f (x0 ) et est appelée la dérivée de f en x0 .
Informellement, lorsque f est dérivable en x0 , la corde du graphe de f entre les abscisses x0 et x1 tend
vers la tangente en x0 , d’équation : y − f (x0 ) = f 0 (x0 ).(x − x0 ).
Cela dit que la meilleure approximation de f , au voisinage de x0 , parmi l’ensemble des applications
affines, est x 7−→ f (x0 ) + f 0 (x0 ).(x − x0 ).
Il faut retenir que f 0 (x0 ), lorsqu’elle est définie, est la pente de la tangente au graphe de f en le point
d’abscisse x0 .
Définition. On dit que f est dérivable sur l’intervalle I si et seulement si elle est dérivable en chacun
des réels de I. On dispose alors de l’application f 0 , définie au moins sur I.
On dit alors que f est de classe D1 .
Lorsque f 0 est continue sur I, on dit que f est de classe C 1 sur I.
Définition. Si f 0 est définie sur un intervalle I, on dit que f est deux fois dérivable sur I lorsque f 0
est dérivable en tout point de I. La dérivée de la dérivée de f est notée f 00 . On l’appelle la dérivée
seconde de f .
Soit n ∈ N. Par récurrence, la dérivée n-ième de f lorsqu’elle est définie est la dérivée de la dérivée
(n − 1)-ième. On la note f (n) . On dit alors que f est de classe Dn sur I.
On dit que f est de classe C n sur I lorsque f est n fois dérivable sur I et que f (n) est continue.
On dit que f est de classe C ∞ sur I lorsque, pour tout n ∈ N, f est C n sur I.
Remarque. On convient que f (0) = f , pour toute application f de R dans R.

1
7
Semaine 2 : Résumé de cours 1 Dérivation et intégration

1.2 Règles de dérivation


Règles générales A savoir utiliser dans des calculs sans hésiter
— Pour tout α, β ∈ R, (αf + βg)0 = αf 0 + βg 0 .
— (f g)0 = f 0 g + f g 0 .
 1 0 f0
— = − 2.
f f
 f 0 f 0 g − g0 f
— = .
g g2
0 0 0
— (f ◦ g) = g × (f ◦ g).
— Pour tout α ∈ R∗ , (f α )0 = αf 0 × f α−1 .
1
— Lorsque f est bijective, (f −1 )0 = 0 .
f ◦ f −1
Les fonctions qui interviennent dans ces formules sont toutes supposées dérivables sur un intervalle.
On se limite éventuellement à un sous-intervalle pour s’assurer que les quantités qui interviennent
dans les formules sont bien définies.

Dérivées des fonctions usuelles A connaı̂tre par coeur


d α d 1 1 d √ 1
— ∀α ∈ R∗ , (x ) = αxα−1 , = − 2, ( x) = √ .
dx dx x x dx 2 x
— cos0 = − sin, sin0 = cos.
d 1
— (tan x) = = 1 + tan2 x.
dx cos2 x
1 −1 1
— arcsin0 x = √ , arccos0 x = √ , arctan0 x = .
1−x 2 1−x 2 1 + x2
d x d x
— (e ) = ex , (a ) = (ln a)ax (où a > 0), ln0 (x) = x1 .
dx dx

Dérivées d’ordre supérieur


dn
— Si f est n fois dérivable, (f (ax + b)) = an f (n) (ax + b).
dxn
— cos(n) (x) = cos(x + n π2 ) et sin(n) (x) = sin(x + n π2 ).
dn  1  (−1)n n!
— = .
dxn 1 + x (1 + x)n+1

1.3 Dérivation et monotonie

Théorème. Soit f une fonction de I dans R, où I est un intervalle de R. On suppose que f est
dérivable sur I.
— f est constante sur I si et seulement si f 0 est identiquement nulle sur I.
— f est croissante sur I si et seulement si ∀x ∈ I, f 0 (x) ≥ 0.
— f est décroissante sur I si et seulement si ∀x ∈ I, f 0 (x) ≤ 0.
— Si f 0 (x) est de signe constant sur I et si {x ∈ I/f 0 (x) = 0} est fini, alors f est strictement
monotone.
Il faut savoir redémontrer les propriétés suivantes. Il faut aussi les connaı̂tre pour les utiliser éventuellement
sans démonstration.
— pour tout x > 0, sin x < x.
— Pour tout x ∈ [−1, 1], arccosx + arcsinx = π2 .
— Pour tout t ∈ R∗ , arctant + arctan 1t = sgn(t) × π2 .

c Eric Merle 2 MPSI2 LLG


8
Semaine 2 : Résumé de cours 1 Dérivation et intégration

1.4 Intégration
Z b
Définition. Soit a, b ∈ R avec a < b. Soit f : [a, b] −→ R une application continue. On note f (t)dt
a
(prononcer “intégrale de a à b de f(t) dt”) l’aire comprise entre l’axe des abscisses (noté Ox) et le
graphe de f , en comptant positivement les aires au dessus de l’axe Ox (donc lorsque f (x) ≥ 0) et
négativement les aires situées au dessous de l’axe Ox (lorsque f (x) ≤ 0).
Convention : Avec les notations et hypothèses précédentes, on convient que
Z a Z b Z a
f (t)dt = − f (t)dt et que f (t)dt = 0.
b a a
Propriété. Soit I un intervalle inclus dans R.
Soit f et g deux applications continues de I dans R.
Soit a, b ∈ I (on peut avoir a < b, b < a ou bien a = b).
Z b Z b Z b
— Linéarité : Pour tout α, β ∈ R, (αf + βg) = α f +β g.
a Z b aZ c a
Z b
— Relation de Chasles : Pour tout c ∈ I, f (t)dt = f+ f.
a a c
Soit a, b ∈ I : on suppose maintenant que a ≤ b.
Z b
— Positivité : si f ≥ 0, alors f (t)dt ≥ 0.
a Z b Z b
— Croissance de l’intégrale : si f ≤ g, alors f (t)dt ≤ g(t)dt.
a a
Z b
Rb
— Inégalité triangulaire : f (t)dt ≤ a |f (t)|dt.
a

Propriété. Soit a, b ∈ R avec a < b et soit f : [a, b] −→ R une application continue et positive,
Rb
telle que a f (t)dt = 0. Alors f est identiquement nulle sur [a, b].

1.5 Primitivation

Définition. Soit I un intervalle et f une application continue de I dans R.


On dit que F est une primitive de f sur I si et seulement si F est dérivable et F 0 = f .
Propriété. Avec les hypothèses et notations précédentes, si F0 est une primitive de f , alors les autres
primitives de f sont exactement les applications F0 + k, où k est une fonction constante.
Théorème : Soit I un intervalle
Z x de R et f une application de I dans R que l’on suppose continue.
Soit x0 ∈ I. Alors x 7−→ f (t)dt est l’unique primitive de f qui s’annule en x0 .
x0

Corollaire. Soit f une application continue d’un intervalle I dans R.


Z b

Si F est une primitive de f , alors pour tout a, b ∈ I, f (t)dt = F (b) − F (a) = [F (t)]ba .
a
Z b
1
Corollaire. Si f est une application de classe C sur [a, b], f 0 (t)dt = f (b) − f (a).
a
R
Notation. L’écriture “ f (t)dt = F (t) + k, t ∈ I” signifiera que f est continue sur I et que l’ensemble
des primitives de f est {F + k/k ∈ R}.
Il
Z faut savoir
Z calculer les primitives suivantes
Z : Z Z
α 2 dx 2xdx
cos tdt, x dx (où α ∈ R \ {−1}), cos xdx, et .
1 + x2 (x2 + 1)2

c Eric Merle 3 MPSI2 LLG


9
Semaine 2 : Résumé de cours 2 Fonctions Logarithmes et puissances
Z Z
1
Propriété. Avec a 6= 0, si f (t)dt = F (t) + k, alors f (at + b)dt = F (at + b) + k.
a
Remarque. Si f est une application continue d’un intervalle I dans R et si u : J −→ I et v : J −→ I
Z v(t)
sont des applications dérivables sur un intervalle J, on calcule la dérivée de t 7−→ f (x)dx en
u(t)
utilisant une primitive F de f :
Z v(t)
f (x)dx = F (v(t)) − F (u(t)) a pour dérivée v 0 (t)f (v(t)) − u0 (t)f (u(t)).
u(t)

2 Fonctions Logarithmes et puissances


2.1 Quelques théorèmes d’analyse
On montrera plus tard les théorèmes suivants :
Théorème de la limite monotone : On pose R = R ∪ {+∞, −∞}.
2
Soit (m, M ) ∈ R avec m < M . Notons I =]m, M [.
Soit f une application de I dans R que l’on suppose monotone.
Alors la quantité f (x) possède une limite dans R, lorsque x tend vers m (resp : M ).
Théorème de la bijection : Soit f une application définie sur un intervalle I et à valeurs dans R.
On suppose que f est continue sur I.
Alors f est une bijection de I dans f (I) si et seulement si f est strictement monotone.
Dans ce cas, f (I) est un intervalle et l’application réciproque f −1 est une application également
continue, strictement monotone, de même sens de variation que f , allant de f (I) dans I.
Définition. Soit f : I −→ J où I et J sont deux intervalles. Soit n ∈ N∗ ∪ {∞}. On dit que f
est un C n -difféomorphisme si et seulement si f est une bijection de I sur J et si f et f −1 sont toutes
deux de classe C n .
Caractérisation d’un difféomorphisme : Soit f une application définie sur un intervalle I et à
valeurs dans R. Soit n ∈ N∗ ∪ {∞}. f est un C n -difféomorphisme de I dans f (I) si et seulement si f
est de classe C n et si, pour tout x ∈ I, f 0 (x) 6= 0.

2.2 Les fonctions ln et exp


Z x
dt
La fonction Logarithme népérien : Pour tout x > 0, on pose ln(x) = .
1 t
ln est une bijection strictement croissante de R∗+ dans R. ln(1) = 0.
d 1
Pour tout x > 0, (ln(x)) = .
dx x
Il existe un unique e ∈ R tel que ln(e) = 1. e est le nombre de Neper : e = 2, 7 ± 10−1 .
Pour tout x, y ∈ R∗+ et n ∈ Z,
— ln(xy) = ln x + ln y : A savoir démontrer.
1 x
— ln = − ln x, ln = ln x − ln y,
x y
— ln(xn ) = n ln x,
ln(t)
— ln(t) −→ −∞, ln(t) −→ +∞, −→ 0 : A savoir démontrer.
t→0 t→+∞ t t→+∞
La fonction exponentielle : c’est la bijection réciproque de la fonction logarithme népérien.
exp est une bijection strictement croissante de R dans R∗+ .
Pour tout x ∈ R∗+ , exp(ln x) = x et, pour tout x ∈ R, ln(exp(x)) = x.
∀x ∈ R, dx d
(exp(x)) = exp(x).
Pour tout x, y ∈ R et n ∈ Z,

c Eric Merle 4 MPSI2 LLG


10
Semaine 2 : Résumé de cours 3 Etude d’une fonction

— ex+y = ex ey ,
— e0 = 1 et e1 = e,
1 ex
— e−x = x , ex−y = y ,
e e
— enx = (ex )n .
et
— et −→ 0, et −→ +∞. −→ +∞.
t→−∞ t→+∞ t t→+∞
Représentation graphique de ln et exp : A connaı̂tre
Logarithmes et exponentielles en base a.
∆ ln x
— Soit a ∈ R∗+ \ {1}. ∀x ∈ R∗+ , lna (x) = .
ln a
Pour tout x, y ∈ R+ et b ∈ R,

— lna (xy) = lna x + lna y,


— lna (1) = 0 et lna (a) = 1,
1 x
— lna = − lna x, lna = lna x − lna y,
x y
— lna (xb ) = b lna x,

— Soit a ∈ R∗+ . ∀x ∈ R, ax = ex ln a = expa (x).
∀x ∈ R, lna (ax ) = x et ∀x ∈ R∗+ , alna x = x.
d x
Pour tout x ∈ R, (a ) = (ln a)ax .
dx
Pour tout x, y ∈ R,
— ax+y = ax ay ,
— a0 = 1 et a1 = a, ax > 0,
1 ax
— a−x = x , ax−y = y ,
a a
— pour tout b ∈ R, abx = (ax )b .
— Pour tout b > 0, ax bx = (ab)x .

2.3 Fonctions puissances

Définition. Un monôme de degré n ∈ N est une application de la forme x 7−→ axn , où a est un
paramètre réel. Cette application est définie sur R.
Une fonction polynomiale est une somme finie de monômes.
Lorsque n ∈ Z avec n < 0, x 7−→ xn est définie sur R∗ .
Représentation graphique de x 7−→ xn lorsque n ∈ Z : A connaı̂tre.
Représentation graphique de x 7−→ xα où α ∈ R \ Z, lorsque x décrit R∗+ : A connaı̂tre.
Convention : Pour tout b ∈ R∗+ , 0b = 0 et 00 = 1 .

3 Etude d’une fonction


3.1 Plan d’étude
Plan d’étude d’une fonction f de R dans R :
1. Calcul du domaine de définition de f .
2. Si f est paire, impaire ou/et périodique, on peut réduire le domaine d’étude.
3. Calcul de f 0 (x) et étude de son signe.
4. Tableau de variations de f . Indiquez notamment les limites de f aux bornes des intervalles.
5. Etude des branches infinies si f (x) −→ ±∞.
x→±∞

c Eric Merle 5 MPSI2 LLG


11
Semaine 3 – Transformations du graphe, trigonométrie hyperboliques et réciproques, intégration par parties
et changement de variables

Semaine 3 : Résumé de cours

1 Etude des branches infinies


Soit ε ∈ {−1, 1}. On suppose que f (x) −→ ±∞.
x→ε∞
f (x)
1. S’il existe µ ∈ R tel que −→ µ, on dit que le graphe de f admet une direction asymp-
x x→ε∞
totique de pente µ.
— S’il existe α ∈ R tel que f (x) − µx −→ α, la droite affine d’équation y = µx + α est une
x→ε∞
asymptote de la courbe au voisinage de ε∞.
— Si f (x) − µx −→ ±∞, on dit que le graphe de f présente au voisinage de ε∞ une branche
x→ε∞
parabolique de pente µ.
f (x)
En particulier, lorsque −→ 0, on est en présence d’une branche parabolique hori-
x x→ε∞
zontale.
— Autres cas : il y a seulement une direction asymptotique.
f (x)
2. Si −→ ±∞, le graphe de f admet une branche parabolique verticale.
x x→ε∞
3. Autres cas : on ne peut rien dire.

2 Déformations du graphe
Notation. f désigne une fonction de D dans R, où D ⊂ R.
Propriété. On fixe un réel a.
— Le graphe de x 7−→ f (x) + a se déduit du graphe de f par la translation de vecteur a→ − .
— Le graphe de x 7−→ f (x + a) se déduit du graphe de f par la translation de vecteur −a→ −ı . A
savoir établir.
— Le graphe de x 7−→ f (a − x) se déduit du graphe de f par la symétrie orthogonale selon la
droite verticale d’abscisse a2 .
— Le graphe de x 7−→ f (ax) se déduit du graphe de f par l’affinité orthogonale d’axe invariant Oy
et de coefficient a1 , qui correspond, en identifiant un point avec le couple de ses coordonnées, à
la tranformation (x, y) 7−→ ( xa , y) (A savoir établir). Ceci a pour effet,
— lorsque a > 1, d’écraser le graphe de f d’un facteur a vers l’axe des ordonnées, parallèlement
à l’axe Ox,
— lorsque 0 < a < 1, d’étirer le graphe de f d’un facteur a1 autour de l’axe Oy, parallèlement
à l’axe Ox.
— Le graphe de x 7−→ af (x) se déduit du graphe de f par une affinité d’axe invariant Ox et de
coefficient a, i.e par la transformation (x, y) 7−→ (x, ay).

3 Trigonométrie hyperbolique
Définition. On définit les fonctions usuelles suivantes :

1
12
Semaine 3 : Résumé de cours 4 Applications trigonométriques réciproques

ex + e−x
— cosinus hyperbolique : ∀x ∈ R, chx = ,
2
ex − e−x
— sinus hyperbolique : ∀x ∈ R, shx = ,
2
shx ex − e−x e2x − 1
— tangente hyperbolique : ∀x ∈ R, thx = = x −x
= 2x .
chx e +e e +1
Propriété. Les fonctions sh, ch et th sont de classe C ∞ sur R et
ch0 = sh, sh0 = ch, th0 (x) = 1 − th2 x = 12 .
ch x
Il faut connaı̂tre les graphes de sh, ch et th.
Toute formule de la trigonométrie circulaire est associée avec une formule duale de la trigonométrie
hyperbolique. Cependant, le programme officiel se limite à la formule suivante :
Formule : ∀x ∈ R, ch2 x − sh2 x = 1.
Mais il n’est pas interdit de connaı̂tre quelques formules de trigonométrie hyperbolique :
— ch(a + b) = cha.chb + sha.shb,
— sh(a + b) = sha.chb + cha.shb,
ch(2a) + 1 ch(2a) − 1
— ch2 a = , sh2 a = ≥ 0.
2 2

4 Applications trigonométriques réciproques


Les graphes des fonctions usuelles de ce chapitre sont à connaı̂tre.

4.1 Trigonométrie circulaire


π π
La fonction arcsin : l’application sin : [− , ] −→ [−1, 1] est surjective, continue et strictement
2 2
π π
croissante. On note arcsin son application réciproque, de [−1, 1] dans [− , ]. Elle est continue,
2 2
impaire et strictement croissante sur [−1, 1].
π π
La restriction de sin à ] − , [ est un C ∞ -difféomorphisme sur ] − 1, 1[, dont le C ∞ -difféomorphisme
2 2
réciproque est la restriction de arcsin à ] − 1, 1[.
Pour tout x ∈] − 1, 1[, arcsin0 (x) = √1−x
1
2
.
La fonction arccos : l’application cos : [0, π] −→ [−1, 1] est surjective, continue et strictement
décroissante. On note arccos son application réciproque, de [−1, 1] dans [0, π]. Elle est continue et
strictement décroissante sur [−1, 1].
La restriction de cos à ]0, π[ est un C ∞ -difféomorphisme sur ] − 1, 1[, dont le C ∞ -difféomorphisme
réciproque est la restriction de arccos à ] − 1, 1[.
−1
Pour tout x ∈] − 1, 1[, arccos0 (x) = √1−x 2
.

Propriété. ∀t ∈ [−1, 1] cos(arccost) = t et sin(arcsin t) = t, mais en général, arccos(cos t) 6= t.


Plus précisément, arccos(cos t) = t ⇐⇒ t ∈ [0, π].
Ainsi, lorsque t ∈
/ [0, π], arccos(cos t) = t0 où t0 ∈ [0, π] et cos t = cos t0 .
π π
La fonction arctan : l’application tan :] − , [−→ R est un C ∞ -difféomorphisme strictement
2 2
croissant, dont le C ∞ -difféomorphisme réciproque est noté.
1
Pour tout x ∈ R, arctan0 (x) = .
1 + x2

c Eric Merle 2 MPSI2 LLG


13
Semaine 3 : Résumé de cours 5 Calculs d’intégrales

4.2 Trigonométrie hyperbolique


Les fonctions réciproques des fonctions ch, sh et th ne sont pas au programme.
La fonction argsh : sh est un C ∞ -difféomorphisme de R dans R, dont le difféomorphisme réciproque
est noté argsh (“argument sinus hyperbolique”). Ainsi argsh est une application C ∞ , impaire, stric-
1
tement croissante. argsh0 (x) = √ .
1 + x2 √
A savoir établir : Pour tout x ∈ R, argshx = ln(x + 1 + x2 ).
La fonction argch : L’application ch est une bijection continue strictement croissante de R+ dans
[1, +∞[. Son application réciproque est notée argch. C’est une bijection continue strictement croissante
de [1, +∞[ dans R+ .
ch est un C ∞ -difféomorphisme de R∗+ dans ]1, +∞[, donc argch est C ∞ sur ]1, +∞[.
1 √
argch0 (x) = √ . Pour tout x ∈ [1, +∞[, argchx = ln(x + x2 − 1).
x2 − 1
La fonction argth : th est un C ∞ -difféomorphisme de R dans ] − 1, 1[, dont le difféomorphisme
réciproque est noté argth Ainsi argth est une application C ∞ , impaire, strictement croissante de
1 1 1 + x
] − 1, 1[ dans R. argth0 (x) = . Pour tout x ∈] − 1, 1[, argthx = ln .
1 − x2 2 1−x

5 Calculs d’intégrales
5.1 Changement de variables

Théorème. On suppose que f est une application continue d’un intervalle I dans R,
et que ϕ est une application de classe C 1 d’un intervalle J dans I. Alors,
Z β Z ϕ(β)
2 0
∀(α, β) ∈ J f (ϕ(t))ϕ (t)dt = f (x)dx. (1)
α ϕ(α)

Lorsque l’on remplace un membre de cette égalité par l’autre, on dit que l’on effectue le changement
de variable x = ϕ(t).
Démonstration à connaı̂tre.
Propriété. Soit a ∈Z R∗+ et soit f une
Z a application continue sur [−a,
Z a a].
a
Si f est paire, alors f (t) dt = 2 f (t) dt. Si f est impaire, f (t) dt = 0.
−a 0 −a

Théorème. Soit T ∈ R∗+ .


On suppose que f est une fonction continue et T -périodique définie sur R.
Z T Z T +t0
Alors, ∀t0 ∈ R f (t) dt = f (t) dt.
0 t0
Démonstration à connaı̂tre.

5.2 Intégration par parties

Théorème. Soit u : I −→ R et v : I −→ R deux applications de classe C 1 sur I.


Z b Z b
0
2
Pour tout (a, b) ∈ I , b
u(t)v (t) dt = [u(t)v(t)]a − u0 (t)v(t) dt.
a a

Théorème.
Z Soit u : I −→ R et vZ: I −→ R deux applications de classe C 1 sur I.
Alors, u(t)v 0 (t) dt = u(t)v(t) − u0 (t)v(t) dt, t ∈ I.

c Eric Merle 3 MPSI2 LLG


14
Semaine 4 – Ensembles, quantificateurs, opérations ensemblistes, logique.

Semaine 4 : Résumé de cours

1 Fondations
1.1 Ensembles et éléments
Axiome d’extensionnalité : Si E et F sont deux ensembles, alors
E = F si et seulement si pour tout x ∈ E, x ∈ F et pour tout x ∈ F , x ∈ E.
Définition. {a} est un singleton.
Lorsque a 6= b, {a, b} est appelé une paire.
Définition. Un prédicat P sur un ensemble E est une application de E dans {V, F }, où V symbolise
le vrai et F le faux.
Définition d’un ensemble en compréhension : Si E est un ensemble et P un prédicat sur E,
alors F = {x ∈ E/P (x)} est un ensemble.
De plus, pour tout x ∈ E, x ∈ F ⇐⇒ P (x).
Le paradoxe de Russell :
Notons A la collection de tous les ensembles et posons B = {x ∈ A/x ∈ / x}. Alors B ∈ B si et
seulement si B ∈
/ B, ce qui est impossible. Cela signifie que A n’est pas un ensemble !
À connaı̂tre.

1.2 Quantificateurs
Définition du quantificateur universel :
Soit E un ensemble et P un prédicat sur E. La propriété “∀x ∈ E, P (x)” signifie que pour tous les
éléments x de E, P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} est égal à E.
Définition du quantificateur existentiel :
Avec les mêmes notations, la propriété “∃x ∈ E, P (x)” signifie qu’il existe au moins un x ∈ E tel
que P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} =
6 ∅.
Existence et unicité : La propriété “∃!x ∈ E, P (x)” signifie qu’il existe un unique x ∈ E tel que
P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} est un singleton.
Remarque. L’emploi des quantificateurs en guise d’abréviations est exclu : l’usage d’un “∀x” est
toujours suivi d’un “∈ E, P (x)” (ou plus rarement d’un “, P (x)”), où P est un prédicat sur E.
Remarque. Soit P un prédicat sur un ensemble E. Alors dans les phrases
“∀x ∈ E, P (x)” et “∃x ∈ E, P (x)”, on peut remplacer la variable x par y, ou n’importe quel autre
symbole. On dit que, dans les phrases “∀x ∈ E, P (x)” et “∃x ∈ E, P (x)”, x est une variable muette
ou bien que c’est une variable liée.
Dans la propriété “∃y ∈ R, x = y 2 ”, y est une variable liée, et par opposition, on dit que x est une
variable libre.

1
15
Semaine 4 : Résumé de cours 1 Fondations

1.3 Parties d’un ensemble

Définition. Soit E et F deux ensembles.


On dit que F est inclus dans E et l’on note F ⊂ E si et seulement si tout élément de F est un élément
de E, c’est-à-dire si et seulement si ∀x ∈ F, x ∈ E.
Transitivité de l’inclusion : Si A ⊂ B et B ⊂ C, alors A ⊂ C.
Définition. Si E est un ensemble, on note P(E) l’ensemble de ses parties.

1.4 Opérateurs sur les ensembles

Définition. Soit E et F deux ensembles :


— Intersection : x ∈ E ∩ F si et seulement si (x ∈ E et x ∈ F ).
— Réunion : x ∈ E ∪ F si et seulement si (x ∈ E ou x ∈ F ).
— Différence ensembliste : E \ F = {x ∈ E/x ∈ / F }.
— Différence symétrique : E∆F = (E \ F ) ∪ (F \ E) = (E ∪ F ) \ (E ∩ F ).
— Complémentaire de F dans E : Si F est une partie de E, le complémentaire de F dans E
est F = E \ F , que l’on note plus rarement {F
E.

Propriété. Si F et G sont deux parties d’un ensemble E, alors F \ G = F ∩ G.


Propriété. Associativité de l’intersection et de la réunion : Soit A, B, C trois ensembles.
Alors, A ∩ (B ∩ C) = (A ∩ B) ∩ C et A ∪ (B ∪ C) = (A ∪ B) ∪ C.
[ \
Définition. Soit I un ensemble et (Ei )i∈I une famille d’ensembles. On définit Ei et Ei par :
i∈I i∈I
[ \
x∈ Ei ⇐⇒ (∃i ∈ I, x ∈ Ei ) et x ∈ Ei ⇐⇒ (∀i ∈ I, x ∈ Ei ).
i∈I i∈I
Cette dernière définition n’est pas correcte lorsque I = ∅.
Distributivité de l’intersection par rapport
[ à la
[ réunion :
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C). A∩ Bi = (A ∩ Bi ).
i∈I i∈I
Il faut savoir le démontrer.
Distributivité de la réunion par rapport
\ à l’intersection
\ :
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C). A∪ Bi = (A ∪ Bi ) (avec I 6= ∅).
i∈I i∈I

Notation. Soit (Ei )i∈I une famille d’ensembles deux à deux disjoints, c’est-à-dire telle que, pour
j ∈ I avec i 6= j, Ei ∩ Ej = ∅.
tout i,[ G
Alors Ei est appelée une réunion disjointe et elle est notée Ei .
i∈I i∈I

1.5 L’ensemble N des entiers naturels


On admet qu’il existe un ensemble, noté N, satisfaisant les axiomes de Peano suivants :
— N est muni d’un élément particulier noté 0 et d’une application “successeur”, notée s de N dans
N.
— 0 n’est le successeur d’aucun entier : ∀n ∈ N, s(n) 6= 0.
— s est une application injective : pour tout n, m ∈ N, si s(n) = s(m), alors n = m.
— Pour toute partie F de N, si 0 ∈ F et si pour tout n ∈ F , s(n) ∈ F , alors F = N.
Principe de récurrence : Soit R(n) un prédicat sur N.
Si R(0) est vraie et si pour tout n ∈ N, R(n) implique R(s(n)),
alors pour tout n ∈ N, R(n) est vraie.

c Eric Merle 2 MPSI2 LLG


16
Semaine 4 : Résumé de cours 2 Formules propositionnelles

Addition entre entiers : Pour tout m ∈ N, on pose


0 + m = m et
∀n ∈ N, s(n) + m = s(n + m).
Ces conditions définissent l’addition entre entiers.
Propriétés de l’addition :
— 0 est neutre : ∀m ∈ N, m + 0 = 0 + m = m.
— Associativité : ∀n, m, k ∈ N, (n + m) + k = n + (m + k).
— Commutativité : ∀n, m ∈ N, n + m = m + n.

1.6 Produit cartésien


Définition. Si a et b sont deux objets, posons (a, b) = {{a}, {a, b}}. On l’appellera le “couple de
composantes a et b”. Alors, (a, b) = (c, d) si et seulement si a = c et b = d.
Il faut savoir le démontrer.
Définition. Si A et B sont deux ensembles, on pose A × B = {(a, b)/a ∈ A et b ∈ B}.
A × B s’appelle le produit cartésien de A et B.
Définition. Un couple est aussi un 2-uplet. Pour n ≥ 3, on définit récursivement la notion de n-uplet
(ou n-liste) en écrivant : (a1 , . . . , an ) = ((a1 , . . . , an−1 ), an ).
Alors, (a1 , . . . , an ) = (b1 , . . . , bn ) si et seulement si ∀i ∈ {1, . . . , n}, ai = bi .
Notation. N∗ désigne N \ {0}.
Définition. Soit n ∈ N∗ . Si A1 , . . . , An sont n ensembles, on pose
A1 × · · · × An = {(a1 , . . . , an )/∀i ∈ {1, . . . , n}, ai ∈ Ai }.
Si E est un ensemble, on note E n = E × · · · × E .
| {z }
nf ois

Remarque. Convention, lorsque n = 1, le “1-uplet” (a) est égal à a.


Avec cette convention, E 1 = E.
Commutativité de deux quantificateurs universels :
Soit E et F deux ensembles. Notons P (x, y) un prédicat défini sur E × F . Alors
[∀(x, y) ∈ E × F, P (x, y)] ⇐⇒ [∀x ∈ E, ∀y ∈ F, P (x, y)]
⇐⇒ [∀y ∈ F, ∀x ∈ E, P (x, y)]
Commutativité de deux quantificateurs existentiels :De même,
[∃(x, y) ∈ E × F, P (x, y)] ⇐⇒ [∃x ∈ E, ∃y ∈ F, P (x, y)]
⇐⇒ [∃y ∈ F, ∃x ∈ E, P (x, y)]
ATTENTION :
Un quantificateur universel ne commute pas avec un quantificateur existentiel.
“∀x ∈ E, ∃y ∈ F, P (x, y)” si et seulement si il existe une application
x 7−→ y(x) de E dans F tel que, pour tout x ∈ E, P (x, y(x)),
et “∃y ∈ F, ∀x ∈ E, P (x, y)” si et seulement si il existe une application constante
x 7−→ y0 de E dans F , telle que pour tout x ∈ E, P (x, y0 ).
On voit qu’en général, la seconde affirmation implique la première mais que la réciproque est fausse.

2 Formules propositionnelles
2.1 Syntaxe
Définition par induction des formules propositionnelles : on part d’un ensemble V dont les
éléments sont appelés des variables propositionnelles. On utilise également les “connecteurs logiques”
suivants : ∧, ∨, =⇒, ⇐⇒, ¬.
L’ensemble F des formules propositionnelles est défini par induction structurelle :

c Eric Merle 3 MPSI2 LLG


17
Semaine 4 : Résumé de cours 2 Formules propositionnelles

— Les variables propositionnelles sont des formules propositionnelles.


— si P, Q ∈ F , alors (P ∧ Q), (P ∨ Q), (P =⇒ Q), (P ⇐⇒ Q) et ¬P sont aussi des formules
propositionnelles.
Plus précisément, si l’on note F0 = V, et pour tout n ∈ N, [
Fn+1 = Fn ∪ {¬P/P ∈ Fn } ∪ {(P αQ)/P, Q ∈ Fn et α ∈ {∧, ∨, =⇒, ⇐⇒}}, alors F = Fn .
n∈N

Remarque. Une formule propositionnelle s’appelle aussi une proposition, une assertion, une formule,
un énoncé, une expression booléenne, etc.
Définition. Si P et Q sont deux formules propositionnelles, P ∧ Q (prononcer “P et Q”) s’appelle la
conjonction de P et de Q, P ∨ Q (prononcer “P ou Q”) s’appelle la disjonction de P et de Q, P =⇒ Q
s’appelle une implication, P ⇐⇒ Q est une équivalence, et ¬P est la négation de la proposition P .

2.2 Sémantique

Définition. Une distribution de valeurs de vérité sur l’ensemble V des variables propositionnelles est
une application de V dans l’ensemble {V, F }.
Définition. Soit v une distribution de valeurs de vérité sur l’ensemble V. On prolonge v sur l’ensemble
des formules propositionnelles construites à partir de V de la manière suivante : pour toutes formules
propositionnelles P et Q,
— v(P ∧ Q) = 1 si et seulement si v(P ) = v(Q) = 1.
— v(P ∨ Q) = 1 si et seulement si v(P ) = 1 ou v(Q) = 1.
— v(P =⇒ Q) = 0 si et seulement si v(P ) = 1 et v(Q) = 0.
— v(P ⇐⇒ Q) = 1 si et seulement si v(P ) = v(Q).
— v(¬P ) = 1 si et seulement si v(P ) = 0.
Définition. La définition précédente est équivalente à la donnée des “tables de vérité” des connecteurs
logiques ∧, ∨, =⇒, ⇐⇒ et ¬ :
P Q P ∧ Q P ∨ Q P =⇒ Q
V V V V V
V F F V F
F V F V V
F F F F V
Définition. Lorsque P =⇒ Q, on dit que P est une condition suffisante pour Q et que Q est une
condition nécessaire pour P .
Lorsque P ⇐⇒ Q, on dit que P est une condition nécessaire et suffisante pour Q.
Définition. Une tautologie est une formule propositionnelle qui est toujours vraie, quelle que soit la
distribution de valeurs de vérité des variables propositionnelles qui interviennent dans la formule.
Exemple. Quelques tautologies à connaı̂tre ( A, B, C désignent des formules propositionnelles quel-
conques) :
1. (A ∨ (B ∨ C)) ⇐⇒ ((A ∨ B) ∨ C) : associativité de ∨ (∧ est aussi associatif),
2. (A ∧ (B ∨ C)) ⇐⇒ ((A ∧ B) ∨ (A ∧ C)) : distributivité de ∧ par rapport à ∨,
3. (A ∨ (B ∧ C)) ⇐⇒ ((A ∨ B) ∧ (A ∨ C)) : distributivité de ∨ par rapport à ∧,
4. (A ∧ (A ∨ B)) ⇐⇒ A : première loi d’absorption,
5. ((A ∨ (A ∧ B)) ⇐⇒ A seconde loi d’absorption,
6. (¬(A ∨ B)) ⇐⇒ (¬A ∧ ¬B) : loi de Morgan,
7. (¬(A ∧ B)) ⇐⇒ (¬A ∨ ¬B) : loi de Morgan,
8. (A =⇒ B) ⇐⇒ (¬A) ∨ B (une définition de l’implication),

c Eric Merle 4 MPSI2 LLG


18
Semaine 4 : Résumé de cours 2 Formules propositionnelles

9. ¬(A =⇒ B) ⇐⇒ A ∧ (¬B),
10. (A =⇒ B) ⇐⇒ (¬B =⇒ ¬A) : contraposition.
11. ((A =⇒ B) ∧ (B =⇒ C)) =⇒ (A =⇒ C) (règle du modus ponens).
Il faut savoir le démontrer.
Définition. On dit que deux propositions P et Q sont logiquement équivalentes si et seulement si la
proposition P ⇐⇒ Q est une tautologie. On notera alors P ≡ Q
Ainsi, lorsque l’on ne s’intéresse qu’à la valeur booléenne des propositions, on peut remplacer toute
proposition par une proposition qui lui est logiquement équivalente.
Exemple. (A ∧ (B ∨ C)) ≡ ((A ∧ B) ∨ (A ∧ C)).
¬(A =⇒ B) ≡ A ∧ ¬B et A =⇒ B ≡ ¬A ∨ B.
Définition. La contraposée de l’implication A =⇒ B est égale à ¬B =⇒ ¬A.
Toute implication est logiquement équivalente à sa contraposée.

2.3 Négation d’une proposition


 ¬(A ∨ B) est logiquement équivalente à (¬A) ∧ (¬B),
¬(A ∧ B) est logiquement équivalente à (¬A) ∨ (¬B).
 ¬(¬A) est logiquement équivalente à A.
 ¬(A =⇒ B) est logiquement équivalente à A ∧ (¬B).
 Une équivalence est la conjonction de deux implications, donc
¬(A ⇐⇒ B) est logiquement équivalente à [¬(A =⇒ B)] ∨ [¬(B =⇒ A)].
Propriété. Soit P un prédicat sur un ensemble E.
¬[∀x ∈ E, P (x)] ⇐⇒ [∃x ∈ E, ¬P (x)]
et ¬[∃x ∈ E, P (x)] ⇐⇒ [∀x ∈ E, ¬P (x)].
Exemple. Savoir nier qu’une suite (xn )n∈N de réels converge vers 0 :
¬[∀ε > 0, ∃N ∈ N, ∀n ∈ N, [n ≥ N =⇒ |xn | ≤ ε]] ≡ · · ·.
Propriété. Soit A et B deux ensembles de E.
Soit (Ei )i∈I une famille de parties de E, avec I 6= ∅. Alors,
— A = A, A ∪ B = A ∩ B, A ∩ B = A ∪ B,
— A ⊂ B ⇐⇒ B ⊂ A,
\ [ [ \
— Ei = Ei , , Ei = Ei .
i∈I i∈I i∈I i∈I

c Eric Merle 5 MPSI2 LLG


19
Semaine 5 – Relations binaires, d’ordre, ordre naturel, minimum et max dans N, relations d’équivalence

Semaine 5 : Résumé de cours

1 Relations binaires
1.1 Définitions
Définition. Une relation binaire R sur E × F est une partie de E × F , mais on notera “xRy” au
lieu de “(x, y) ∈ R”. Le graphe de R est {(x, y) ∈ E × F/xRy}, donc le graphe de R est . . . égal à R.
Définition. Lorsque E = F , on dit que
— R est réflexive si et seulement si ∀x ∈ E, xRx,
— R est symétrique si et seulement si ∀x, y ∈ E, (xRy) =⇒ (yRx),
— R est antisymétrique si et seulement si ∀x, y ∈ E, [(xRy) ∧ (yRx) =⇒ x = y],
— et R est transitive si et seulement si ∀x, y, z ∈ E, [(xRy) ∧ (yRz) =⇒ (xRz)].

1.2 Relations d’ordre


Définition. Une relation binaire R sur un ensemble E est appelée une relation d’ordre si et seulement
si R est réflexive, antisymétrique et transitive.
Exemple. Si A est un ensemble, la relation d’inclusion est une relation d’ordre sur P(A).
Définition. Une relation d’ordre R sur un ensemble E est totale si et seulement si pour tout couple
(x, y) de E 2 , x et y sont comparables, c’est-à-dire (xRy) ∨ (yRx). Sinon, on dit que l’ordre est partiel.
Exemple. La relation d’inclusion sur P(A) n’est pas totale dès que A possède plus de deux éléments.
Définition. Soit F une partie de E et m ∈ E. On dit que m est un majorant de F si et seulement
si pour tout a ∈ F , a  m. On définit de même la notion de minorant d’une partie de E.
On dit qu’une partie est majorée si et seulement si elle possède au moins un majorant.
On dit qu’une partie est minorée si et seulement si elle possède au moins un minorant.
On dit qu’une partie est bornée si et seulement si elle est majorée et minorée.
Définition. Si F est une partie de E et m ∈ E, on dit que m est le maximum de F si et seulement
si m majore F et m ∈ F . On le note max(F ). On défnit de même le minimum de F .
Définition. La borne supérieure de F est le minimum de l’ensemble des majorants (lorsqu’il existe).
On le note sup(F ). La borne inférieure de F est le maximum de l’ensemble des minorants (lorsqu’il
existe). On le note inf(F ).
Définition. Soit F une partie de E et m un élément de F .
m est maximal dans F si et seulement si ∀x ∈ F (x  m =⇒ x = m), i.e ∀x ∈ F, ¬(x  m).
m est minimal dans F si et seulement si ∀x ∈ F (x  m =⇒ x = m), i.e ∀x ∈ F, ¬(x ≺ m).
Propriété. Lorsque la relation d’ordre est totale, toute partie F de E possède au plus un élément
maximal et dans ce cas, c’est le maximum de F . Idem avec minimal et minimum.
Exercice. Si E est un ensemble fini et non vide, pour tout ordre défini sur E, montrer que E
possède au moins un élément minimal.
A connaı̂tre.

1
20
Semaine 5 : Résumé de cours 1 Relations binaires

1.3 L’ordre naturel et la soustraction


L’ordre naturel : Pour tout n, m ∈ N,
on convient que n ≤ m si et seulement si ∃k ∈ N, m = n + k.
Dans ce cas, k est unique. On le note k = m − n.
La relation binaire ≤ ainsi définie est un ordre total sur N.
Définition. On vient de montrer que, si n est un entier naturel,
pour tout h, k ∈ N, n + h = n + k implique h = k. On dit que n est régulier.
Il faut savoir le démontrer.

Propriété. Soit m, n ∈ N. Si m < n, alors m + 1 ≤ n.

1.4 Multiplication dans N et relation de divisibilité


Multiplication entre entiers : Pour tout m ∈ N, on pose
0 × m = 0 et ∀n ∈ N, s(n) × m = n × m + m.
Ces conditions définissent l’addition entre entiers.
Propriétés de la multiplication :
— 0 est absorbant : ∀m ∈ N, m × 0 = 0 × m = 0.
— 1 est neutre : ∀m ∈ N, m × 1 = 1 × m = m.
— Distributivité de la multiplication par rapport à l’addition :
∀n, m, p ∈ N, n(m + p) = (nm) + (np) = nm + np : les dernières parenthèses sont inutiles si
l’on convient que la multiplication est prioritaire devant l’addition.
— Associativité : ∀n, m, k ∈ N, (n × m) × k = n × (m × k).
— Commutativité : ∀n, m ∈ N, n × m = m × n.
La relation d’ordre est compatible avec la multiplication :
Pour tout a, b, c, d ∈ N, si a ≤ b et c ≤ d, alors ac ≤ bd.
Propriété. Soit n, k ∈ N.
Si nk = 0, alors n = 0 ou k = 0.
Si nk = 1, alors n = k = 1.
Définition. Soit n, m ∈ N. On dit que n divise m, que n est un diviseur de m, ou encore que m est
un multiple de n si et seulement si il existe k ∈ N tel que m = kn. On note n|m.
Remarque. Tout entier divise 0 mais 0 ne divise que lui-même.
Définition. un nombre premier est un entier n supérieur à 2 dont les seuls diviseurs sont 1 et n.
Propriété. La relation de divisibilité est une relation d’ordre partiel sur N.
Il faut savoir le démontrer.

1.5 Maximum et minimum dans N

Propriété. Toute partie non vide et majorée de N possède un maximum.


Il faut savoir le démontrer.
Propriété. Soit a, b ∈ N avec b 6= 0. Il existe un unique couple (q, r) ∈ N2 tel que a = bq + r et
0 ≤ r < b. On dit que q et r sont le quotient et le reste de la division euclidienne de a par b.
Il faut savoir le démontrer.
Propriété. Toute partie non vide de N possède un minimum.
Il faut savoir le démontrer.

c Eric Merle 2 MPSI2 LLG


21
Semaine 5 : Résumé de cours 1 Relations binaires

Remarque. Un ensemble ordonné dont toute partie non vide possède un plus petit élément est
appelé un ensemble bien ordonné.
Principe de la descente infinie : pour montrer que “∀n ∈ N, R(n)”, une alternative à la récurrence
est de raisonner par l’absurde en supposant qu’il existe n ∈ N tel que ¬[R(n)]. Ainsi, l’ensemble
F = {n ∈ N/¬R(n)} possède un minimum n0 . On peut parfois aboutir à une contradiction en
construisant un entier vérifiant m < n0 et m ∈ F .

1.6 Relations d’équivalence

Définition. Une relation binaire sur un ensemble E est une relation d’équivalence si et seulement si
R est réflexive, symétrique et transitive.
Exemple fondamental : Soit E et F deux ensembles et f : E −→ F une application.
Convenons que, pour tout x, y ∈ E, x R y ⇐⇒ f (x) = f (y).
Alors R est une relation d’équivalence sur E.
Définition. Soit R une relation d’équivalence sur E.
Si x ∈ E, on note x l’ensemble des y ∈ E tels que xRy.
x s’appelle la classe d’équivalence de x.
On désigne par E/R l’ensemble des classes d’équivalence : E/R = {x/x ∈ E}.
E/R s’appelle l’ensemble quotient de E par R.
Propriété. pour tout x, y ∈ E, xRy ⇐⇒ x = y.
Il faut savoir le démontrer.
Définition. Une partition P de E est une partie de P(E) telle que :
— pour tout A, B ∈ P, A 6= B =⇒ A ∩ B = ∅,
— pour [tout A ∈ P, A 6= ∅,
— et A = E.
A∈P

Théorème. Si R est une relation d’équivalence sur E, son ensemble quotient E/R est une partition
de E. Réciproquement, si P est une partition de E, il existe une unique relation d’équivalence R sur
E telle que P = E/R : Elle est définie par ∀x, y ∈ E, [xRy ⇐⇒ (∃C ∈ P, x, y ∈ C)]. En résumé, la
donnée d’une relation d’équivalence sur E est équivalente à la donnée d’une partition de E.
Il faut savoir démontrer la première phrase.

c Eric Merle 3 MPSI2 LLG


22
Semaine 6 – Axiome du choix, construction de Z, ordre, anneau et sous-groupes de Z, arithmétique

Semaine 6 : Résumé de cours

1 Axiome du choix
En voici deux énoncés équivalents.
— Pour tout ensemble I, pour toute famille (Ei )i∈I d’ensembles tous non vides, il existe une
famille (xi )i∈I telle que, pour tout i ∈ I, xi ∈ Ei .
— Pour tout ensemble E, pour toute relation d’équivalence sur E, il existe un ensemble R tel que
l’intersection de R avec chaque classe d’équivalence est un singleton.

2 L’art de la démonstration
La structure d’une démonstration se construit avant tout en fonction de la structure de la propriété
à démontrer. En conséquence, on regarde d’abord la cible à atteindre et seulement lorsque c’est
nécessaire les hypothèses dont on dispose pour y parvenir. On ne sait pas a priori sous quelles formes
ces hypothèses seront utilisées.

2.1 Démontrer une disjonction


Pour montrer P ∨ Q, on peut supposer que P est fausse et démontrer Q, ou bien supposer que Q est
fausse et montrer P .

2.2 Démonstration par disjonction de cas


Pour démontrer une propriété dépendant de certains paramètres, on peut être amené à étudier plu-
sieurs cas selon les valeurs de ces paramètres. Il importe que la réunion des différents cas étudiés
recouvre toutes les valeurs possibles des paramètres.

2.3 Résoudre une équation

Définition. Si P est un prédicat sur un ensemble E, “résoudre l’équation P(x), en l’inconnue x ∈ E”,
c’est calculer {x ∈ E/P (x)} qu’on appelle alors l’ensemble des solutions de l’équation.
“calculer” signifie “donner l’ensemble des solutions sous la forme la plus simple possible”.
Remarque. La plupart des équations sont de la forme “f (x) = g(x)”, où f et g sont deux applications
de E dans un autre ensemble F .
Lorsque F = R, on rencontre parfois des équations de la forme “f (x) ≤ g(x)”, ou “f (x) < g(x)”.
Dans ce cas, on parle plutôt d’inéquations.
Méthode :
— Précisez d’abord pour quelles valeurs x ∈ E l’équation a bien un sens. Par exemple, pour une
équation de la forme “f (x) = g(x)”, il faudra d’abord rechercher les domaines de défnition de
f et de g.

1
23
Semaine 6 : Résumé de cours 2 L’art de la démonstration

— Autant que possible, raisonnez par équivalence comme dans l’exemple précédent.
Cependant le fait de raisonner par équivalence impose parfois trop de lourdeur à la rédaction.
Lorsqu’on choisit de raisonner par implication, après avoir montré que P (x) =⇒ x ∈ S, pour un
certaine partie S de E, il restera à rechercher quels sont les éléments de S qui sont effectivement
solutions.

2.4 Implication
Pour montrer [P =⇒ Q], on suppose que P est vraie (hypothèse supplémentaire) et on démontre Q.
Raisonnement par contraposition : l’implication P =⇒ Q est logiquement équivalente à
(¬Q) =⇒ (¬P ), qui est appelée sa contraposée. Ainsi, pour démontrer P =⇒ Q, on peut raisonner par
contraposition, c’est-à-dire démontrer (¬Q) =⇒ (¬P ) : on suppose que Q est fausse et on démontre
que P est fausse.
Le raisonnement par l’absurde : cela consiste à supposer que R est fausse et à aboutir à une
contradiction, souvent de la forme S ∧ (¬S).
Pour montrer que [P ⇐⇒ Q], on montre souvent [P =⇒ Q] puis la réciproque [Q =⇒ P ].
Dans des cas simples, on peut raisonner par une succession d’équivalences.
Pour montrer que les propriétés P1 , . . . , Pk sont équivalentes, on peut se contenter de montrer le cycle
d’implications P1 =⇒ P2 =⇒ · · · =⇒ Pk =⇒ P1 . Mais la liste P1 , . . . , Pk n’est pas toujours donnée
dans l’ordre idéal. Il convient donc parfois de la réordonner.

2.5 Quantificateurs
Pour montrer que [∀x ∈ E, P (x)], le plus souvent, on prend x quelconque dans E,
en écrivant “soit x ∈ E”, puis on démontre P (x).
Pour montrer que [∃x ∈ E, P (x)], la méthode directe consiste à construire un élément x de E
satisfaisant P (x).
On peut aussi raisonner par l’absurde, en supposant que [∀x ∈ E, ¬(P (x))] et en recherchant une
contradiction. Il faut cependant que cette nouvelle hypothèse se marie bien avec les autres hypothèses.
Pour montrer que ¬(∀x ∈ E, P (x)), on peut rechercher un x dans E tel que P (x) est fausse. Dans
ce contexte, x est appelé un contre-exemple du prédicat P (x).

2.6 Existence et unicité


Comment montrer une propriété de la forme [∃!x ∈ E, P (x)] ?
Dans de nombreux exercices et problèmes, l’énoncé d’une telle propriété se présente sous la forme :
“montrer qu’il existe x ∈ E tel que P (x), puis montrer que x est unique”.
Sur le plan ontologique, tout objet mathématique est unique, mais ce n’est pas du tout ce qui est
demandé par l’énoncé. La propriété “x est unique” dépend de P .
En mathématiques, l’unicité est toujours prononcée relativement à un prédicat. Par exemple, 2 est
l’unique entier premier et pair, mais 2 n’est pas l’unique entier pair inférieur à 10.
Pour montrer qu’il existe un unique x ∈ E tel que P (x), il est souvent préférable de séparer l’existence
et l’unicité. Pour l’unicité, il faut montrer que {x ∈ E/P (x)} ne possède pas deux éléments distincts,
par exemple en supposant qu’il existe x, y ∈ E vérifiant P (x) et P (y) et en prouvant que x = y.
Mais il y a d’autres méthodes :
— On peut montrer que {x ∈ E/P (x)} est un singleton.
— On peut résoudre l’équation “P (x)” en l’inconnue x pour montrer qu’elle admet une seule
solution.
— On peut raisonner par analyse-synthèse :

c Eric Merle 2 MPSI2 LLG


24
Semaine 6 : Résumé de cours 3 Z

2.7 Démonstration par analyse-synthèse


Ce mode de raisonnement est envisageable lorsque la propriété à démontrer est de la forme
[∃x ∈ E, P (x)]. Il se décompose en deux parties :
 L’analyse : on suppose qu’il existe x ∈ E tel que P (x).
C’est a priori très étrange, car on suppose justement ce qu’il faut démontrer !
A partir du fait que x vérifie x ∈ E et P (x), on cherche à préciser quelles sont les valeurs possibles
pour x,.
Il est fréquent que l’analyse conduise à une seule valeur possible pour x.
 La synthèse : Parmi ces différentes valeurs possibles, on en recherche une qui vérifie P (x).

2.8 Démonstrations par récurrence


Principe de récurrence :
Soit n0 ∈ N∗ . Soit R(n) un prédicat défini pour tout entier n ≥ n0 .
Si R(n0 ) est vraie et si pour tout n ≥ n0 , R(n) implique R(n + 1),
alors pour tout n ∈ N tel que n ≥ n0 , R(n) est vraie.
Principe de récurrence ascendante finie : Soit n, m ∈ N avec n ≤ m.
Soit R(k) un prédicat défini pour k ∈ [[n, m]].
Si R(n) est vraie et si pour tout k ∈ [[n, m − 1]], R(k) implique R(k + 1),
alors R(k) est vraie pour tout k ∈ [[n, m]].
Principe de récurrence descendante finie : Soit n, m ∈ N avec n ≤ m.
Soit R(k) un prédicat défini pour k ∈ [[n, m]].
Si R(m) est vraie et si pour tout k ∈ [[n + 1, m]], R(k) implique R(k − 1),
alors R(k) est vraie pour tout k ∈ [[n, m]].
Principe de récurrence forte :
Soit n0 ∈ N. Soit R(n) un prédicat défini pour tout entier n ≥ n0 .
Si R(n0 ) est vraie et si pour tout n ≥ n0 , [∀k ∈ {n0 , . . . , n}, R(k)] implique R(n + 1),
alors pour tout n ∈ N tel que n ≥ n0 , R(n) est vraie.
Principe de récurrence double :
Soit n0 ∈ N. Soit R(n) un prédicat défini pour tout entier n ≥ n0 .
Si R(n0 ) et R(n0 + 1) sont vraies et si
pour tout n ≥ n0 , [R(n) ∧ R(n + 1)] implique R(n + 2),
alors pour tout n ∈ N tel que n ≥ n0 , R(n) est vraie.

3 Z
3.1 Construction de Z

Définition. Z = N2 /R, où R est la relation d’équivalence suivante sur N2 :


∀a, b, c, d ∈ N, (a, b)R(c, d) ⇐⇒ a + d = b + c.

Si (a, b), (c, d) ∈ Z, on pose (a, b) + (c, d) = (a + c, b + d)

et (a, b) × (c, d) = (ac + bd, ad + bc).

c Eric Merle 3 MPSI2 LLG


25
Semaine 6 : Résumé de cours 3 Z

3.2 L’anneau Z

Propriété. L’addition sur Z vérifie les propriétés suivantes :



— 0 = (0, 0) est neutre : ∀m ∈ Z, m + 0 = 0 + m = m.
— Associativité : ∀n, m, k ∈ Z, (n + m) + k = n + (m + k).
— Commutativité : ∀n, m ∈ Z, n + m = m + n.
— Tout élément possède un symétrique : ∀n ∈ Z, ∃m ∈ Z, n + m = 0.
On résume ces propriétés en disant que (Z, +) est un groupe commutatif.
Propriété. La multiplication sur Z vérifie les propriétés suivantes :

— 1 = (1, 0) est neutre : ∀m ∈ Z, m × 1 = 1 × m = m.
— Distributivité de la multiplication par rapport à l’addition :
∀n, m, p ∈ Z, n(m + p) = nm + np.
— Associativité : ∀n, m, k ∈ Z, (n × m) × k = n × (m × k).
— Commutativité : ∀n, m ∈ Z, n × m = m × n.
On résume ces propriétés et le fait que (Z, +) est un groupe commutatif en disant que (Z, +, ×) est
un anneau commutatif.

3.3 L’ordre de Z
Compatibilité de la relation d’ordre avec l’addition :
∀x, y, x0 , y 0 ∈ Z, [x ≤ y] ∧ [x0 ≤ y 0 ] =⇒ x + x0 ≤ y + y 0 .
Identification de N avec une partie de Z : on identifie n ∈ N avec (n, 0).
Règle des signes :
— ∀n ∈ Z, n ≥ 0 ⇐⇒ n ∈ N.
— ∀n, m ∈ Z, ([n ≥ 0] ∧ [m ≥ 0]) =⇒ nm ≥ 0.
— ∀n ∈ Z, n ≥  0 ⇐⇒ −n ≤ 0.
si a ≥ 0, x ≤ y =⇒ ax ≤ ay,
— ∀x, y, a ∈ Z,
si a ≤ 0, x ≤ y =⇒ ax ≥ ay.
Propriété. Toute partie non vide majorée de Z possède un maximum.
Toute partie non vide minorée de Z possède un minimum.
Définition. Soit n ∈ Z.
Le signe de n au sens large est
— 1 ou bien “positif” lorsque n ≥ 0,
— −1 ou bien “négatif” lorsque n ≤ 0.
Le signe de n au sens strict est
— 1 ou bien “strictement positif” lorsque n > 0,
— 0 ou bien “nul” lorsque n = 0,
— −1 ou bien “strictement négatif” lorsque n < 0.
Définition. Pour tout n ∈ Z, on note |n| = max{−n, n}.
Propriété. Pour tout n ∈ Z, n ≤ |n|, avec égalité si et seulement si n ≥ 0. De plus |n|2 = n2 .
Propriété. ∀n, m ∈ Z, |nm| = |n||m|.
Propriété. Z est un anneau intègre, c’est-à-dire que, pour tout n, m ∈ Z,
nm = 0 =⇒ [(n = 0) ∨ (m = 0)].
Remarque. Soit D une partie de R.
L’ensemble des applications de D dans R, noté F(D, R), muni de l’addition et du produit entre
fonctions, est un anneau. Les éléments neutres sont respectivement l’application identiquement nulle
et l’application constante égale à 1.

c Eric Merle 4 MPSI2 LLG


26
Semaine 6 : Résumé de cours 3 Z

Cependant cet anneau n’est pas intègre car on peut avoir f g = 0 alors que f 6= 0 et g 6= 0.
Cet exemple est à connaı̂tre.
Propriété. Soit n, m ∈ Z2 . nm ≥ 0 si et seulement si n et m sont de même signe au sens large.
Propriété. Soit a, b, n ∈ Z tels que an ≤ bn. Si n > 0 alors a ≤ b et si n < 0, alors a ≥ b.
Inégalité triangulaire : ∀n, m ∈ Z, |n + m| ≤ |n| + |m|, avec égalité si et seulement si n et m sont
de même signe.
Il faut savoir le démontrer.

3.4 Les sous-groupes de Z


Division euclidienne dans Z : Pour tout a, b ∈ Z avec b 6= 0, il existe un unique couple (q, r) ∈ Z2
tel que a = bq + r et 0 ≤ r < |b|. q et r sont appelés les quotient et reste.
Définition. Une partie G de Z est un sous-groupe de Z si et seulement si
— G 6= ∅,
— ∀(x, y) ∈ G2 , x + y ∈ G,
— ∀x ∈ G, −x ∈ G.
Propriété. Soit G un sous-groupe de Z.
Pour tout n ∈ Z et g ∈ G, ng ∈ G.
Pour tout n ∈ G, nZ ⊂ G.
Il faut savoir le démontrer.
Corollaire. Soit G un sous-groupe de Z. Alors 1 ∈ G ⇐⇒ G = Z .
Théorème. Les sous-groupes de (Z, +) sont exactement les nZ, où n ∈ N.
Il faut savoir le démontrer.
Propriété. Une intersection de sous-groupes de Z est un sous-groupe de Z.
Il faut savoir le démontrer.
Définition. Soit B une partie de Z. Le groupe engendré par B est l’intersection des sous-groupes de
Z contenant B. C’est le plus petit sous-groupe contenant B. On le note Gr(B).
Propriété. Soient B et C deux parties de Z telles que C ⊂ B. Alors Gr(C) ⊂ Gr(B).
nX n o
Propriété. Gr(B) = ai bi /n ∈ N, (a1 , . . . , an ) ∈ Zn , (b1 , . . . , bn ) ∈ B n .
i=1
Il faut savoir le démontrer.

3.5 Divisibilité

Définition. Soit n, m ∈ Z. n|m si et seulement si il existe k ∈ Z tel que m = kn.


Propriété. Soit a, b ∈ Z avec b 6= 0. Alors b divise a si et seulement si le reste de la division
euclidienne de a par b vaut 0.
Remarque. Tout entier relatif divise 0 mais 0 ne divise que lui-même.
Remarque. Si n, m ∈ Z, n divise m si et seulement si |n| divise |m| dans N.
Propriété. Soit a, b, c ∈ Z.
— si b|a, alors pour tout α ∈ Z, b|αa.
— Si b | a et b | c, alors b | (a + c).
— Si b | a et d | c, alors bd | ac.
— si b | a, pour tout p ∈ N, bp | ap .

c Eric Merle 5 MPSI2 LLG


27
Semaine 6 : Résumé de cours 3 Z

Propriété. Soit p ∈ N et b, a1 , . . . , ap , c1 , . . . , cp ∈ Z.
X p
Si pour tout i ∈ {1, . . . , p}, b | ai , alors b | ci ai .
i=1

Propriété. Pour tout (a, b) ∈ Z , a|b ⇐⇒ bZ ⊆ aZ.


2

Propriété. La relation de divisibilité est réflexive et transitive.


Remarque. La relation de divisibilité n’est pas un ordre sur Z car −1|1 et 1| − 1.
Définition. Soit a, b ∈ Z. On dit que a et b sont premiers entre eux (ou étrangers) si et seulement si
les seuls diviseurs communs de a et b sont 1 et −1.
Définition. Soit n ∈ N avec n ≥ 2 et a1 , . . . , an ∈ Z.
— a1 , . . . , an sont deux à deux premiers entre eux si et seulement si, pour tout i, j ∈ {1, . . . , n}
avec i 6= j, ai et aj sont premiers entre eux.
— a1 , . . . , an sont globalement premiers entre eux si et seulement si les seuls diviseurs communs
de a1 , . . . , an sont 1 et −1.
Propriété. Si p ∈ P et a ∈ Z, alors ou bien p|a, ou bien p et a sont premiers entre eux.
Propriété. Soit p ∈ N \ {0, 1}. Les propriétés suivantes sont équivalentes :
1. p est premier.
2. p est premier avec tout entier qu’il ne divise pas.

3. p est premier avec tout nombre premier contenu dans [[2, p]].
Il faut savoir le démontrer.
le crible d’Ératosthène : pour dresser la liste ordonnée des nombres premiers inférieurs à n, initia-
lement, on pose L = [[2, n]] et on positionne un curseur sur 2. On supprime de L les multiples de 2,
sauf 2, puis on déplace le curseur sur l’entier suivant de L : il s’agit de 3, car il n’a pas été supprimé.
On supprime de L tous les multiples de 3, sauf 3, etc. Ainsi, à chaque itération, on déplace le curseur
sur le premier entier suivant qui est encore dans L et l’on supprime de L tous les multiples√ du curseur,
sauf le curseur. On arrête l’algorithme dès que le curseur est strictement supérieur à n.
Théorème. P est de cardinal infini.
Il faut savoir le démontrer.

3.6 Congruence

Définition. Relation de congruence : Soit k ∈ Z. ∀n, m ∈ Z, n ≡ m [k] ⇐⇒ k|(n − m).


C’est la relation de congruence modulo k, qui est une relation d’équivalence.
Propriété. Soit a, b ∈ Z avec b 6= 0 : il existe r ∈ {0, . . . , |b| − 1} tel que a ≡ r [b].
r est le reste de la division euclidienne de a par b.

Notation. La classe d’équivalence de n modulo k est n = {n + kh/h ∈ Z} = n + kZ.

Compatibilités de la congruence avec l’addition et la multiplication :


Pour tout n, m, h, k ∈ Z,
— n ≡ m [k] =⇒ h + n ≡ h + m [k] et
— n ≡ m [k] =⇒ hn ≡ hm [k].
Corollaire : ∀a, b, k ∈ Z, ∀n ∈ N, (a ≡ b [k] =⇒ an ≡ bn [k]).
Petit théorème de Fermat : (Admis pour le moment) Si p ∈ P et a ∈ Z,
(a 6≡ 0 [p]) =⇒ ap−1 ≡ 1 [p], donc dans tous les cas, ap ≡ a [p].

c Eric Merle 6 MPSI2 LLG


28
Semaine 6 : Résumé de cours 3 Z

Définition. Soit x0 ∈ R. Pour tout x, y ∈ R, on dit que x est congru à y modulo x0 et on note
x ≡ y [x0 ] si et seulement si il existe k ∈ Z tel que x − y = kx0 . La relation de congruence modulo x0
est une relation d’équivalence sur R. Elle est compatible avec l’addition entre réels mais pas avec la
multiplication entre réels.

3.7 PGCD

Définition. Soit (a, b) ∈ Z2 . aZ + bZ est le sous-groupe de Z engendré par {a, b}, donc il existe un
unique d ∈ N tel que aZ+bZ = dZ. On dit que d est le PGCD de a et b. On note d = PGCD(a, b) = a∧b.
Propriété. Pour la relation d’ordre de divisibilité dans N, a ∧ b = inf | {|a|, |b|}.
Il faut savoir le démontrer.
Remarque. Lorsque a ou b est un entier relatif non nul, au sens de l’ordre naturel sur N, a ∧ b est
aussi le plus grand diviseur commun de a et b.
Propriété. a et b sont premiers entre eux si et seulement si a ∧ b = 1.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ Z, on dit que d est le PGCD de a1 , . . . , ak
si et seulement si d ∈ N et dZ = a1 Z + · · · + ak Z = Gr{a1 , . . . , ak }. Alors d = inf | {a1 , . . . , ak }.
Si B est une partie quelconque de Z, on dit que d est le PGCD de B si et seulement si d ∈ N et
dZ = Gr(B). Alors d = inf | (B).
Propriété. Soit k ∈ N, a1 , . . . , ak ∈ Z et h ∈ {1, . . . , k}.
— Commutativité du PGCD :
P GCD(a1 , . . . , ak ) ne dépend pas de l’ordre de a1 , . . . , ak .
— Associativité du PGCD :
P GCD(a1 , . . . , ak ) = P GCD(a1 , . . . , ah ) ∧ P GCD(ah+1 , . . . , ak ).
— Distributivité de la multiplication par rapport au PGCD : pour tout α ∈ Z,
P GCD(αa1 , . . . , αak ) = |α|P GCD(a1 , . . . , ak ).
Il faut savoir le démontrer.

3.8 PPCM

Définition. Soit (a, b) ∈ Z2 . aZ ∩ bZ est un sous-groupe de Z, donc il existe un unique entier naturel
m tel que aZ ∩ bZ = mZ. On dit que m est un PPCM de a et b et on note m = a ∨ b.
Propriété. Soit (a, b) ∈ Z2 . a ∨ b = sup| {|a|, |b|}.
Remarque. Lorsque a et b sont des entiers relatifs non nuls, a ∨ b = min≤ {k ∈ N∗ / a|k et b|k}.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ Z, on dit que m est le PPCM de a1 , . . . , ak
si et seulement si m ∈ N et mZ = a1 Z ∩ · · · ∩ ak Z. Alors m = sup| {a1 , . . . , ak }.
Si B est\une partie quelconque de Z, on dit que m est le PPCM de B si et seulement si m ∈ N et
mZ = bZ. Alors m = sup| (B).
b∈B
\
Remarque. Dans ce contexte, on convient que si B = ∅, bZ = Z, donc 1 est le PPCM de ∅.
b∈B
Ainsi, toute partie de N possède une borne supérieure et une borne inférieure pour la relation d’ordre
de divisibilité. On dit que l’ensemble ordonné (N, | ) est un treillis complet.
Propriété. Soit k ∈ N, a1 , . . . , ak ∈ Z et h ∈ {1, . . . , k}.
— Commutativité du PPCM :
P P CM (a1 , . . . , ak ) ne dépend pas de l’ordre de a1 , . . . , ak .
— Associativité du PPCM :
P P CM (a1 , . . . , ak ) = P P CM (a1 , . . . , ah ) ∨ P P CM (ah+1 , . . . , ak ).

c Eric Merle 7 MPSI2 LLG


29
Semaine 6 : Résumé de cours 3 Z

— Distributivité de la multiplication par rapport au PPCM :


pour tout α ∈ Z, P P CM (αa1 , . . . , αak ) = |α|P P CM (a1 , . . . , ak ).

3.9 Les théorèmes de l’arithmétique


Théorème de Bézout. Soit (a, b) ∈ Z2 .
a et b sont premiers entre eux si et seulement si : ∃(u, v) ∈ Z2 ua + vb = 1.
Il faut savoir le démontrer.
Théorème de Bézout (généralisation). Soit n ∈ N avec n ≥ 2 et a1 , . . . , an ∈ Z.
a1 , . . . , an sont globalement premiers entre eux si et seulement si :
∃u1 , . . . , un ∈ Z , u1 a1 + · · · + un an = 1.
Propriété. Soit (a, b) ∈ Z2 . Posons d = a ∧ b.
Alors il existe (a0 , b0 ) ∈ Z2 , avec a0 et b0 premiers entre eux, tel que a = a0 d et b = b0 d.
Théorème de Gauss. Soit (a, b, c) ∈ Z3 . Si a|bc avec a et b premiers entre eux, alors a|c.
Il faut savoir le démontrer.
Corollaire. Soit p, a, b ∈ Z. Si p | ab et si p est premier, alors p | a ou p | b.
Corollaire. Soit (a, b, c) ∈ Z3 , n ∈ N∗ et a1 , . . . , an ∈ Z.
 Si a ∧ b = a ∧ c = 1, alors a ∧ bc = 1.
 On en déduit que, si a ∧ b = 1, ∀(k, l) ∈ (N∗ )2 ak ∧ bl = 1.
 Si a|b, c|b et a ∧ c = 1 alors ac|b. Par récurrence, on en déduit que
si pour tout i ∈ {1, . . . , n}, ai |b et si i 6= j =⇒ ai ∧ aj = 1, alors a1 × · · · × an | b.
 |ab| = (a ∧ b)(a ∨ b). En particulier, a ∧ b = 1 =⇒ a ∨ b = |ab|.
Il faut savoir le démontrer.
Théorème fondamental de l’arithmétique. Pour tout a ∈ Y N∗ , il existe une unique famille
(νp )p∈P ∈ N (i.e telle que {p ∈ P / νp 6= 0} est fini) telle que a =
(P)
pνp .
p∈P
C’est la décomposition de a en facteurs premiers. νp s’appelle la valuation p-adique de a.
Il faut savoir le démontrer.
Y Y
Propriété. si a = pνp et b = pµp , Alors a | b ⇐⇒ [∀p ∈ P, νp ≤ µp ].
Yp∈P p∈P
Y
De plus, a ∧ b = pmin(νp ,µp ) et a ∨ b = pmax(νp ,µp ) .
p∈P p∈P

Lemme d’Euclide. Soient (a, b) ∈ Z2 avec b 6= 0. Notons q et r les quotient et reste de la division
euclidienne de a par b. Alors a ∧ b = b ∧ r.
Algorithme d’Euclide. Soit a0 , a1 ∈ N∗ avec a0 > a1 .
Pour i ≥ 1, tant que ai 6= 0, on note ai+1 le reste de la division euclidienne de ai−1 par ai .
On définit ainsi une suite strictement décroissante d’entiers naturels (ai )0≤i≤N telle que aN = 0.
Alors a0 ∧ a1 = aN −1 .
De plus, lorsque a0 ∧a1 = 1, cet algorithme permet de calculer des entier s0 et t0 tels que 1 = s0 a0 +t0 a1 .
À connaı̂tre précisément.
Exercice. Soit a, b, c ∈ Z avec a et b non nuls.
Résoudre l’équation de Bézout (B) : au + bv = c en l’inconnue (u, v) ∈ Z2 .
À connaı̂tre.

c Eric Merle 8 MPSI2 LLG


30
Semaine 7 – Les rationnels Q, les réels R, intervalles, bornes supérieurs, R, valeur absolue et développement
décimal

Semaine 7 : Résumé de cours

1 Q
Définition. On définit une relation binaire R sur Z × Z∗ par (a, b)R(c, d) ⇐⇒ ad = bc. C’est une
relation d’équivalence. On pose Q = (Z × Z∗ )/R.
Pour tout (a, b) ∈ Z × Z∗ , on note ab = (a, b).
Pour l’écriture ab , on dit que a est son numérateur et que b est son dénominateur.
a c ∆ ac a c ∆ ad + cb
Pour tout (a, b), (c, d) ∈ Z × Z∗ , on pose × = et + = .
b d bd b d bd
On définit ainsi une addition et une multiplication sur Q.
Propriété. (Q, +, ×) est un corps, c’est-à-dire que
— (Q, +, ×) est un anneau,
— Q n’est pas réduit à {0} (on note Q∗ = Q \ {0}),
— Q est commutatif,
— tout élément non nul de Q est inversible : ∀x ∈ Q∗ , ∃y ∈ Q∗ , xy = 1.
Propriété. Comme tout corps, Q est intègre, c’est-à-dire que, pour tout x, y ∈ Q,
xy = 0 =⇒ [(x = 0) ∨ (y = 0)].
La démonstration dans un corps quelconque est à connaı̂tre.
Z −→ Q
Propriété. L’application permet d’identifier Z avec une partie de Q.
n 7−→ n1
On parvient à prolonger l’ordre de Z en un ordre sur Q, qui reste compatible avec l’addition et qui
vérifie la règle des signes pour le produit.
On prolonge aussi sur Q la notion de valeur absolue ainsi que ses propriétés vues dans Z.
Propriété. Pour tout x ∈ Q, il existe un unique couple (a, b) tel que x = ab avec a ∈ Z et b ∈ N∗ ,
tels que a et b sont premiers entre eux. On dit alors que ab est la forme irréductible de x.
Démonstration à connaı̂tre.

Exercice. Montrer que 2 est irrationnel.
A connaı̂tre.
Q est archimédien :
Soit x et y deux rationnels strictement positifs. Alors il existe n ∈ N tel que x < ny.

2 L’ensemble R des réels


2.1 Corps totalement ordonnés

Définition. Soit (K, +, ×) un corps muni d’une relation d’ordre .


On dit que (K, +, ×, ) est un corps ordonné si et seulement si
— Compatibilité avec l’addition : ∀x, y, z ∈ K, [x  y] =⇒ [x + z  y + z].
— Compatibilité avec le produit, règle des signes :
∀x, y ∈ K, [0  x] ∧ [0  y] =⇒ [0  xy].

1
31
Semaine 7 : Résumé de cours 2 L’ensemble R des réels

2.2 Bornes supérieures

Définition. Soit E un ensemble muni d’une relation d’ordre . Soit A ⊂ E.


Lorsque l’ensemble des majorants de A possède un plus petit élément, ce minimum est appelé la borne
supérieure de A, et noté sup A.
Lorsque l’ensemble des minorants de A possède un plus grand élément, ce maximum est appelé la
borne inférieure de A, et noté inf A.
Propriété. Soit (E, ) un ensemble ordonné et A ⊂ E.
Si A possède un maximum, alors A possède une borne supérieure et sup A = max A.
Cependant, il est “fréquent” que A ne possède pas de maximum, mais possède une borne supérieure.
Dans ce cas, sup A ∈/ A.
Propriété. Soit (E, ) un ensemble ordonné et soit A, B ∈ P(E).
Si A et B possédent des bornes supérieures : si B ⊂ A, alors sup(B) ≤ sup(A).
Si A et B possédent des bornes inférieures : si B ⊂ A, alors inf(B) ≥ inf(A).
Démonstration à connaı̂tre.

2.3 Une caractérisation de R.

Caractérisation de R : (admise)
Il existe au moins un corps K totalement ordonné dans lequel toute partie non vide majorée admet
une borne supérieure.
De plus si K 0 est un autre corps totalement ordonné dans lequel toute partie non vide majorée admet
une borne supérieure, il existe une bijection f de K dans K 0 telle que f est un morphisme de corps
ordonnés, c’est-à-dire :
— ∀x, y ∈ K, x ≤ y =⇒ f (x) ≤ f (y),
— ∀x, y ∈ K, f (x + y) = f (x) + f (y),
— ∀x, y ∈ K, f (xy) = f (x)f (y),
— f (1K ) = 1K 0 .
Cela signifie que, quitte à renommer x en f (x), K et K 0 sont égaux, tant que dans K et K 0 on se
contente d’utiliser leurs structures de corps totalement ordonnés.
Ainsi, à un morphisme bijectif près, il existe un unique corps totalement ordonné dans lequel toute
partie non vide majorée admet une borne supérieure. Il est noté R et ses éléments sont appelés les
réels.
Il existe un morphisme injectif de corps ordonné de Q dans R, qui permet d’identifier Q avec une
partie de R.

Propriété. Toute partie non vide minorée de R possède une borne inférieure.
Il faut savoir le démontrer.
Passage à la borne supérieure (resp : inférieure) : Soit (E, ) un ensemble ordonné et soit A
une partie de E possédant une borne supérieure.
 Soit e ∈ E. Alors sup(A) ≤ e ⇐⇒ [∀a ∈ A, a ≤ e].
Le fait de passer de la propriété “∀a ∈ A, a ≤ e” à l’affirmation “sup(A) ≤ e” s’appelle le passage à
la borne supérieure.
 Il faut savoir le justifier : si [∀a ∈ A, a ≤ e], alors e est un majorant de A, or sup(A) est le plus
petit des majorants, donc sup(A) ≤ e.
 ATTENTION, en général, sup(A) ∈ / A, donc le passage à la borne supérieure ne se réduit pas au
fait d’appliquer la propriété “∀a ∈ A, a ≤ e” avec a = sup(A).
 De même, si B est une partie de E possédant une borne inférieure, le principe du passage à la
borne inférieure consiste à passer de la propriété, “∀a ∈ A, a ≥ e” à “inf(A) ≥ e”.
Propriété. Soit A une partie non vide majorée de R. Soit s ∈ R. Alors

c Eric Merle 2 MPSI2 LLG


32
Semaine 7 : Résumé de cours 2 L’ensemble R des réels

s = sup(A) ⇐⇒ [∀a ∈ A, a ≤ s] ∧ [∀ε > 0, ∃a ∈ A, s − ε < a].


Démonstration à connaı̂tre.
Exercice. Soit A une partie de R non vide et majorée. Montrer qu’il existe une suite (xn )n∈N
d’éléments de A qui converge vers sup(A).
A savoir faire.
Propriété. Soit A une partie non vide minorée de R. Soit m ∈ R. Alors
m = inf(A) ⇐⇒ [∀a ∈ A, a ≥ m] ∧ [∀ε > 0, ∃a ∈ A, m + ε > a].

2.4 La droite réelle achevée



Définition. On appelle droite réelle achevée l’ensemble R = R ∪ {−∞, +∞}, sur lequel l’ordre dans
R est prolongé par les conditions : ∀x ∈ R, −∞ < x < +∞.
Propriété. (R, ≤) est un ensemble totalement ordonné dans lequel toute partie possède une borne
inférieure et une borne supérieure. En particulier, toute partie A de R possède une borne supérieure
dans R. De plus, sup(A) = +∞ ⇐⇒ A non majorée et sup(A) = −∞ ⇐⇒ A = ∅.

2.5 Les intervalles

Définition.
— Pour tout a, b ∈ R, l’intervalle ]a, b[ est défini par ]a, b[= {x ∈ R/a < x < b}.
— Pour tout a, b ∈ R, l’intervalle [a, b] est défini par [a, b] = {x ∈ R/a ≤ x ≤ b}.
— Si a ∈ R et b ∈ R, les intervalles [a, b[ et ]b, a] sont définis par :
[a, b[= {x ∈ R/a ≤ x < b} et ]b, a] = {x ∈ R/b < x ≤ a}.
— En particulier, R =] − ∞, +∞[ et ∅ =]0, −1[ sont des intervalles.
Définition.
— Un intervalle est ouvert si et seulement si il est de la première forme ]a, b[ avec a, b ∈ R.
— On dit qu’un intervalle est fermé si et seulement si son complémentaire est une réunion d’un
ou deux d’intervalles ouverts.
— Ainsi, [a, b] est fermé lorsque a, b ∈ R, mais [a, +∞[ est aussi fermé (avec a ∈ R).
— ∅ et R sont à la fois ouverts et fermés.
— [0, 1[ n’est ni ouvert ni fermé. On dit qu’il est semi-ouvert ou semi-fermé.
— Les intervalles fermés bornés sont de la forme [a, b] avec a, b ∈ R. On les appelle aussi des
segments.
Définition. Une partie A de R est convexe si et seulement si pour tout a, b ∈ A avec a < b, [a, b] ⊂ A.
Théorème. Les parties convexes de R sont exactement ses intervalles.
Il faut savoir le démontrer.
Corollaire. Une intersection d’intervalles de R est un intervalle de R.
Propriété. Si une famille d’intervalles est d’intersection non vide, l’union de ces intervalles est encore
un intervalle.
Il faut savoir le démontrer.

2.6 la valeur absolue

Propriété. Le signe au sens large du produit de deux réels est égal au produit des signes de ces réels.
Définition. Pour tout x ∈ R, on note |x| = max{−x, x}.
∀x, y ∈ R, |xy| = |x||y|.

c Eric Merle 3 MPSI2 LLG


33
Semaine 7 : Résumé de cours 3 Développement décimal

Inégalité triangulaire : ∀x, y ∈ R, |x + y| ≤ |x| + |y|, avec égalité si et seulement si x et y sont de


même signe.
Corollaire de l’inégalité triangulaire : ∀x, y ∈ R, ||x| − |y|| ≤ |x − y|.
A savoir démontrer.
Formule : Pour tout a, b ∈ R,

(a + b) − |a − b| (a + b) + |a − b|
min(a, b) = et max(a, b) = .
2 2

Distance entre réels : Lorsque x, y ∈ R, la quantité d(x, y) = |x − y| est appelée la distance entre
les deux réels x et y. Elle vérifie l’inégalité triangulaire : d(x, z) ≤ d(x, y) + d(y, z).

2.7 Propriétés usuelles des réels

Propriété. R est archimédien : Pour tout a, b ∈ R∗+ , ∃n ∈ N, na > b.


Définition. Soit A une partie de R. On dit que A est dense dans R si et seulement si pour tout
x, y ∈ R avec x < y, il existe a ∈ A tel que x ≤ a ≤ y.
Propriété. A est dense dans R si et seulement si, pour tout x ∈ R, il existe une suite (an )n∈N
d’éléments de A telle que an −→ x.
n→+∞
Il faut savoir le démontrer.
Propriété. Q et R \ Q sont denses dans R.
Définition. Soit x ∈ R. On appelle partie entière de x le plus grand entier relatif inférieur ou égal à
x. Elle est notée bxc. C’est l’unique entier n tel que n ≤ x < n + 1.
On appelle partie entière supérieure de x le plus petit entier supérieur ou égal à x. Elle est notée dxe.
C’est l’unique entier n tel que n − 1 < x ≤ n.
x2 + y 2
Une inégalité très utile : Pour tout x, y ∈ R, |xy| ≤ .
2
A savoir établir.

3 Développement décimal
3.1 Développement décimal d’un entier naturel

Propriété. Si (xn ) une suite strictement croissante d’entiers naturels, on montre par récurrence que
pour tout n ∈ N, xn ≥ n.
Définition. Les chiffres en base 10 sont 0, 1, . . . , 9.
Théorème. Pour tout n ∈ N, il existe Xune unique suite presque nulle de chiffres
(ak )k∈N ∈ {0, . . . , 9} (N)
telle que n = ak 10k .
k∈N

Remarque. On peut généraliser et développer en base a où a est un entier supérieur ou égal à 2.
CNSX n ∈ N, dont le développement décimal est noté
de divisibilité : Soit X
n= ak 10k . On note s = ak la somme des chiffres de n.
k∈N k∈N
— n est divisible par 2 si et seulement si a0 ∈ {0, 2, 4, 6, 8}.
— n est divisible par 5 si et seulement si a0 ∈ {0, 5}.
— n est divisible par 10 si et seulement si a0 = 0.

c Eric Merle 4 MPSI2 LLG


34
Semaine 7 : Résumé de cours 3 Développement décimal

— n est divisible par 3 si et seulement si s ≡ 0 [3].


≡ 0 [9].
— n est divisible par 9 si et seulement si s X
— n est divisible par 11 si et seulement si (−1)k ak ≡ 0 [11].
k∈N
Il faut savoir le démontrer.

3.2 L’ensemble D des nombres décimaux


n n o
Définition. D = /n ∈ Z et k ∈ N . C’est une partie stricte de Q dont les éléments sont appelés
10k
les nombres décimaux.
Propriété. Soit x ∈ Q. x est un nombre décimal si et seulement si son écriture irréductible est de la
p
forme x = h k , où p ∈ Z et h, k ∈ N.
2 5
Remarque. (D, +, ×) est un anneau.
Propriété. d ∈ D si et seulement siX il existe une famille presque nulle de chiffres indexée par Z,
(ak )k∈Z ∈ {0, . . . , 9}(Z) telle que d = ak 10k .
k∈Z

3.3 Approximation d’un réel

Définition. Soit x, α ∈ R et ε ∈ R∗+ .


— On dit que α est une valeur approchée de x à ε près si et seulement si d(x, α) ≤ ε.
On note alors x = α ± ε.
— On dit que α est une valeur approchée de x à ε près par défaut si et seulement si α ≤ x ≤ α + ε,
— On dit que α est une valeur approchée de x à ε près par excès si et seulement si α − ε ≤ x ≤ α.
b10p xc
Propriété. Soit x ∈ R et p ∈ N. Posons α = . α ∈ D.
10p
Alors α est une valeur approchée de x par défaut à 10−p près,
et α + 10−p est une valeur approchée de x par excès à 10−p près.
Il faut savoir le démontrer.
Corollaire. D est dense dans R.

c Eric Merle 5 MPSI2 LLG


35
Semaine 8 – Développement d’un réel en base quelconque, applications, images directes et réciproques,
injectivité et surjectivité, lois internes, cardinaux

Semaine 8 : Résumé de cours

1 Développement d’un réel en base quelconque


Notation. On fixe un entier naturel a supérieur ou égal à 2.
Propriété. Soit (vn )n≥1 une suite d’entiers telle que, pour tout n ∈ N∗ , 0 ≤ vn ≤ a − 1.
Xn
Pour tout n ∈ N, posons xn = vk a−k . La suite (xn ) est croissante et majorée, donc elle converge
k=1
+∞
X
vers une limite x que l’on notera x = vn a−n . Dans ces conditions, on dit que (vn )n≥1 est un
n=1
développement de x en base a et on note x = 0, v1 v2 · · · vn vn+1 · · ·.
De plus, x ∈ [0, 1] et [x = 1 ⇐⇒ (∀n ∈ N∗ , vn = a − 1)].
Il faut savoir le démontrer.
Notation. Posons V = {(vn )n≥1 /∀n ∈ N∗ vn ∈ N ∩ [0, a[ et ∀N ∈ N∗ ∃n ≥ N vn 6= a − 1}. Ainsi,
les éléments de V sont les suites de chiffres qui ne sont pas tous égaux à a − 1 à partir d’un certain
rang.
Théorème. Tout réel de [0, 1[ admet un unique développement en base a dans V.
Remarque. Soit x ∈ R+ . On peut écrire x = bxc + {x}, où bxc ∈ N et où {x} = x − bxc ∈ [0, 1[
est la partie fractionnaire de x. On obtient le développement en base a du réel x en concaténant le
développement en base a de l’entierbxc avec celui du réel {x} ∈ [0, 1[.
Théorème hors programme : caractérisation d’un rationnel. Soit x ∈ [0, 1[.
Notons x = 0, v1 · · · vn · · · le développement en base a de x.
x est un rationnel si et seulement si son développement en base a est périodique à partir d’un certain
rang, c’est-à-dire si et seulement si il existe N ∈ N∗ et p ∈ N∗ tel que ∀n > N, vn = vn+p .
Il faut savoir le démontrer.

2 Applications
2.1 Généralités

Définition. Une fonction f de E dans F est un triplet f = (E, F, Γ), où E et F sont des ensembles
et où Γ est une relation binaire sur E × F telle que
∀x ∈ E, ∀y, z ∈ F, (x Γ y) ∧ (x Γ z) =⇒ (y = z), c’est-à-dire telle que pour tout x ∈ E, il existe au
plus un y ∈ F en relation avec x. On note alors “y = f (x) ” au lieu de x Γ y ou bien (x, y) ∈ Γ.
— Le domaine de définition de f est {x ∈ E/∃y ∈ F, x Γ y}. On le notera Df .
— Une application de E dans F est une fonction telle que Df = E.
— E s’appelle l’ensemble de départ de f et F l’ensemble d’arrivée.
— Γ s’appelle le graphe de f . Γ = {(x, y) ∈ E × F/x Γ y} = {(x, f (x))/x ∈ Df }.
— Lorsque y = f (x), où x ∈ E et y ∈ F ,
— on dit que y est l’image de x par f et

1
36
Semaine 8 : Résumé de cours 2 Applications

— que x est un antécédent de y par f .


Propriété. Soit f une fonction de E vers F et soit g une fonction de E 0 vers F 0 . Alors f = g si et
seulement si E = E 0 , F = F 0 , Df = Dg et pour tout x ∈ Df , f (x) = g(x).
Définition. Soit E et I deux ensembles. La famille (ei )i∈I d’éléments de E indexée par I est l’unique
application de I dans E dont le graphe est {(i, ei )/i ∈ I}. Il s’agit d’une autre façon de noter une
application, parfois mieux adaptée.
Définition. Une suite est une famille d’éléments indexée par N, ou éventuellement par
{n ∈ N/n ≥ n0 } (où n0 ∈ N).
Définition. Si E et F sont deux ensembles, le triplet (E, F, ∅) est une fonction de E dans F , que
l’on appelle la fonction vide. Elle est définie sur ∅.
Le triplet (∅, F, ∅) est une application à valeurs dans F , appelée l’application vide.
La famille (d’éléments de E) (ei )i∈∅ désigne l’application vide (∅, E, ∅), que l’on appelle aussi la famille
vide d’éléments de E.
Notation. L’application identité sur E est définie par : ∀x ∈ E, IdE (x) = x.
Définition. Soit E un ensemble et A une partie de E. L’indicatrice de A dans E est l’unique
application, notée 1A , de E dans {0, 1} telle que 1A (x) = 1 si x ∈ A et 1A (x) = 0 si x ∈ E \ A.
Propriété. Soit E un ensemble et A et B deux parties de E. En définissant naturellement la somme,
la différence et le produit de deux applications de E dans R, on vérifie que : 1E\A = 1E − 1A ,
1A∩B = 1A .1B et 1A∪B = 1A + 1B − 1A .1B .
Il faut savoir le démontrer.
Définition. Soit f une application de E vers F . On suppose que F est muni d’une relation d’ordre .
Soit A une partie de E. Les majorant, borne supérieure, minimum etc. de f sur A sont par définition
les majorant, borne supérieure, minimum etc. de f (A).
Définition. Soit I un ensemble quelconque et soit (fi )i∈I une famille d’éléments d’un ensemble F .
On suppose que F est muni d’une relation d’ordre . Les majorant, borne supérieure, minimum etc.
de (fi )i∈I sont par définition les majorant, borne supérieure, minimum etc. de {fi /i ∈ I}.
Notation. On note F(E, F ) ou bien F E l’ensemble des applications de E dans F .
F I est donc aussi l’ensemble des familles indexées par I d’éléments de l’ensemble F .
Définition. Soient E et F deux ensembles, E 0 une partie de E et F 0 une partie de F .
— Soit f une application de E dans F . La restriction de f à E 0 est l’unique application de E 0
dans F telle que ∀x ∈ E 0 , f |E 0 (x) = f (x).
— Soit f une application de E 0 dans F . On appelle prolongement de f sur E toute application g
de E dans F telle que g|E 0 = f .
— Si pour tout x ∈ E, f (x) ∈ F 0 , la corestriction de f à F 0 est l’unique application de E dans F 0
0
telle que : pour tout x ∈ E, f |F (x) = f (x).
0
— Si, pour tout x ∈ E 0 , f (x) ∈ F 0 , f |F 0 0
E 0 désigne l’application de E dans F telle que, pour tout
0
x ∈ E 0 , (f |F
E 0 )(x) = f (x).
Définition. Soit f une application d’un ensemble E dans lui-même. Une partie A de E est stable
par f si et seulement si elle vérifie l’une des propriétés équivalentes suivantes :
— ∀x ∈ A, f (x) ∈ A,
— f (A) ⊂ A,
— f |AA est définie.
Définition. Soit f une application de E dans F et g une application de F dans G. La composée de
g et de f est l’unique application g ◦ f de E dans G définie par : ∀x ∈ E, (g ◦ f )(x) = g(f (x)).
Associativité de la composition : Soit f une application de E dans F , g une application de F
dans G et h une application de G dans H. Alors h ◦ (g ◦ f ) = (h ◦ g) ◦ f . On peut donc noter h ◦ g ◦ f
cette fonction.

c Eric Merle 2 MPSI2 LLG


37
Semaine 8 : Résumé de cours 2 Applications

2.2 Applications croissantes et décroissantes

Définition. Soit f une application d’un ensemble ordonné (E, ≤E ) dans un ensemble ordonné (F, ≤F ).
— f est croissante si et seulement si [∀x, y ∈ E, x ≤E y =⇒ f (x) ≤F f (y)].
— f est strictement croissante si et seulement si ∀x, y ∈ E, x <E y =⇒ f (x) <F f (y).
— f est décroissante si et seulement si elle est croissante de (E, ≤E ) dans (F, ≥F ).
— f est strictement décroissante si et seulement si ∀x, y ∈ E, x <E y =⇒ f (x) >F f (y).
— f est monotone si et seulement si f est croissante ou décroissante.
— f est strictement monotone si et seulement si f est strictement croissante ou strictement
décroissante.
Propriété.
— La composée de deux applications croissantes est croissante.
— La composée de deux applications décroissantes est croissante.
— La composée d’une application croissante et d’une application décroissante est décroissante.
Il faut savoir le démontrer.
Propriété. Soit f et g deux fonctions de R dans R.
— Si f et g sont croissantes, alors f + g est croissante.
— Si f et g sont décroissantes, alors f + g est décroissante.
— Si f est croissante, −f est décroissante.
— Si f et g sont à valeurs positives et croissantes (resp : décroissantes), alors f g est croissante
(resp : décroissante).
— Si f et g sont à valeurs strictement positives et sont strictement croissantes (resp : strictement
décroissantes), alors f g est strictement croissante (resp : strictement décroissante).
Il faut savoir le démontrer.
Définition. Soit f et g deux applications d’un ensemble E dans un ensemble ordonné (F, ≤). On
écrit f ≤ g si et seulement si , pour tout x ∈ E, f (x) ≤ g(x).
On définit ainsi une relation d’ordre sur F(E, F ).

2.3 Images directes et réciproques

Définition. Soit f une application de E dans F .



— Si A est une partie de E, l’image directe de A par f est f (A) = {f (x)/x ∈ A}.
Ainsi, ∀y ∈ F, y ∈ f (A) ⇐⇒ [∃x ∈ A, y = f (x)].
f (A) est l’ensemble des images par f des éléments de A.
— Si B est une partie de F , l’image réciproque de B par f est

f −1 (B) = {x ∈ E/f (x) ∈ B}. Ainsi, ∀x ∈ E, x ∈ f −1 (B) ⇐⇒ f (x) ∈ B.
f −1 (B) est l’ensemble des antécédents par f des éléments de B.
Propriétés des images directes : Soit f une application de E dans F , (Ai )i∈I une famille de parties
de E, A et A0 deux parties de E.
— A⊂ A0 =⇒ f (A) ⊂ f (A0 ).
[  [
— f Ai = f (Ai ).
i∈I
\  \ i∈I

— f Ai ⊂ f (Ai ), mais l’inclusion réciproque est fausse en général.


i∈I i∈I
— f (E \ A) ⊃ f (E) \ f (A), mais l’inclusion réciproque est fausse en général.
Il faut savoir le démontrer.
Propriétés des images réciproques : Soit f une application de E dans F , (Bi )i∈I une famille de
parties de F , B et B 0 deux parties de F .

c Eric Merle 3 MPSI2 LLG


38
Semaine 8 : Résumé de cours 2 Applications

— B ⊂B 0 =⇒ f −1 (B) ⊂ f −1 (B 0 ).


[ [
— f −1 Bi = f −1 (Bi ).
i∈I
\  i∈I \
−1
— f Bi = f −1 (Bi ).
i∈I i∈I
— f −1 (F \ B) = E \ f −1 (B).
Il faut savoir le démontrer.
Propriété. Avec les notations de la propriété précédente,
A ⊂ f −1 (f (A)) et f (f −1 (B)) ⊂ B, mais les inclusions réciproques peuvent être fausses.
Il faut savoir le démontrer.

2.4 Injectivité et surjectivité

Définition. Soit f : E −→ F . f est injective si et seulement si ∀x, y ∈ E, [f (x) = f (y) =⇒ x = y],


c’est-à-dire si et seulement si, pour tout couple d’éléments distincts de E, leurs images sont différentes,
ou encore si et seulement si tout élément de F possède au plus un antécédent.
Définition. Soit f : E −→ F . f est surjective si et seulement si ∀y ∈ F, ∃x ∈ E, y = f (x),
c’est-à-dire si et seulement si f (E) = F , ou encore si et seulement si tout élément de F possède au
moins un antécédent.
Définition. On dit que f est bijective si et seulement si f est injective et surjective, c’est-à-dire si
et seulement si tout élément de l’ensemble d’arrivée possède un unique antécédent dans l’ensemble de
départ.
Propriété. Soit f une application de E dans F . Sur E, on définit la relation binaire R par :
f : E/R −→ f (E)
xRy ⇐⇒ f (x) = f (y). R est une relation d’équivalence. Alors l’application
x 7−→ f (x)
est une bijection.
Il faut savoir le démontrer.
Propriété. La composée de deux injections est une injection.
La composée de deux surjections est une surjection.
La composée de deux bijections est une bijection.
Il faut savoir le démontrer.
Propriété. Soit f une application de E dans F et g une application de F dans G.
Si g ◦ f est injective, alors f est injective.
Si g ◦ f est surjective, alors g est surjectif.
Définition et propriété :
 Soit f une bijection de E dans F . Pour tout y ∈ F , notons f −1 (y) l’unique antécédent de y par f .
Alors f −1 est une bijection de F dans E, appelée la bijection réciproque de f .
 On vérifie que f ◦ f −1 = IdF et f −1 ◦ f = IdE .
 Réciproquement, s’il existe une application g de F dans E telle que f ◦ g = IdF et g ◦ f = IdE ,
alors f et g sont des bijections et g = f −1 .
 (f −1 )−1 = f .
Il faut savoir le démontrer.
Propriété. Si f : E −→ F et g : F −→ G sont bijectives, alors (g ◦ f )−1 = f −1 ◦ g −1 .
Remarque. La notation f −1 , pour une application f , est utilisée selon deux sens différents, qu’il est
important de bien distinguer :
— Lorsque f est une application quelconque de E dans F , si B est une partie de F , alors
f −1 (B) = {x ∈ E/f (x) ∈ B}.

c Eric Merle 4 MPSI2 LLG


39
Semaine 8 : Résumé de cours 3 Lois internes

— Lorsque f est une bijection de E dans F , pour tout y ∈ F , f −1 (y) est l’unique antécédent de
y par f .
En particulier, dès que l’on utilise une expression de la forme f −1 (y) où y est un élément de l’ensemble
d’arrivée de f , on suppose nécessairement que f est une bijection.
Lorsque y ∈ F , il importe de bien distinguer f −1 (y) qui représente, pour une bijection f , l’unique
antécédent de y, et f −1 ({y}) qui représente, pour une application f quelconque, l’ensemble des
antécédents de y. Cet ensemble peut être vide lorsque f n’est pas surjective, il peut contenir plus
de deux éléments lorsque f n’est pas injective.
Propriété. Si f est une bijection de E dans F , alors pour tout B ⊂ F , f (f −1 (B)) = B et, pour tout
A ⊂ E, f −1 (f (A)) = A.
Propriété. (HP) Les applications injectives sont simplifiables à gauche et les applications surjectives
sont simplifiables à droite.
Il faut savoir le démontrer.
Propriété. Si E 6= ∅, alors f : E −→ F est injective si et seulement si il existe g : F −→ E telle
que g ◦ f = IdE .
Il faut savoir le démontrer.
Propriété. f : E −→ F est surjective si et seulement si il existe g : F −→ E telle que f ◦ g = IdF .
Il faut savoir le démontrer.

3 Lois internes
Définition. Une loi interne sur E est une application f de E × E dans E. Dans ce contexte la
notation préfixe “f (x, y)” est remplacée par la notation infixe “x f y”, où x, y ∈ E.
On dit que (E, f ) est un magma (hors programme).
Définition. Soit ∆ une loi interne sur E. ∆ est associative si et seulement si pour tout x, y, z ∈ E,
(x ∆ y) ∆ z = x ∆ (y ∆ z). On dit alors que (E, ∆) est un magma associatif. Dans ce cas, si
x1 , . . . , xp ∈ E, la quantité x1 ∆ x2 ∆ · · · ∆ xp ne dépend pas des différentes façons de la parenthéser.
Définition. Soit ∆ une loi interne sur E et soit e ∈ E. On dit que e est un élément neutre de (E, ∆)
si et seulement si, pour tout x ∈ E, x ∆ e = e ∆ x = x. Si E possède un élément neutre, il est unique.
On dit alors que (E, ∆) est un magma unitaire, ou bien unifère.
Définition. Un monoı̈de est un magma associatif unitaire. Il est commutatif, ou abélien, si et seule-
ment si pour tout x, y, x ∆ y = y ∆ x.
Remarque. l’usage est de confondre le monoı̈de (E, ∆) et l’ensemble sous-jacent E.
Notation. Si (E, ∆) est un monoı̈de d’élément neutre e, on convient que
x1 ∆ x2 ∆ · · · ∆ xp = e, lorsque p = 0.
Définition. Soit (E, ×) un monoı̈de d’élément neutre 1E et x ∈ E. On dit que x est inversible à
droite (resp : à gauche) si et seulement si il existe y ∈ E tel que yx = 1E (resp : xy = 1E ).
Si x est inversible à gauche et à droite, il existe un unique y ∈ E tel que xy = yx = 1E . On note
y = x−1 , c’est le symétrique de x.
Il faut savoir le démontrer.
Propriété.
Si x et y sont inversibles dans le monoı̈de (E, ×), alors xy est aussi inversible et (xy)−1 = y −1 x−1 .
Définition. Un groupe est un monoı̈de dans lequel tout élément est inversible.

c Eric Merle 5 MPSI2 LLG


40
Semaine 8 : Résumé de cours 4 Cardinal d’un ensemble

Définition. On appelle anneau tout triplet (A, +, .), où A est un ensemble et où “+” et “.” sont
deux lois internes sur A telles que
• (A, +) est un groupe abélien (l’élément neutre étant noté 0 ou 0A ),
• “.” est une loi associative, admettant un élément neutre noté 1 ou 1A ,
• la loi “.” est distributive par rapport à la loi “+”, c’est-à-dire que
∀(x, y, z) ∈ A3 x.(y + z) = (x.y) + (x.z) et (x + y).z = (x.z) + (y.z).

4 Cardinal d’un ensemble


Définition. Soit E un ensemble. S’il existe n ∈ N tel que Nn est en bijection avec E, alors n est
unique. On dit que n est le cardinal de E. Il est noté card(E) ou bien #E, ou encore |E|.
En cas d’inexistence d’un tel entier n, on dit que E est infini.
Exemple. Pour tout n, m ∈ Z, Card([[n, m]]) = m − n + 1.
Propriété. Soit A un ensemble de cardinal n ∈ N et soit B un ensemble quelconque.
B est fini de cardinal n si et seulement si il existe une bijection de A sur B.
Propriété. Soit A un ensemble fini de cardinal n ∈ N. Soit B une partie de A.
Alors B est un ensemble fini et |B| ≤ |A|, avec égalité si et seulement si B = A.
Propriété. Soit A une partie de N. A est finie si et seulement si elle est majorée.
En particulier, N est infini.

c Eric Merle 6 MPSI2 LLG


41
Semaine 9 – Cardinaux, sommes et produits finis, listes, arrangements et combinaisons

Semaine 9 : Résumé de cours

1 Cardinaux d’ensembles usuels


Propriété. Pour tout n ∈ N∗ , une réunion disjointe de n ensembles finis est finie et son cardinal est
égal à la somme des cardinaux de ces ensembles.
Propriété. Soit E un ensemble fini et A une partie de E. Alors |E \ A| = |E| − |A|.
Propriété. Soit E un ensemble fini et R une relation d’équivalence sur E.
Alors E/R est aussi de cardinal fini, inférieur au cardinal de E.
Formule :
|A ∪ B| = |A| + |B| − |A ∩ B|.
Il faut savoir le démontrer.
Propriété. Formule du crible : (Hors programme)
[
n  Xn X X k
\ 
# Ei = #Ei − #(Ei ∩ Ej ) + · · · + (−1)k+1 # Eij
i=1 i=1 1≤i<j≤n 1≤i1 <i2 <···<ik ≤n j=1
\n
n+1

+ · · · + (−1) # Ei .
i=1
Propriété. Le cardinal du produit cartésien de n ensembles finis est égal au produit des cardinaux
de ces ensembles.
Il faut savoir le démontrer.
Formule : |F(E, F )| = |F ||E| .
Il faut savoir le démontrer.
Propriété. Si E est de cardinal n, alors P(E) est de cardinal 2n .
Il faut savoir le démontrer.

2 Sommes et produits finis


Formules :
n
X
— Pour tout a ∈ G et n ∈ N, a = na.
k=1
n
X n(n + 1)
— Pour tout n ∈ N, k= .
2
k=1
Xn
n(n + 1)(2n + 1)
— Pour tout n ∈ N, k2 = .
6
k=1
Xn  n(n + 1) 2
— Pour tout n ∈ N, k3 = .
2
k=1

1
42
Semaine 9 : Résumé de cours 3

Notation. Pour tout n ∈ N, Sn désigne l’ensemble des bijections de Nn dans Nn , que l’on appelle
des permutations sur Nn .
n
X n
X
Commutativité généralisée : Soit n ∈ N et x1 , . . . , xn ∈ G. Alors, ∀σ ∈ Sn , xi = xσ(j) .
i=1 j=1

Définition. Soit A un ensemble fini et (xa )a∈A une famille de G indexée par A.
X Xn

Notons n = |A|. Il existe une bijection f de Nn dans A. On pose xa = xf (i) .
a∈A i=1
Cette quantité ne dépend pas de la bijection f .
Il faut savoir le démontrer.
Propriété d’additivité : Soit A un ensemble
 X fini, (x a )a∈A
 et (ya )a∈A deux familles d’éléments de G
X X
indexées par A. Alors (xa + ya ) = xa + ya .
a∈A a∈A a∈A

Distributivité généralisée
X A un ensemble fini, λ ∈ C et (xa )a∈A une famille de complexes
: SoitX
indexée par A. Alors (λxa ) = λ xa .
a∈A a∈A

Changement de variable dans une somme finie : Soit B un ensemble X fini,X(xb )b∈B une famille
d’éléments de G. Soit ϕ une bijection d’un ensemble A dans B. Alors xb = xϕ(a) .
b∈B a∈A
Il faut savoir le démontrer.
Formule : calcul d’une somme géométrique .
n
X q m − q n+1
Soit q ∈ C \ {1}, soit m, n ∈ N avec m ≤ n. Alors qk = .
1−q
k=m
Il faut savoir le démontrer.
Théorème. Soit (G, ×) un groupe commutatif fini. Alors, pour tout g ∈ G, g |G| = 1G .
Il faut savoir le démontrer.
Remarque. Ce théorème est encore vrai lorsque G n’est pas commutatif (cf plus loin).
Sommation par paquets : Soit A un ensemble fini et (xa )a∈A une famille d’éléments de G G. On
suppose qu’il existe un ensemble fini B et une famille (Ab )b∈B de parties de A telles que A = Ab .
b∈B
X X X
Alors xa = xa .
a∈A b∈B a∈Ab

Sommation par paquets, seconde formulation : Soit A un X ensemble fini


X etX
(xa )a∈A une famille
d’éléments de G. Soit R une relation d’équivalence sur A. Alors xa = xa .
a∈A c∈A/R a∈c

3 Applications et cardinaux
Notation. Considérons une application f de E dans F , où E est de cardinal fini.

Propriété. Soit E un ensemble fini et f une application de E dans un ensemble quelconque F . Alors
f (E) est fini. De plus,
|f (E)| ≤ |E|, avec égalité si et seulement si f est injective, et
|f (E)| ≤ |F |, avec égalité si et seulement si f est surjective.
Il faut savoir le démontrer.

c Eric Merle 2 MPSI2 LLG


43
Semaine 9 : Résumé de cours 5

Propriété. Soit E et F deux ensembles finis de même cardinal. Soit f une application de E dans F .
Alors f injective ⇐⇒ f surjective ⇐⇒ f bijective .
Propriété. Soit A et B deux ensembles.
S’il existe une injection de A dans B et si B est fini, alors A est fini et |A| ≤ |B|.
S’il existe une surjection de A dans B et si A est fini, alors B est fini et |A| ≥ |B|.
Principe des tiroirs : Si l’on doit ranger p objets dans n tiroirs et que p > n, alors il existe au moins
2 objets qui seront dans le même tiroir.
Plus généralement, si p > cn, où c ∈ N∗ , il existe un tiroir qui contient plus de c + 1 objets.
Il faut savoir le démontrer.
Principe des bergers : Soit E et F des ensembles finis et f : E −→ F une application. On suppose
que tout élément de F possède exactement k antécédents par f . Alors |E| = k|F |.
Il faut savoir le démontrer.

4 Listes et combinaisons
Vocabulaire : Soit E un ensemble et p ∈ N.
— Une p-liste (aussi appelée un p-uplet) d’éléments de E est un élément de E p .
— Un p-arrangement d’éléments de E est une p-liste dont les éléments sont deux à deux distincts.
— Une p-combinaison de E est une partie de E de cardinal p.

Propriété. Le nombre de p-listes d’éléments de E est égal à np (c’est |E|p ).


fa : Np −→ E
Propriété. Si a = (e1 , . . . , ep ) est un p-arrangement de E, l’application est une
i 7−→ ei
injection. De plus, a 7−→ fa est une bijection de l’ensemble Ap des p-arrangements de E vers l’ensemble
Ip des injections de Np dans E.
Il faut savoir le démontrer.
Théorème. Le nombre de p-arrangements dans un ensemble de cardinal n est égal à
n!
n(n − 1) · · · (n − p + 1) = . C’est aussi le nombre d’injections d’un ensemble à p éléments vers
(n − p)!
un ensemble à n éléments.
Corollaire. Pour tout n ∈ N, |Sn | = n!. Plus généralement, factorielle de n est le nombre de bijections
d’un ensemble de cardinal n dans un autre ensemble de cardinal n.
Théorème. Le nombre de p-combinaisons d’éléments d’un ensemble de cardinal n, c’est-à-dire le
nombre de parties de p éléments incluses dans un ensemble de cardinal n est égal à
 
n ∆ An,p n!
= = .
p p! (n − p)!p!

Cette quantité s’appelle le coefficient binomial “p parmi n”.


Il faut savoir le démontrer.

5 Les coefficients binomiaux


   
n n
Formule : ∀n, p ∈ N avec 0 ≤ p ≤ n, = .
p n−p
   
n n−1
Formule comité-président : Pour tout n, k ∈ N avec k ≤ n, k

=n .
k k−1
La preuve combinatoire est à connaı̂tre.

c Eric Merle 3 MPSI2 LLG


44
Semaine 9 : Résumé de cours 5
       
k n n n−p
Formule comité-bureau : si p ≤ k ≤ n, × = × .
p k p k−p
La preuve combinatoire est à connaı̂tre.
     
n n−1 n−1
Formule du triangle de Pascal : ∀n, p ∈ N avec 1 ≤ p < n, = + .
p p p−1
La preuve combinatoire est à connaı̂tre.
Remarque.
  Il est souvent pratique de convenir que, pour tout n, p ∈ Z tels que ¬(0 ≤ p ≤ n),
n
= 0.
p
Représentation graphique du triangle de Pascal : À connaı̂tre.
Formule du binôme de Newton : On se place dans un anneau (A, +, ×). Soit a1 et a2 deux
éléments de A qui commutent, c’est-à-dire tels que a1 a2 = a2 a1 . Alors
n  
X n
∀n ∈ N, (a1 + a2 ) = n
ak1 an−k
2 .
k
k=0

Les deux preuves sont à connaı̂tre.


Formule du multinôme : (Hors programme). Soit p, n ∈ N∗ . Soit a1 , . . . , ap p éléments d’un anneau
A qui commutent deux à deux. Alors
X n!
(a1 + · · · + ap )n = ai1 × · · · × aipp .
i1 ,...,ip ∈N
i1 ! × · · · × ip ! 1
tel que i1 +···+ip =n

c Eric Merle 4 MPSI2 LLG


45
Semaine 10 – Sommes finies (téléscopage, fonctions génératrices), intégration par parties itérée, début des
complexes

Semaine 10 : Résumé de cours

1 Sommes finies (suite)


Formule de Leibniz : Soient f et g deux applications d’un intervalle I dans R. Si f et g sont n fois
Xn  
(n) n
dérivables sur I, alors f g est n fois dérivable sur I et (f g) = f (k) g (n−k) .
k
k=0
Il faut savoir le démontrer.

1.1 Sommes et produits : quelques techniques


1.1.1 Télescopage
n
X n+1
X
(uk+1 − uk ) = un+1 − um et (uk−1 − uk ) = um − un+1 .
k=m k=m+1

1.1.2 Séparation des indices pairs et impairs


n
n
b2c b n−1
2 c
X X X X X
uk = uk + uk = u2p + u2p+1 .
k=0 0≤k≤n 0≤k≤n p=0 p=0
k pair k impair

1.1.3 Fonction génératrice


Soit m, n ∈ N avec m ≤ n et soit (uk )m≤k≤n une famille de complexes. La fonction génératrice de
n
X
cette famille est l’application polynomiale P : x 7−→ uk xk .
k=m
Xn n
X
Si P est connu, on peut en déduire plusieurs sommes : uk = P (1), kuk = P 0 (1),
k=m k=m
n
X n
X Z 1
00 uk
k(k − 1)uk = P (1), = P (t)dt etc.
k+1 0
k=m k=m

1.1.4 Quelques formules


Somme arithmétique : Une suite (un ) de complexes est arithmétique de raison r si et seulement si
n
X um + un
∀n ∈ N, un+1 = un + r. Dans ce cas, pour tout n ∈ N, un = u0 + nr et uk = (n − m + 1).
2
k=m

Formule de Bernoulli : Soit (A, +, ×) un anneau. Soit a et b deux éléments de A qui commutent
n
X
(i.e ab = ba). Alors, pour tout n ∈ N, an+1 − bn+1 = (a − b) ak bn−k .
k=0
Il faut savoir le démontrer.

1
46
Semaine 10 : Résumé de cours 1

Somme géométrique : Une suite (un ) de complexes est géométrique de raison r si et seulement si
n
X un+1 − um
∀n ∈ N, un+1 = run . Dans ce cas, un = u0 rn et uk = .
r−1
k=m

1.1.5 Sommes doubles


X X q
n X q X
X n
uk,` = uk,` = uk,` .
m≤k≤n k=m `=p `=p k=m
p≤`≤q

X X
n X
q 
Propriété. Dans un anneau, vk w` = vk w` .
m≤k≤n k=m `=p
p≤`≤q

1.1.6 Sommes triangulaires


X n X
X n n X̀
X
uk,` = uk,` = uk,` .
m≤k≤`≤n k=m `=k `=m k=m
Il faut savoir le démontrer.

1.1.7 Produits
Toutes les propriétés précédentes, lorsqu’elles étaient valables dans un monoı̈de commutatif (G, +)
sont valables en notation multiplicative dans un monoı̈de commutatif (G, ×).

1.2 Intégration par parties itérée


Intégration par parties itérée : (Hors programme).
Soit I un intervalle de R, n ∈ N, f et g deux applications de classe C n de I dans R. Alors, pour tout
Z b hn−1
X ib Z b
(n) (n−1−i) (i) i n
a, b ∈ I, f (t)g(t)dt = f (t)g (t)(−1) + (−1) f (t)g (n) (t)dt.
a a a
i=0
Démonstration à connaı̂tre.
Formule de Taylor avec reste intégral :
Soit I un intervalle de R, n ∈ N, f une application de classe C n+1 de I dans R. Alors, pour tout
Xn Z b
(b − a)k (k) (b − t)n (n+1)
a, b ∈ I, f (b) = f (a) + f (a) + f (t)dt.
k! a n!
k=1
Démonstration à connaı̂tre.
Exemple d’application : (Hors programme)
Sous les hypothèses et notations de la formule précédente, fixons a, b ∈ I avec a ≤ b.
Soit m, M ∈ R tels que , pour tout t ∈ [a, b], m ≤ f (n+1) (t) ≤ M .
Xn
(b − a)n+1 (b − a)k (k) (b − a)n+1
Alors m ≤ f (b) − f (a) ≤ M .
(n + 1)! k! (n + 1)!
k=0
Démonstration à connaı̂tre.
Inégalité de Taylor-Lagrange :
Soit a, b ∈ R avec a 6= b. On se place sur I = [min(a, b), max(a, b)].
Soit n ∈ N et f une application de classe C n+1 de I dans R.
Soit M ∈ R tel que, pour tout t ∈ I, |f (n+1) (t)| ≤ M . Alors
n
X (b − a)k |b − a|n+1
f (b) − f (a) − f (k) (a) ≤ M .
k! (n + 1)!
k=1

c Eric Merle 2 MPSI2 LLG


47
Semaine 10 : Résumé de cours 2 Les complexes (début)

Formule de Taylor-Young : Soit n ∈ N∗ , I un intervalle de R, x0 ∈ I et f : I −→ R une


Xn
f (k) (x0 )
application de classe C n+1 . Alors f (x) = (x − x0 )k + (x − x0 )n ε(x), où ε(x) −→ 0.
k! x→x0
k=0
A savoir démontrer lorsque x0 = 0.
Remarque. On admettra que cette formule est valable dès que f est n fois dérivable en x0 .

2 Les complexes (début)


2.1 Construction de C

Propriété. C est un corps, dont R est un sous-corps et dont les lois sont définies par

(a + ib) + (c + id) = (a + c) + i(b + d)
∀a, b, c, d ∈ R,
(a + ib) × (c + id) = (ac − bd) + i(ad + bc)

a − ib
Si z 6= 0, l’inverse de z = a + ib est .
a2 + b2
Définition. ∀z ∈ C, ∃!a, b ∈ R, z = a + ib. On note a = Re(z) et b = Im(z).
L’écriture du complexe z sous la forme z = Re(z) + iIm(z) s’appelle l’écriture algébrique de z.
Définition. Les imaginaires purs sont les ib où b ∈ R.
Propriété. Comme pour tout corps, C est intègre, c’est-à-dire que, pour tout z, z 0 ∈ C, si zz 0 = 0,
alors z = 0 ou z 0 = 0.
1
Propriété. = −i .
i
Linéarité des parties réelle et imaginaire : Pour tout z, z 0 ∈ C et α ∈ R,
Re(αz + z 0 ) = αRe(z) + Re(z 0 ) et Im(αz + z 0 ) = αIm(z) + Im(z 0 ).

2.2 Le plan complexe

Définition. On considère un plan P affine euclidien orienté, rapporté à un repère orthonormé direct
R = (O,~ı, ~). Soit (x, y) ∈ R2 . On peut alors définir le complexe z = x + iy et le point M de P dont
les coordonnées dans le repère R sont (x, y). On dit que z est l’affixe du point M et que M est l’image
du complexe z.
Si l’on note M (z) l’image du complexe z, l’application z 7−→ M (z) est une bijection de C dans P qui
permet parfois d’identifier C avec P (muni de son repère R).
−−→ −−→
On dit également que z est l’affixe du vecteur OM et que OM est le vecteur image de z.
−−→ −−→
Si l’on note u(z) le vecteur image de z, l’application z 7−→ u(z) est une bijection de C dans l’ensemble
des vecteurs de P .
Pour ces raisons, C est souvent appelé le plan complexe.
Interprétation géométrique de l’addition entre complexes :
Soit z, z 0 ∈ C. Avec les notations précédentes, notons −
→z et −
u u→ 0
z 0 les vecteurs images de z et z . Alors le

→ −→
vecteur uz + uz0 a pour affixe z + z .0

Ainsi, si l’on identifie C avec l’ensemble des vecteurs de P , l’addition entre complexes correspond à
l’addition entre vecteurs du plan.
Si l’on visualise les deux complexes z et z 0 par deux points Mz et Mz0 du plan P , le complexes z + z 0
est donc le point qui complète O, Mz , Mz0 en un parallélogramme.
Interprétation géométrique de la différence de deux complexes :

c Eric Merle 3 MPSI2 LLG


48
Semaine 10 : Résumé de cours 3 Le module

−−−−−−−−→
Avec les mêmes notations, z 0 − z est l’affixe du vecteur M (z)M (z 0 ).

Définition. L’homothétie de centre Ω et de rapport λ ∈ R est la transformation suivante du plan :


P −→ P
−−→ .
M 7−→ Ω + λΩM
Interprétation géométrique du produit d’un complexe par un réel :
−−−−→
Soit z ∈ C et α ∈ R. Alors αz est l’affixe du vecteur αOM (z).
Ainsi, αz est aussi l’affixe de l’image de M (z) par l’homothétie de centre O et de rapport α.

2.3 La conjugaison

Définition. Soit x, y ∈ R. Le conjugué du complexe z est le complexe z = x − iy.
Géométriquement, z est le symétrique de z selon l’axe Ox des réels.
Propriété. z ∈ R ⇐⇒ z = z et z ∈ iR ⇐⇒ z = −z.
z+z z−z
Propriété. Pour tout z ∈ C, Re(z) = et Im(z) = .
2 2i
z z
Propriété. Pour tout z, z 0 ∈ C, z = z, z + z 0 = z + z 0 et zz 0 = z × z 0 , = .
z0 z0
Corollaire. Pour tout n ∈ Z et z ∈ C∗ , z n = z n .

3 Le module
∆ p
Définition. Soit x, y ∈ R. Le module du complexe z = x + iy est |z| = x2 + y 2 .

Interprétation géométrique :
−−→
|z| désigne la distance du point M (z) à l’origine, ainsi que la norme du vecteur u(z).
La distance entre M (z) et M (z 0 ) est égale à |z − z 0 |.
Propriété. ∀z ∈ C, |z|2 = zz.
1 z z
Propriété. Pour tout z ∈ C∗ , = = 2.
z zz |z|
Propriété. Pour tout z, z 0 ∈ C,
— |z| = |z| (compatibilité du module avec la conjugaison) ;
— |zz 0 | = |z| × |z 0 | (compatibilité du module avec la multiplication) ;
— pour tout n ∈ N, |z n | = |z|n ;
z0 |z 0 |
— si z 6= 0, = .
z |z|
Propriété. Le module est une norme sur C, c’est-à-dire que l’application |.| : C −→ R vérifie les
propriétés suivantes : Pour tout z, z 0 ∈ C et α ∈ R,
— |z| ≥ 0 (positivité),
— |z| = 0 ⇐⇒ z = 0 (séparation),
— |αz| = |α| × |z| (homogénéité),
— |z + z 0 | ≤ |z| + |z 0 | (inégalité triangulaire).
Il faut savoir le démontrer.

c Eric Merle 4 MPSI2 LLG


49
Semaine 11 – Module, fonctions à valeurs dans C, exponentielle complexe, argument, linéarisation et antili-
néarisation

Semaine 11 (du 25 au 29 novembre) :


Résumé de cours

Les complexes (suite)


1 Le module (suite)
Distance entre complexes : Lorsque x, y ∈ C, la quantité d(x, y) = |x − y| est appelée la distance
entre les deux complexes x et y.
La fonction distance vérifie les propriétés suivantes : pour tout x, y, z ∈ C,
— Positivité : d(x, y) ∈ R+ .
— d(x, y) = 0 ⇐⇒ x = y : d permet de séparer les complexes.
— Symétrie : d(x, y) = d(y, x).
— Inégalité triangulaire : d(x, z) ≤ d(x, y) + d(y, z).
Définition. Soit a ∈ C et r ∈ R+ .
— La boule fermée de centre a et de rayon r est Bf (a, r) = {z ∈ C/|z − a| ≤ r}. C’est le disque
de centre a et de rayon r.
— Lorsque r > 0, la boule ouverte de centre a et de rayon r est
Bo (a, r) = {z ∈ C/d(a, z) < r}. C’est le disque ouvert de centre a et de rayon r.
— La sphère de centre a et de rayon r est S(a, r) = {z ∈ C/d(a, z) = r}. C’est le cercle de centre
a et de rayon r.
Définition. S(0, 1) s’appelle la sphère unité ou bien le cercle unité. Il est noté U.
1
Propriété. Pour tout z ∈ C, z ∈ U ⇐⇒ z = .
z
Théorème.
z
Pour tout z, z 0 ∈ C, |z + z 0 | ≤ |z| + |z 0 |, avec égalité si et seulement si z 0 = 0 ou bien 0 ∈ R+ .
z
Il faut savoir le démontrer.
Généralisation : (hors programme) |z1 + · · · + zn | ≤ |z1 | + · · · + |zn |, avec égalité si et seulement si,
zi
pour tout i, j tels que 1 ≤ i < j ≤ n, (zj = 0) ∨ ( ∈ R+ ).
zj
Il faut savoir le démontrer.
Corollaire de l’inégalité triangulaire :
— Pour tout z, z 0 ∈ C, ||z| − |z 0 || ≤ |z − z 0 |.
— Pour tout a, b, c ∈ C, |d(a, b) − d(b, c)| ≤ d(a, c).
Il faut savoir le démontrer.
Définition. Une partie A de C est bornée si et seulement si il existe R ∈ R+ tel que, pour tout
a ∈ A, |a| ≤ R, c’est-à-dire si et seulement si A est incluse dans un disque centré en 0.

1
50
Semaine 11 : Résumé de cours 2 Fonctions à valeurs dans C

2 Fonctions à valeurs dans C


2.1 Fonctions bornées
Définition. Soit E un ensemble quelconque et f une application de E dans C.
On dit que f est bornée sur E si et seulement si {f (x)/x ∈ E} est une partie bornée de C.
Notation. Soit f une application d’un ensemble E dans C.
Re(f ) : E −→ R Im(f ) : E −→ R
On note et . On les appelle les parties réelle
x 7−→ Re(f (x)) x 7−→ Im(f (x))
et imaginaire de l’application f .
Propriété. Avec ces notations, f est bornée sur E si et seulement si Re(f ) et Im(f ) sont bornées.

2.2 Dérivation
Définition. Soit I un intervalle inclus dans R et f : I −→ C une application. On verra plus loin
que f est continue (resp : dérivable, k fois dérivable, de classe C k où k ∈ N∗ ∪ {∞}) si et seulement
si les applications Re(f ) et Im(f ) sont continues (resp : dérivables, k fois dérivables, de classe C k où
k ∈ N∗ ∪ {∞}). De plus, lorsque f est k fois dérivable, où k ∈ N∗ , on verra que,
pour tout t ∈ I, f (k) (t) = [Re(f )](k) (t) + i[Im(f )](k) (t).
Propriété. Les formules suivantes, déjà admises pour des fonctions de R dans R sont aussi valables
pour des fonctions de R dans C, ainsi que nous le démontrerons plus tard.
Les fonctions qui interviennent dans ces formules sont toutes supposées dérivables sur un intervalle.
On se limite éventuellement à un sous-intervalle pour s’assurer que les quantités qui interviennent
dans les formules sont bien définies. :
— Pour tout α, β ∈ C, (αf + βg)0 = αf 0 + βg 0 .
— (f g)0 = f 0 g + f g 0 .
 1 0 f0
— = − 2.
f f
 f  f 0 g − g0 f
— = .
g g2
— Si g : R −→ R, alors (f ◦ g)0 = g 0 × (f 0 ◦ g).
— Pour tout n ∈ Z, (f n )0 = nf 0 × f n−1 .
Formule de Leibniz : Soient f et g deux applications d’un intervalle I dans C. Si f et g sont n fois
dérivables sur I, alors f g est n fois dérivable sur I et
Xn  
n
(f g)(n) = f (k) g (n−k) .
k
k=0

2.3 Intégration
Définition. Soit I un intervalle de R. Soit f : I −→ C une application continue. Pour tout a, b ∈ I,
on pose
Z b Z b Z b
f (t) dt = Re(f (t)) dt + i Im(f (t)) dt.
a a a

Z b  Z b Z b  Z b
Remarque. Ainsi, Re f (t) dt = Re(f (t)) dt et Im f (t) dt = Im(f (t)) dt.
a a a a
On admettra pour le moment que les intégrales vérifient les propriétés suivantes :
Propriété. Soit I un intervalle inclus dans R.
Soit f et g deux applications continues de I dans C. Soit a, b ∈ I.

c Eric Merle 2 MPSI2 LLG


51
Semaine 11 : Résumé de cours 3 L’exponentielle complexe

Z b Z b Z b
— Linéarité : Pour tout α, β ∈ C, (αf + βg) = α f +β g.
a Z b aZ Za
c b
— Relation de Chasles : Pour tout c ∈ I, f (t)dt = f+ f.
Z b Z amax(a,b) a c

— Inégalité triangulaire : f (t) dt ≤ |f (t)| dt.


a min(a,b)

Définition. Soit I un intervalle de R et f une application de I dans C que l’on suppose continue.
On dit que F est une primitive de f sur I si et seulement si F est dérivable et F 0 = f .
Si F0 est une primitive de f , alors les autres primitives de f sont exactement les applications F0 + k,
où k est une fonction constante.
Théorème : Soit I un intervalle
Z x de R et f une application de I dans C que l’on suppose continue.
Soit x0 ∈ I. Alors x 7−→ f (t)dt est l’unique primitive de f qui s’annule en x0 .
x0

Corollaire. Soit f une application continue d’un intervalle I dans C.


Z b

Si F est une primitive de f , alors pour tout a, b ∈ I, f (t)dt = F (b) − F (a) = [F (t)]ba .
a
Z b
Corollaire. Si f est C de I dans C, pour tout a, b ∈ I,
1
f 0 (t)dt = f (b) − f (a).
a
Z
Notation. L’écriture “ f (t) dt = F (t) + k, t ∈ I” signifiera que f est continue de I dans C et que
l’ensemble des primitives de f est {F + k/k ∈ C}.
Changement de variable : si f : I −→ C est continue et si ϕ : J −→ I est de classe C 1 , alors
∀(α, β) ∈ J 2
Z β Z ϕ(β)
0
f (ϕ(t))ϕ (t)dt = f (x)dx. Cette égalité correspond au changement de variable x = ϕ(t).
α ϕ(α)

Intégration par parties : soit u : I −→ C et v : I −→ C deux applications de classe C 1 sur I.


Z b Z b
0
2
Pour tout (a, b) ∈ I , b
u(t)v (t) dt = [u(t)v(t)]a − u0 (t)v(t) dt.
Z a Z a

On a aussi : u(t)v 0 (t) dt = u(t)v(t) − u0 (t)v(t) dt, t ∈ I.

La formule d’intégration par parties itérée reste valable pour des fonctions de I dans C, ainsi que la
formule de Taylor avec reste intégral, l’inégalité de Taylor-Lagrange et celle de Taylor-Young.

3 L’exponentielle complexe
3.1 En théorie

Définition. Une suite (zn )n∈N de complexes converge vers ` ∈ C si et seulement si

∀ε > 0, ∃N ∈ N, ∀n ≥ N, |zn − `| ≤ ε.

On dit que (zn )n∈N est convergente si et seulement si il existe ` ∈ C tel que zn −→ `.
n→+∞
P
Définition. La série de complexes zn converge si et seulement si la suite de ses sommes partielles
Xn  +∞
X Xn
zk est une suite convergente. On note alors zn = lim zk .
n∈N n→+∞
k=0 n=0 k=0

c Eric Merle 3 MPSI2 LLG


52
Semaine 11 : Résumé de cours 3 L’exponentielle complexe

P
Propriété. Si zn est une série convergente de complexes, alors zn −→ 0.
Pn→+∞
La réciproque est fausse : on peut avoir zn −→ 0 alors que la série zn diverge.
n→+∞
Il faut savoir le démontrer.
P X P
Théorème. Si |zn | converge alors zn est une série convergente. On dit alors que la série zn
est absolument convergente.
Définition. On a vu, grâce à l’inégalité de Taylor-Lagrange, que pour tout t ∈ R,
Xn
tk X z n 
t
e = lim . Ainsi, pour tout complexe z ∈ C, la série est absolument convergente.
n→+∞ k! n! n∈N
k=0
Xn
zk
Ceci permet de prolonger l’exponentielle réelle sur C, en convenant que ∀z ∈ C, ez = lim .
n→+∞ k!
k=0

Propriété. Soit (zn )n∈N une suite de complexes qui converge vers ` ∈ C. Alors zn −→ `.
n→+∞
Il faut savoir le démontrer.

Propriété. Pour tout z ∈ C, ez = ez .
Il faut savoir le démontrer.
Propriété. Pour tout u, v ∈ C, eu ev = eu+v .
Il faut savoir le démontrer.
1
Corollaire. Pour tout z ∈ C, ez 6= 0 et z = e−z .
e
Propriété. |ez | = eRe(z) .
Il faut savoir le démontrer.
Théorème. ez ∈ U ⇐⇒ z ∈ iR.
Formules d’Euler :

∆ eiθ + e−iθ ∆ eiθ − e−iθ


cos θ = Re(eiθ ) = et sin θ = Im(eiθ ) = .
2 2i
De plus,
eiθ = cos θ + i sin θ .

+∞
X +∞
X
θ2n θ2n+1
Propriété. Pour tout θ ∈ R, cos θ = (−1)n et sin θ = (−1)n .
n=0
(2n)! n=0
(2n + 1)!
Il faut savoir le démontrer.
Corollaire. sin est une fonction impaire et cos est une fonction paire.
cos et sin sont de classe C ∞ et cos0 = − sin, sin0 = cos.
Il faut savoir le démontrer.
Formule circulaire : Pour tout θ ∈ R, cos2 θ + sin2 θ = 1.
Formule d’addition : cos(a + b) = cos a cos b − sin a sin b et sin(a + b) = sin a cos b + cos a sin b.
P
Définition.
P On appelle série alternée toute série réelle de la forme (−1)n αn ou
(−1)n+1 αn , où pour tout n ∈ N, αn ∈ R+ .
Théorème
P spécial des séries alternées (TSSA).
Soit On dit qu’elle est spéciale alternée lorsque la suite (|an |) est décroissante
an une série alternée.P
et tend vers 0. Dans ce cas, an est convergente.
+∞
X +∞
X
De plus, pour tout n ∈ N, ak est du signe de son premier terme an et | ak | ≤ |an+1 |.
k=n k=n+1

c Eric Merle 4 MPSI2 LLG


53
Semaine 11 : Résumé de cours 3 L’exponentielle complexe

Propriété. L’application cos est strictement décroissante sur ]0, 2] et elle possède un unique zéro sur
π
]0, 2], que l’on notera : c’est la définition de π.
2
Propriété. Pour tout x ∈ R, cos(x + π2 ) = − sin(x) et sin(x + π2 ) = cos(x).
On dispose des tableaux de variations suivants :
π 3π
x 0 2 π 2 2π
cos(x) 1 & 0 & −1 % 0 % 1
sin(x) 0 % 1 & 0 & −1 % 0
2π est la plus petite période de cos, ainsi que de sin.
Propriété. Soit (a, b) ∈ R2 tel que a2 + b2 = 1.
Il existe un unique θ ∈ [0, 2π[ tel que a = cos(θ) et b = sin(θ).
Corollaire. Soit θ, ϕ ∈ R tels que cos θ = cos ϕ et sin θ = sin ϕ. Alors θ ≡ ϕ [2π].
R −→ U
Paramétrage du cercle unité : l’application est périodique et sa plus petite période
t 7−→ eit
est 2π. Sa restriction à [0, 2π[ est bijective.
[a, b] −→ C
M:
Définition. Soit a, b ∈ R avec a < b et une application de classe C 1 .
t 7−→ M (t)
Notons C = {M (t)/t ∈ [a, b]} : C est une courbe dans le plan complexe, dont l’application M est un
Z b
paramétrage. Par définition, la longueur de C est égale à |M 0 (t)|dt.
a
it
Propriété. Soit θ ∈ [0, 2π]. Notons Cθ = {e /t ∈ [0, θ]} : Cθ est une portion du cercle unité. Sa
longueur est égale à θ.

3.2 Arguments d’un complexe

Propriété. Si z = a + ib, où (a, b) ∈ R2 , ez = ea (cos(b) + i sin(b)).


Définition. Pour tout z ∈ C, il existe ρ, θ ∈ R tels que z = ρeiθ . On dit alors que (ρ, θ) est un couple
de coordonnées polaires du point M (z) (l’image du complexe z).
On peut imposer ρ ≥ 0. Dans ce cas, ρ = |z|. On dit alors que θ est un argument de z et l’on note
θ = arg(z).
Lorsque z 6= 0, on peut imposer ρ > 0 et θ ∈ [0, 2π[. Dans ce cas, le couple (ρ, θ) est unique.
Définition. Un complexe z possède ainsi deux écritures usuelles :
— l’écriture algébrique : z = a + ib avec a, b ∈ R, ou bien z = Re(z) + iIm(z) ;
— l’écriture trigonométrique (ou exponentielle, ou polaire) : z = ρeiθ , avec ρ ∈ R+ et θ ∈ R
(l’angle θ n’est défini que modulo 2π), ou bien z = |z|ei arg(z) .
Les relations suivantes font le lien entre ces deux écritures :
lorsque z = a + ib = ρeiθ avec a, b, ρ, θ ∈ R et ρ ≥ 0,
p a b b
ρ= a2 + b2 , cos θ = √ , sin θ = √ , tan θ = .
a2+ b2 a2 + b2 a
 b 
De plus, si θ ∈] − π, π[, alors θ = 2arctan √ .
a+ a2 + b2
Il faut savoir le démontrer.
Propriétés de l’argument : Si z, z1 , z2 sont trois complexes non nuls, alors
— arg(z1 z2 ) ≡ arg(z1 ) + arg(z2 ) [2π] ;
1
— arg ≡ arg(z) ≡ −arg(z) [2π] ;
z

c Eric Merle 5 MPSI2 LLG


54
Semaine 11 : Résumé de cours 3 L’exponentielle complexe
z 
1
— arg ≡ arg(z1 ) − arg(z2 ) [2π] ;
z2
— pour tout n ∈ Z, arg(z n ) ≡ n arg(z) [2π] ;
— arg(−z) ≡ arg(z) + π [2π] ;
z1
— (arg(z1 ) ≡ arg(z2 ) [2π]) ⇐⇒ ∈ R∗+ .
z2
Remarque. Pour tout z ∈ C, arg(ez ) ≡ Im(z) [2π].
Interprétation géométrique du produit dans C : Fixons z0 = ρ0 eiθ0 , où ρ0 ∈ R+ et θ0 ∈ R.
La multiplication par z0 , c’est-à-dire l’application z 7−→ zz0 est la composée de h : z 7−→ ρ0 z avec
r : z 7−→ zeiθ0 . h s’interprète géométriquement comme une homothétie de centre O et de rapport ρ0
et r comme la rotation de centre O et d’angle θ0 .
Propriété. Soit (ρ, θ) ∈ R∗+ × R. Pour tout z ∈ C, ez = ρeiθ ⇐⇒ (∃k ∈ Z, z = ln(ρ) + iθ + 2ikπ).
C −→ C∗
En particulier, l’application exponentielle est surjective et 2iπ périodique.
z 7−→ ez
Il faut savoir le démontrer.
Formule de Moivre : Pour tout n ∈ N et t ∈ R, eint = (cos t + i sin t)n .
d zt
Propriété. Pour tout z ∈ C, (e ) = zezt .
dt

Définition. Pour tout α ∈ C et x ∈ R∗+ , on note xα = eα ln x .

d α
Propriété. Pour tout α ∈ C, (t ) = αtα−1 .
dt
α+β α−β −α+β α+β α−β
Technique de l’angle moyen : eiα + eiβ = ei 2 (ei 2 + ei 2 ) = 2ei 2 cos( )
2
α+β α−β −α+β α+β α−β
et eiα − eiβ = ei 2 (ei 2 − ei 2 ) = 2iei 2 sin( ).
2

3.3 Linéarisation

Définition. Linéariser une expression trigonométrique, c’est transformer un produit de quantités


en sin et cos en une somme de sin ou cos. Une méthode de linéarisation consiste à suivre les étapes
suivantes :
— On remplace chaque occurrence en cos ou sin par son expression issue des formules d’Euler ;
— On développe les différents produits qui apparaissent alors ;
— On regroupe les différents termes à l’aide des formules d’Euler pour faire apparaı̂tre une somme
de cos et de sin.

3.4 Antilinéarisation

Exercice. Il faut savoir le démontrer.


Montrer que, pour tout n ∈ N, il existe un unique polynôme Tn tel que, pour tout θ ∈ R,
Tn (cos θ) = cos nθ. Tn est appelé le n-ième polynôme de Tchebychev de première espèce.
Exercice. De même, sin(n + 1)θ = (sin θ)Sn (cos θ). Sn est le n-ième polynôme de Tchebychev
de seconde espèce.

c Eric Merle 6 MPSI2 LLG


55
Semaine 12 – Équations polynomiales, géométrie dans le plan complexe, similitudes directes et indirectes

Semaine 12 (du 2 au 6 décembre) :


Résumé de cours

Les complexes (fin)


1 Équations polynomiales
1.1 Racines n-ièmes d’un complexe
Les racines n-ièmes de a ∈ C∗ sont les solutions de l’équation z n = a en l’inconnue z ∈ C∗ .
1 ϕ
Posons a = reiϕ . Alors, en notant
 z0 = r n ei n on a z0n = a. Ainsi,
z n z 1 2kπ+ϕ
z n = a ⇐⇒ z n = z0n ⇐⇒ = 1 ⇐⇒ ∈ Un ⇐⇒ (∃k ∈ {0, . . . , n − 1}, z = r n ei n ).
z0 z0
a possède donc exactement n racines n-ièmes, disposées selon un polygone régulier à n côtés, inscrit
1
dans le cercle de centre O et de rayon |a| n .

1.2 Équations du second degré


1.2.1 Racines carrées
√ ϕ
a = reiϕ (avec r > 0) possède exactement deux racines carrées égales à ± rei 2 .
Lorsque a = x + iy avec x, y ∈ R,on peut déterminer les racines carrées de a selon le procédé suivant :
p x = α2 − β 2
Si z = α + iβ, alors z 2 = a ⇐⇒ x2 + y 2 = α 2 + β 2 .

sgn(y) = sgn(αβ)

1.2.2 Racines d’un trinôme


−b ± δ
Formule : Soit a, b, c ∈ C avec a 6= 0. Les solutions de l’équation az 2 + bz + c = 0 sont , où δ
2a
est une racine carrée du discriminant ∆ = b2 − 4ac.
−b
Ces deux racines sont égales si et seulement si ∆ = 0. Dans ce cas, l’unique racine vaut . On dit
2a
que c’est une racine double.
Il faut savoir le démontrer.
Propriété. Soit a, b, c ∈ C avec a 6= 0. Notons z1 et z2 les deux racines (éventuellement égales à une
−b c
racine double) du trinôme aX 2 + bX + c. Alors z1 + z2 = et z1 z2 = .
a a
Propriété. Soit s, p ∈ C.

z1 + z2 = s
si et seulement si {z1 , z2 } est l’ensemble des racines du trinôme X 2 − sX + p.
z1 z2 = p

1
56
Semaine 12 : Résumé de cours 3 Les similitudes

2 Géométrie du plan complexe


2.1 Distances et angles

Propriété. Soit A, B, C trois points du plan usuel, d’affixes respectifs a, b, c ∈ C.


−−→
— Le vecteur AB est d’affixe b − a ;
— La distance AB entre A et B est égale à |b − a| ;
b − c
\
−→
— L’angle orienté (CA,
−−→ −→\
CB) vérifie (CA,
−−→
CB) ≡ arg [2π].
a−c
Il faut savoir démontrer la dernière propriété.

2.2 Orthogonalité et colinéarité

Propriété. Soit →−
u et →−v deux vecteurs non nuls d’affixes u = a + ib et v = c + id.

− →
− u ∆ a c ∆
— u // v ⇐⇒ ∈ R ⇐⇒ Im(uv) = 0 ⇐⇒ ad − bc = = det(→−
u,→
−v ) = 0.
v b d
det(→ −u,→−
v ) est le déterminant (aussi appelé le produit mixte) des deux vecteurs →

u et →

v.

− →
− u ∆ →
− →

— u ⊥ v ⇐⇒ ∈ iR ⇐⇒ Re(uv) = 0 ⇐⇒ ac + bd =< u , v >= 0.
v
<→ −
u,→ −
v > est le produit scalaire des deux vecteurs → −u et →

v.
Il faut savoir le démontrer.
Corollaire. Soit A, B, C trois points du plan usuel, d’affixes respectifs a, b, c ∈ C.
a−b
— (A, B et C sont alignés) ⇐⇒ ∈ R ⇐⇒ Im((a − b)(c − b)) = 0, c’est-à-dire
c−b
C ∈ (AB) ⇐⇒ arg(c − a) ≡ arg(b − a) [π] ⇐⇒ (∃t ∈ R, c = (1 − t)a + tb).
a−b
— (Le triangle ABC est rectangle en B) ⇐⇒ ∈ iR ⇐⇒ Re((a − b)(c − b)) = 0.
c−b

2.3 Équation d’un cercle


Notons C le cercle de centre α = a + ib ∈ C et de rayon r > 0. Alors
z = x + iy ∈ C ⇐⇒ |z − α| = r ⇐⇒ (z − α)(z − α) = r2 ⇐⇒ x2 + y 2 − 2ax − 2by = r2 − a2 − b2 .
Réciproquement, un ensemble admettant une équation cartésienne de la forme
x2 + y 2 − 2ax − 2by = c est un cercle éventuellement réduit à un point ou à l’ensemble vide.

3 Les similitudes
3.1 Les similitudes directes

Définition. Une application f : C −→ C est une isométrie si et seulement si elle conserve les
distances, c’est-à-dire si et seulement si , pour tout z, z 0 ∈ C, |f (z) − f (z 0 )| = |z − z 0 |.
Définition. La translation de vecteur b ∈ C est la transformation tb : z 7−→ z + b. Elle est bijective,
6 0, c’est une isométrie.
d’application réciproque t−b , elle ne possède aucun point fixe lorsque b =
Définition. La rotation de centre z0 ∈ C et d’angle θ ∈ R est la transformation
rz0 ,θ : z 7−→ eiθ (z − z0 ) + z0 . Elle est bijective, d’application réciproque rz0 ,−θ , elle admet z0 comme
unique point fixe lorsque θ ∈ / 2πZ, c’est une isométrie.
Définition. L’homothétie de centre z0 ∈ C et de rapport λ ∈ R∗ est la transformation
hz0 ,λ : z 7−→ λ(z − z0 ) + z0 . Elle est bijective, d’application réciproque hz0 , λ1 , elle admet z0 comme
unique point fixe lorsque λ 6= 1.

c Eric Merle 2 MPSI2 LLG


57
Semaine 12 : Résumé de cours 3 Les similitudes

Définition. La similitude directe de centre z0 ∈ C, d’angle θ ∈ R et de rapport λ ∈ R∗ est


sz0 ,θ,λ = hz0 ,λ ◦rz0 ,θ = rz0 ,θ ◦hz0 ,λ = z 7−→ λeiθ (z −z0 )+z0 . Elle est bijective, d’application réciproque
sz0 ,−θ, λ1 , elle admet z0 comme unique point fixe lorsque λeiθ 6= 1, elle conserve les proportions (pour
tout z, z 0 ∈ C, en posant s = sz0 ,θ,λ , |s(z) − s(z 0 )| = |λ||z − z 0 |), elle conserve les angles (pour tout
−−−−−→ \ −−−−−→ \

− →

a, b, c deux à deux distincts, (s(a)s(b), s(a)s(c)) = (ab, ac) : Il faut savoir le démontrer.).
Définition. On dit que f est une similitude affine directe si et seulement si c’est une application de
C dans C de la forme z 7−→ az + b, où a ∈ C∗ et b ∈ C.
On dit que c’est une similitude vectorielle directe lorsque f (0) = 0.
Propriété. Soit f : z 7−→ az + b une similitude directe.
Lorsque a = 1, c’est une translation.
Lorsque a 6= 1, f possède un unique point fixe z0 ∈ C et f est la similitude directe de centre z0 ,
d’angle arg(a) et de rapport |a|.
Il faut savoir le démontrer.
Propriété. L’ensemble S + des similitudes affines directes est un sous-groupe de S(C), dont l’ensemble
des similitudes vectorielles directes est un sous-groupe.
Il faut savoir le démontrer.
Propriété. L’application qui à la similitude z 7−→ az + b associe a (resp : |a|) est un morphisme de
groupes, dont le noyau est le sous-groupe des translations (resp : des rotations et des translations).
Corollaire. Une composée, quel que soit l’ordre, de translations, de rotations dont la somme des
angles est égale à θ et d’homothéties dont le produit des rapports est égal à λ est une similitude directe
de la forme z 7−→ λeiθ z + b.

3.2 Les similitudes indirectes

Définition. Soit D une droite affine du plan usuel. La réflexion d’axe D est la symétrie orthogonale
par rapport à D.
Propriété. la conjugaison z 7−→ z est la réflexion d’axe Ox.
Remarque. La suite de ce paragraphe est hors programme.
Propriété. Soit θ ∈ R. L’application z 7−→ e2iθ z est la réflexion (vectorielle) selon la droite (vecto-
rielle) eiθ R.
Il faut savoir le démontrer.
Propriété. Soit θ ∈ R et z0 ∈ C. L’application z 7−→ e2iθ (z − z0 ) + z0 est la réflexion (affine) selon
la droite (affine) z0 + eiθ R.
Il faut savoir le démontrer.
Propriété. Soit θ ∈ R et z0 ∈ C. Notons rD la réflexion selon la droite D.
rD est involutive, D est l’ensemble de ses points fixes, rD est une isométrie, rD transforme les angles
−−−−−→\ −−−−−→ \

− →

en leurs opposés : pour tout a, b, c deux à deux distincts, (s(a)s(b), s(a)s(c)) = −(ab, ac).
Définition. On dit que f est une similitude affine indirecte si et seulement si c’est une application
de C dans C de la forme z 7−→ az + b, où a ∈ C∗ et b ∈ C.
On dit que c’est une similitude vectorielle indirecte lorsque f (0) = 0.
Une similitude affine indirecte f transforme les angles en leurs opposés et conserve les proportions :
|f (z) − f (z 0 )|
est une constante indépendante de (z, z 0 ) ∈ C2 avec z 6= z 0 .
|z − z 0 |
Définition. Une réflexion glissée d’axe D est la composée commutative d’une réflexion d’axe D avec
une translation selon un vecteur parallèle à D.

c Eric Merle 3 MPSI2 LLG


58
Semaine 12 : Résumé de cours 3 Les similitudes

Propriété. La composée d’une homothétie et d’une réflexion glissée est une similitude affine indirecte.
Propriété. Soit f : z 7−→ λe2iθ z + b une similitude affine indirecte. C’est la composée d’une
homothétie de rapport λ avec une réflexion glissée selon une droite parallèle au vecteur eiθ .
Définition. On note S − l’ensemble des similitudes indirectes et S = S − t S + .
S est un sous-groupe de S(C).
La composée de k éléments de S + avec h éléments de S − , quel que soit l’ordre, est un élément de S +
si h est pair et de S − si h est impair.
Propriété. (Admise pour le moment) : Soit f : C −→ C une application. f ∈ S si et seulement si
il existe λ ∈ R∗+ tel que, pour tout z, z 0 ∈ C, |f (z) − f (z 0 )| = λ|z − z 0 |.
Propriété. L’application qui associe à toute similitude z 7−→ az + b ou z 7−→ az + b la quantité |a|
est un morphisme de groupes, donc le noyau est le sous-groupe des isométries noté I.
Propriété. Posons I + = I ∩ S + et I − = I ∩ S − .
I + est l’ensemble des translations et des rotations.
I − est l’ensemble des réflexions glissées.
0
Propriété. Soit D = z0 + eıθ R et D0 = z00 + eıθ R deux droites affines.
Si θ 6≡ θ0 [π], alors D ∩ D0 est un singleton {z0 } et rD0 ◦ rD est la rotation de centre z0 et d’angle
2(θ0 − θ) = 2(D,\ D0 ).
0
Sinon, D et D sont parallèles et rD0 ◦ rD est une translation.

c Eric Merle 4 MPSI2 LLG


59
Semaine 13 – Groupes, sous-groupes, monogènes, cycliques, morphismes, groupe symétrique, anneaux

Semaine 13 (du 9 au 13 décembre) :


Résumé de cours

1 La structure de groupe
1.1 Définitions

Définition. (G, .) est un groupe si et seulement si G est muni d’une loi interne “.” qui vérifie
— l’associativité : pour tout x, y, z ∈ G, x(yz) = (xy)z ;
— l’existence d’un élément neutre 1G : pour tout x ∈ G, 1G .x = x.1G = x :
— l’existence, pour tout x ∈ G, d’un symétrique x−1 tel que : xx−1 = x−1 x = 1G .
Définition. Pour un groupe, “commutatif” et “abélien” sont synonymes.
Notation. On utilise principalement deux notations pour désigner la loi interne d’un groupe :
 Notation multiplicative : dans un groupe (G, .), l’élément neutre est noté 1 ou 1G , le symétrique de
n
Y
x ∈ G est noté x−1 et si x1 , . . . , xn ∈ G, on note x1 × · · · × xn = xi , en convenant que ce produit
i=1
vaut 1G lorsque n = 0 (produit vide).
 Notation additive : dans un groupe abélien (G, +), l’élément neutre est noté 0 ou 0G , le symétrique
n
X
de x ∈ G est noté −x et si x1 , . . . , xn ∈ G, on note x1 + · · · + xn = xi , en convenant que cette
i=1
somme vaut 0G lorsque n = 0 (somme vide).
Définition. Si (G, .) est un groupe fini, le cardinal de G est appelé l’ordre de G.

1.2 Calculs dans un groupe

Propriété. Soit (G, .) un groupe et a ∈ G. Alors a est régulier (ou simplifiable) à gauche et à droite,
c’est-à-dire que ∀x, y ∈ G, [ax = ay =⇒ x = y] et [xa = ya =⇒ x = y].
−1
Propriété. Dans un groupe (G, .), (x1 × · · · × xn )−1 = x−1
n × · · · × x1 .

Propriété. Dans un groupe abélien (G, +), on pose x − y = x + (−y).
On dispose des formules : x − (y + z) = x − y − z et x − (y − z) = x − y + z.

1.3 Construction de groupes


1.3.1 Groupe produit

Définition. Le groupe produit des n groupes ((Gi , .i ))i∈{1,...,n} est (G, .), où G = G1 × · · · × Gn et
où la loi “.” est définie par : (x1 , . . . , xn ).(y1 , . . . , yn ) = (x1 .1 y1 , . . . , xn .n yn ).

1
60
Semaine 13 : Résumé de cours 1

1.3.2 Produit fonctionnel

Définition. Soit (G, .) un groupe et A un ensemble quelconque. Pour tout f, g ∈ GA , on convient


que f.g est l’application de A dans G définie par : ∀a ∈ A, (f.g)(a) = f (a).g(a).
Alors GA est un groupe, dont l’élément neutre est l’application constante a 7−→ 1G et pour lequel le
f −1 : A −→ G
symétrique de f ∈ GA est .
a 7−→ [f (a)]−1

1.3.3 Le groupe symétrique

Propriété. Si E est un ensemble, alors l’ensemble des bijections de E dans E est un groupe pour la
loi de composition. On l’appelle le groupe symétrique de E et on le note S(E). Son élément neutre
est l’application identité IdE et, pour tout f ∈ S(E), le symétrique de f est la bijection réciproque
de f , dont la notation f −1 est en cohérence avec cette propriété.

1.4 Sous-groupes
1.4.1 Définition
Propriété et définition : Soit (G, .) un groupe et H une partie de G.
H est un groupe pour la restriction de la loi “.” à H × H, avec le même élément neutre 1G si et
seulement si
— H 6= ∅ ;
— ∀(x, y) ∈ H 2 , xy ∈ H (stabilité du produit) ;
— ∀x ∈ H , x−1 ∈ H (stabilité du symétrique).
Cet ensemble de conditions est équivalent à
— H 6= ∅ ;
— ∀(x, y) ∈ H 2 , xy −1 ∈ H.
Dans ce cas, on dit que H est un sous-groupe de G.
Propriété de transitivité : Un sous-groupe d’un sous-groupe d’un groupe G est un sous-groupe
de G.

1.4.2 Groupe engendré par une partie

Propriété. Soit I un ensemble non vide, éventuellement


\ infini. Soient G un groupe et (Hi )i∈I une
famille de sous-groupes de G. Alors l’intersection Hi est un sous-groupe de G.
i∈I
Il faut savoir le démontrer.
Définition. Soit G un groupe et A une partie de G.
Notons\ S l’ensemble des sous-groupes de G contenant A. S est non vide car G ∈ S.
Alors H est un sous-groupe de G contenant A et, par construction, c’est le plus petit sous-groupe
H∈S
contenant A. On le note Gr(A).
Propriété. Si A ⊂ B, alors Gr(A) ⊂ Gr(B).
−1 −1
Propriété. Soit
( (G,
n
.) un groupe et A une partie de G. Notons ) A = {a /a ∈ A}.
Y
Alors Gr(A) = ai /n ∈ N, ∀i ∈ {1, . . . , n}, ai ∈ A ∪ A−1 .
i=1
Il faut savoir le démontrer.
Définition. Si H et K sont deux sous-groupes d’un groupe abélien (G, +), on note
H + K = {h + k/(h, k) ∈ H × K}. C’est le groupe engendré par H ∪ K.

c Eric Merle 2 MPSI2 LLG


61
Semaine 13 : Résumé de cours 1

Définition. Soit G un groupe et A une partie de G.


A est une partie génératrice de G si et seulement si Gr(A) = G.

1.4.3 Puissances d’un élément d’un groupe

Définition. Soit (G, .) un groupe et a ∈ G. On définit la famille (an )n∈Z par les relations suivantes :
— Initialisation : a0 = 1G (encore le produit vide) ;
— Itération : pour tout n ∈ N, an+1 = a.an (donc pour n ∈ N∗ , an = a × · · · × a) ;
| {z }
nf ois
— Symétrique : pour tout n ∈ Z avec n < 0, an = (a−n )−1 .
Formules : pour tout n, m ∈ Z, an am = an+m et (an )m = anm .
Si ab = ba (on dit que a et b commutent), pour tout n ∈ Z, (ab)n = an bn .
Remarque. Si a et b commutent, alors pour tout n, k ∈ Z, an et bk commutent également entre eux.
Il faut savoir le démontrer.
En notation additive, dans le cadre des groupes commutatifs, ce qui précède devient :
Définition. soit (G, +) un groupe commutatif et a un élément de G. On définit la famille (na)n∈Z
par les relations suivantes :
— Initialisation : 0.a = 0G ;
— Itération : pour tout n ∈ N, (n + 1).a = a + (n.a)
(donc pour n ∈ N∗ , n.a = a + · · · + a) ;
| {z }
nf ois
— Symétrique : pour tout n ∈ Z avec n < 0, n.a = −((−n).a).
Propriété. Soit (G, +) un groupe abélien et a, b ∈ G. Pour tout n, m ∈ Z,
(n.a) + (m.a) = (n + m).a, m.(n.a) = (nm).a et n.(a + b) = (na) + (nb).
Propriété. Soit
nX (G, +) un groupe abélieno et A une partie de G.
(A)
Alors Gr(A) = na .a/(na )a∈A ∈ Z .
a∈A

nX
p o
Remarque. En particulier, Gr({x1 , . . . , xp }) = ni xi /(ni )1≤i≤p ∈ Zp .
i=1

1.4.4 Groupe monogène

Propriété. Soit (G, .) un groupe et a ∈ G. Alors le groupe engendré par la partie {a} est
Gr({a}) = {an /n ∈ Z}. On le note plus simplement Gr(a).
Propriété. Soit (G, +) un groupe abélien et a ∈ G. Alors le groupe engendré par la partie {a} est
Gr({a}) = {na/n ∈ Z}. On le note Gr(a). On peut donc écrire Gr(a) = Z.a.
Propriété. Les sous-groupes de (Z, +) sont les nZ, où n ∈ N.
Il faut savoir le démontrer.
Définition. Soit a un élément d’un groupe G. Lorsque Gr(a) est de cardinal fini, ce cardinal est
appelé l’ordre de a.
Définition. On dit qu’un groupe (G, .) est monogène si et seulement si il existe a ∈ G tel que
G = Gr(a). On dit alors que a est un générateur de G.
Remarque. Tout groupe monogène est abélien.
Définition. Un groupe G est dit cyclique si et seulement si G est monogène et fini.

c Eric Merle 3 MPSI2 LLG


62
Semaine 13 : Résumé de cours 1

k
Exemple. Un = {e2iπ n /k ∈ {0, . . . , n − 1}} est un groupe cyclique.
Propriété. Soit (G, .) un groupe, a ∈ G et n ∈ N∗ .
Les propriétés suivantes sont équivalentes :
— i) Gr(a) est cyclique de cardinal n.
— ii) {k ∈ N∗ /ak = 1} est non vide et son minimum est égal à n.
— iii) Pour tout k ∈ Z, [ak = 1 ⇐⇒ k ∈ nZ].
— iv) Les éléments de Gr(a) sont exactement 1, a, . . . , an−1 et ils sont deux à deux distincts.
Dans ce cas, n est l’ordre de a et de Gr(a).
Il faut savoir le démontrer.

1.5 Morphisme de groupes

Définition. Soient (G, ∆) et (H, ∇) deux groupes.


Une application f de G dans H est un morphisme (on dit aussi un homomorphisme) de groupes
si et seulement si
∀(x, y) ∈ G2 f (x∆y) = f (x)∇f (y).
Un isomorphisme est un morphisme bijectif.
Un endomorphisme est un morphisme de G dans lui-même.
Un automorphisme est un endomorphisme bijectif.
(Z, +) −→ (G, .)
Propriété. Si a est un élément de (G, .), alors est un morphisme de groupes.
n 7−→ an
Propriété. Si f est un morphisme de (G, .) dans (H, .), alors
f (1G ) = 1H et pour tout x ∈ G, f (x)−1 = f (x−1 ).
Propriété. En notation additive, si f est un morphisme entre deux groupes abéliens (G, +) et (H, +),
alors f (0G ) = 0H et, pour tout x ∈ G, −f (x) = f (−x).
Propriété. Soit ϕ un morphisme du groupe (G, .) vers le groupe (G0 , .).
Y
n  Yn
Alors, pour tout n ∈ N et x1 , . . . , xn ∈ G, ϕ xi = ϕ(xi ).
i=1 i=1
De plus, pour tout n ∈ Z et a ∈ G, ϕ(an ) = ϕ(a)n .
Il faut savoir le démontrer.
Propriété. Soit ϕ un morphisme du groupe abélien (G, +) vers le groupe abélien (G0 , +). Alors,
X
n  Xn
pour tout n ∈ N et x1 , . . . , xn ∈ G, ϕ xi = ϕ(xi ).
i=1 i=1
De plus, pour tout n ∈ Z et a ∈ G, ϕ(na) = nϕ(a).
Propriété. La composée de deux morphismes de groupes est un morphisme de groupes.
Propriété. Si f : G −→ H est un isomorphisme de groupes, f −1 est encore un isomorphisme de
groupes, de H dans G.
Propriété. Soit (G, .) un groupe. On note Aut(G) l’ensemble des automorphismes de G. C’est un
sous-groupe de S(G).
Définition. Soit ϕ : G −→ G un endomorphisme et H un sous-groupe de G. On peut définir ϕ|H H
si et seulement si H est stable par ϕ, c’est-à-dire si et seulement si [∀x ∈ H, ϕ(x) ∈ H]. Dans ce cas,
ϕ|HH est aussi un endomorphisme, appelé l’endomorphisme induit par ϕ sur H, ou plus simplement
la restriction de ϕ à H (il y a bien sûr ambiguı̈té).
Propriété. Soit f un morphisme de G dans H, G0 un sous-groupe de G et H 0 un sous-groupe de H.
Alors f (G0 ) est un sous-groupe de H et f −1 (H 0 ) est un sous-groupe de G.

c Eric Merle 4 MPSI2 LLG


63
Semaine 13 : Résumé de cours 1

Il faut savoir le démontrer.


Définition. Soient (G, .) et (H, .) deux groupes, et f un morphisme de G dans H.
On appelle noyau de f le sous-groupe de G suivant :

Ker(f ) = f −1 ({1H }) = {x ∈ G/f (x) = 1H }.

On appelle image de f le sous-groupe de H suivant :

Im(f ) = f (G) = {f (x)/x ∈ G}.

Remarque. En notation additive, Si f est un morphisme dont le groupe d’arrivée (H, +) est abélien,
alors Ker(f ) = f −1 ({0H }) = {x ∈ G/f (x) = 0H }.
Propriété. Soient (G, .) et (H, .) deux groupes, et f un morphisme de G dans H.

f est injective si et seulement si Ker(f ) = {1G },


f est surjective si et seulement si Im(f ) = H.

Propriété. Un groupe est monogène non cyclique si et seulement si il est isomorphe à (Z, +).
Il faut savoir le démontrer.

1.6 Groupe symétrique

Notation. Pour tout n ∈ N, on pose Nn = {k ∈ N/1 ≤ k ≤ n}. En particulier N0 = ∅.


Définition. Soit n ∈ N. S(Nn ) s’appelle le groupe symétrique de degré n. Il est plus simplement
noté Sn . Ses éléments sont les bijections sur Nn , que l’on appelle aussi des permutations.
 
1 2 ··· n
Notation. Si f ∈ Sn , on note f = .
f (1) f (2) · · · f (n)
Définition. Soient k ∈ Nn et a1 , a2 . . .ak k éléments distincts de Nn .
On note (a1 a2 . . . ak ) la permutation f telle que : ∀i ∈ {1, . . . , k − 1} f (ai ) = ai+1 ,
f (ak ) = a1 , les autres éléments de Nn étant invariants par f .
On dit que (a1 . . . ak ) est un cycle de longueur k dont le support est {a1 , . . . , ak }.
Définition. On appelle transposition tout cycle de longueur 2.
Si a, b ∈ Nn avec a 6= b, la transposition (a b) échange a et b sans modifier les autres éléments de Nn .
Propriété. Deux cycles dont les supports sont disjoints commutent toujours entre eux.
Théorème. Toute permutation de Sn se décompose de manière unique en un produit (commutatif)
de cycles dont les supports sont deux à deux disjoints.
Propriété. Pour tout n ∈ N∗ , pour toute permutation σ de Sn , il existe k ∈ N et k transpositions
τ1 , . . . , τk telles que σ = τ1 ◦ · · · ◦ τk . Cependant une telle décomposition n’est pas unique.
La démonstration par récurrence est à connaı̂tre.
Formule : (a1 a2 . . . ak ) = (a1 a2 ) ◦ (a2 a3 ) ◦ · · · ◦ (ak−1 ak ) .
Définition. Soit n ∈ N∗ et soit σ ∈ Sn . La décomposition de σ en un produit de transpositions
τ1 ◦ · · · ◦ τk n’est pas unique, mais le nombre k de transpositions utilisées a toujours la même parité.
Ainsi (−1)k ne dépend que de σ. On l’appelle la signature de σ et on le note ε(σ).
Les permutations de signature 1 s’appellent les permutations paires,
Les permutations de signature −1 s’appellent les permutations impaires.
Propriété. L’application signature est l’unique morphisme de Sn dans ({−1, 1}, ×) qui envoie toute
transposition sur −1.

c Eric Merle 5 MPSI2 LLG


64
Semaine 13 : Résumé de cours 2 La structure d’anneau

Propriété. Soit n ∈ N∗ . On note An l’ensemble des permutations paires de Sn .


C’est un sous-groupe de Sn , appelé le groupe alterné de degré n.
n!
Propriété. Si n ≥ 2, alors |An | = .
2
Il faut savoir le démontrer.

2 La structure d’anneau
2.1 Définition

Définition. On appelle anneau tout triplet (A, +, .), où A est un ensemble et où “+” et “.” sont
deux lois internes sur A telles que
• (A, +) est un groupe abélien (l’élément neutre étant noté 0 ou 0A ),
• “.” est une loi associative, admettant un élément neutre noté 1 ou 1A ,
• la loi “.” est distributive par rapport à la loi “+”, c’est-à-dire que
∀(x, y, z) ∈ A3 x.(y + z) = (x.y) + (x.z) et (x + y).z = (x.z) + (y.z).
Définition. Un anneau (A, +, .) est commutatif ou abélien si et seulement si la loi “.” est commutative.

2.2 Calculs dans un anneau

Propriété. Si A est un anneau, pour tout x, y ∈ A et n ∈ Z,


0.x = x.0 = 0, (nx).y = x.(ny) = n(x.y). En particulier, −x = (−1A ).x = x.(−1A ).
Il faut savoir le démontrer.
Exemple. {0} est un anneau en posant 0 + 0 = 0 et 0.0 = 0. On l’appelle l’anneau nul.
Propriété. Si A n’est pas l’anneau nul, alors 1A 6= 0A .
Exemples. Si A est un anneau, pour tout ensemble E, F(E, A) et AN sont des anneaux.
Propriété. Généralisation de la distributivité. Soient A
n
! et n, p ∈ N.
! un anneau,
p
X X X
Pour tout (a1 , . . . , an ) ∈ An et (b1 , . . . , bp ) ∈ Ap ai . bi = ai .bj .
i=1 i=1 1≤i≤n
1≤j≤p

2.3 Puissances d’un élément

Notation. Dans ce paragraphe on fixe un anneau A.


Définition. a ∈ A est inversible si et seulement s’il admet un symétrique (un inverse) pour la loi “.”.
Définition. Si a ∈ A. On définit la famille (an ) par les relations suivantes :
— Initialisation : a0 = 1A ;
— Itération : pour tout n ∈ N, an+1 = a.an (donc pour n ∈ N∗ , an = a × · · · × a) ;
| {z }
nf ois
— Lorsque a est inversible, pour tout n ∈ Z avec n < 0, on note an = (a−n )−1 .
Définition. a ∈ A \ {0} est nilpotent si et seulement si il existe n ∈ N avec n ≥ 2 tel que an = 0.
Propriété. Pour tout n, m ∈ N an am = an+m et (an )m = anm .
Lorsque a est inversible, c’est valable pour tout n, m ∈ Z.
Propriété. Soit a, b ∈ A tels que ab = ba (on dit que a et b commutent).
Pour tout n, m ∈ N, (ab)n = an bn . Lorsque a et b sont inversibles, c’est valable pour tout n, m ∈ Z.

c Eric Merle 6 MPSI2 LLG


65
Semaine 13 : Résumé de cours 2 La structure d’anneau

2.4 Les sous-anneaux

Définition. Soit (A, +, .) un anneau et B ⊂ A. B est un sous-anneau de A si et seulement si, en le


munissant des restrictions sur B 2 des lois “+” et “.”, B est un anneau possédant les mêmes éléments
neutres que ceux de A.
Propriété. B est un sous-anneau de A ssi 1A ∈ B, et ∀(x, y) ∈ B 2 , x − y ∈ B et xy ∈ B.
Propriété. Si A est un anneau, son plus petit sous-anneau est Z.1A = {n.1A /n ∈ Z}.
Il faut savoir le démontrer.

2.5 Les corps

Propriété. L’ensemble U (A) des éléments inversibles d’un anneau A est un groupe multiplicatif.
Définition. Un anneau A est un corps si et seulement si
• A n’est pas réduit à {0A },
• A est commutatif,
• et tout élément de A différent de 0A est inversible.
Définition. Soit (K, +, .) un corps et L ⊂ K. L est un sous-corps de K si et seulement si, en le
munissant des restrictions sur L2 des lois “+” et “.”, L est un corps possédant les mêmes éléments
neutres que ceux de K.
Propriété. L est un sous-corps de K ssi c’est un sous-anneau de K tel que : ∀x ∈ L \ {0} x−1 ∈ L.

2.6 Formules

Notation. On fixe un anneau (A, +, .).


n  
X
n n
Formule du binôme de Newton. Si a, b ∈ A avec ab = ba, alors (a + b) = ai bn−i .
i
i=0

Formule du multinôme (hors programme) : Soit b1 , . . . , bp des éléments de A qui commutent


X n!
deux à deux. Alors, pour tout n ∈ N, (b1 + · · · + bp )n = bα αp
1 · · · bp .
1

α +···+α =n
α1 ! · · · αp !
1 p

n
X
Formule de Bernoulli : Si a, b ∈ A avec ab = ba, alors an+1 − bn+1 = (a − b) ak bn−k .
k=0

Sommes partielles d’une série géométrique.


n
X
Si x ∈ A et m, n ∈ N avec m ≤ n, (1A − x). xi = xm − xn+1 .
i=m

2.7 Anneaux intègres

Définition. Soit A un anneau.


a ∈ A \ {0} est un diviseur à gauche de 0 si et seulement s’il existe b ∈ A \ {0} tel que ab = 0.
C’est un diviseur à droite de 0 si et seulement s’il existe b ∈ A \ {0} tel que ba = 0.
Propriété. Un élément non nul d’un anneau est régulier à gauche si et seulement si ce n’est pas un
diviseur à gauche de 0. Idem à droite.
Il faut savoir le démontrer.

c Eric Merle 7 MPSI2 LLG


66
Semaine 13 : Résumé de cours 2 La structure d’anneau

Définition. Un anneau A est intègre si et seulement si il est commutatif et non nul et s’il n’admet
aucun diviseur de 0, ni à gauche ni à droite, c’est-à-dire si et seulement si, pour tout a, b ∈ A,
ab = 0 =⇒ (a = 0) ∨ (b = 0).
Propriété. Un corps est en particulier un anneau intègre.

2.8 Morphismes d’anneaux

Définition. Soient (A, +A , .A ) et (B, +B , .B ) deux anneaux.


Une application f : A −→ B est un morphisme d’anneaux si et seulement si
• f (1A ) = 1B ,
• ∀(x, y) ∈ A2 f (x +A y) = f (x) +B f (y),
• ∀(x, y) ∈ A2 f (x.A y) = f (x).B f (y).
Un isomorphisme est un morphisme bijectif.
Un endomorphisme est un morphisme de A dans lui-même.
Un automorphisme est un endomorphisme bijectif.
Remarque. Lorsque f est un morphisme d’anneaux, c’est un morphisme de groupes, d’où Im(f ) et
Ker(f ) = f −1 ({0}).
Propriété. Soient A et B deux anneaux et f un morphisme d’anneaux de A dans B.
Pour tout a ∈ A, p ∈ N et n ∈ Z, f (na) = nf (a), f (ap ) = f (a)p .
Si a est inversible, alors f (a) est inversible et f (an ) = f (a)n . En particulier, f (a−1 ) = f (a)−1 .
Propriété. La composée de deux morphismes d’anneaux est un morphisme d’anneaux.
Propriété. Si f est un isomorphisme d’anneaux, f −1 est encore un isomorphisme d’anneaux.
Propriété. Soient (A, +A , .A ) et (B, +B , .B ) deux anneaux et f : A −→ B un morphisme d’anneaux.
L’image directe par f de tout sous-anneau de A est un sous-anneau de B.
L’image réciproque selon f de tout sous-anneau de B est un sous-anneau de A.
Définition. Soit K et L deux corps et f une application de K dans L. On dit que f est un morphisme
de corps si et seulement si c’est un morphisme d’anneaux.
Propriété. (hors programme) Un morphisme de corps est toujours injectif.
Il faut savoir le démontrer.
Propriété. Soit f : K −→ L un morphisme de corps.
Si K0 est un sous-corps de K, alors f (K0 ) est un sous-corps de L.
Si L0 est un sous-corps de L, alors f −1 (L0 ) est un sous-corps de K.

2.9 Les anneaux produits

Définition. Soient n ∈ N∗ et ((Ai , +, .))i∈{1,...,n} une famille de n anneaux.


L’anneau produit de cette famille est (A, +, .), où A = A1 × · · · × An et où les lois “+” et “.” sont
définies par : pour tout x = (x1 , . . . , xn ) ∈ A et y = (y1 , . . . , yn ) ∈ A,
x + y = (x1 + y1 , . . . , xn + yn ) et x.y = (x1 .y1 , . . . , xn .yn ).
p : A −→ Ai
Définition. Pour tout i ∈ Nn , la ième projection, i est un morphisme
(a1 , . . . , an ) 7−→ ai
surjectif d’anneaux.

c Eric Merle 8 MPSI2 LLG


67
Semaine 14 – Idéaux, groupes et anneaux quotients

Semaine 14 (du 16 au 20 décembre) :


Résumé de cours

1 Les idéaux
Définition. Une partie I d’un anneau A est un idéal de A à gauche (resp : à droite) si et seulement
si I 6= ∅, ∀(x, y) ∈ I 2 , x + y ∈ I et ∀(x, y) ∈ A × I, x.y ∈ I (resp : y.x ∈ I).
On dit qu’un idéal est absorbant pour le produit.
Lorsque I est un idéal à gauche et à droite, on dit que c’est un idéal bilatère.
Notation. Pour la suite, on fixe un anneau (A, +, .) que l’on suppose commutatif.
Propriété. Tout idéal est un groupe pour la loi “+”.
Propriété. Soit A un anneau commutatif et I un idéal de A. Alors 1 ∈ I ⇐⇒ I = A .
Propriété. Une intersection d’idéaux de A est un idéal de A.
Il faut savoir le démontrer.
Définition. Soit B une partie de A. L’idéal engendré par B est l’intersection des idéaux de A
contenant B. C’est le plus petit idéal (au sens de l’inclusion) contenant B. On le note Id(B).
Propriété. Soient B et C deux parties de A telles que C ⊂ B. Alors Id(C) ⊂ Id(B).
Xn
Propriété. Si B est une partie de A, Id(B) = { ai bi /n ∈ N, (a1 , . . . , an ) ∈ An , (b1 , . . . , bn ) ∈ B n }.
i=1
Il faut savoir le démontrer.
Définition. Un idéal I de A est principal si et seulement si il existe b ∈ A tel que I = Id(b).
Définition. Un anneau est principal si et seulement si c’est un anneau commutatif, intègre et dont
tous les idéaux sont principaux.
Théorème. Z est un anneau principal.
Théorème. Si K est un corps, alors K[X] est un anneau principal.
Il faut savoir le démontrer.
Propriété. Soit I et J deux idéaux de A. Alors I + J est un idéal de A.
Propriété. Soient A et B deux anneaux commutatifs et f : A −→ B un morphisme d’anneaux.
Ker(f ) est un idéal de A et si I est un idéal de B, f −1 (I) est un idéal de A contenant Ker(f ).
Il faut savoir le démontrer.

1
68
Semaine 14 : Résumé de cours 3 Anneaux quotients

2 Groupes quotients
Notation. On fixe un groupe (G, .) et un sous-groupe H de G.
On note RH la relation binaire définie sur G par : ∀(x, y) ∈ G2 , [xRH y ⇐⇒ x−1 y ∈ H].
Propriété. RH est une relation d’équivalence et, pour tout x ∈ G, la classe d’équivalence de x pour

RH est x = {xh/h ∈ H} = xH. On note G/H l’ensemble des classes d’équivalence.

Exemple fondamental : lorsque G = (Z, +) et H = nZ, où n ∈ N :


Z/nZ = {k/k ∈ Z}, où k = {k + na/a ∈ Z} .
Théorème de Lagrange (Hors programme) : Si G est de cardinal fini, alors |H| divise |G|.
Corollaire. (Hors programme) Si p est un nombre premier, tout groupe de cardinal p est cyclique.
Théorème. (au programme) : Si (G, .) est un groupe fini, ∀a ∈ G, a|G| = 1G .
Notation. Pour la suite, on suppose que (G, +) est un groupe commutatif.
Ainsi, pour tout x, y ∈ G, xRH y ⇐⇒ y − x ∈ H.

Théorème. En posant, pour tout x, y ∈ G, x + y = x + y, on définit une loi “+” sur G/H pour
laquelle G/H est un groupe commutatif.
Il faut savoir le démontrer.
G −→ G/H
Définition. est un morphisme, que l’on appelle la surjection canonique.
x 7−→ x
Propriété. Soit n ∈ N. Dans (Z/nZ, +), on dispose des règles de calcul suivantes :
— Pour tout a, b ∈ Z, a = b ⇐⇒ a ≡ b [n],
— Pour a, b ∈ Z, a + nb = a,
— 0 = 0Z/nZ ,
— pour tout k ∈ Z, −k = −k,
— pour tout h, k ∈ Z, h + k = h + k,
— pour tout h, k ∈ Z, hk = hk.
Propriété. Si n = 0, Z/nZ est monogène non cyclique. Il est isomorphe à Z.
Tout groupe monogène non cyclique est isomorphe à Z.
Propriété. Si n ≥ 1, Z/nZ est un groupe cyclique de cardinal n : Z/nZ = {0, 1, 2, . . . , n − 1}.
Si G = Gr(a) est un autre groupe cyclique de cardinal n, il est isomorphe à Z/nZ :
Z/nZ −→ (G, .)
est un isomorphisme.
k 7−→ ak
Il faut savoir le démontrer.

3 Anneaux quotients
Notation. On fixe un anneau commutatif (A, +, .) et un idéal I de A.
Propriété. (A/I, +, .) est un anneau commutatif en posant, pour tout x, y ∈ A x.y = x.y.
Propriété. Dans l’anneau Z/nZ, on dispose des régles supplémentaires de calculs suivantes :
— Pour tout h, k ∈ Z, hk = h.k.
— 1 = 1Z/nZ .

c Eric Merle 2 MPSI2 LLG


69
Semaine 15 – Z/nZ, théorème chinois, indicatrice d’Euler, complément HP, caractéristique d’un anneau,
équations différentielles d’ordre 1

Semaine 15 (du 6 au 10 janvier) :


Résumé de cours

1 Z/nZ
1.1 Propriétés spécifiques de Z/nZ

Notation. On fixe n ∈ N avec n ≥ 2.


Propriété. (hors programme) les sous-groupes (resp : les idéaux) de Z/nZ sont les k.Z/nZ, où k est
un diviseur de n. En particulier, l’anneau Z/nZ est principal.
Théorème. Soit k ∈ Z. k engendre le groupe (Z/nZ, +) (resp : est inversible dans l’anneau
−1
(Z/nZ, +, .)) ssi k ∧ n = 1. Dans ce cas, il existe u, v ∈ Z tels que uk + vn = 1 et u = k .
Il faut savoir le démontrer.
Théorème. Soit n ≥ 2. Z/nZ est un corps (resp : est intègre) si et seulement si n ∈ P.
Il faut savoir le démontrer.
Notation. Lorsque p ∈ P, le corps Z/pZ est souvent noté Fp .

1.2 Théorème chinois


Théorème des restes chinois : Si a et b sont deux entiers supérieurs à 2 et premiers entre eux,
f : Z/abZ −→ (Z/aZ) × (Z/bZ)
est un isomorphisme d’anneaux.
k 7−→ (k, k)
Il faut savoir le démontrer, en incluant la preuve constructive de la surjectivité : pour h, k ∈ Z,
comment déterminer ` ∈ Z tel que ` ≡ h [a] et ` ≡ k [b] ?
Théorème chinois (généralisation) : Soit n ≥ 2 et a1 , . . . , an n entiers supérieurs à 2 et deux à
deux premiers entre eux :
Z/(a1 × · · · × an )Z −→ (Z/a1 Z) × · · · × (Z/an Z)
est un isomorphisme d’anneaux.
k 7−→ (k, . . . , k)
Remarque. pour h1 , . . . , hn ∈ Z, on peut calculer ` ∈ Z tel que, pour tout i ∈ {1, . . . , n}, ` ≡ hi [ai ].
À connaı̂tre.

1.3 L’indicatrice d’Euler

Définition. Pour tout n ∈ N∗ , on pose ϕ(n) = |U (Z/nZ)|.


Remarque. ϕ(1) = 1, car Z/1.Z est l’anneau nul, pour lequel 0 est inversible.
Pour n ≥ 2, ϕ(n) = #{k ∈ {1, . . . , n − 1}/k ∧ n = 1}.
Propriété. ϕ(1) = 1 et si p est un nombre premier, alors ϕ(p) = p − 1.
Propriété. Si p est premier et si k ∈ N∗ , alors ϕ(pk ) = pk − pk−1 .
Il faut savoir le démontrer.

1
70
Semaine 15 : Résumé de cours 1 Z/nZ

Propriété. Soit a et b sont deux entiers supérieurs à 2. Si a ∧ b = 1, alors ϕ(ab) = ϕ(a)ϕ(b).


Il faut savoir le démontrer.
k
Y
Corollaire. Soit n ∈ N avec n ≥ 2, de décomposition primaire n = pm
i .
i

i=1
k 
Y 1
Alors ϕ(n) = n 1− .
i=1
pi

Propriété d’Euler-Fermat : Soit n ∈ N avec n ≥ 2 et k ∈ Z. Si k ∧ n = 1, alors k ϕ(n) ≡ 1 [n].


Il faut savoir le démontrer.
Petit théorème de Fermat : Si p est un nombre premier, alors pour tout k ∈ Z, k p ≡ k [p].

1.4 Compléments hors programme

Notation. On fixe n ∈ N avec n ≥ 2.


Si G est un groupe, on note Aut(G) l’ensemble de ses automorphismes.
U (Z/nZ) −→ Aut(Z/nZ)
Propriété. L’application est un isomorphisme.
x 7−→ [y 7−→ xy]
Il faut savoir le démontrer.
Corollaire. Si (G, .) est un groupe cyclique d’ordrer n, alors Aut(G) et U (Z/nZ) sont isomorphes. En
U (Z/nZ) −→ Aut(G)
particulier, (Aut(G), ◦) est un groupe abélien. Plus précisément, l’application
k 7−→ [g 7−→ g k ]
est un isomorphisme.
X
Propriété. Soit (G, .) un groupe fini d’ordre n. Alors n = rd ϕ(d), où rd désigne le nombre de
d|n
sous-groupes cycliques de G de cardinal d.
Il faut savoir le démontrer.
X
Propriété. n = ϕ(d).
d|n
Au moins l’une des deux démonstrations proposées est à connaitre.
Théorème. Si K est un corps, tout sous-groupe fini de (K \ {0}, ×) est cyclique.
Il faut savoir le démontrer.
Corollaire. Si p ∈ P, (Fp \ {0}, ×) est isomorphe à Z/(p − 1)Z, c’est-à-dire qu’il existe x ∈ Fp \ {0}
tel que x est d’ordre p − 1 : on dit alors que x est une racine primitive de Fp .
Corollaire. Soit (G, .) un groupe de cardinal p ∈ P. Alors Aut(G) est cyclique.

1.5 Caractéristique d’un anneau (hors programme)

Notation. A désigne un anneau commutatif.


Définition. S’il existe n ∈ N∗ tel que n.1A = 0A , la caractéristique de A est

car(A) = min{n ∈ N∗ / n.1A = 0A }. Sinon, on convient que car(A) = 0.

Propriété. Soit A un anneau de caractéristique n : pour tout m ∈ Z, m.1A = 0A ⇐⇒ n|m.


Exemples. L’anneau nul est l’unique anneau de caractéristique 1, car(Z/nZ) = n, car(R) = 0.
Propriété. Deux anneaux isomorphes ont la même caractéristique.

c Eric Merle 2 MPSI2 LLG


71
Semaine 15 : Résumé de cours 2 Equations différentielles linéaires d’ordre 1

Propriété. Z.1A , le plus petit sous-anneau de A, est isomorphe à Z lorsque car(A) = 0 et à Z/nZ
lorsque car(A) = n ∈ N∗ .
Il faut savoir le démontrer.
Corollaire. Un anneau de caractéristique nulle est de cardinal infini, la réciproque étant fausse.
Propriété. Si A est intègre et car(A) 6= 0, alors car(A) ∈ P.
Il faut savoir le démontrer.
Propriété. Si car(A) = p ∈ P, alors x 7−→ xp est un endomorphisme sur A, dit de Frobenius.
Il faut savoir le démontrer.
Notation. Pour toute la suite de ce paragraphe, K désigne un corps quelconque.
Propriété. La caractéristique d’un corps est ou bien nulle, ou bien un nombre premier.
Propriété. On appelle sous-corps premier de K le plus petit sous-corps de K.
— Si car(K) = p ∈ P, le sous-corps premier de K est Z.1K , il est isomorphe à Z/pZ.
— Si car(K) = 0, le sous-corps premier de K est {(p.1K )(q.1K )−1 / p ∈ Z, q ∈ N∗ }. Il est isomorphe
à Q. En particulier, K est de cardinal infini.
Propriété. Si K est un corps fini de caractéristique p, l’endomorphisme de Frobenius x 7−→ xp sur
K est un automorphisme de corps. Lorsque K = Fp , c’est l’identité.

2 Equations différentielles linéaires d’ordre 1


K désigne R ou C.
On s’intéresse aux équations différentielles (E) : y 0 = a(t)y + b(t) et (H) : y 0 = a(t)y en l’inconnue y,
où I est un intervalle, et où a et b sont deux applications continues de I dans K.
(H) est l’équation homogène (ou bien l’équation sans second membre, ESSM) associée à (E).
Définition. les courbes intégrales de (E) sont les graphes des solutions de (E).
Définition. Soit y0 ∈ K et t0 ∈ I. Le problème de Cauchy relatif à (E) et au couple (t0 , y0 ) est la
recherche des solutions y de (E) vérifiant la condition initiale y(t0 ) = y0 .
Propriété. Notons SH l’ensemble des solutions de (H) et SE l’ensemble des solutions de (E). Si y0

est une solution de (E), alors SE = {y0 + y/y ∈ SH } = y0 + SH . On dit que la solution générale de
(E) s’obtient en ajoutant une solution particulière de (E) à la solution générale de (H).
Il faut savoir le démontrer.
Principe de superposition des solutions : Si y1 (resp : y2 ) est solution de (E1 ) : y 0 = a(t)y + b1 (t)
(resp : de (E2 ) : y 0 = a(t)y + b2 (t)), alors pour tout α, β ∈ R, αy1 + βy2 est solution de l’équation
y 0 = a(t)y + αb1 (t) + βb2 (t).
Théorème. Notons A une primitive de a. Alors y 0 = a(t)y ⇐⇒ [∃λ ∈ K ∀t ∈ I y(t) = λeA(t) ].
Il faut savoir le démontrer.
Méthode de variation de la constante : avec les notations précédentes, on pose y(t) = λ(t)eA(t) .
Alors (E) ⇐⇒ λ0 (t)eA(t) = b(t).
Propriété. Pour tout problème de Cauchy relatif à (E), il y a existence et unicité d’une solution.

c Eric Merle 3 MPSI2 LLG


72
Semaine 16 – Équations différentielles linéaires d’ordre 2, équations à variable séparables, espaces vectoriels

Semaine 16 (du 13 au 17 janvier) :


Résumé de cours

Première partie
Equations différentielles (suite)
1 Équations différentielles linéaires d’ordre 2
1.1 Équations à coefficients quelconques
Une équation différentielle linéaire d’ordre 2 est de la forme (E) : y” = a(x)y 0 + b(x)y + c(x)
où a, b, c sont trois applications continues d’un intervalle I dans K = R ou C.
L’équation homogène associèe est (H) : y” = a(x)y 0 + b(x)y.
Propriété. Notons SH l’ensemble des solutions de (H) et SE l’ensemble des solutions de (E). Si y0

est une solution de (E), alors SE = {y0 + y/y ∈ SH } = y0 + SH .

Définition. Soit (x0 , y0 , y00 ) ∈ I × K × K. On appelle problème de Cauchy relatif à (E) et au triplet
(x0 , y0 , y00 ) le problème de la recherche des solutions de (E) telles que y(x0 ) = y0 et y 0 (x0 ) = y00 .
Théorème de Cauchy-Lipschitz.
Pour tout (x0 , y0 , y00 ) ∈ I × K × K, il y a existence et unicité au problème de Cauchy relatif à (E) et
au triplet (x0 , y0 , y00 ).
Cas particulier où on connaı̂t une solution ϕ1 de (H) ne s’annulant pas sur I : on pose
y(x) = λ(x)ϕ1 (x). Alors (E) est équivalente à une équation linéaire d’ordre 1 en λ0 .
Il faut savoir le démontrer.

1.2 Equations linéaires d’ordre 2 à coefficients constants


Ici, (E) : y” + ay 0 + by = f (x), où f : I −→ K est continue, et où a et b sont des constantes.
L’équation homogène associée est (H) : y” + ay 0 + by = 0.

1.2.1 Résolution de (H) : Il faut savoir le démontrer.


χ = X 2 + aX + b est appelé le polynôme caractéristique de (H) ou de (E).
• Premier cas. Si ∆ = a2 − 4b 6= 0, χ admet deux racines complexes distinctes λ et µ.
Alors (H) ⇐⇒ ∃(u, v) ∈ K2 ∀x ∈ R y(x) = ueλx + veµx .
Cas particulier où (a, b) ∈ R2 avec ∆ < 0 : alors λ = α + iβ et µ = α − iβ, avec α, β ∈ R et
(H) ⇐⇒ ∃(u, v) ∈ R2 ∀x ∈ R y(x) = ueαx cos βx + veαx sin βx.
• Deuxième cas. Si ∆ = 0 : χ admet une racine double notée λ.
Alors (H) ⇐⇒ ∃(u, v) ∈ K2 ∀x ∈ R y(x) = eλx (u + xv).

1
73
Semaine 16 : Résumé de cours 2 Equations à variables séparables (hors programme)

1.2.2 Résolution de l’équation avec second membre

Théorème. On suppose qu’il existe λ ∈ K et un polynôme P de K[X] tels que


∀x ∈ I f (x) = eλx P (x). Alors (E) admet une solution particulière de la forme x 7−→ Q(x)eλx , où Q
est une application polynomiale.
Plus précisément, (E) admet sur I une solution particulière de la forme x −→ xm eλx Q(x) où Q est
un polynôme de K[X] de même degré que P , avec m = 0 lorsque λ n’est pas racine de χ, avec m = 1
lorsque λ est une racine simple de χ et avec m = 2 lorsque λ est une racine double de χ.
Remarque. Ce théorème est aussi valable pour les équations différentielles de la forme
(E) : y 0 + by = eλx P (x) où P ∈ K[X] : (E) admet sur I une solution particulière de la forme
x 7−→ Q(x)eλx , où Q est une application polynomiale.
Plus précisément, (E) admet une solution particulière de la forme x −→ xm eλx Q(x) où Q est un
polynôme de K[X] de même degré que P , avec m = 0 lorsque λ 6= −b et m = 1 lorsque λ = −b (dans
ce cas, χ = X + b).
Remarque. Lorsque f (x) est de la forme f (x) = P (x) cos(ωx) où ω ∈ R, ou bien de la forme
f (x) = P (x) sin(ωx), on peut appliquer ce qui précède en se ramenant à x 7−→ P (x)eiωx .
Remarque. Plus généralement, lorsque f (x) est de la forme P (x)eQ(x) , où P et Q sont des polynômes,
on peut chercher une solution particulière de la forme H(x)eQ(x) , où H est aussi un polynôme.

2 Equations à variables séparables (hors programme)


2.1 Equations à variables séparées

Notation.
Soient I et K deux intervalles infinis et soient a : I −→ R et b : K −→ R deux applications continues.
L’équation différentielle (E) : a(t) − b(y)y 0 = 0 est appelée une équation est à variables séparées.
Si A et B sont des primitives  de a et de b respectivement,
d A(t) − B(y(t))
(E) ⇐⇒ = 0, donc les courbes intégrales de (E) ont pour équations cartésiennes
dt
A(x) = B(y) + C, où C ∈ R.
En pratique, on écrira (E) ⇐⇒ a(t)dt = b(y)dy ⇐⇒ A(t) = B(y) + C.

2.2 Cas général

Notation. Soient I et K deux intervalles infinis. Soient a et d deux applications continues de I dans
R et b et c deux applications continues de K dans R. L’équation (E) : a(t)c(y) − b(y)d(t)y 0 = 0 est
appelée une équation est à variables séparables.
En divisant par c(y) et d(t) on se ramene à une équation à variables séparées.
• Plus précisément, soit y : I −→ R une application dérivable. Quitte à restreindre l’intervalle I, on
a(t)
supposera que d ne s’annule pas sur I. Ainsi (E) ⇐⇒ c(y) − y 0 b(y) = 0.
d(t)
Il faudra ensuite étudier les possibles raccordements des solutions en chaque zéro de d.
• Si y0 ∈ K est un zéro de c, l’application constante y = y0 est une solution de (E). Ainsi chaque
zéro de c fournit une solution particulière.
a(t) b(y)
On suppose ensuite que ∀t ∈ I c(y(t)) 6= 0. Alors (E) ⇐⇒ − y0 = 0 : c’est une équation à
d(t) c(y)
variables séparées, donc on est ramené au a). Il reste ensuite à étudier les possibles recollements de
ces dernières solutions avec les solutions particulières y = y0 où y0 est un zéro de c.

c Eric Merle 2 MPSI2 LLG


74
Semaine 16 : Résumé de cours 3 La structure algébrique d’espace vectoriel

Deuxième partie
Espaces vectoriels (début)
Notation. K désigne un corps quelconque.
Notation. Symbole de Kronecker : δi,j = 0 lorsque i 6= j et δi,i = 1 lorsque i = j.

3 La structure algébrique d’espace vectoriel


3.1 Définition et exemples

Définition.
Un K-espace vectoriel est un triplet (E, +, .), où (E, +) est un groupe abélien et “.” est une application
K × E −→ E
tel que, pour tout x, y ∈ E et α, β ∈ K,
(α, x) 7−→ α.x
— α.(x + y) = (α.x) + (α.y),
— (α + β).x = (α.x) + (β.x),
— (α × β).x = α.(β.x),
— 1K .x = x.
Remarque. Lorsque E est un K-espace vectoriel, ses éléments seront appelés des vecteurs et les
éléments de K seront appelés des scalaires.
Exemples.
 Soient E un K-espace vectoriel et I un ensemble quelconque. Alors l’ensemble E I des familles
(xi )i∈I d’éléments de E indexées par I est un K-espace vectoriel si l’on convient que
(xi )i∈I + (yi )i∈I = (xi + yi )i∈I et, pour tout α ∈ K, α.(xi )i∈I = (α.xi )i∈I .
De même, l’ensemble F(I, E) des applications de I dans E est un K-espace vectoriel si l’on convient
que, pour tout f, g ∈ F(I, E) et α ∈ K, pour tout x ∈ I,
∆ ∆
(f + g)(x) = f (x) + g(x) et (α.f )(x) = a.(f (x)).
 En particulier, pour tout n ∈ N∗ , Rn est un R-espace vectoriel.
 Si L est un sous-corps de K, alors K est un L-espace vectoriel.
 L’ensemble KN des suites de scalaires est un K-espace vectoriel.
 K[X] est un K-espace vectoriel.
Propriété. Soit E un K-espace vectoriel. Soit x, y ∈ E et λ, µ ∈ K :
— 0K .x = 0E et λ.0E = 0E ;
— (−1K ).x = −x ;
— (λ − µ)x = λ.x − µ.x ;
— λx = 0 ⇐⇒ (λ = 0) ∨ (x = 0) ;
— (λx = λy) ∧ (λ 6= 0) =⇒ x = y ;
— (λx = µx) ∧ (x 6= 0) =⇒ λ = µ.
Définition. Soient n ∈ N∗ et ((Ei , +, .))i∈{1,...,n} une famille de n K-espaces vectoriels.
On structure E = E1 × · · · × En en un K-espace vectoriel en convenant que
— ∀x = (x1 , . . . , xn ) ∈ E, ∀y = (y1 , . . . , yn ) ∈ E, x + y = (x1 + y1 , . . . , xn + yn ),
— ∀α ∈ K, ∀x = (x1 , . . . , xn ) ∈ E, α.x = (α.x1 , . . . , α.xn ).

c Eric Merle 3 MPSI2 LLG


75
Semaine 16 : Résumé de cours 3 La structure algébrique d’espace vectoriel

3.2 Sous-espaces vectoriels


Propriété et définition : Soit E un K-espace vectoriel et F une partie de E.
F est un sous-espace vectoriel de E si et seulement si
— F 6= ∅ ;
— ∀(x, y) ∈ F 2 , x + y ∈ F (stabilité de la somme de deux vecteurs) ;
— ∀(α, x) ∈ K × F , α.x ∈ F (stabilité du produit externe).
Cet ensemble de conditions est équivalent à
— F 6= ∅ ;
— ∀(α, x, y) ∈ K × F × F , α.x + y ∈ F (stabilité par combinaison linéaire).
Exemples.
n n
X o
— Pour tout n ∈ N∗ , pour tout (α1 , . . . , αn ) ∈ Kn \ {0}, (xi )1≤i≤n / αi xi = 0 est un
i=1
sous-espace vectoriel de Kn .
— Kn [X] est un sous-espace vectoriel de K[X], pour tout n ∈ N.
— L’ensemble C p ([0, 1], C) des applications de classe C p de [0, 1] dans C, où p ∈ N, est un sous-
espace vectoriel de F([0, 1], C). P
— L’ensemble l1 (C) = {(an )n∈N / an ACV} est un sous-espace vectoriel de CN .
Définition. Soient E un K-espace vectoriel et I un ensemble quelconque. Soit (xi )i∈I une famille de
E I . On dit que c’est une famille presque nulle si et seulement si {i ∈ I/xi 6= 0} est un ensemble fini.
On note E (I) l’ensemble des familles presque nulles de E I . E (I) est un sous-espace vectoriel de E I .

3.3 Sous-espace vectoriel engendré par une partie

Propriété. Une intersection d’une famille de sous-espaces vectoriels est un sous-espace vectoriel.
Il faut savoir le démontrer.
Définition. Soit E un K-espace vectoriel
\ et A une partie de E. Notons S l’ensemble des sous-espaces
vectoriels de E contenant A. Alors F est un sous-espace vectoriel de E contenant A et, par
F ∈S
construction, c’est le plus petit sous-espace vectoriel contenant A. On le note Vect(A).
Exemple. Vect(∅) = {0}, puisque {0} est le plus petit sous-espace vectoriel de E.
Si F est un sous-espace vectoriel d’un K-espace vectoriel E, Vect(F ) = F .
Propriété. Si A ⊂ B, alors Vect(A) ⊂ Vect(B).
Propriété. Soient E un K-espace vectoriel et A une ( partie de E. Alors V ect(A)
) est l’ensemble des
X
combinaisons linéaires de vecteurs de A : Vect(A) = αa a/(αa )a∈A ∈ K(A) .
a∈A
Il faut savoir le démontrer.
Notation. Si (xi )i∈I ∈ E I , on note Vect(xi )i∈I = Vect({xi / i ∈ I}).
Xn
En particulier, Vect(x1 , . . . , xn ) = { αi xi / a1 , . . . , an ∈ K}.
i=1
Si u ∈ E \ {0}, Vect(u) = {αu/α ∈ K} est appelé la droite vectorielle engendrée par le vecteur u.
Propriété. Soit E un K-espace vectoriel et A ⊂ E. Si x ∈ Vect(A), Vect(A ∪ {x}) = Vect(A).
Si x = λy + a avec λ ∈ K et a ∈ Vect(A), alors Vect(A ∪ {x}) = Vect(A ∪ {y}).
Il faut savoir le démontrer.

c Eric Merle 4 MPSI2 LLG


76
Semaine 16 : Résumé de cours 3 La structure algébrique d’espace vectoriel

Propriété. Soit (xi )i∈I une famille de vecteurs d’un K-espace vectoriel E. Alors Vect(xi )i∈I n’est
pas modifié si l’on effectue l’une des opérations élémentaires suivantes :
— échanger xi0 et xi1 , où i0 , i1 ∈ I avec i0 6= i1 ;
— multiplier xi0 par α ∈ K avec α 6= 0 ;
— ajouter à l’un des xi une combinaison linéaire des autres xj .
Il faut savoir le démontrer.
Définition. Soit p ∈ N∗ et E1 , . . . , Ep p sous-espaces vectoriels de E.
[
p  nX p o

E1 + · · · + Ep = Vect Ei . On vérifie que E1 + · · · + Ep = xi / ∀i ∈ {1, . . . , p}, xi ∈ Ei .
i=1 i=1

c Eric Merle 5 MPSI2 LLG


77
Semaine 17 – Applications linéaires, espaces affines, structure d’algèbre, espaces vectoriels normés, distance
et espaces métriques

Semaine 17 (du 20 au 24 janvier) :


Résumé de cours

1 La structure d’espace vectoriel (fin)


1.1 Les applications linéaires

Définition. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est une
application linéaire (on dit aussi un morphisme ou un homomorphisme de K-espaces vectoriels) si et
seulement si ∀(α, x, y) ∈ K × E × E f (αx + y) = αf (x) + f (y).
Un isomorphisme est un morphisme bijectif.
Un endomorphisme est un morphisme de E dans lui-même.
Un automorphisme est un endomorphisme bijectif.
Une forme linéaire est une application linéaire à valeurs dans K.
Exemples.
C([−1, 1], R) −→ R
Z 1
— est une forme linéaire.
f 7−→ f (t)t2 dt
−1
D2 ([0, 1], R) −→ F([0, 1], R)
— est linéaire.
f 7−→ f 00
l1 (C) −→ C
X
— (an )n∈N 7−→ an est une forme linéaire.
n∈N

Définition. Les homothéties (vectorielles) de E sont les applications de la forme λ.IdE , où λ ∈ K.
Notation.
— On note L(E, F ) l’ensemble des applications linéaires de E dans F .

— On pose L(E) = L(E, E).
— On pose L(E, K) = E ∗ ; c’est l’ensemble des formes linéaires, appelé le dual de E.
Kn −→ K
Xn
Propriété. Les formes linéaires sur K sont exactement les (x )
n
7−→ αi xi
i 1≤i≤n
i=1
où (α1 , . . . , αn ) ∈ Kn .
Il faut savoir le démontrer.
!
X X
Propriété. Si u ∈ L(E, F ) et (xi )i∈I ∈ E I , ∀(αi )i∈I ∈ K(I) u αi xi = αi u(xi ).
i∈I i∈I
 
Propriété. Soit u ∈ L(E, F ) et (xi )i∈I ∈ E I . Alors u Vect(xi )i∈I = Vect(u(xi ))i∈I .
Il faut savoir le démontrer.
Propriété. La composée de deux applications linéaires est une application linéaire.

1
78
Semaine 17 : Résumé de cours 1 La structure d’espace vectoriel (fin)

Propriété. Si f : E −→ F est un isomorphisme, f −1 est encore un isomorphisme.


Propriété. Si E et F sont deux K-espaces vectoriels, alors L(E, F ) est un K-espace vectoriel .
Il faut savoir le démontrer.
Définition. Soient E un K-espace vectoriel, u ∈ L(E) et F un sous-espace vectoriel de E. On dit
que F est stable par u, ou que u stabilise F si et seulement si u(F ) ⊂ F .
v : F −→ F
Dans ce cas, l’endomorphisme induit par u sur F est . C’est un élément de
x 7−→ u(x)
L(F ), que par abus, on note souvent u|F et que l’on appelle la restriction de u à F .
Propriété. Soient E et F deux K-espaces vectoriels, E 0 un sous-espace vectoriel de E et F 0 un
sous-espace vectoriel de F . Soit f un morphisme de E dans F .
Alors f (E 0 ) est un sous-espace vectoriel de F et f −1 (F 0 ) est un sous-espace vectoriel de E.
Il faut savoir le démontrer.
Propriété. Soit f une application linéaire entre deux K-espaces vectoriels E et F .
Alors f est injective si et seulement si Ker(f ) = {0} et
f est surjective si et seulement si Im(f ) = F .
Propriété. Soit E un K-espace vectoriel et (u, v) ∈ L(E)2 .
Si u et v commutent, alors Im(u) et Ker(u) sont stables par v.
Il faut savoir le démontrer.
Propriété. Soit u, v ∈ L(E). Alors uv = 0 ⇐⇒ Im(v) ⊂ Ker(u).
Il faut savoir le démontrer.
Définition. Soit E et F deux K-espaces vectoriels et f ∈ L(E, F ). Soit y ∈ F .
L’équation (E) : f (x) = y en l’inconnue x ∈ E est appelée une équation linéaire.
Propriété. Avec les notations précédentes, l’équation sans second membre associée à (E) est
l’équation (H) : f (x) = 0, dont l’ensemble des solutions est SH = Ker(f ) : notamment l’ensemble
des solutions de l’équation homogène est un K-espace vectoriel.
L’équation (E) est compatible, c’est-à-dire qu’elle possède au moins une solution x0 ∈ E, si et seule-
ment si y ∈ Im(f ). Dans ce cas, SE = x0 + SH : la solution générale de (E) s’obtient en ajoutant à
une solution particulière de (E) la solution générale de (H).

1.2 Espaces affines

Définition. On appelle K-espace affine tout triplet (E, E, +E ), où E est un ensemble non vide,
E est un K-espace vectoriel (dont la loi additive sera notée +E ) et où +E est une application
E × E −→ E
telle que
(M, x) 7−→ M +E x
E −→ E
i) Pour tout M ∈ E, l’application est une bijection.
x 7−→ M +E x
ii) ∀(M, x, y) ∈ E × E × E (M +E x) +E y = M +E (x +E y).
Les éléments de E sont appelés des points et E est appelé la direction de E.
Notation. Soient E un espace affine de direction E et (A, B) ∈ E 2 .
−−→
D’après i), il existe un unique vecteur x tel que A +E x = B. On note x = AB ou encore x = B −E A.
Remarque. On peut établir que les règles de calcul relatives aux opérations “+E ” (point+E vecteur) et
“−E ” (point−E point) sont formellement les mêmes que celles que vérifient l’addition et la soustraction
−−→ −−→ −→
sur R. Par exemple, la relation de Chasles s’écrit : AB + BC = (B − A) + (C − B) = C − A = AC.
−−→ −−→
Définition. Si A, B, C, D sont quatre points de E, ABCD est un parallélogramme ssi AB = DC.

c Eric Merle 2 MPSI2 LLG


79
Semaine 17 : Résumé de cours 1 La structure d’espace vectoriel (fin)

Remarque. Dans les propriétés i) et ii) définissant un espace affine, lorsqu’un point M de E intervient,
c’est toujours quantifié de la manière suivante : “∀M ∈ E . . .”. Ainsi, dans un espace affine, tous les
points ont la même importance. C’est un espace homogène, contrairement aux espaces vectoriels.
Les propriétés qui suivent montrent que cette différence entre la notion de K-espace vectoriel et celle
de K-espace affine est la seule qui soit vraiment pertinente.
Propriété. Soient (E, E, +) un K-espace affine et A un point de E. E est un espace vectoriel en
−−→ −−→ −−→
convenant que, pour tout (M, N, α) ∈ E × E × K, M + N = A + (AM + AN ) et α.M = A + (α.AM ).
Remarque. Cette propriété montre que tout K-espace affine est assimilable à un K-espace vectoriel
dès lors que l’on a choisi un point A, qui jouera le rôle de vecteur nul.
Propriété réciproque. Soit E un K-espace vectoriel. Le triplet (E, E, +) est un K-espace affine, que
l’on dit canoniquement associé à l’espace vectoriel E.
Convention. En accord avec le programme, les seuls espaces affines que nous utiliserons sont les
espaces affines canoniquement associés à un espace vectoriel.

1.3 La structure d’algèbre

Définition. (A, +, ., ?) est une K-algèbre si et seulement si (A, +, .) est un K-espace vectoriel,
(A, +, ?) est un anneau et si ∀(λ, a, b) ∈ K × A × A λ.(a ? b) = (λ.a) ? b = a ? (λ.b).
On dit que A est commutative (ou abélienne) si et seulement si la loi ? est commutative.
On dit que A est intègre si et seulement si l’anneau (A, +, ?) est un anneau intègre.
Exemples. (K[X], +, ., ×) est une K-algèbre commutative et intègre.
F(I, K) et KI sont des algèbres.
Propriété. Si E est un K-espace vectoriel, alors (L(E), +, ., ◦) est une K-algèbre.
Le groupe des inversibles de L(E) est noté (GL(E), ◦).
Il faut savoir le démontrer.
Remarque. Plus généralement, si E, F et G sont 3 K-espaces vectoriels, pour tout α ∈ K, pour tout
f, g ∈ L(F, G) et h ∈ L(E, F ), (αf + g) ◦ h = αf ◦ h + g ◦ h et
pour tout f, g ∈ L(E, F ) et h ∈ L(F, G), h ◦ (αf + g) = αh ◦ f + h ◦ g.
Propriété. Soit (A, +, ., ?) une K-algèbre. B est une sous-algèbre de (A, +, ., ?) si et seulement si
1A ∈ B et pour tout x, y ∈ B et λ ∈ K, x + y, x ? y, λx ∈ B.
Définition. Soient (A+, ., ×) et (B, +, ., ×) deux K-algèbres. Une application f : A −→ B est un
morphisme d’algèbres si et seulement si f (1A ) = 1B et pour tout x, y ∈ A et α ∈ K,
f (x + y) = f (x) + f (y), f (x × y) = f (x) × f (y), f (α.x) = α.f (x).
Exemple. Soit E un K-espace vectoriel et u ∈ GL(E). Alors l’application w 7−→ uwu−1 est un
automorphisme de l’algèbre L(E). Ce type d’automorphisme est appelé un automorphisme intérieur.
Il faut savoir le démontrer.
Propriété. Une composée de morphismes d’algèbres est un morphisme d’algèbres.
L’application réciproque d’un isomorphisme d’algèbres est un isomorphisme d’algèbres.
L’image directe ou réciproque d’une sous-algèbre par un morphisme d’algèbres est une sous-algèbre.

c Eric Merle 3 MPSI2 LLG


80
Semaine 17 : Résumé de cours 2 Espaces vectoriels normés

2 Espaces vectoriels normés


2.1 Définition d’une norme

Définition. Soit E un K-espace vectoriel . On appelle norme sur E toute application k.k : E −→ R
telle que, pour tout (x, y, λ) ∈ E × E × K,
 kxk ≥ 0 (positivité).
 kxk = 0 =⇒ x = 0 (k.k est définie),
 kλxk = |λ|kxk (k.k est homogène), et
 kx + yk ≤ kxk + kyk, cette dernière propriété étant appelée l’inégalité triangulaire.
Si k.k est une norme sur E, le couple (E, k.k) est appelé un espace vectoriel normé.
Remarque. Si E est un espace vectoriel normé , k0k = 0.
Corollaire de l’inégalité triangulaire. ∀(x, y) ∈ E 2 |kxk − kyk| ≤ kx − yk.
Il faut savoir le démontrer.
Définition.
Soient E un espace vectoriel normé et u ∈ E. u est unitaire si et seulement si kuk = 1.
u
Si u 6= 0, on appelle vecteur unitaire associé à u le vecteur , qui est bien unitaire.
kuk
Définition. Soient E un espace vectoriel normé et F un sous-espace vectoriel de E.
La restriction à F de la norme de E fait de F un espace vectoriel normé.
Exemple. Sur R et sur C, |.| est une norme.

2.2 Les normes 1, 2 et ∞.


2.2.1 Cas des sommes finies.

Propriété. Sur Kn , on dispose de trois normes classiques.


k.k1 : Kn −→ R+
n
X ,
x = (x1 , . . . , xn ) 7−→ kxk1 = |xi |
i=1
k.k2 : Kn −→ R+ v
u n
uX , et
x = (x1 , . . . , xn ) 7−→ kxk2 = t |xi |2
i=1
k.k∞ : Kn −→ R+
x = (x1 , . . . , xn ) 7−→ kxk∞ = max |xi | .
1≤i≤n

Il faut savoir le démontrer.


Propriété. (Hors programme) Soit p ∈]1, +∞[.
k.kp : Kn −→ R+
n
! p1
Alors X est une norme sur Kn .
x = (x1 , . . . , xn ) 7−→ kxkp = |xi |p
i=1
Il faut savoir le démontrer.
Remarque. ∀x ∈ Kn kxkp −→ kxk∞ . Cela justifie la notation k.k∞ .
p→+∞

Propriété. Soient p ∈ N∗ et E1 , . . ., Ep p K-espaces vectoriels munis de normes respectivement


notées k.kE1 , . . ., k.kEp . Alors E = E1 × · · · × Ep est un espace vectoriel normé si on le munit de l’une
des normes classiques suivantes.

c Eric Merle 4 MPSI2 LLG


81
Semaine 17 : Résumé de cours 2 Espaces vectoriels normés

N1 : E −→ R+
p
X ,
x = (x1 , . . . , xp ) 7−→ N1 (x) = kxi kEi
i=1
N2 : E −→ R+ v
u p
uX , et
x = (x1 , . . . , xp ) 7−→ N2 (x) = t kxi k2Ei
i=1
N∞ : E −→ R+
x = (x1 , . . . , xp ) 7−→ N∞ (x) = max kxi kEi .
1≤i≤p

2.2.2 Cas des intégrales sur un intervalle compact

Propriété. Soient (a, b) ∈ R2 avec a < b. Sur C([a, b], K), on dispose de trois normes classiques.
k.k1 : C([a, b], K) −→ R+
Z b
,
f 7−→ kf k1 = |f (x)|dx
a
k.k2 : C([a, b], K) −→ R+ s
Z b , et
f 7−→ kf k2 = |f (x)|2 dx
a
k.k∞ : C([a, b], K) −→ R+
f 7−→ kf k∞ = sup |f (x)| .
x∈[a,b]

Il faut savoir le démontrer.


Propriété. (Hors programme) Soit p ∈]1, +∞[.
k.kp : C([a, b], K) −→ R+
Z b ! p1
Alors p
est une norme sur C([a, b], K).
f 7−→ kf kp = |f (x)| dx
a

2.3 Distance

Définition. Soit E un espace vectoriel normé .


d: E 2 −→ R+
On appelle distance associée à la norme k.k de E, l’application .
(x, y) 7−→ kx − yk
Définition. Soient E un espace vectoriel normé dont la distance associée est notée d et A une partie
de E. La restriction de d à A2 est appelée la distance induite par d sur A.
Propriété. Avec les notations précédentes, pour tout x, y, z ∈ E,
— d(x, y) ∈ R+ (positivité) ;
— d(x, y) = 0 ⇐⇒ x = y (séparation) ;
— d(x, y) = d(y, x) (symétrie) ;
— d(x, z) ≤ d(x, y) + d(y, z) (inégalité triangulaire).
Définition. On appelle espace métrique tout couple (E, d) où E est un ensemble et où d : E 2 −→ R+
est une application telle que, pour tout x, y, z ∈ E,
— d(x, y) = 0 ⇐⇒ x = y (séparation) ;
— d(x, y) = d(y, x) (symétrie) ;
— d(x, z) ≤ d(x, y) + d(y, z) (inégalité triangulaire).

c Eric Merle 5 MPSI2 LLG


82
Semaine 17 : Résumé de cours 2 Espaces vectoriels normés

Les seuls espaces métriques qui sont au programme sont les (A, dA ) où A est une partie d’un espace
vectoriel normé E et où dA est la distance induite sur A par la distance associée à la norme de E.
Propriété. Soit E un espace vectoriel normé dont la distance associée est notée d.
Alors ∀(x, y, z) ∈ E 3 d(x + z, y + z) = d(x, y).
Cette propriété ne se généralise pas aux espaces métriques.
Propriété. Corollaire de l’inégalité triangulaire.
Soit E un espace vectoriel normé dont la distance associée est notée d.
Alors ∀(x, y, z) ∈ E 3 |d(x, y) − d(y, z)| ≤ d(x, z).
Définition. Soient E un espace vectoriel normé et (a, r) ∈ E × R∗+ .
La boule ouverte centrée en a de rayon r est l’ensemble Bo (a, r) = {x ∈ E/d(a, x) < r}.
La boule fermée de centre a et de rayon r est l’ensemble Bf (a, r) = {x ∈ E/d(a, x) ≤ r}.
La sphère de centre a et de rayon r est l’ensemble S(a, r) = {x ∈ E/d(a, x) = r}.

c Eric Merle 6 MPSI2 LLG


83
Semaine 18 – Applications lipschitziennes, normes équivalentes, limite dans un espace métrique, sommes et
produits de limites, suites de complexes et de réels

Semaine 18 (du 27 au 31 janvier) :


Résumé de cours

K désigne R ou C.

1 Espaces vectoriels normés (suite)


1.1 Distance (suite)

Définition. Dans un espace métrique, la boule unité est la boule fermée de centre 0 et de rayon 1.
Propriété. (non généralisable aux espaces métriques)
Les boules d’un espace vectoriel normé sont des convexes.
Il faut savoir le démontrer.
Définition. Soient E un espace métrique, A et B deux parties non vides de E et a ∈ E.
On note d(a, A) = inf d(a, x). C’est la distance de a à A.
x∈A
On note d(A, B) = inf d(x, y). C’est la distance de A à B.
(x,y)∈A×B
On appelle diamètre de A la quantité δ(A) = sup d(x, y) ∈ R+ ∪ {+∞}.
(x,y)∈A2

Propriété. Dans un espace métrique, δ(Bf (a, r)) ≤ 2r.


Propriété. (non généralisable aux espaces métriques)
Soient E un espace vectoriel normé non nul et (a, r) ∈ E × R∗+ . Alors δ(Bf (a, r)) = 2r.
Il faut savoir le démontrer.
Propriété. Dans un espace métriquue, si ∅ =
6 A ⊂ B, alors δ(A) ≤ δ(B).
Définition et propriété. Soient E un espace vectoriel normé et A une partie de E. Les propriétés
suivantes sont équivalentes.
i) {kxk/x ∈ A} est borné.
ii)Pour tout x0 ∈ E, {kx − x0 k/x ∈ A} est borné.
iii) Pour tout x0 ∈ E, il existe R ∈ R+ tel que A ⊂ Bf (x0 , R).
iv) Il existe (x0 , R) ∈ E × R+ tel que A ⊂ Bf (x0 , R).
Dans ce cas, on dit que A est bornée.
Définition. Soient A un ensemble, E un espace vectoriel normé et f : A −→ E une application.
On dit que f est bornée si et seulement si f (A) est une partie bornée de E.
Propriété. Soient A un ensemble non vide et E un espace vectoriel normé .
On note B(A, E) l’ensemble des applications bornées de A dans E.
Pour f ∈ B(A, E), on note kf k∞ = sup kf (a)k.
a∈A
Alors (B(A, E), k.k∞ ) est un espace vectoriel normé .
Il faut savoir le démontrer.

1
84
Semaine 18 : Résumé de cours 2 limite d’une suite dans un espace métrique

Propriété. Soit E un espace vectoriel normé . On note l∞ (E) l’ensemble des suites bornées à valeurs
dans E. Si (xn )n∈N ∈ l∞ (E), on note k(xn )k∞ = sup kxn k.
n∈N
Alors (l∞ (E), k.k∞ ) est un espace vectoriel normé .

1.2 Applications k-Lipschitziennes

Définition. Soient E et F deux espaces métriques, k ∈ R+ et f : E −→ F une fonction dont le


domaine de définition sera noté Df .
f est k-lipschitzienne si et seulement si ∀(x, y) ∈ Df2 d(f (x), f (y)) ≤ kd(x, y).
Lorsque k < 1, on dit que f est k-contractante.
On dit que f est lipschitzienne si et seulement si il existe k ∈ R+ tel que f est k-lipschitzienne.
Propriété. Une composée d’applications lipschitziennes est lipschitzienne.
Propriété. Soit E un espace vectoriel normé . L’application k.k est 1-lipschitzienne.
Propriété. Soient E un espace vectoriel normé et A une partie non vide de E.
E −→ R+
L’application est 1-lipschitzienne.
x 7−→ d(x, A)
Il faut savoir le démontrer.
Propriété. Soient E1 , . . ., Ep p espaces vectoriels normés dont les normes sont notées N1 , . . ., Np .
On note E = E1 × · · · × Ep .
p : E −→ Ei
Soit i ∈ Np . L’application ième projection i est 1-lipschitzienne lorsque
x = (x1 , . . . , xp ) 7−→ xi
E est muni de l’une de ses trois normes classiques, k.k1 , k.k2 ou k.k∞ .
Remarque. Sur E = C([0, 1], R), f 7−→ f (0) n’est pas lipschitzienne pour N1 .
Il faut savoir le démontrer.

1.3 Normes équivalentes

Définition. Dans un espace vectoriel normé E, deux normes k.k1 et k.k2 sont équivalentes si et
seulement s’il existe (α, β) ∈ (R∗+ )2 tel que ∀x ∈ E kxk1 ≤ αkxk2 et kxk2 ≤ βkxk1 .
Propriété. Avec les notations précédentes, k.k1 et k.k2 sont équivalentes si et seulement si IdE :
(E, k.k1 ) −→ (E, k.k2 ) et IdE : (E, k.k2 ) −→ (E, k.k1 ) sont lipschitziennes.
Exemple. Soient E1 , . . ., Ep p espaces vectoriels normés dont les normes sont notées N1 , . . ., Np .
Sur E = E1 × · · · × Ep , les trois normes classiques, k.k1 , k.k2 et k.k∞ sont deux à deux équivalentes.
Il faut savoir le démontrer.
Propriété. Soit E un espace vectoriel normé. Sur l’ensemble des normes de E, la relation “être
équivalente à” est une relation d’équivalence.
Propriété. Soient E un K-espace vectoriel et k.k1 et k.k2 deux normes équivalentes sur E.
Une partie A de E est bornée pour k.k1 si et seulement si elle est bornée pour k.k2 .
Propriété. Soient E et F deux K-espaces vectoriels. On suppose que E (resp : F ) est muni de deux
normes équivalentes, notées k.kE E F F
1 et k.k2 (resp : k.k1 et k.k2 ). Alors f : E −→ F est lipschitzienne
pour k.k1 et k.k1 si et seulement si elle est lipschitzienne pour k.kE
E F F
2 et k.k2 .
Il faut savoir le démontrer.

c Eric Merle 2 MPSI2 LLG


85
Semaine 18 : Résumé de cours 2 limite d’une suite dans un espace métrique

2 limite d’une suite dans un espace métrique


Notation. On fixe un espace métrique noté (E, d).
Définition. Soient (xn ) ∈ E N une suite de vecteurs de E et l ∈ E. La suite (xn ) converge vers l si
et seulement si (1) : ∀ε ∈ R∗+ ∃N ∈ N ∀n ∈ N (n ≥ N =⇒ d(xn , l) ≤ ε).
Remarque. Dans (1), les deux dernières inégalités peuvent être choisies strictes ou larges.
Remarque. Pour tout n0 ∈ N, la propriété “xn −→ `” ne dépend pas du choix de x0 , . . . , xn0 .
n→+∞

Propriété. Unicité de la limite.


Si (xn ) converge vers l et vers l0 , alors l = l0 . On note l = lim xn ou xn −→ l.
n→+∞ n→+∞
Il faut savoir le démontrer.
Définition. Une suite de vecteurs de E est convergente si et seulement s’il existe l ∈ E tel que
xn −→ l. Sinon, on dit que la suite est divergente.
n→+∞

Propriété. Soient (xn ) une suite de vecteurs de E et l ∈ E.


Si xn −→ l, alors kxn k −→ klk, mais la réciproque est fausse.
n→+∞ n→+∞
xn −→ 0 si et seulement si kxn k −→ 0.
n→+∞ n→+∞
xn −→ l si et seulement si d(xn , l) −→ 0.
n→+∞ n→+∞

Principe des gendarmes : Soit (xn ) ∈ E N et ` ∈ E.


S’il existe une suite de réels (gn ) telle que ∀n ∈ N, d(xn , l) ≤ gn et gn −→ 0, alors xn −→ `.
n→+∞ n→+∞

Propriété. Soit N une seconde norme sur E, équivalente à k.k.


N k.k
Alors, pour toute suite (xn ) de E et pour tout l ∈ E, xn −→ l ⇐⇒ xn −→ l.
n→+∞ n→+∞
Il faut savoir le démontrer.
Remarque. Sur E = C([0, 1], R), les k.k1 , k.k2 et k.k∞ sont deux à deux non équivalentes entre
elles, où ces normes désignent respectivement la norme de la convergence en moyenne, celle de la
convergence en moyenne quadratique et la norme de la convergence uniforme.
Il faut savoir le démontrer.
Propriété. Toute suite convergente est bornée.

2.1 Somme et produit de limites

Notation. On suppose que E est un espace vectoriel normé.


Les propriétés de ce paragraphe ne se généralisent pas aux espaces métriques.
Propriété. Soient (xn ) et (yn ) deux suites de E convergeant vers l et l0 .
Alors la suite (xn + yn ) converge vers l + l0 .
Propriété. Si (xn + yn ) converge, alors (xn ) et (yn ) ont la même nature.
Propriété. Soient (αn ) ∈ KN et (xn ) ∈ E N .
Si l’une des suites est bornée et si l’autre tend vers 0, alors αn xn −→ 0.
n→+∞

Propriété. Soient (ln ) une suite de E qui converge vers l ∈ E et (αn ) une suite de scalaires qui
converge vers α. Alors la suite (αn .ln ) converge vers α.l.
Il faut savoir le démontrer.

c Eric Merle 3 MPSI2 LLG


86
Semaine 18 : Résumé de cours 4 Suites de réels

N
Propriété. L’ensemble des suites convergentes de E noté Ecv est un sous-espace vectoriel de l∞ (E)
N
Ecv −→ E
et l’application (x ) 7−→ lim xn est une application linéaire.
n
n→+∞

Propriété. Suites à valeurs dans un produit.


Soient p ∈ N∗ et E1 , . . ., Ep p espaces vectoriels normés, leurs normes étant notées N1 , . . ., Np . On
note E = E1 × · · · × Ep que l’on munit de l’une des trois normes classiques.
Soient (xn )n∈N = ((x1,n , . . . , xp,n ))n∈N une suite d’éléments de E et l = (l1 , . . . , lp ) ∈ E.
Alors (xn ) converge vers l si et seulement si, pour tout i ∈ Np , (xi,n ) converge vers li .
Il faut savoir le démontrer.

3 Suites de complexes
3.1 Premières propriétés
1 1
Propriété. Soit (xn ) ∈ C∗ N telle que xn −→ ` ∈ C \ {0}. Alors −→ .
n→+∞ xn n→+∞ `
Il faut savoir le démontrer.
Propriété. Soit (zn ) une suite de complexes et ` ∈ C.
Alors zn −→ ` si et seulement si Re(zn ) −→ Re(`) et Im(zn ) −→ Im(`).
n→+∞ n→+∞ n→+∞
Dans ce cas, on a donc lim zn = lim Re(zn ) + i lim Im(zn ).
n→+∞ n→+∞ n→+∞

3.2 Quelques suites définies par récurrence


3.2.1 Suites arithmético-géométriques

Propriété. Soit a, b ∈ C avec a 6= 1. Si pour tout n ∈ N, un+1 = aun + b, on calcule c ∈ C tel que
c = ac + b. Alors un − c est géométrique.

3.2.2 Suites homographiques (hors programme)

Propriété. Soit a, b, c, d ∈ C avec c 6= 0.


aun + b a` + b
Si pour tout n ∈ N, un+1 = , on résout l’équation ` = .
cun + d c` + d
un − β
Si cette équation possède deux solutions α et β distinctes, alors vn = est géométrique.
un − α
1
Sinon, cette équation possède une unique solution α et vn = est arithmétique.
un − α

3.2.3 Suites récurrentes linéaires d’ordre 2

Propriété. Soient (a, b) ∈ K2 \ {(0, 0)} et (un ) ∈ KN telle que un+2 = aun+1 + bun .
χ(X) = X 2 − aX − b est le polynôme caractéristique de (un ). On note ∆ = a2 + 4b.
— Si ∆ 6= 0, en notant λ1 et λ2 les deux racines de χ, ∃(C1 , C2 ) ∈ C2 ∀n ∈ N, un = C1 λn1 +C2 λn2 .
— Si de plus K = R et ∆ < 0, en posant λ1 = ρeiθ ,
∃(D1 , D2 ) ∈ R2 ∀n ∈ N, un = ρn (D1 cos(nθ) + D2 sin(nθ)).
— Si ∆ = 0, en notant λ la racine double, ∃(C1 , C2 ) ∈ K2 ∀n ∈ N, un = λn (C1 + nC2 ).
Il faut savoir le démontrer.

c Eric Merle 4 MPSI2 LLG


87
Semaine 18 : Résumé de cours 4 Suites de réels

4 Suites de réels
4.1 Limites infinies

Définition. xn −→ +∞ ⇐⇒ ∀M ≥ 0, ∃N ∈ N, ∀n ≥ N, xn ≥ M .
n→+∞
xn −→ −∞ ⇐⇒ ∀M ≥ 0, ∃N ∈ N, ∀n ≥ N, xn ≤ −M .
n→+∞

Définition. Lorsqu’une suite de réels tend vers +∞ ou −∞, elle est toujours divergente : on dit
qu’elle diverge vers +∞ ou −∞. On distingue ainsi trois catégories de suites réelles :
— Les suites convergentes. Ce sont celles qui convergent vers un réel.
— Les suites divergentes de première espèce. Ce sont celles qui divergent vers +∞ ou −∞.
— Toutes les autres suites. On dit qu’elles sont divergentes de seconde espèce.
Propriété. Si ϕ : N −→ N est strictement croissante,
pour tout n ∈ N, ϕ(n) ≥ n, donc ϕ(n) −→ +∞.
n→+∞

Définition. Si (xn ) est dans un espace métrique , xn −→ ∞ ⇐⇒ d(x0 , xn ) −→ +∞.


n→+∞ n→+∞

Propriété. Composition des limites : Si (xn ) est dans un espace métrique et si xn −→ `, avec `
n→+∞
éventuellement infinie, pour tout ϕ : N −→ N telle que ϕ(n) −→ +∞, xϕ(n) −→ `.
n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. Dans un espace métrique , xn −→ l si et seulement si x2n −→ l et x2n+1 −→ l.
n→+∞ n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. Soit p ∈ N∗ . Si, pour tout i ∈ {0, . . . , p − 1}, xpn+i −→ l, alors xn −→ l.
n→+∞ n→+∞

Remarque. C’est encore vrai dans le cas de limites infinies.


Propriété. Avec des suites de réels, en prenant ε, ε0 ∈ {−1, 1},
— Si xn −→ ε∞ et yn −→ y ∈ R, alors xn + yn −→ ε∞.
n→+∞ n→+∞ n→+∞
— Si xn −→ ε∞ et yn −→ ε∞, alors xn +yn −→ ε∞, mais xn −yn est une forme indéterminée
n→+∞ n→+∞ n→+∞
du type ∞ − ∞.
— Si xn −→ ε∞, alors −xn −→ −ε∞.
n→+∞ n→+∞
— Si xn −→ ε∞ et α > 0, alors αxn −→ ε∞.
n→+∞ n→+∞
— Si xn −→ ε∞ et yn −→ ` ∈ R+ , alors xn yn −→ ε∞, sauf lorsque ` = 0, qui est une forme
n→+∞ n→+∞ n→+∞
indéterminée du type 0 × ∞.
— Si xn −→ ε∞ et yn −→ ε0 ∞, alors xn yn −→ εε0 ∞.
n→+∞ n→+∞ n→+∞
1
— Si xn −→ ε∞ alors −→ 0.
n→+∞ xn n→+∞
1
— Si xn −→ 0+ alors −→ +∞.
n→+∞ xn n→+∞
Remarque. Lorsque un est de la forme un = abnn , il est indispensable d’écrire un = ebn ln an pour
étudier sa limite. Par exemple, un = (1 + n1 )n = en ln(1+ n ) −→ e car ln(1+x)
1
x −→ 1.
n→+∞ x→0

c Eric Merle 5 MPSI2 LLG


88
Semaine 19 – Suites de vecteurs, adjacentes, extraites, suites de Cauchy, séries de vecteurs, séries de réels
positifs

Semaine 19 (du 3 au 7 février) :


Résumé de cours

K désigne R ou C.

1 Suites de vecteurs (fin)


1.1 limites et relation d’ordre
Principe des gendarmes : Soit (pn ), (gn ), (gn0 ) trois suites de réels et ` ∈ R
tels que, pour tout n ∈ N, gn ≤ pn ≤ gn0 , gn −→ ` et gn0 −→ `.
n→+∞ n→+∞
Alors pn −→ `. Le principe des gendarmes s’adapte aux cas des limites infinies :
n→+∞
Lemme du tunnel : Soit (un ) une suite de réels qui converge vers ` ∈ R.
Soit a, b ∈ R tels que a < ` < b. Alors il existe N ∈ N tel que pour tout n ≥ N , a < un < b.
Il faut savoir le démontrer.
Propriété. Dans R, si pour tout n ∈ N, an ≤ bn , alors dans R, lim an ≤ lim bn .
n→+∞ n→+∞

Propriété. Soit X une partie non vide de R. Il existe une suite de réels (xn ) telle que
xn −→ sup(X) ∈ R ∪ {+∞} (resp : xn −→ inf(X) ∈ R ∪ {−∞}).
n→+∞ n→+∞
Il faut savoir le démontrer.

1.2 Suites monotones


Théorème de la limite monotone : Soit (xn ) une suite croissante de réels.
Si (xn ) est majorée, alors cette suite est convergente. De plus lim xn = sup xn .
n→+∞ n∈N
Si (xn ) n’est pas majorée, alors cette suite est divergente. De plus lim xn = +∞.
n→+∞
Ainsi, dans tous les cas, on peut écrire que xn −→ sup xn ∈ R ∪ {+∞}.
n→+∞ n∈N
Il faut savoir le démontrer.
Théorème. Soit (xn ) une suite décroissante de réels.
Si (xn ) est minorée, alors cette suite est convergente. De plus lim xn = inf xn .
n→+∞ n∈N
Si (xn ) n’est pas minorée, alors cette suite est divergente. De plus lim xn = −∞.
n→+∞
Ainsi, dans tous les cas, on peut écrire que xn −→ inf xn ∈ R ∪ {−∞}.
n→+∞ n∈N

Propriété. Soit (xn ) une suite géométrique de réels de raison a, tel que x0 6= 0.
— Si |a| < 1, alors xn −→ 0.
n→+∞
— Si a = 1, xn est constante.
— Si a > 1, xn −→ ε∞, où ε est le signe de x0
n→+∞
— Si a ≤ −1, (xn ) diverge.

1
89
Semaine 19 : Résumé de cours 1 Suites de vecteurs (fin)

1.3 Suites adjacentes

Définition. Deux suites (xn ) et (yn ) de réels sont adjacentes si et seulement si l’une est croissante,
l’autre est décroissante et si xn − yn −→ 0.
n→+∞

Théorème. Si (xn ) et (yn ) sont adjacentes avec (xn ) est croissante, alors ces deux suites convergent
vers une limite commune ` ∈ R. De plus, pour tout (p, q) ∈ N2 , xp ≤ ` ≤ yq .
Il faut savoir le démontrer.
Théorème des segments emboı̂tés : Soit (In )n∈N\une suite de segments, décroissante au sens de
l’inclusion, dont les longueurs tendent vers 0. Alors In est un singleton.
n∈N
Il faut savoir le démontrer.

1.4 Les suites extraites


On se place dans un espace métrique quelconque.
Définition. Les suites extraites de (xn ) sont les (xϕ(n) ), où ϕ : N −→ N est strictement croissante.
Propriété. Si une suite (xn ) converge vers `, toutes ses suites extraites convergent vers `.
Remarque. Cette propriété se généralise au cas des limites infinies.
Propriété. Une suite extraite d’une suite extraite de (xn ) est une suite extraite de (xn ).
Il faut savoir le démontrer.
Définition. Les valeurs d’adhérence de (xn ) sont les limites des suites extraites convergentes de (xn ).
Remarque. La limite d’une suite convergente est son unique valeur d’adhérence.
Si une suite admet au moins deux valeurs d’adhérence distinctes, elle est divergente.
Propriété. (hors programme). Les propriétés suivantes sont équivalentes :
i) a est une valeur d’adhérence de (xn ).
ii) ∀ε ∈ R∗+ ∀N ∈ N ∃n ≥ N d(xn , a) < ε.
iii) ∀ε > 0 Card({n ∈ N/xn ∈ Bo (a, ε)}) = +∞.
Il faut savoir le démontrer.
Lemme des pics : De toute suite de réels on peut extraire une suite monotone.
Il faut savoir le démontrer.
Théorème de Bolzano-Weierstrass :
Toute suite bornée de complexes possède au moins une valeur d’adhérence.
Il faut savoir le démontrer.

1.5 Suites de Cauchy (hors programme)


On se place dans un espace métrique quelconque.
Définition. [(xn ) est une suite de Cauchy]⇐⇒ [∀ε ∈ R∗+ ∃N ∈ N ∀p ≥ N ∀q ≥ N d(xp , xq ) ≤ ε].
Propriété. Toute suite convergente est une suite de Cauchy.
Il faut savoir le démontrer.
Propriété. Toute suite de Cauchy de E est bornée.
Il faut savoir le démontrer.
Propriété. Si une suite de Cauchy possède une valeur d’adhérence alors elle est convergente.
Il faut savoir le démontrer.

c Éric Merle 2 Cours au lycée Vogt


90
Semaine 19 : Résumé de cours 2 Séries de vecteurs

Définition. E est un espace métrique complet si et seulement si toute suite de Cauchy de E est
convergente.
Théorème. Si toute suite bornée de E possède au moins une valeur d’adhérence, alors E est complet.
Théorème. R et C sont complets.

2 Séries de vecteurs
Notation. K désigne R ou C.
Définition. Un espace de Banach est un K-espace vectoriel normé complet.
Notation. On fixe dans ce chapitre un espace de Banach noté E.

2.1 Séries, convergence et divergence


2.1.1 Définition d’une série de vecteurs

Définition. Soit (an )n∈N une suite de vecteurs. On appelle série de terme général an , et on note
n
X
P P
an , la suite de terme général (an , ak ). Ainsi, an est une suite d’éléments de E 2 .
k=0

Remarque. L’intérêt de cette définition un peu formelle est de distinguer les séries de vecteurs des
suites de vecteurs.
Propriété.
P L’ensemble
P des P S(E)P
Pséries de vecteurs, noté est un K-espace vectoriel.
De plus, an + α bn = (an + αbn ), lorsque an et bn sont dans S(E) et lorsque α ∈ K.
n
X P
Notation. ak est appelée la somme partielle (des n + 1 premiers termes) de an .
k=0
P
Propriété. Soit (An ) une suite de vecteurs. P Il existe une unique série an dont la suite des sommes
partielles est (An ). Il s’agit de la série (An − An−1 ), en convenant que A−1 = 0. Cette série est
appelée la série télescopique associée à la suite (An ).
Il faut savoir le démontrer.
Définition.
X Soient n0 ∈ N∗ et (an )n≥n0 une suite de vecteurs.
P
an est la série bn où bn = 0 si n < n0 et bn = an si n ≥ n0 .
n≥n0
X
On dit que an est une série tronquée à l’ordre n0 .
n≥n0

2.1.2 Convergence d’une série de vecteurs


P P
Définition. an converge si et seulement si la suite des sommes partielles de an converge.
+∞
X Xn
Dans ce cas, on note an = lim ak .
n→+∞
n=0 k=0
P X
Propriété. Pour tout n0 ∈ N∗ , les séries an et an sont de même nature et en cas de
n≥n0
+∞
X 0 −1
nX +∞
X
convergence, an = an + an .
n=0 n=0 n=n0

c Éric Merle 3 Cours au lycée Vogt


91
Semaine 19 : Résumé de cours 2 Séries de vecteurs

P
Corollaire. On ne change pas la nature de la série an si l’on modifie un nombre fini d’éléments
de la suite (an ).
+∞
X
P
Définition. Si an converge, son n-ième reste de Cauchy est Rn = ak . On a Rn −→ 0.
n→+∞
k=n+1
P
Propriété. Soit (un ) une suite de vecteurs. La série télescopique (un+1 − un ) converge si et
+∞
X
seulement si la suite (un ) converge et dans ce cas, (un+1 − un ) = lim un − u0 .
n→+∞
n=0
Il faut savoir le démontrer.
P P P
Propriété. Si an et bn convergent et si λ ∈ K, alors (an + λbn ) converge et
+∞
X +∞
X +∞
X
(an + λbn ) = an + λ bn . Ainsi, l’ensemble des séries convergentes de vecteurs est un sous-
n=0 n=0 n=0
Sconv (E) −→ K
+∞
X
espace vectoriel de S(E), noté Sconv (E) et l’application P est linéaire.
an 7−→ an
n=0
Il faut savoir le démontrer.
Propriété. La somme d’une série convergente et d’une série divergente est une série divergente.
Remarque. On en déduit que, si la somme de deux séries est convergente, ces deuxP séries ont
P même
nature. Cependant, il estPpossible qu’elles divergent toutes les deux. Par exemple, an + (−an )
converge, même lorsque an diverge.
Propriété. Si une série converge, son terme général tend vers 0. La réciproque est fausse.
Il faut savoir le démontrer.
P
Définition. Lorsque la suite an ne tend pas vers 0, on dit que la série an diverge grossièrement.
+∞
X
P 1
Propriété. La série géométrique an converge ssi |a| < 1 et dans ce cas an = .
n=0
1−a
Propriété. Séries à valeurs dans un produit.
Soient p ∈ N∗ et E1 , . . ., Ep p espaces vectoriels normés. On note E = E1 × · · · × Ep que l’on munit
de l’une des trois normes classiques.
Soient (xn )n∈NP= ((x1,n , . . . , xp,n ))n∈N une suite d’éléments de E. P
Alors la série xn converge si et seulement si, pour tout i ∈ Np , xi,n est convergente.
+∞
X  +∞
X +∞
X 
De plus, dans ce cas, xn = x1,n , . . . , xp,n .
n=0 n=0 n=0
P P
Propriété. Soit an une serie de complexes. Elle converge si et seulement si les séries Re(an ) et
+∞
X +∞
X +∞
X
P
Im(an ) convergent, et dans ce cas an = Re(an ) + i Im(an ).
n=0 n=0 n=0

2.1.3 Convergence absolue


P
Définition. an ∈ S(E) vérifie le critère de Cauchy si et seulement si
Xp
∀ε ∈ R∗+ ∃N ∈ N ∀n ≥ N ∀p ∈ N k an+k k ≤ ε.
k=1
P
Propriété. an converge si et seulement si elle vérifie le critère de Cauchy.
Il faut savoir le démontrer.

c Éric Merle 4 Cours au lycée Vogt


92
Semaine 19 : Résumé de cours 2 Séries de vecteurs

P P
Définition. an est absolument convergente si et seulement si la série kan k est convergente.
P P
Propriété. Soit an ∈ S(E) . Si an est absolument convergente, alors elle converge
+∞
X +∞
X
et k an k ≤ kan k (Inégalité triangulaire). La réciproque est fausse.
n=0 n=0
Il faut savoir le démontrer.
P
Définition. an est semi-convergente ssi elle converge sans être absolument convergente.

2.2 Séries à termes positifs


2.2.1 Théorèmes généraux
P P
Théorème. Soit an ∈ S(R+ ). Alors an converge si et seulement si la suite de ses sommes
Xn +∞
X
partielles est majorée, et dans ce cas, en posant pour tout n ∈ N, An = ak , an = sup An .
n=0 n∈N
k=0
Il faut savoir le démontrer.
+∞
X
P
Remarque. Lorsque an ∈ S(R+ ) diverge, on peut écrire que an = +∞.
n=0
P P
Propriété. Soient an , bn ∈ S(R+ ) telles que ∀n ∈ N an ≤ bn .
+∞
X +∞
X
P P
Si bn converge, alors an converge et an ≤ bn .
P P n=0 n=0
Si an est divergente, alors bn diverge.
Il faut savoir le démontrer.
P
Remarque. Lorsque an une série de complexes absolument convergente, on peut montrer qu’elle
est convergente de manière élémentaire, sans utiliser la notion hors programme de suite de Cauchy.
Il faut savoir le démontrer.
N
P
Propriété. On X note l 1
(K) = {(u n ) n∈N ∈ K / |un |converge } et pour tout u = (un )n∈N ∈ l2 (K),
posons kuk1 = |un |. Alors (l1 (K), k.k1 ) est un K-espace vectoriel normé.
n∈N
Il faut savoir le démontrer.
P
Propriété. On
snote l2 (K) = {(un )n∈N ∈ KN / |un |2 converge } et pour tout u = (un )n∈N ∈ l2 (K),
X
posons kuk2 = |un |2 . Alors (l2 (K), k.k2 ) est un K-espace vectoriel normé.
n∈N
Il faut savoir le démontrer.
Définition. Soit (an ) et (bn ) deux suites d’un K-espace vectoriel normé E.
— an = O(bn ) ⇐⇒ ∃C ∈ R+ , ∃N ∈ N, ∀n ≥ N, kan k ≤ Ckbn k.
— an = o(bn ) ⇐⇒ ∀ε > 0, ∃N ∈ N, ∀n ≥ N, kan k ≤ εkbn k.
— an ∼ bn ⇐⇒ an − bn = o(bn ).
Remarque. Lorsque E = C, si pour tout n ∈ N, bn 6= 0, alors
an
— an = O(bn ) ⇐⇒ est bornée ;
bn
an
— an = o(bn ) ⇐⇒ −→ 0 et
bn n→+∞
an
— an ∼ bn ⇐⇒ −→ 1.
bn n→+∞

c Éric Merle 5 Cours au lycée Vogt


93
Semaine 19 : Résumé de cours 2 Séries de vecteurs

P P
Propriété. Soit an une série de vecteurs et bn une série de réels positifs.
On suppose Pque ka n k = O(b ).
n P
Si la série P bn converge, alors Pan est absolument convergente.
Si la série kan k diverge, alors bn est divergente.
Remarque. En pratique, on utilise souvent ce théorème lorsque an = o(bn ).
P P
Théorème. Soient an , bn ∈ S(R+ ) telles que an ∼ bn . Alors les deux séries ont la même nature.
P P
Théorème. Soit an , bn ∈ S(R). On suppose que bn est positif P à partir
P d’un certain rang ou
bien que bn est négatif à partir d’un certain rang. Si an ∼ bn , alors an et bn ont la même nature.
méthode : pour étudier la nature d’une série, on commence par rechercher un équivalent
de son terme général.

c Éric Merle 6 Cours au lycée Vogt


94
Semaine 20 – Croissances comparées, séries de Riemann, TCSI, critère de d’Alembert, séries alternées,
non-commutativité des séries semi-convergentes, transformation d’Abel

Semaine 20 (du 24 au 28 février) :


Résumé de cours

On montrera plus tard le théorème suivant, dont l’énoncé peut être utilisé dès maintenant.
On dit que la suite an est négligeable devant la suite bn si et seulement si an = o(bn ).
De même, on dit que la fonction f (x) est négligeable devant g(x) lorsque x est au voisinage de a si et
seulement si f (x) = o(g(x)) au voisinage de a, c’est-à-dire, en supposant que l’on peut diviser, si et
f (x)
seulement si −→ 0.
g(x) x→a
Théorème des croissances comparées : Soit α, β, γ ∈ R∗+ et a > 1.
1. Les suites lnα (n), nβ , an et n! tendent vers +∞ et chacune est négligeable devant les suivantes.
2. Au voisinage de +∞, les fonctions lnα x, xβ et eγx tendent vers +∞ et chacune est négligeable
devant les suivantes.
 1 
3. Au voisinage de 0+ , | ln x|α = o β .
x
 1 
4. Au voisinage de −∞, eγx = o .
|x|β

1 Séries de Riemann
Technique de comparaison entre séries et intégrales (TCSI) : Soit n0 ∈ N.
Soit f : [n0 , +∞[−→ R une application décroissante et continue. La TCSI consiste en la présentation
des trois étapes suivantes :
Première étape : Soit k > n0 . f étant décroissante, pour tout t ∈ [k − 1, k], f (k) ≤ f (t) ≤ f (k − 1).
Z k
Deuxième étape : En intégrant, on obtient f (k) ≤ f (t)dt ≤ f (k − 1).
k−1
n
X Z n n−1
X
Troisième étape : Soit n > n0 : en sommant, f (k) ≤ f (t)dt ≤ f (k).
k=n0 +1 n0 n=n0

Théorème de comparaison entre séries et intégrales : Sous les mêmes notations et hypothèses,
P Z n 
la série f (n) a même nature que la suite f (t)dt .
n0 n≥n0
Il faut savoir le démontrer.
X 1
Propriété. La série de Riemann converge si et seulement si α > 1.

n≥1
Il faut savoir le démontrer.
P
Critère de Riemann : Soient an ∈ S(R+P).
S’il existe α > 1 tel que nα an −→ 0, alors an converge.
n→+∞ P
S’il existe α ≤ 1 tel que nα an −→ +∞, alors an diverge.
n→+∞

1
95
Semaine 20 : Résumé de cours 4 Non commutativité des séries semi-convergentes.

Xn
1
Propriété. (Hors programme). = ln(n) + γ + o(1), où γ est la constante d’Euler .
k
k=1
Il faut savoir le démontrer.
Hors programme : séries de Bertrand. Soit (α, β) ∈ R2 .
X 1
La série converge si et seulement si α > 1 ou bien (α = 1 et β > 1).
n≥2
n lnβ n
α

Il faut savoir le démontrer.

2 Critère de D’Alembert
P
Propriété. Critère de D’Alembert. Soit an une série de réels positifs, non nuls à partir d’un
an+1
certain rang, telle que −→ l ∈ R.
P an n→+∞
 Si l < 1, an est convergente,
P
 Si l > 1 ou si l = 1+ , an diverge grossièrement.
 Lorsque l = 1, on ne peut conclure. C’est le cas douteux du critère de d’Alembert.
Il faut savoir le démontrer.
Hors programme : Si (an ) et (bn ) sont deux suites de réels strictement positifs telles que, pour tout
an+1 bn+1
n ∈ N, ≤ , alors an = O(bn ).
an bn
Il faut savoir le démontrer.

Propriété. Formule de Stirling : n! ∼ 2πne−n nn .

3 Séries alternées
P
Définition.
P On appelle série alternée toute série réelle de la forme (−1)n αn ou
(−1)n+1 αn , où pour tout n ∈ R, αn ∈ R+ .
Théorème
P des séries spéciales alternées (TSSA).
n |) est décroissante et tend vers 0. On dit dans ce cas
Soit P an une série alternée telle que la suite (|aP
que an est une série spéciale alternée. Alors an est convergente.
XN
De plus pour tout (n, N ) ∈ N avec N ≥ n, la quantité
2
ak est du signe de son premier terme (qui
k=n
est an ) et a un module inférieur ou égal au module de son premier terme. C’est encore vrai lorsque
+∞
X
N = +∞, donc pour tout n ∈ {−1} ∪ N, le reste de Cauchy ak est du signe de son premier
k=n+1
+∞
X
terme (qui est an+1 ) et, pour tout n ∈ {−1} ∪ N, | ak | ≤ |an+1 |.
k=n+1
Il faut savoir le démontrer.

4 Non commutativité des séries semi-convergentes.


+∞
X (−1)n
= − ln 2.
n=1
n
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


96
Semaine 20 : Résumé de cours 5 La transformation d’Abel (hors programme)
X
On peut démontrer (hors programme) que, si an est une série semi-convergente de réels, pour tout
X
` ∈ R, il existe une bijection σ : N −→ N telle que aσ(n) converge et a pour somme `.
P
Dans un chapitre ultérieur, on montrera que, lorsque an est une série absolument convergente, pour
+∞
X +∞
X
P
toute bijection σ de N dans N, aσ(n) est aussi absolument convergente et aσ(n) = an .
n=0 n=0

5 La transformation d’Abel (hors programme)


n
X
N
Transformation d’Abel : Si (an ), (xn ) ∈ C , en posant Xn = xk ,
k=0
q
X q−1
X
pour tout (p, q) ∈ N2 avec p ≤ q, an xn = aq Xq − ap Xp−1 − (an+1 − an )Xn .
n=p n=p
Il faut savoir le démontrer.
Remarque. Cette formule ressemble à l’intégration par parties.
P
Théorème d’Abel : Soient (an ) une suite décroissante de réels qui
P tend vers 0 et xn une série de
complexes dont les sommes partielles sont bornées. Alors la série an xn converge.
Il faut savoir le démontrer.

c Éric Merle 3 MPSI2, LLG


97
Semaine 21 – Topologie dans un espace métrique, ouverts, fermés, adhérence, intérieur, compacts, continuité
ponctuelle

Semaine 21 (du 2 mars au 7) :


Résumé de cours

1 Topologie dans un espace métrique


Pour tout ce chapitre, on fixe un espace métrique (E, d) non vide.

1.1 Ouverts et fermés


Définition. Soient x ∈ E et V une partie de E.
V est un voisinage de x si et seulement s’il existe r > 0 tel que Bo (x, r) ⊂ V .
V(x) désignera l’ensemble des voisinages de x.
Remarque. Si E est un espace vectoriel normé, lorsqu’on remplace la norme sur E par une norme
équivalente, pour tout x ∈ E, V(x) n’est pas modifié.
Propriété. La notion de voisinage satisfait les propriétés suivantes :
 Pour tout x ∈ E, E ∈ V(x).
 Pour tout x ∈ E et tout V ∈ V(x), si W ⊃ V , alors W ∈ V(x).
 Si x ∈ E et si (V, W ) ∈ V(x)2 , alors V ∩ W ∈ V(x).
Il faut savoir le démontrer.
Propriété. Si x ∈ E, une intersection finie de voisinages de x est un voisinage de x.
Définition. Soit U ⊂ E. U est ouvert si et seulement si U est voisinage de tous ses points.
Propriété. La notion d’ouvert satisfait les propriétés suivantes :
 ∅ et E sont des ouverts de E.
 Une intersection finie d’ouverts est un ouvert.
 Si I est un ensemble quelconque
[ (éventuellement de cardinal infini) et si (Ui )i∈I est une
famille d’ouverts de E, alors Ui est un ouvert de E.
i∈I
Il faut savoir le démontrer.
Propriété. Les ouverts sont exactement les réunions de boules ouvertes.
Il faut savoir le démontrer.
Définition. Une partie de E est un fermé de E si et seulement si son complémentaire est un ouvert.
Propriété. La notion de fermé satisfait les propriétés suivantes :
 ∅ et E sont des fermés de E.
 Une réunion finie de fermés est un fermé.
 Si I est un ensemble quelconque
\ (éventuellement de cardinal infini) et si (Fi )i∈I est une
famille de fermés de E, alors Fi est un fermé de E.
i∈I

Propriété. Les boules fermées (donc en particulier les singletons) sont des fermés.
Il faut savoir le démontrer.
Corollaire. Toute partie de E de cardinal fini est un fermé de E.

1
98
Semaine 21 : Résumé de cours 1 Topologie dans un espace métrique

1.2 Adhérence et intérieur

Définition. Soient a ∈ E et A une partie de E. On dit que a est un point intérieur de A si et



seulement si A ∈ V(a). On note A l’ensemble des points intérieurs de A.

Ainsi, pour tout a ∈ E, a ∈ A ⇐⇒ A ∈ V(a).

Propriété. Soit A une partie de E.



A est la réunion des ouverts contenus dans A. C’est le plus grand ouvert inclus dans A.

Propriété. Soient A et B deux parties de E.



 A ⊂ A,

 A = A si et seulement si A est un ouvert,

◦ ◦
 A = A,
◦ ◦
 A ⊂ B =⇒ A ⊂ B et

z }| { ◦ ◦
 A ∩ B = A ∩ B.
Il faut savoir le démontrer.
Définition. Soient a ∈ E et A une partie de E. On dit que a est un point adhérent de A si et
seulement si, pour tout V ∈ V(a), V ∩ A 6= ∅.
On note A l’ensemble des points adhérents de A. A est appelée l’adhérence de A.
Ainsi, pour tout a ∈ E, a ∈ A ⇐⇒ [∀V ∈ V(a) V ∩ A 6= ∅].

z }| { ◦
Propriété. Soit A une partie de E. E \ A = E \ A et E \ A = E \ A.
Il faut savoir le démontrer.
Corollaire. Soit A une partie de E.
A est l’intersection des fermés contenant A. C’est le plus petit fermé contenant A.
Propriété. Soient A et B deux parties de E.
 A ⊃ A,
 A = A si et seulement si A est un fermé,
 A = A,
 A⊂B =⇒ A ⊂ B et
 A∪B = A ∪ B.
Il faut savoir le démontrer.
Propriété (hors programme) : Soit (xn ) une suite de points de E.
Pour tout N ∈ N, notons XN = {xn /n ≥ N }. \
Alors l’ensemble des valeurs d’adhérence de (xn ) est XN : il est fermé.
N ∈N
Il faut savoir le démontrer.
Définition. Soit A une partie de E. Soit x ∈ A.
On dit que x est isolé dans A si et seulement si il existe V ∈ V(x) tel que V ∩ A = {x}, c’est-à-dire si
et seulement si x ∈
/ A \ {x}.
Définition. Soit A une partie de E. Soit x ∈ E.

c Éric Merle 2 MPSI2, LLG


99
Semaine 21 : Résumé de cours 1 Topologie dans un espace métrique

On dit que x est un point d’accumulation de A si et seulement si, pour tout V ∈ V(x), (V ∩A)\{x} =
6 ∅,
c’est-à-dire si et seulement si x ∈ A \ {x}.
Propriété. Les points adhérents de A sont les points de E situés à une distance nulle de A.
Il faut savoir le démontrer.
Définition. Une partie de E est dense dans E si et seulement si elle rencontre toutes les boules
ouvertes de E.
Propriété. Une partie A de E est dense dans E si et seulement si A = E.
◦ ◦
Définition. Soit A ⊂ E. La frontière de A est F r(A) = A \ A = A ∩ E \ A = A ∩ (E \ A).

Propriété. Soit A une partie de E. [A \ F r(A)] = A ⊂ A ⊂ A = [A ∪ F r(A)].

Propriété. A ouvert ⇐⇒ A ∩ F r(A) = ∅. A fermée ⇐⇒ F r(A) ⊂ A.

1.3 Caractérisation par les suites

Propriété. a ∈ A si et seulement s’il existe une suite d’éléments de A qui converge vers a.
Il faut savoir le démontrer.
Corollaire. A est dense dans E si et seulement si pour tout l ∈ E, il existe (xn ) ∈ AN telle que
xn −→ l.
n→+∞

Propriété. A est fermé si et seulement si toute suite convergente d’éléments de A a pour limite un
élément de A.

1.4 Topologie induite sur une partie

Propriété. Les boules, ouverts, fermés et voisinages pour la topologie induite sur A sont respecti-
vement les traces sur A des boules centrées dans A, des ouverts, des fermés et des voisinages pour la
topologie de E.
Il faut savoir le démontrer.
Propriété. Si B est une partie de A, l’adhérence de B pour la topologie induite sur A est la trace
sur A de l’adhérence de B pour la topologie globale sur E.
Propriété. Soit B une partie de A. B est dense dans A si et seulement si A ⊂ B.

1.5 Les compacts

Définition. Une partie A de E est compacte si et seulement si toute suite d’éléments de A admet
au moins une valeur d’adhérence dans A.
Propriété. Tout compact de E est fermé et borné.
Il faut savoir le démontrer.
Propriété. Soit A un compact de E et B ⊂ A : B est compact si et seulement s’il est fermé.
Théorème. Les compacts de R et de C sont exactement les parties fermées et bornées.
Théorème (hors programme) : Caractérisation de la compacité par la propriété de Borel
Lebesgue. Soit A une partie de E. Les assertions suivantes sont équivalentes.
i) A est compact.

c Éric Merle 3 MPSI2, LLG


100
Semaine 21 : Résumé de cours 2 Continuité ponctuelle
[
ii) Pour tout ensemble I et pour toute famille d’ouverts (Ui )i∈I telle que A ⊂ Ui , il existe une
i∈I
[
partie J finie de I telle que A ⊂ Ui : de tout recouvrement de A par des ouverts, on peut en
i∈J
extraire un recouvrement fini. \
iii) Pour tout ensemble I et pour toute famille de fermés (Fi )i∈I telle que A ∩ Fi = ∅, il existe une
i∈I
\
partie J finie de I telle que A ∩ Fi = ∅.
i∈J
N
Propriété. Si (xn ) ∈ E et xn −→ l, alors l’ensemble {xn /n ∈ N} ∪ {l} est un compact de E.
n→+∞
Il faut savoir le démontrer.

2 Continuité ponctuelle
On fixe deux espaces métriques E et F , ainsi qu’une fonction f : E −→ F , dont le domaine de
définition sera noté Df .

2.1 Limite en un point

Notation. On fixe une partie A de Df . On fixe également a, qui peut être infini. On suppose qu’il
existe au moins une suite (an ) ∈ AN telle que an −→ a. On fixe aussi l dans F ∪ {∞, +∞, −∞}.
n→+∞

2.1.1 Caractérisation séquentielle

Définition. f (x)
 tend vers l lorsque x tend vers
 a en appartenant à A si et seulement si
N
∀(xn )n∈N ∈ A xn −→ a =⇒ f (xn ) −→ l . Dans ce cas, on note f (x) −→ x→a
l.
n→+∞ n→+∞
x∈A

Propriété. Lorsque E et F sont des espaces vectoriels normés, si l’on remplace l’une des normes sur
E ou F par une norme équivalente, la condition f (x) −→
x→a
l est inchangée.
x∈A

Propriété. Unicité de la limite. Si F 6= R, on impose que l, l0 ∈ F ∪ {∞} et si F = R, on impose


que l, l0 ∈ R ∪ {+∞, −∞} : Si f (x) −→
x→a
l et f (x) −→
x→a
l0 , alors l = l0 .
x∈A x∈A

Propriété. On suppose que F = C et que l ∈ C.


Alors f (x) −→
x→a
` si et seulement si (Re(f )(x) −→
x→a
Re(`)) ∧ (Im(f )(x) −→
x→a
Im(`)).
x∈A x∈A x∈A

Propriété. Si A ⊂ B ⊂ Df et si f (x) −→
x→a
l, alors f (x) −→
x→a
l.
x∈B x∈A

2.1.2 Caractérisation par “ε”

Propriété. Si a ∈ E et l ∈ F ,
f (x) −→
x→a
l ⇐⇒ ∀ε ∈ R∗+ ∃α ∈ R∗+ ∀x ∈ A (d(x, a) ≤ α =⇒ d(f (x), l) ≤ ε).
x∈A
Il faut savoir le démontrer.
Remarque. Dans (1), on peut prendre les deux dernières inégalités indifféremment strictes ou larges.
Propriété. On peut adapter cette caractérisation dans le cas où a et l sont éventuellement infinis.
On obtient par exemple :

c Éric Merle 4 MPSI2, LLG


101
Semaine 21 : Résumé de cours 2 Continuité ponctuelle

— Si l ∈ F et E = R,
f (x) −→ l ⇐⇒ ∀ε ∈ R∗+ ∃M ∈ R∗+ ∀x ∈ A (x ≥ M =⇒ kf (x) − lk < ε).
x→+∞
x∈A
— Si a ∈ E et F = R,
f (x) −→
x→a
+∞ ⇐⇒ ∀M ∈ R∗+ ∃α ∈ R∗+ ∀x ∈ A (kx − ak ≤ α =⇒ f (x) ≥ M ).
x∈A
— Si a = ∞ et l ∈ F , en choisissant e0 ∈ E,
−→ l ⇐⇒ ∀ε ∈ R∗+ ∃M ∈ R∗+ ∀x ∈ A (d(x, e0 ) ≥ M =⇒ d(f (x), l) ≤ ε).
f (x) x→∞
x∈A

— Si a = ∞ et l = ∞, en fixant e0 ∈ E et f0 ∈ F , f (x) x→∞


−→ ∞ si et seulement si
x∈A

∀M ∈ R∗+ ∃N ∈ R∗+ ∀x ∈ A (d(x, e0 ) ≥ N =⇒ d(f (x), f0 ) ≥ M ).


N −→ E
Remarque. Une suite (xn ) ∈ E N peut être vue comme la fonction , définie sur N qui
n 7−→ xn
est une partie non majorée de R. La notion de limite d’une suite dans un espace métrique devient
donc un cas particulier de la notion de limite d’une fonction en +∞.

2.1.3 Caractérisation par voisinages

Définition. Dans R, on appelle voisinage de +∞ toute partie contenant un intervalle ]c, +∞[ où
c ∈ R et voisinage de −∞ toute partie contenant un intervalle ] − ∞, c[.
Ainsi V(+∞) = {V ⊂ R/∃c ∈ R ]c, +∞[⊂ V } et V(−∞) = {V ⊂ R/∃c ∈ R ] − ∞, c[⊂ V }.
Définition. On suppose que E n’est pas borné. Soit e ∈ E. On appelle voisinage dans E de ∞ toute
partie contenant le complémentaire d’une boule fermée centrée en e.
Ainsi V(∞) = {V ⊂ E/∃R > 0 E \ Bf (e, R) ⊂ V }. On vérfie que V(∞) ne dépend pas de e.
Propriété. Avec les définitions précédentes de voisinages, on a encore :
Une intersection de deux voisinages de a est un voisinage a.
Toute partie contenant un voisinage de a est un voisinage de a.
Remarque.
Avec ces nouvelles définitions, les hypothèses portant sur a et A énoncées au début du présent para-
graphe se résument ainsi : tout voisinage V de a rencontre A .
Définition. On dit que f |A vérifie une certaine propriété au voisinage de a si et seulement s’il existe
un voisinage V de a tel que f |V ∩A vérifie cette propriété.
Lorsqu’on énonce une propriété portant sur f au voisinage de a ∈ E, on dit que c’est une propriété
locale (de f au voisinage de a). Lorsqu’on énonce une propriété portant sur f au voisinage de ∞ ou
de ±∞, on dit que c’est une propriété asymptotique.
Propriété. f (x) −→
x→a
l ⇐⇒ ∀V ∈ V(l) ∃U ∈ V(a) f (U ∩ A) ⊂ V .
x∈A
Il faut savoir le démontrer.
Propriété. Caractère local (ou asymptotique) de la notion de limite.
Pour tout U0 ∈ V(a), f (x) −→
x→a
l ⇐⇒ f (x) −→
x→a
l.
x∈A x∈A∩U0

Ainsi la valeur de l’éventuelle limite de f (x) lorsque x tend vers a pour x appartenant à A ne dépend
pas du comportement global de f sur A mais seulement du comportement de f |A au voisinage de a.
En particulier, si l’on modifie les valeurs de f (x) lorsque x ∈/ U0 , on ne modifie pas la valeur logique
de la proposition f (x) −→
x→a
l.
x∈A

Définition. Soit a ∈ E tel que a ∈ Df \ {a}. Ainsi, a est un point d’accumulation de Df . S’il existe
l ∈ F tel que f (x) −→
x→a
l, on écrit que f (x) −→
x→a
l ou même f (x) −→ l.
x→a
x∈Df \{a} x6=a

c Éric Merle 5 MPSI2, LLG


102
Semaine 21 : Résumé de cours 2 Continuité ponctuelle

Propriété. Soient A et B deux parties de Df qui rencontrent tout voisinage de a.


Alors, (f (x) −→
x→a
l et f (x) −→
x→a
l) ⇐⇒ f (x) −→
x→a
l.
x∈A x∈B x∈A∪B
Il faut savoir le démontrer.
Définition. Supposons que E = R et que a ∈ R.
• Si a ∈ Df ∩]a, +∞[, et si f (x) −→
x→a
l, on note f (x) −→
x→a
l ou f (x) −→+ l et l = x→a
lim f (x) ou
x∈Df ∩]a,+∞[ x>a
x→a x>a

l = lim f (x). Il s’agit de la notion de limite à droite du réel a.


x→a+
• De même, si a ∈ Df ∩] − ∞, a[, et si f (x) −→
x→a
l, on note f (x) −→
x→a
l ou f (x) −→− l et
x∈Df ∩]−∞,a[ x<a
x→a

l = x→a
lim f (x) ou l = lim f (x). Il s’agit de la notion de limite à gauche du réel a.
x<a
x→a−

Propriété. On suppose que E = R et a ∈ Df ∩] − ∞, a[ ∩ Df ∩]a, +∞[.


Alors f (x) −→ l si et seulement si f (x) −→
x→a
l et f (x) −→
x→a
l.
x→a
x>a x<a

2.2 Continuité en un point

Définition. Soit a ∈ Df . f est continue en a si et seulement si f (x) −→


x→a
f (a).
x∈Df

Propriété. On suppose que F = C. Soit a ∈ Df .


f est continue en a si et seulement si Re(f ) et Im(f ) sont continues en a.
Propriété. f est continue en a si et seulement si l’une des propriétés suivantes est vérifiée :
i) Pour toute suite (xn ) de points de Df telle que xn −→ a, f (xn ) −→ f (a).
n→+∞ n→+∞
ii) ∀ε > 0 ∃α > 0 ∀x ∈ Df (d(x, a) ≤ α =⇒ d(f (x), f (a)) ≤ ε).
iii) ∀V ∈ V(f (a)) ∃U ∈ V(a) f (U ∩ Df ) ⊂ V .
Propriété. Soit a ∈ Df .
Si a ∈
/ Df \ {a} (on dit que a est un point isolé de Df ), f est toujours continue en a.
Si a ∈ Df \ {a}, f est continue en a si et seulement si f (x) −→ x→a
f (a).
x∈Df \{a}

Remarque. Soient a ∈ Df et U0 ∈ V(a). f est continue en a si et seulement si f |Df ∩U0 est continue
en a. Ainsi la notion de continuité (au point a) est une notion locale.
Définition. On dit que f est continue si et seulement si elle est continue en chaque point de son
domaine de définition.
Propriété. Les applications lipschitziennes sont continues.
Il faut savoir le démontrer.
Propriété. Soient A une partie de Df et a ∈ A. Si f est continue en a, alors f |A est aussi continue
en a.
Corollaire. Soit A une partie incluse dans Df . Si f est continue, alors f |A est continue.
Définition. On suppose que E = R. Soit a ∈ Df . On dit que f est continue à droite en a si et
seulement si f |[a,+∞[∩Df est continue en a. On définit de même la notion de continuité à gauche.
Propriété. On suppose que E = R. Soit a ∈ Df .
f est continue en a si et seulement si f est continue à droite et à gauche en a.

c Éric Merle 6 MPSI2, LLG


103
Semaine 22 – Théorèmes de composition, opérations algébriques sur les limites, continuité globale, TVI,
continuité des applications linéaires et continuité uniforme

Semaine 22 (du 9 mars au 14) :


Résumé de cours

1 Continuité ponctuelle (suite et fin)


1.1 Continuité en un point (suite et fin)

Définition. On suppose que f est continue. Soit D ⊃ Df . On dit que f se prolonge par continuité
sur D si et seulement s’il existe une application f˜ : D −→ F continue et telle que f˜|Df = f .
Définition. Soit a ∈ Df \ Df . f admet un prolongement par continuité en a si et seulement si f
admet une limite finie en a. Dans ce cas, l’unique prolongement par continuité f˜ de f est donné par
f˜(a) = x→a
lim f (x).
x6=a

Propriété. Soient A ⊂ E et f et g deux applications continues de A dans F .


Si f et g coı̈ncident sur une partie dense dans A, alors f = g.
Il faut savoir le démontrer.

1.2 Théorèmes de composition

Notation. Dans ce paragraphe, on fixe un troisième espace métrique noté G et une seconde fonction
g : F −→ G, définie sur Dg .
Propriété. Soit B une partie de Dg telle que f (A) ⊂ B. Soit m ∈ G ∪ {∞, +∞, −∞}.
Pour que g(f (x)) −→
x→a
m, il suffit que f (x) −→
x→a
l (auquel cas B rencontre tout voisinage de l) et que
x∈A x∈A

g(y) −→ m.
y→l
y∈B

Corollaire. On suppose que f (Df ) ⊂ Dg et on fixe a ∈ Df .


Si f est continue en a et g en f (a), alors g ◦ f est continue en a.
Corollaire. On suppose que f (Df ) ⊂ Dg .
Si f et g sont continues, alors g ◦ f est continue (et définie sur Df ).
Corollaire. On suppose que f (A) ⊂ Dg . Si f (x) −→
x→a
b et si g est continue en b, alors g(f (x)) −→
x→a
g(b).
x∈A x∈A

Propriété. Limite en un point d’une application à valeurs dans un produit.


Supposons que F = F1 × · · · × Fq , où F1 , . . ., Fq sont des espaces vectoriels normés et notons
f : E −→ F
.
x 7−→ f (x) = (f1 (x), . . . , fq (x))
Soient A une partie de Df , a ∈ A et l = (l1 , . . . , lq ) ∈ F . Alors,
f (x) −→
x→a
l si et seulement si pour tout i ∈ Nq , fi (x) −→ x→a i
l.
x∈A x∈A

1
104
Semaine 22 : Résumé de cours 1 Continuité ponctuelle (suite et fin)

Propriété. Continuité en un point d’une application à valeurs dans un produit.


Supposons que F = F1 × · · · × Fq , où F1 , . . ., Fq sont des espaces vectoriels normés et notons
f : E −→ F
. Soit a ∈ Df . Alors,
x 7−→ f (x) = (f1 (x), . . . , fq (x))
f est continue en a si et seulement si pour tout i ∈ Nq , fi est continue en a.

1.3 Opérations algébriques sur les limites


1.3.1 Somme de deux applications à valeurs vectorielles

Notation.
Dans ce paragraphe, on fixe une seconde fonction g : E −→ F , définie sur Dg .
On suppose que A ⊂ Df ∩ Dg .
Propriété. Si f (x) −→
x→a
l et g(x) −→
x→a
l0 , alors (f + g)(x) −→
x→a
l + l0 .
x∈A x∈A x∈A

Remarque. C’est valable dans le cadre des limites infinies, à condition d’éviter la forme indéterminée
∞ − ∞, c’est-à-dire lorsque l et l0 sont les deux éléments distincts de {+∞, −∞}.
Propriété. Soit a ∈ Df ∩ Dg . Si f et g sont continues en a, f + g est continue en a.
Corollaire. La somme de deux applications continues est continue.

1.3.2 Produit d’une application scalaire par une application vectorielle

Notation. Dans ce paragraphe, on suppose que f est une application de E dans K et que g est une
application de E dans un K-espace vectoriel normé F . Ainsi f est une “application scalaire” et g est
une “application vectorielle”. On suppose que A ⊂ Df ∩ Dg .
Propriété. Si f (x) −→
x→a
l et g(x) −→
x→a
l0 , alors (f g)(x) −→
x→a
ll0 .
x∈A x∈A x∈A

Remarque. C’est valable dans le cadre des limites infinies, à condition d’éviter la forme indéterminée
0 × ∞.
Propriété. Soit a ∈ Df ∩ Dg . Si f et g sont continues en a, f g est aussi continue en a.
Corollaire. Le produit d’une application scalaire continue par une application vectorielle continue
est continue.
Propriété. Soit A une partie de E. L’ensemble C(A, F ) des applications continues de A dans F est
un K-espace vectoriel. C(A, K) est une K-algèbre.
Propriété. On suppose que f est une application de E dans K∗ .
1 1
Si f (x) −→ l ∈ K alors ( )(x) −→ .
x→a
x∈A
f x→a
x∈A
l
Remarque. Cette propriété est valable avec des limites infinies dans les cas suivants :
1
— Si l = ∞, en convenant que ∞ = 0.
— Si K = R et l = 0 (c’est-à-dire que l = 0 et que f est strictement positive au voisinage de a),
+

en convenant que 01+ = +∞.


— Si K = R et l = 0− , en convenant que 01− = −∞.

c Éric Merle 2 MPSI2, LLG


105
Semaine 22 : Résumé de cours 2 Continuité globale

1.4 Cas des fonctions à valeurs dans R.


On suppose ici que F = R.
Propriété : passage à la limite sur une inégalité large :
Si ∀x ∈ A f (x) ≤ g(x), f (x) −→
x→a
l et g(x) −→
x→a
l0 , alors l ≤ l0 .
x∈A x∈A

Principe du tunnel (pour des inégalités strictes) :


Si f (x) −→
x→a
` ∈ R et α < ` < β, alors, au voisinage de a, α < f (x) < β.
x∈A

Corollaire. Si f (x) −→
x→a
` ∈ R alors f |A est bornée au voisinage de a.
x∈A

Propriété. Principe des gendarmes.


Si ∀x ∈ A h1 (x) ≤ h2 (x) ≤ h3 (x), h1 (x) −→
x→a
l et h3 (x) −→
x→a
l, alors h2 (x) −→
x→a
l.
x∈A x∈A x∈A

Remarque. On peut adapter le principe des gendarmes au cas où l = ±∞.


Il faut savoir le démontrer.

1.5 Cas des fonctions de R dans R.


2
Théorème de la limite monotone : Soit (m, M ) ∈ R avec m < M et f : ]m, M [−→ R.
Si f est croissante, alors f (x) −→ sup f (y) ∈ R et f (x) x→m
−→ inf f (y) ∈ R.
x→M
y∈I x∈I
y∈I
x∈I

Si f est décroissante, alors f (x) −→ inf f (y) ∈ R et f (x) x→m


−→ sup f (y) ∈ R.
x→M y∈I x∈I y∈I
x∈I

Il faut savoir le démontrer.


2
Propriété. Soit (m, M ) ∈ R avec m < M et f : ]m, M [−→ R une application monotone. Pour tout
a ∈ I, f possède en a une limite à droite, notée f (a+ ), et une limite à gauche, notée f (a− ). De plus,
si f est croissante, f (a− ) ≤ f (a) ≤ f (a+ ), et si f est décroissante, f (a− ) ≥ f (a) ≥ f (a+ ).
f est discontinue en a si et seulement si f (a+ ) 6= f (a− ) et dans ce cas |f (a+ ) − f (a− )| s’appelle le
saut de discontinuité de f en a.
Il faut savoir le démontrer.
Exercice. Si f est une application strictement croissante d’un intervalle I dans R, montrer
que l’ensemble des points de discontinuité de f est au plus dénombrable.
Il faut savoir le démontrer.

2 Continuité globale
2.1 Cas des fonctions de R dans R

Notation. Dans ce paragraphe, on fixe un intervalle I d’intérieur non vide.


Théorème des valeurs intermédiaires (TVI) :
Soit f : I −→ R une application continue à valeurs réelles. Soit a, b ∈ I avec a < b. Alors, pour tout
réel k compris entre f (a) et f (b), il existe c ∈ [a, b] tel que f (c) = k.
Ainsi, l’image d’un intervalle par une application continue à valeurs réelles est un intervalle.
Il faut savoir le démontrer.
Exercice. Soit P une application polynomiale de R dans R de degré impair. Montrer que P
possède au moins une racine réelle.
Il faut savoir le démontrer.

c Éric Merle 3 MPSI2, LLG


106
Semaine 22 : Résumé de cours 2 Continuité globale

Théorème.
Une fonction continue de I dans R est injective si et seulement si elle est strictement monotone.
Théorème de la bijection :
Soit f : I −→ R une application continue et strictement monotone.
f est une bijection de I dans f (I) et f −1 : f (I) −→ I est également continue et strictement
monotone (de même sens de variation que f ).
Remarque. Dans un tableau de variations, les flèches obliques signifient que l’application étudiée
est continue et strictement monotone. Le théorème de la bijection affirme en particulier que toutes les
valeurs intermédiaires sont atteintes exactement une fois.
Définition. Soit E et F deux espaces métriques. f : E −→ F est un homeomorphisme entre E et
F si et seulement si f est une bijection telle que f et f −1 sont continues.
Deux espaces métriques sont homéomorphes si et seulement si il existe un homéomorphisme entre ces
deux espaces.

2.2 Continuité et ouverts

Théorème. Soit E et F deux espaces métriques et soit f : E −→ F une application définie sur Df .
Les propriétés suivantes sont équivalentes.

i) f est continue.
ii) L’image réciproque par f de tout ouvert de F est un ouvert
pour la topologie induite sur Df .
iii) L’image réciproque par f de tout fermé de F est un fermé
pour la topologie induite sur Df .
Il faut savoir le démontrer.

2.3 Continuité d’une application linéaire

Notation. Dans ce paragraphe, E et F désignent 2 K-espaces vectoriels normés.


Théorème. On suppose que f ∈ L(E, F ). Les assertions suivantes sont équivalentes.

i)f est continue.


ii) f est continue en 0.
iii) f est bornée sur la boule unité de E.
iv) f est bornée sur la sphère unité de E.
v) ∃k ∈ R+ ∀x ∈ E kf (x)k ≤ kkxk.
vi) f est lipschitzienne.
Il faut savoir le démontrer.
Exercice. On note LC(E) l’ensemble des endomorphismes continus sur E.
1◦ ) Montrer que LC(E) est un K-espace vectoriel que l’on peut munir de la norme suivante :
∀u ∈ LC(E) kuk = sup ku(x)kE .
x∈E
kxkE ≤1

2◦ ) Montrer que ∀u ∈ LC(E) ∀x ∈ E ku(x)kE ≤ kukkxkE .


Montrer que ∀(u, v) ∈ LC(E)2 kv ◦ uk ≤ kvkkuk.
Il faut savoir le démontrer.

c Éric Merle 4 MPSI2, LLG


107
Semaine 22 : Résumé de cours 2 Continuité globale

2.4 Continuité et compacité


Propriété (hors programme) : f est continue si et seulement si ses restrictions aux compacts de
E inclus dans Df sont continues.
Théorème. L’image directe d’un compact par une application continue est un compact.
Il faut savoir le démontrer.
Corollaire. Soient A un compact non vide de E et f : A −→ R une application continue. Alors f
est bornée et elle atteint ses bornes, c’est-à-dire qu’il existe
(xm , xM ) ∈ A2 tel que, pour tout x ∈ A, f (xm ) ≤ f (x) ≤ f (xM ).
Corollaire. L’image directe d’un segment de R par une application continue à valeurs réelles est un
segment.

2.5 La continuité uniforme

Notation. On fixe deux espaces métriques E et F ainsi qu’une application


f : E −→ F définie sur Df ⊂ E.
Définition. f est uniformément continue sur Df si et seulement si
∀ε ∈ R∗+ ∃α ∈ R∗+ ∀(x, y) ∈ Df2 (d(x, y) ≤ α =⇒ d(f (x), f (y)) ≤ ε).
Propriété. Caractérisation séquentielle de la continuité uniforme.
f est uniformément continue si et seulement si pour tout couple ((xn ), (yn )) de suites d’éléments de
Df tel que d(xn , yn ) −→ 0, d(f (xn ), f (yn )) −→ 0.
n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. La composée de deux applications uniformément continues est uniformément continue.
Propriété. “lispchitzienne”=⇒“uniformément continue”=⇒“continue”, mais les réciproques sont
fausses.
Théorème de Heine : Toute application continue sur un compact est uniformément continue.
Il faut savoir le démontrer.

c Éric Merle 5 MPSI2, LLG


108
Semaine 23 – Comparaison au voisinage d’un point, domination, prépondérance, relation d’équivalence,
développements limités, applications aux séries

Semaine 23 (du 16 mars au 20) :


Résumé de cours

Comparaison au voisinage d’un point


K désigne R ou C.
Notation. A est une partie d’un espace K-espace vectoriel normé E. Soit a ∈ E ∪ {+∞, −∞, ∞}.
On suppose que tout voisinage de a rencontre A.
Sauf mention du contraire, les applications considérées dans ce chapitre sont définies sur A et sont à
valeurs dans un K-espace vectoriel normé.

1 La relation de domination
Définition. On dit que f est dominée par g au voisinage de a si et seulement si
(1) : ∃V ∈ V(a) ∃C ∈ R∗+ ∀x ∈ V ∩ A kf (x)k ≤ Ckg(x)k.
O (g(x)) (notation de Landau) ou bien f (x)  g(x) (notation de Hardy).
On note alors f (x) = x→a
x∈A

Remarque. f = O(g) si et seulement si kf (x)k = O(kg(x)k).


Cas particulier des suites.
xn = O(yn ) si et seulement si ∃N ∈ N ∃C ∈ R∗+ ∀n ≥ N kxn k ≤ Ckyn k.
Propriété. S’il existe V voisinage de a tel que g(x) ne s’annule jamais sur V ,
kf (x)k
f = O(g) si et seulement si x 7−→ est bornée au voisinage de a.
kg(x)k
Propriété. O(O(f )) = O(f ) ( Il faut savoir le démontrer.), O(f ) + O(f ) = O(f ),
Lorsque ϕ(A) ⊂ K, O(ϕ).O(f ) = O(ϕ.f ). Si α ∈ R∗+ , lorsque f (A) ⊂ R∗+ , O(f )α = O(f α ).
O (g(x)) et si g(x) −→
Propriété. Si f (x) = x→a x→a
0, alors f (x) −→
x→a
0.
x∈A x∈A x∈A

Propriété. (Hors programme) Soient (un ), (vn ) ∈ R∗+ N .


un+1 vn+1
S’il existe N ∈ N tel que ∀n ≥ N ≤ , alors un = O(vn ).
un vn
Il faut savoir le démontrer.

2 La relation de prépondérance
Définition. On dit que f est négligeable devant g au voisinage de a si et seulement si
(1) : ∀ε ∈ R∗+ ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ εkg(x)k.
o (g(x)) (notation de Landau) ou bien f (x) << g(x) (notation de Hardy).
On note alors f (x) = x→a
x∈A

Remarque. f = o(g) si et seulement si kf (x)k = o(kg(x)k).

1
109
Semaine 23 : Résumé de cours 3 La relation d’équivalence

Cas particulier des suites. xn = o(yn ) si et seulement si ∀ε ∈ R∗+ ∃N ∈ N ∀n ≥ N kxn k ≤ εkyn k.


Propriété. S’il existe V voisinage de a tel que g(x) ne s’annule jamais sur V ,
kf (x)k
f = o(g) si et seulement si −→ 0.
kg(x)k x→a
x∈A

Exemples. f = o(1) si et seulement si f (x) −→


x→a
0.
x∈A

Exemple. Soit α, β ∈ R avec α < β. Alors en +∞, xα = o(xβ ) et en 0+ , xβ = o(xα ).


Propriété. o(f ) = O(f ), o(O(f )) = o(f ) et O(o(f )) = o(f ) (donc aussi o(o(f )) = o(f )).
o(f ) + o(f ) = o(f ) ( Il faut savoir le démontrer.),
Lorsque ϕ(A) ⊂ K, o(ϕ).O(f ) = o(ϕ.f ) et O(ϕ).o(f ) = o(ϕ.f ) (donc aussi o(ϕ).o(f ) = o(ϕ.f )).
Si α ∈ R∗+ , lorsque f (A) ⊂ R∗+ , o(f )α = o(f α ).
Théorème des croissances comparées : Soit α, β, γ ∈ R∗+ et a > 1.
1. Les suites lnα (n), nβ , an et n! tendent vers +∞ et chacune est négligeable devant les suivantes.
2. Au voisinage de +∞, les fonctions lnα x, xβ et eγx tendent vers +∞ et chacune est négligeable
devant les suivantes.
 1 
3. Au voisinage de 0+ , | ln x|α = o β .
x
 1 
4. Au voisinage de −∞, eγx = o .
|x|β

3 La relation d’équivalence
3.1 Définition
Définition. On dit que f est équivalente à g au voisinage de a si et seulement si f − g = o(g). Ainsi,
∼ g(x) ⇐⇒ f = g + o(g) .
f (x) x→a
x∈A

Propriété. On suppose qu’il existe V voisinage de a tel que g(x) ne s’annule jamais sur V , que f et
f (x)
g sont à valeurs dans K. Alors f ∼ g ⇐⇒ −→ 1.
g(x) x→a
x∈A

n
X
Exemple. Si P (X) = ak X k est un polynôme à coefficients complexes, avec an 6= 0 et am 6= 0,
k=m
au voisinage de 0, P (t) ∼ am tm et au voisinage de +∞, P (t) ∼ an tn .
Propriété. La relation “∼” est une relation d’équivalence sur F(A, F ).
Propriété. Si f (x) −→
x→a
l ∈ K et si l 6= 0, alors f (x) ∼ l.
x∈A

3.2 Propriétés de stabilité de la relation d’équivalence


Propriété. Si f (x) ∼ g(x), alors kf (x)k ∼ kg(x)k.
Propriété. Stabilité du produit.
Si ϕ ∼ Ψ, avec ϕ et Ψ à valeurs dans K, et si f ∼ g, alors ϕ.f ∼ Ψ.g.
Il faut savoir le démontrer.
1 1
Propriété. Si g(x) 6= 0 au voisinage de a et f ∼ g, avec f et g à valeurs dans K, alors ∼ .
f (x) g(x)
Propriété. On suppose que f et g sont à valeurs réelles.
Si f ∼ g, alors f et g ont le même signe au voisinage de a au sens strict.

c Éric Merle 2 MPSI2, LLG


110
Semaine 23 : Résumé de cours 4 Les développements limités.

Propriété. Soient α ∈ R. On suppose que f et g sont à valeurs réelles.


Si f ∼ g et si g est strictement positive au voisinage de a, alors f α (x) ∼ g α (x).
Propriété. Si f ∼ g et si g(x) −→
x→a
l ∈ F ∪ {∞, ±∞}, alors f (x) −→
x→a
l.
x∈A x∈A

Propriété. La condition f = O(g) (respectivement f = o(g), f ∼ g) est vraie si et seulement si elle


l’est en remplaçant f et g par des applications équivalentes.
Propriété. (Hors programme) On suppose que f et g sont à valeurs réelles strictement positives. Si
g(x) −→
x→a
l ∈ R+ \ {1} et si f (x) ∼ g(x), alors ln(f (x)) ∼ ln(g(x)).
x∈A

Lorsque g(x) −→
x→a
1, alors ln(g(x)) ∼ g(x) − 1.
x∈A
Il faut savoir le démontrer.
Propriété. Changement de variable.
Soient F un second K-espace vectoriel normé, B ⊂ F et b ∈ F ∪ {+∞, −∞, ∞}. On suppose que tout
voisinage de b rencontre B. Soit ϕ : B −→ A une application telle que ϕ(t) −→
t→b
a .
t∈B

∼ g(x) (respectivement : f (x) = O(g(x)), f (x) = o(g(x))), alors


Si f (x) x→a
x∈A

f ◦ ϕ(t) ∼ g ◦ ϕ(t) (respectivement : f ◦ ϕ(t) = O(g ◦ ϕ(t)), f ◦ ϕ(t) = o(g ◦ ϕ(t))).


t→b
t∈B
Il faut savoir le démontrer.

3.3 Défauts de stabilité de la relation d’équivalence


En général, si f (x) ∼ g(x), ϕ(f (x)) 6∼ ϕ(g(x)).
L’équivalence de fonctions au voisinage d’un point n’est pas stable pour la somme.
Elever un équivalent à une puissance qui dépend de la variable n’est pas autorisé. Par exemple, au
voisinage de +∞, 1 + n1 ∼ 1, mais (1 + n1 )n −→ e, donc (1 + n1 )n 6∼ 1.
n→+∞

3.4 Résumons : quelques méthodes de calculs d’équivalents


 Si xn −→ l ∈ E, avec l 6= 0, alors xn ∼ l.
n→+∞
 Si xn = an bn , chercher des équivalents de an et de bn et en faire le produit.
an
 Si xn = , chercher des équivalents de an et de bn et en faire le quotient.
bn
 Si xn = an + bn , regarder si an = o(bn ), auquel cas xn ∼ bn ,
ou bien si bn = o(an ), auquel cas xn ∼ an .

4 Les développements limités.


Dans ce paragraphe, les fonctions considérées sont définies sur une partie A de K et sont à valeurs
dans K.

4.1 Définitions
Définition. Soient f : A −→ K une application et n ∈ N. On dit que f admet un développement
limité au voisinage de a à l’ordre n (ou en o(xn )) si et seulement s’il existe P ∈ Kn [X] tel que
f (a + x) = P (x) + o(xn ).
x→0
Xn
Si P (X) = ak X k avec am 6= 0, alors f (x) ∼ am xm : am xm est la partie principale de f (x) en 0.
k=m

c Éric Merle 3 MPSI2, LLG


111
Semaine 23 : Résumé de cours 5 Applications aux séries

Remarque. Pour toute la suite de ce paragraphe, on suppose que a = 0 (on peut toujours s’y
ramener par changement de variable) et que 0 est un point d’accumulation de A.
Définition. développements limités au sens fort.
Avec les notations précédentes, on dit que f admet un développement limité au sens fort au voisinage
de 0 à l’ordre n (ou en O(xn+1 )) si et seulement s’il existe P ∈ Kn [X] tel que f (x) = P (x) + O(xn+1 ).
Les propriétés qui suivent sont valables pour les développements limités au sens fort ou au sens faible,
mais nous ne les énoncerons que dans le cas du sens faible.
Propriété. unicité du développement limité. Avec les notations précédentes,
s’il existe (P, Q) ∈ Kn [X]2 tel que f (x) = P (x) + o(xn ) = Q(x) + o(xn ), alors P = Q.
Il faut savoir le démontrer.
Propriété. On suppose que f (x) admet un DLn (0) de la forme f (x) = P (x) + o(xn ).
Si f est paire, P est pair, donc P ne contient que des monômes de degrés pairs.
De même, si f est impaire, P est impair, donc P ne contient que des monômes de degrés impairs.

4.2 Opérations sur les développements limités

Propriété. Les règles de calcul établies pour les “o” et les “O” permettent d’additionner, de multiplier
et de composer des développements limités entre eux.
n
X
Remarque. Il est souvent pratique d’écrire un DL ak xk + o(xn ) sous sa forme normalisée
k=m
am xm (1 + · · · + o(xn−m )).

4.3 Applications
Position de la tangente : un calcul de développement limité permet de positionner le graphe d’une
application f par rapport à sa tangente en a, localement en a.
Détermination des asymptotes obliques : lorsque f (x) −→ ∞, s’il existe c0 , c1 , c2 ∈ R tels
x→+∞
qu’en +∞, f (x) = c0 x + c1 + c2 x1 + o( x1 ), alors la droite d’équation y = c0 x + c1 est asymtote au
graphe de f et le signe de c2 permet de positionner, au voisinage de +∞, le graphe de f par rapport
à son asymptote.

5 Applications aux séries


Théorème.
P P
Soient an ∈ S(E), où E est un Banach, et bn ∈ S(R), avec bn de signe constant à partir d’un
certain rang. P
• On suppose que bn est convergente.
+∞
X +∞
X
Pour tout n ∈ N, on note Rn = ak (en cas de convergence) et Sn = bk .
k=n+1 P P k=n+1
Ce sont les restes de Cauchy P(à l’ordre n) des séries an et bn .
 Si an = O(bn ) alorsP an converge absolument et Rn = O(Sn ),
 Si an = o(bn ) alors
P an converge absolument et Rn = o(Sn ),
 Si an ∼ bn alors an converge absolument et Rn ∼ Sn .
P
• On suppose que bn est divergente.
Xn Xn
Pour tout n ∈ N, on note An = ak et Bn = bk .
k=0 k=0

c Éric Merle 4 MPSI2, LLG


112
Semaine 23 : Résumé de cours 5 Applications aux séries

 Si an = O(bn ) alors An = O(Bn ),


 Si an = o(bn ) alors An = o(Bn ),
 Si an ∼ bn alors An ∼ Bn .
Il faut savoir le démontrer.
n
1 X
Exercice. Moyenne de Césaro : Soit (an ) ∈ CN telle que an −→ l ∈ C. Alors ak −→ l.
n→+∞ n+1 n→+∞
k=0
Il faut savoir le démontrer.
X 1
Exercice. La série de Bertrand converge ssi α > 1 ou (α = 1 et β > 1).
n≥2
nα lnβ n
Il faut savoir le démontrer.

c Éric Merle 5 MPSI2, LLG


113
Semaine 24 – Dérivabilité, opérations, dérivées d’ordre supérieurs, égalité des accroissements finis, formules
de Taylor, monotonie et dérivabilité, suites récurrentes d’ordre 1, fonctions convexes

Semaine 24 (du 23 mars au 27) :


Résumé de cours

1 Dérivabilité
1.1 Interprétations d’une dérivée
f (t) − f (a)
Définition. f est dérivable au point a si et seulement si −→ ` ∈ E. Dans ce cas, ` est
t−a t→a
t6=a,t∈I
hd i f (t) − f (a)
appelée la dérivée de f au point a. On note f 0 (a) = (f (t)) = lim ∈ E.
dt t=a t→a
t6=a,t∈I
t−a
Remarque. Informellement, lorsque E = R, la corde du graphe de f entre les abscisses x0 et x1 ,
f (x1 ) − f (x0 )
d’équation y − f (x0 ) = × (x − x0 ), tend vers la tangente au graphe de f en le point de
x1 − x0
coordonnées (x0 , f (x0 )), d’équation y − f (x0 ) = f 0 (x0 ).(x − x0 ).
Parmi les droites non verticales du plan, la tangente est la meilleure approximation du graphe de f
au voisinage de x0 .
f (t) − f (a)
interprétation cinématique : est la vitesse moyenne du mobile ponctuel f (t) entre
t−a
0
les instants a et t, donc kf (a)k représente la vitesse instantanée du mobile à l’instant a.

1.2 Dérivées à gauche et à droite

Définition. On dit que f est dérivable à droite en a si et seulement si f/I∩[a,+∞[ est dérivable en a.
f (t) − f (a)
On note alors fd0 (a) = lim .
t→a
t>a,t∈I
t−a

Théorème. Lorsque a ∈ I, f est dérivable en a si et seulement si f est dérivable à droite et à gauche
en a et si l’on a fd0 (a) = fg0 (a). Dans ce cas, f 0 (a) = fd0 (a) = fg0 (a).

1.3 Dérivées et développements limités

Propriété. f est dérivable en a si et seulement s’il existe l ∈ E tel que


◦ (t − a). Dans ce cas l = f 0 (a).
f (t) = f (a) + (t − a)l+ t→a
t6=a,t∈I

Propriété. Si f est dérivable en a, elle est continue en a.


Remarque. Si f est seulement dérivable à droite et à gauche en a, alors f est continue en a.

1
114
Semaine 24 : Résumé de cours 3 Dérivées d’ordre supérieur

2 Opérations sur les fonctions dérivables


Propriété. Dérivation d’une application à valeurs dans un produit. Supposons que
Yp
E= Ei , et pour tout t ∈ I, notons f (t) = (f1 (t), . . . , fp (t)). f est dérivable en a si et seulement si,
i=1
pour tout i ∈ Np , fi est dérivable en a. Dans ce cas f 0 (a) = (f10 (a), . . . , fp0 (a)).
Propriété. Supposons que E est un espace vectoriel de dimension finie muni d’une base
p
X
e = (e1 , . . . , ep ). Pour tout t ∈ I, notons f (t) = fi (t)ei . f est dérivable en a si et seulement si,
i=1
p
X
0
pour tout i ∈ Np , fi est dérivable en a et dans ce cas f (a) = fi0 (a)ei .
i=1

Cas particulier. Si f est une application de I dans C, f est dérivable en a si et seulement si Im(f )
et Re(f ) sont des applications dérivables en a. Dans ce cas f 0 (a) = Re(f )0 (a) + iIm(f )0 (a).
Propriété. Soient F un second K-espace vectoriel normé et u une application linéaire continue de
E dans F . Si f est dérivable en a, alors u ◦ f est dérivable en a et (u ◦ f )0 (a) = u(f 0 (a)).
0
Propriété. Lorsque K = C, si f est dérivable, alors f est dérivable et f = f 0 .
Propriété de linéarité. Soit (α, β) ∈ K2 . Si f et g sont dérivables en a, alors αf + βg est dérivable
en a et (αf + βg)0 (a) = αf 0 (a) + βg 0 (a).
Définition. Soient E, F et G trois K-espaces vectoriels et B : E × F −→ G une application.
On dit que B est bilinéaire si et seulement si, pour tout y ∈ F , x 7−→ B(x, y) est linéaire et si, pour
tout x ∈ E, y 7−→ B(x, y) est linéaire.
Théorème de dérivation d’un produit : Soient E, F et G trois K-espaces vectoriels normés et
B : E × F −→ G une application bilinéaire continue. Soient f une application de I dans E et g une
B(f, g) : I −→ G
application de I dans F . On dispose de l’application . Si f et g sont
t 7−→ B(f (t), g(t))
dérivables en a, B(f, g) est dérivable en a et B(f, g)0 (a) = B(f 0 (a), g(a)) + B(f (a), g 0 (a)).
Il faut savoir le démontrer.
!0 p h
Yp X Y i
Corollaire. fi (a) = fi0 (a) fj (a) .
i=1 i=1 1≤j≤p
j6=i

Dérivation des fonctions composées. Soient ϕ : I −→ J et f : J −→ E deux applications.


Si ϕ est dérivable en a et f en ϕ(a), alors f ◦ ϕ est dérivable en a et (f ◦ ϕ)0 (a) = ϕ0 (a)f 0 (ϕ(a)).
Il faut savoir le démontrer.
Corollaire. f 0 = (fn0 ◦ fn−1 ◦ · · · ◦ f1 ) × (fn−1
0
◦ fn−2 ◦ · · · ◦ f1 ) × · · · × f10 .
Dérivée de l’inverse.  1 0 f 0 (a)
Soit f : I −→ K∗ une application dérivable en a. Alors 1f est dérivable en a et (a) = − .
f f (a)2
Dérivée logarithmique. Soit f : I −→ K∗ dérivable en a.
f 0 (a)
est appelée la dérivée logarithmique de f en a. Lorsque K = R, elle est égale à (ln |f |)0 (a).
f (a)
u 0

0
∗ (uv) u0 v0 u0 v0
Propriété. Si u et v sont dérivables de I dans K , = + , v 
u = −
uv u v v
u v
n 0 0 α 0 0
(u ) u (u ) u
∀n ∈ N∗ = n , et, si u est à valeurs dans R∗+ , ∀α ∈ R =α .
un u uα u

c Éric Merle 2 MPSI2, LLG


115
Semaine 24 : Résumé de cours 4 L’égalité des accroissements finis

3 Dérivées d’ordre supérieur


3.1 Définition
0
Définition. f (0) = f , f (n) (t) = f (n−1) (t).
Propriété. Pour tout p, q ∈ N, f est p + q fois dérivable sur I si et seulement si f (p) est q fois
dérivable sur I, auquel cas, f (p+q) = [f (p) ](q) .
Remarque. On dit que f est n fois dérivable en a si et seulement si il existe une boule ouverte B
centrée en a telle que f |B∩I soit n − 1 fois dérivable et telle que [f |B∩I ](n−1) soit dérivable en a.
Définition. On dit que f est de classe Dn (resp : C n ) si et seulement si f (n) est une application
définie sur I (resp : définie et continue).
On dit que f est de classe C ∞ si et seulement si f est de classe C n pour tout n ∈ N.

3.2 Opérations sur les dérivées supérieures

Propriété de linéarité. Soit n ∈ N. Si f et g sont Dn , alors pour tout (α, β) ∈ K2 , αf + βg est Dn


et [αf + βg](n) = αf (n) + βg (n) .
Formule de Leibniz : Soient E, F et G trois K-espaces vectoriels normés et
B : E × F −→ G une application bilinéaire continue. Soient f une application de I dans E et g une
B(f, g) : I −→ G
application de I dans F . On dispose de l’application .
t 7−→ B(f (t), g(t))
Soit a ∈ I ; Si f et g sont dérivables n fois en a, B(f, g) est dérivable n fois en a
Xn
et B(f, g)(n) (a) = Cnk B(f (k) (a), g (n−k) (a)).
k=0
Il faut savoir le démontrer.
Corollaire. Pour tout n ∈ N ∪ {∞}, le produit de deux applications C n est C n .
Théorème de composition : Soient J un intervalle de R d’intérieur non vide et E un K-espace
vectoriel normé. Soient ϕ : I −→ J et f : J −→ E deux applications.
Soit n ∈ N ∪ {∞}. Si ϕ et f sont C n alors f ◦ ϕ est C n .

4 L’égalité des accroissements finis


Dans ce paragraphe, toutes les applications utilisées sont définies sur I et sont à valeurs dans R.

4.1 Extremum et point critique

Définition. f admet un maximum local en a si et seulement s’il existe un voisinage V de a tel que
∀t ∈ V ∩ I f (t) ≤ f (a).
f présente en a un maximum local strict si et seulement s’il existe un voisinage V de a tel que
∀t ∈ V ∩ I \ {a} f (t) < f (a).

Définition. Lorsque f est dérivable en a ∈ I, a est un point critique de f si et seulement si f 0 (a) = 0.

Théorème. Les extremums locaux de f sur I sont des points critiques de f . Réciproque fausse.
Il faut savoir le démontrer.

c Éric Merle 3 MPSI2, LLG


116
Semaine 24 : Résumé de cours 5 Formules de Taylor

4.2 Le lemme de Rolle

Lemme de Rolle. Soient (a, b) ∈ R2 avec a < b et f : [a, b] −→ R une application continue sur [a, b]
et dérivable sur l’ouvert ]a, b[. Si f (a) = f (b), il existe c ∈]a, b[ tel que f 0 (c) = 0.
Il faut savoir le démontrer.
[0, 2π] −→ C
Remarque. C’est faux pour une application à valeur dans C : prendre .
θ 7−→ eiθ
Un exercice à connaı̂tre : On dit qu’un polynôme P de R[X] est simplement scindé dans R[X] si
n
Y
et seulement si il se décompose sous la forme P (x) = λ (x − αi ), où λ ∈ R∗ et α1 , . . . , αn ∈ R avec
i=1
i 6= j =⇒ αi 6= αj . Si P est simplement scindé dans R[X], alors P 0 l’est aussi.
Théorème de Rolle généralisé (Hors programme).
Soit (a, b) ∈ R ∪ {−∞, +∞} avec a < b. Si f est dérivable sur ]a, b[ et si
lim f (x) = lim f (x) ∈ R ∪ {−∞, +∞}, alors il existe c ∈]a, b[ tel que f 0 (c) = 0.
x→a x→b
Il faut savoir le démontrer.

4.3 L’égalité des accroissements finis

Théorème des accroissements finis (TAF). Soit (a, b) ∈ R2 avec a = 6 b. Soit f : [a, b] −→ R
continue sur [a, b] et dérivable sur ]a, b[. Alors il existe c dans ]a, b[ tel que f (b) − f (a) = (b − a)f 0 (c).
Il faut savoir le démontrer.

4.4 Théorème de la limite de la dérivée


TLD : Si f est continue sur I, dérivable (resp : de classe C 1 ) sur I \ {a} et s’il existe l ∈ R tel que
f 0 (x) −→
x→a
l, alors f est dérivable (resp : de classe C 1 ) sur I, avec f 0 (a) = l.
x∈I\{a}

Il faut savoir le démontrer.


Remarque. Il faut savoir montrer que, si f est continue sur I, dérivable sur I \ {a} et si
f 0 (x) −→
x→a
+∞, alors f n’est pas dérivable en a.
x∈I\{a}

Remarque. Ce théorème est encore valable pour une fonction à valeurs dans un K-espace vectoriel
de dimension finie.
TLD : Généralisation aux dérivées d’ordre supérieur. Soient k ∈ N ∪ {∞}. Si f est continue sur I, à
valeurs dans un K-espace vectoriel de dimension finie, si f est de classe C k sur I \ {a} et si, pour tout
h ∈ [1, k] ∩ N, il existe lh ∈ R tel que f (h) (x) −→
x→a
lh , alors f est de classe C k sur I.
x∈I\{a}

5 Formules de Taylor
5.1 L’égalité de Taylor-Lagrange (hors programme)

Théorème. Soient n ∈ N et f : [a, b] −→ R. Si f est C n sur [a, b] et n + 1 fois dérivable sur ]a, b[,
Xn
(b − a)k (k) (b − a)n+1 (n+1)
alors il existe c ∈]a, b[ tel que f (b) = f (a) + f (a) + f (c).
k! (n + 1)!
k=1
Il faut savoir le démontrer.

c Éric Merle 4 MPSI2, LLG


117
Semaine 24 : Résumé de cours 6 Monotonie et dérivabilité

5.2 L’inégalité des accroissements finis (IAF)

Théorème. Inégalité des accroissements finis (IAF)


Si f : [a, b] −→ K est C 1 sur [a, b], alors |f (b) − f (a)| ≤ λ|b − a|, où λ = sup |f 0 (x)|.
x∈[a,b]

Corollaire. Soient k ∈ R+ et f : I −→ K de classe C 1 .


Alors f est k-lipschitzienne si et seulement si pour tout x ∈ [a, b], |f 0 (x)| ≤ k.

5.3 Formules de Taylor


5.3.1 TRI et inégalité de TL

Théorème. Formule de Taylor avec reste intégral. Soient k ∈ N et f : [a, b] −→ K C k+1 .


k
X Z b
(b − a)h (h) (b − t)k (k+1)
Alors f (b) = f (a) + f (a) + f (t)dt.
h! a k!
h=1

Théorème. Inégalite de Taylor-Lagrange. Soient k ∈ N et f : [a, b] −→ K C k+1 .


k
X (b − a)h (h) |b − a|k+1
Alors |f (b) − f (a) − f (a)| ≤ λ , où λ = sup |f (k+1) (x)|.
h! (k + 1)! x∈[a,b]
h=1

5.3.2 Primitivation d’un développement limité


Z x
Lemme. Soit k ∈ N. Au voisinage de a, o((t − a)k )dt = o((x − a)k+1 ).
a
Il faut savoir le démontrer.
Théorème. Primitivation d’un développement limité. Soient a ∈ I et f : I −→ K une
application de classe C 1 . Soit k ∈ N. Si, au voisinage de a,
X k Xk
0 h k αh
f (x) = αh (x − a) + o((x − a) ), alors f (x) = f (a) + (x − a)h+1 + o((x − a)k+1 ).
h+1
h=0 h=0

5.3.3 Formule de TY

Formule de Taylor-Young. Si f est k fois dérivable en a, alors au voisinage de a,


k
X (x − a)h (h)
f (x) = f (a) + f (a) + o((x − a)k ).
h!
h=1

Propriété. (Hors programme ?) Soit f : I −→ R une application deux fois dérivable en un point a

de I. On suppose que f 0 (a) = 0 et que f 00 (a) > 0. Alors a est un minimum local strict : il existe un
voisinage V de a tel que pour tout t ∈ V ∩ I \ {a}, f (t) > f (a).

6 Monotonie et dérivabilité
Ici les applications utilisées sont à valeurs dans R.

c Éric Merle 5 MPSI2, LLG


118
Semaine 24 : Résumé de cours 7 Suites récurrentes d’ordre 1

6.1 Sens de variation

Théorème. f est constante si et seulement si f 0 = 0, elle est croissante si et seulement si f 0 ≥ 0 et


elle est décroissante si et seulement si f 0 ≤ 0.
Il faut savoir le démontrer.
Propriété. Soit f : I −→ R dérivable et croissante. Alors f est strictement croissante si et seulement
si {x ∈ I/f 0 (x) = 0} est d’intérieur vide. En particulier, si f (x) > 0 pour tout x ∈ I sauf pour un
nombre fini d’éléments de I, alors f est strictement croissante.

6.2 Difféomorphismes

Théorème. Supposons que f est dérivable et strictement monotone. Soit t ∈ I.


0  1
f −1 est dérivable en f (t) si et seulement si f 0 (t) 6= 0, et dans ce cas f −1 f (t) = .
f 0 (t)
0 1
Lorsque [∀t ∈ I, f 0 (t) 6= 0], f −1 = .
f 0 ◦ f −1
Il faut savoir le démontrer.
Définition. Soit n ∈ N∗ . f : I −→ J est un C n -difféomorphisme si et seulement si f est bijective,
de classe C n et si f −1 est aussi de classe C n .
Propriété. f est un C n -difféomorphisme de I dans f (I) si et seulement si f est de classe C n et si
[∀t ∈ I, f 0 (t) 6= 0].
Il faut savoir le démontrer.

7 Suites récurrentes d’ordre 1


On souhaite étudier une suite (xn ) vérifiant ∀n ∈ N xn+1 = f (xn ).
En étudiant l’application f , supposons que l’on ait déterminé un intervalle I tel que f : I −→ I est
continue et monotone, avec x0 ∈ I.
Représentation graphique de (xn ) : À connaı̂tre .
Propriété. Les valeurs possibles pour la limite de xn sont les points fixes de f |I et les bornes de I
qui n’appartiennent pas à I.
Propriété. Si f |I est croissante, alors (xn ) est monotone.
Plus précisément, (xn ) est croissante si et seulement si f (x0 ) − x0 ≥ 0,
et (xn ) est décroissante si et seulement si f (x0 ) − x0 ≤ 0.
Il faut savoir le démontrer.
Propriété. On suppose que f |I est croissante. Soit l ∈ I un point fixe de f .
Si x0 ≤ l, alors ∀n ∈ N xn ≤ l. Si x0 ≥ l, alors ∀n ∈ N xn ≥ l.
Il faut savoir le démontrer.
Propriété. On suppose que f |I est décroissante. Alors (f ◦ f )|I est croissante, donc les deux suites
(x2n ) et (x2n+1 ) sont monotones et de sens contraires.
Il faut savoir le démontrer.
Propriété. Soit f : I −→ I une application de classe C 1 et ` ∈ I tel que f (`) = `.
Si |f 0 (`)| < 1, alors il existe ε ∈ R∗+ tel que, pour tout x0 ∈]` − ε, ` + ε[, xn −→ ` : ` est un point
n→+∞
d’équilibre stable.
Si |f 0 (`)| > 1, alors il existe ε ∈ R∗+ tel que, pour tout x0 ∈]` − ε, ` + ε[, il existe N ∈ N tel que
xN ∈]`
/ − ε, ` + ε[ : ` est un point d’équilibre instable.
Il faut savoir le démontrer.

c Éric Merle 6 MPSI2, LLG


119
Semaine 24 : Résumé de cours 8 Fonctions convexes

Plan d’étude d’une suite vérifiant xn+1 = f (xn ) :


 Représentez le tableau des variations de f .
 Lorsque le graphe de f est simple, visualisez le comportement de la suite (xn ).
 Trouvez un intervalle I tel que f (I) ⊂ I et x0 ∈ I et f est monotone et continue sur I.
 Recherchez les “limites éventuelles”.
 Si f est croissante sur I, étudiez les signes de f (x0 ) − x0 et de x0 − l (où l est un point fixe),
puis conclure.
 Si f est décroissante sur I, se ramener au cas précédent en considérant f ◦ f , ou bien si l’on
a conjecturé que xn −→ ` et si |f 0 (`)| < 1, majorez |xn+1 − `| = |f (xn ) − f (`)| à l’aide du
n→+∞
TAF.

8 Fonctions convexes
8.1 Sous-espaces affines

Définition. Soient E un K-espace affine de direction E et F une partie de E.


F est un sous-espace affine de E si et seulement si il existe A ∈ E et un sous-espace vectoriel F
−−→
de E tel que F = A + F = {A + x / x ∈ F } . Dans ce cas, F = {M N / M, N ∈ F} : on dit que F
est la direction du sous-espace affine F. De plus, pour tout B ∈ F, F = B + F .
Exemples. Un singleton est un sous-espace affine dirigé par {0}.
Une droite affine de E est de la forme D = A + Kx, où A ∈ E et x ∈ E \ {0}.
Propriété. Soit E et F deux K-espaces vectoriels et f ∈ L(E, F ). Soit y ∈ F . L’ensemble des
solutions de l’équation linéaire (E) : f (x) = y en l’inconnue x ∈ E, est ou bien vide, ou bien un
sous-espace affine de E
Définition. Deux sous-espaces affines sont parallèles si et seulement si ils ont la même direction.
Propriété. Soient E un K-espace affine de direction E et (Ei )i∈I une famille de sous-espaces affines
\ E. Pour i ∈ I, on note Ei la direction de Ei .
de \
Ei est ou bien ∅, ou bien un sous-espace affine de E de direction Ei .
i∈I i∈I

Définition. Soit E un K-espace affine de direction E. Un repère de E est un couple R = (O, b), où
O est un point de E, appelé l’origine du repère et où b est une base de E. Si M ∈ E, les coordonnées
−−→
de M dans le repère R sont les coordonnées du vecteur OM dans la base b.
Définition. Si F est un sous-espace affine de direction F , dim(F) = dim(F ).

8.2 Barycentres et convexité

Notation. On fixe un espace affine E, p points A1 , . . . , Ap de E et p scalaires λ1 , . . . , λp dans K.


Définition. On appelle fonction vectorielle de Leibniz l’application ϕ : E −→ E définie par
Xp
−−−→
ϕ(M ) = λi Ai M .
i=1
p
X p
X
Définition. Lorsque λi = 0, ϕ est constante, et lorsque λi 6= 0, ϕ est bijective. L’unique point
i=1 i=1
p
X −−→
G tel que ϕ(G) = 0 s’appelle alors le barycentre des (Ai , λi )1≤i≤p . On a donc λi GAi = 0.
i=1

c Éric Merle 7 MPSI2, LLG


120
Semaine 24 : Résumé de cours 8 Fonctions convexes

p
X
−−→ 1 −−−→ ∆ λ1 A1 + · · · λp Ap
On en déduit que, pour tout M ∈ E, M G = p λi M Ai . On note G = .
X λ1 + · · · + λp
i=1
λi
i=1

Définition. Lorsque, pour tout i ∈ Np , λi = 1, G s’appelle l’isobarycentre des points A1 , . . . , Ap .


Propriété. Homogénéı̈té du barycentre :
Si l’on remplace chaque λi par αλi où α ∈ K \ {0}, G n’est pas modifié.
Propriété. Associativité du barycentre : Soit k ∈ Np . Notons G0 le barycentre des (Ai , λi )1≤i≤k
Xk
0
(on suppose que λ = λi 6= 0) et G00 le barycentre des (Ai , λi )k+1≤i≤p (on suppose que
i=1
p
X
λ00 = λi 6= 0). Alors G est le barycentre de ((G0 , λ0 ), (G00 , λ00 )).
i=k+1
Il faut savoir le démontrer.
Propriété. Soit F un sous-espace affine de E. Si pour tout i ∈ Np , Ai ∈ F, alors G ∈ F.
Exemple. Si A et B sont deux points distincts de E, la droite (AB) est égale à l’ensemble des
barycentres de A et B.
Si A, B et C sont trois points non alignés de E, l’ensemble des barycentres de A, B et C est l’unique
plan affine contenant ces trois points.
Définition. On suppose que K = R.
Une partie C de E est convexe si et seulement si elle vérifie l’une des propriétés équivalentes suivantes :
1. Pour tout (A1 , A2 ) ∈ C 2 , [A1 , A2 ] ⊂ C, où [A1 , A2 ] est le segment d’extrémités A1 et A2 ,
c’est-à-dire l’ensemble des barycentres de ((A1 , t), (A2 , 1 − t)), lorsque t décrit [0, 1].
2. Pour tout (A1 , A2 ) ∈ C 2 , pour tout (λ1 , λ2 ) ∈ R2+ \ {0}, le barycentre de ((A1 , λ1 ), (A2 , λ2 )) est
dans C.
3. Pour tout p ∈ N∗ , pour tout (Ai )1≤i≤p ∈ C p , pour tout (λi )1≤i≤p ∈ Rp+ \ {0}, le barycentre de
(Ai , λi )1≤i≤p est dans C.
Une partie est donc convexe ssi elle est stable par pour des barycentres pondérés positivement.
Exemple. Les sous-espaces affines sont des convexes.
Propriété. Une intersection de parties convexes est convexe.
Définition. Soit B une partie de E. L’enveloppe convexe de B est le plus petit convexe de E contenant
B. C’est l’ensemble des barycentres d’un nombre fini de points de B affectés de pondérations positives.

8.3 Inégalités de convexité

Notation. On fixe une application f : I −→ R, où I est un intervalle de R d’intérieur non vide.
Définition. f est convexe si et seulement si
∀(x, y) ∈ I 2 ∀α ∈ [0, 1] f (αx + (1 − α)y) ≤ αf (x) + (1 − α)f (y).
f est concave si et seulement si −f est convexe.
Interprétation géométrique. f est convexe si et seulement si, pour tout x, y ∈ I avec x < y, le
graphe de f |[x,y] est au dessous de la corde joignant les points (x, f (x)) et (y, f (y)).
Il faut savoir le démontrer.
Remarque. On peut également définir la stricte convexité et la stricte concavité, en remplaçant
l’inégalité large par une inégalité stricte lorsque α ∈]0, 1[.
Propriété. f est concave et convexe si et seulement si elle est affine, i.e de la forme x 7−→ αx + β.

c Éric Merle 8 MPSI2, LLG


121
Semaine 24 : Résumé de cours 8 Fonctions convexes

Propriété. Une somme d’un nombre fini d’applications convexes est convexe.

Définition. x0 ∈ I est un point d’inflexion de f si et seulement si il existe ε > 0 tel que f |I∩]x0 −ε,x0 ]
est convexe (resp : concave) et f |I∩[x0 ,x0 +ε[ est concave (resp : convexe).
Propriété. L’épigraphe de f est {(x, y) ∈ R2 /x ∈ I et y ≥ f (x)}.
f est convexe si et seulement si son épigraphe est une partie convexe de R2 .
Propriété. Inégalité de Jensen. f est convexe si et seulement si
n
X X
n  Xn
∀n ∈ N∗ ∀(x1 , . . . , xn ) ∈ I n ∀(λ1 , . . . , λn ) ∈ Rn+ , λi = 1 =⇒ f λi xi ≤ λi f (xi ).
i=1 i=1 i=1
Il faut savoir le démontrer.
n
Y 1
Exercice. Si (x1 , . . . , xn ) ∈ Rn+ , la moyenne géométrique xin est inférieure à la moyenne
i=1
n
1X
arithmétique xi .
n i=1
Il faut savoir le démontrer.

8.4 Croissance des pentes


f (x) − f (y)
Propriété. Lorsque x, y ∈ I avec x 6= y, on pose px (y) = = py (x) : c’est la pente de la
x−y
corde d’extrémités (x, f (x)) et (y, f (y)). Les propriétés suivantes sont équivalentes :
1. f est convexe sur I.
2. Pour tout a, b, c ∈ I avec a < b < c, pa (b) ≤ pa (c).
3. Pour tout a, b, c ∈ I avec a < b < c, pb (a) ≤ pb (c).
4. Pour tout a, b, c ∈ I avec a < b < c, pc (a) ≤ pc (b).
Ainsi, f est convexe si et seulement si pour tout x0 ∈ I l’application px0 est croissante sur I \ {x0 }.
Il faut savoir le démontrer.
Propriété. (Hors programme) Si f est convexe sur I, elle est dérivable à droite et à gauche en tout
◦ ◦
point de I. En particulier, elle est continue sur I.
Il faut savoir le démontrer.

8.5 Fonctions convexes dérivables

Propriété. Si f est dérivable, alors f est convexe si et seulement si f 0 est croissante.


Il faut savoir le démontrer.
Propriété. Si f est dérivable, f est convexe si et seulement si son graphe est au dessus de ses
tangentes.
Il faut savoir le démontrer.
Propriété. Si f est deux fois dérivable sur I, f est convexe si et seulement si ∀x ∈ I f 00 (x) ≥ 0.
◦ ◦
Propriété. On suppose que f est deux fois dérivable sur I et que x0 ∈ I.
Si f 00 change de signe au voisinage de x0 , alors x0 est un point d’inflexion de f .

c Éric Merle 9 MPSI2, LLG


122
Semaine 25 – Polynômes, arithmétique sur un anneau principal

Semaine 25 (du 30 mars au 3 avril) :


Résumé de cours

1 L’algèbre des polynômes


1.1 Le groupe des polynômes

Notation. A désigne un anneau quelconque.



Définition. On note A[X] = A(N) : c’est l’ensemble des suites presque nulles.
X
Si P = (ak ) ∈ A[X], on convient de noter P = ak X k .
k∈N

Remarque. Par définition, deux polynômes sont égaux si et seulement si ils ont les mêmes coefficients.
X X X
Propriété. Si P (X) = ak X k et Q(X) = bk X k , alors P + Q = (ak + bk )X k .
k∈N k∈N k∈N
(A[X], +) est un sous-groupe commutatif de AN dont le neutre est le polynôme identiquement nul.
Définition. Si P (X) = (ak )k∈N ∈ A[X] \ {0}, deg(P ) = max({k ∈ N/ak 6= 0}).
On convient que deg(0) = −∞.
X
Définition. Soit P (X) = ak X k ∈ A[X] un polynôme de degré n ∈ N.
k∈N
—ak est le coefficient de P de degré k.
—a0 est aussi appelé le coefficient constant du polynôme P .
—an est appelé le coefficient de plus haut degré de P , ou bien son coefficient dominant.
—On dit que P est unitaire (ou normalisé) si et seulement si an = 1.
—Le polynôme ak X k est appelé un monôme.
[
Notation. Pour tout n ∈ N, on note An [X] = {P ∈ A[X]/deg(P ) ≤ n}. Ainsi, A[X] = An [X].
n∈N

Propriété. deg(P + Q) ≤ sup(deg(P ), deg(Q)), avec égalité lorsque deg(P ) 6= deg(Q).

1.2 Produits de polynômes


X  X  X X
n 

Définition. an X n × bn X n = ak bn−k X n .
n∈N n∈N n∈N k=0

Propriété. Pour tout P, Q ∈ A[X], P Q est aussi un élément de A[X].


Il faut savoir le démontrer.
Propriété. (A[X], +, ×) est un anneau, avec 1A[X] = (δk,0 1A )k∈N .
X  X  X  X X 
Remarque. an X n × bn X n × cn X n = ai bj ck X n .
n∈N n∈N n∈N n∈N (i,j,k)∈N3
i+j+k=n

1
123
Semaine 25 : Résumé de cours 1 L’algèbre des polynômes

i : A −→ A[X]
Propriété. L’application est un morphisme injectif d’anneaux. On identifie
a 7−→ (aδ0,k )k∈N
A avec une partie de A[X] en convenant que, pour tout a ∈ a, a = i(a). Alors A0 [X] = A.

X Lorsque b ∈ A et P ∈ A[X],
Remarque. X on dispose donc du produit bP .
k
Si P = ak X , on vérifie que bP = bak X k .
k∈N k∈N

Propriété. A[X] est commutatif intègre si et seulement si A est commutatif intègre.


Il faut savoir le démontrer.
Pour toute la suite de ce chapitre, on supposera que A est commutatif intègre.
Propriété. Pour tout P, Q ∈ A[X], deg(P Q) = deg(P ) + deg(Q).
Propriété. U (A[X]) = U (A).
Il faut savoir le démontrer.
Définition. L’indéterminée X est le polynôme (1A δk,1 )k∈N . On a X n = (1A δk,n )k∈N .
Définition. (hors programme :) A est commutatif intègre, donc A[X] est commutatif intègre, puis
(A[X])[Y ] est aussi un anneau commutatif intègre. Ce dernier ensemble est l’anneau des polynômes à
(N2 )
deux indéterminées à coefficients
X dans A. On le note plutôt A[X, Y ]. Il est isomorphe à A , en conve-
h k
nant que (ah,k )(h,k)∈N =
2 ah,k X Y . Dans ces conditions, X = (δh,1 δk,0 )(h,k)∈N et Y = (δh,0 δk,1 ) .
2

0≤h≤m
0≤k≤n

On peut vérifier que, pour tout p, q ∈ N2 , X p Y q = (δh,p δk,q )(h,k)∈N2 .


En généralisant, on peut définir A[X1 , . . . , Xp ], l’anneau des polynômes à p indéterminées.

1.3 Applications polynomiales


X
Définition. Soit P = ak X k ∈ A[X] un polynôme. L’application polynomiale associée à P est
k∈N
P̃ : A −→ A
X
l’application x 7−→ ak xk .
k∈N

ϕ : A[X] −→ F(A, A)
Propriété. L’application est un morphisme d’anneaux.
P 7−→ P̃
Notation. Im(ϕ) est un sous-anneau de F(A, A). C’est l’anneau des applications polynomiales.
Théorème. Lorsque A est un corps, ϕ est injectif si et seulement si A est de cardinal infini.
X
Algorithme d’Hörner : Soit P = ak X k ∈ A[X] et x ∈ A. On peut disposer le calcul de P̃ (x) de
k∈N
la manière suivante : P̃ (x) = (· · · ((an x + an−1 )x + an−2 x) + · · · + a1 )x + a0 . Cet algorithme permet
de calculer P̃ (x) avec n multiplications et n additions.

1.4 Composition de polynômes


n
X n
X
Définition. Si P = ak X k ∈ A[X] et Q ∈ A[X], P ◦ Q = ak Qk = P (Q).
k=0 k=0

Propriété. Pour tout P, Q, R ∈ A[X],


— (P + Q) ◦ R = P ◦ R + Q ◦ R,
— (P Q) ◦ R = (P ◦ R) × (Q ◦ R),
— (P ◦ Q) ◦ R = P ◦ (Q ◦ R).

c Éric Merle 2 MPSI2, LLG


124
Semaine 25 : Résumé de cours 1 L’algèbre des polynômes

Propriété. Soit P, Q ∈ A[X] Si deg(Q) ≥ 1, alors deg(P ◦ Q) = deg(P ) × deg(Q).


Il faut savoir le démontrer.
^
Propriété. Pour tout P, Q ∈ A[X], P ◦ Q = P̃ ◦ Q̃.

1.5 Dérivation formelle


X ∆
X X
Définition. Si P = ak X k ∈ A[X], on pose P 0 = kak X k−1 = (k + 1)ak+1 X k .
k∈N k∈N∗ k∈N
X
Remarque. On peut écrire P 0 = kak X k+1 , si l’on convient que 0X −1 = 0.
k∈N
X
Définition. Si P = ak X k , P (0) = P et
k∈N
X k! X (k + n)!
pour tout n ∈ N, P (n)
= ak X k−n = ak+n X k .
(k − n)! k!
k≥n k∈N

Propriété. Pour tout P ∈ R[X] et n ∈ N, Pg


(n) = P̃ (n) .

Propriété. Pour tout P ∈ A[X], deg(P 0 ) ≤ deg(P ) − 1.


Propriété. Pour tout P ∈ A[X] \ {0}, P (deg(P )+1) = 0.
Propriété. Soit P, Q ∈ A[X], a ∈ A et n ∈ N.
— (P + Q)0 = P 0 + Q0 , et plus généralement, (P + Q)(n) = P (n) + Q(n) .
— (aP )0 = aP 0 , et plus généralement, (aP )(n) = aP (n) .
— (P Q)0 = P 0 Q + P Q0
n
X Y
Propriété. Pour tout n ∈ N et P1 , . . . , Pn ∈ A[X], (P1 × · · · × Pn )0 = Pi0 Pj .
i=1 j6=i
n  
X n
Formule de Leibniz : (P Q) (n)
= P (k) Q(n−k) .
k
k=0

Propriété. Pour tout P, Q ∈ A[X], (P ◦ Q)0 = Q0 × (P 0 ◦ Q).

1.6 La structure d’algèbre de K[X].


Pour la suite de ce chapitre, K désigne un corps.
Propriété. K[X] est une K-algèbre.
Propriété. Pour tout n ∈ N,
Kn [X] est un sous-espace vectoriel de K[X] de dimension finie égale à n + 1.

1.7 Division euclidienne entre polynômes

Théorème. Soit A, B ∈ K[X] avec B 6= 0. Alors il existe un unique couple (P, Q) ∈ K[X]2 tel que
A = BQ + R avec deg(R) < deg(B) : Q est le quotient de la division euclidienne du dividende A par
le diviseur B et que R en est le reste.
Il faut savoir le démontrer.
Définition. Soit A ∈ K[X] et a ∈ K. a est une racine de A si et seulement si Ã(a) = 0.
Propriété. Soit A ∈ K[X] et a ∈ K. Le reste de la division euclidienne de A par X − a est égal au
polynôme constant Ã(a).

c Éric Merle 3 MPSI2, LLG


125
Semaine 25 : Résumé de cours 2 Arithmétique

Il faut savoir le démontrer.


Corollaire. a est racine de A si et seulement si il existe Q ∈ K[X] tel que A = (X − a)Q.
Propriété. Supposons que L est un sous-corps de K. Alors, pour tout (A, B) ∈ L[X] × (L[X] \ {0}),
les quotient et reste de la division euclidienne sont les mêmes que l’on regarde A et B comme des
polynômes de L[X] ou de K[X].

2 Arithmétique
2.1 Divisibilité

Définition. Soient A un anneau commutatif et (a, b) ∈ A2 . a|b si et seulement si ∃m ∈ A b = ma.


On dit alors que a est un diviseur de b et que b est un multiple de a.
Remarque. 0|a ⇐⇒ a = 0 et, pour tout a ∈ A, a|0.
Propriété. Soit P, Q ∈ K[X] tels que P | Q et Q 6= 0. Alors deg(Q) ≥ deg(P ).
Propriété. Soit P, Q ∈ K[X] avec Q 6= 0. P | Q si et seulement si le reste de la divison euclidienne
de P par Q est nul.
Propriété. Soit L un sous-corps d’un corps K. Soit P, Q ∈ L[X].
Alors P | Q dans L[X] si et seulement si P | Q dans K[X].
Il faut savoir le démontrer.
Propriété. Soient A un anneau commutatif et a, b, c, d ∈ A.
— Si b | a et b | c, alors b | (a + c).
— Si b | a et d | c, alors bd | ac.
— si b | a, pour tout p ∈ N, bp | ap .
Propriété. Soient A un anneau commutatif et b, a1 , . . . , ap , c1 , . . . , cp ∈ A.
p
X
Si pour tout i ∈ {1, . . . , p}, b | ai , alors b | ci ai .
i=1

Propriété. Soient A un anneau commutatif et (a, b) ∈ A2 . a|b ⇐⇒ bA ⊆ aA.


Propriété. Soit A un anneau commutatif. La relation de divisibilité est réflexive et transitive.
Définition. Soient A un anneau commutatif et (a, b) ∈ A2 .
a et b sont associés si et seulement si a|b et b|a.
La relation “être associé à” est une relation d’équivalence, on la notera “∼”.
Propriété. Dans un anneau commutatif, si a ∼ b et c ∼ d, alors ac ∼ bd.
Hypothèse : Jusqu’à la fin de ce paragraphe, on suppose que A est intègre et commutatif.
Propriété. Soit a, b ∈ A. a et b sont associés si et seulement s’il existe λ ∈ U (A) tel que a = λb.
Il faut savoir le démontrer.
Exemple. Dans Z, n et m sont associés si et seulement si |n| = |m|.
Dans K[X], P et Q sont associés si et seulement s’il existe λ ∈ K∗ tel que Q = λP .
Propriété. La relation de divisibilité est une relation d’ordre sur N.
La relation de divisibilité est une relation d’ordre sur l’ensemble des polynômes unitaires de K[X].
Définition. Soit p ∈ A. p est irréductible dans A si et seulement si p ∈
/ U (A) et si, pour tout a, b ∈ A,
p = ab =⇒ (a ∈ U (A)) ∨ (b ∈ U (A)).
Ainsi p est irréductible dans A si et seulement si p n’est pas inversible et a pour seuls diviseurs les
éléments associés à 1 ou à p.

c Éric Merle 4 MPSI2, LLG


126
Semaine 26 – Arithmétique, PGCD, PPCM, racines d’un polynôme

Semaine 26 (du 20 avril au 24) :


Résumé de cours

1 Arithmétique
1.1 Divisibilité (suite)

Remarque. Si p est irréductible, il est non nul.


Propriété. Les éléments irréductibles de Z sont les nombres premiers et leurs opposés.
Exemple. Dans K[X] (où K est un corps), un polynôme P est irréductible si et seulement si il est de
degré supérieur ou égal à 1 et si, pour tout A, B ∈ K[X], P = AB =⇒ (deg(A) = 0) ∨ (deg(B) = 0).
Remarque. Dans K[X] :
— tout polynôme de degré 1 est irréductible ;
— tout polynôme de degré ≥ 2 possédant une racine dans K est réductible ;
— tout polynôme de degré 2 ou 3 sans racine dans K est irréductible.
Il faut savoir le démontrer.
Définition. Soit a, b ∈ A. On dit que a et b sont premiers entre eux (ou étrangers) si et seulement
si les seuls diviseurs communs de a et b sont les éléments inversibles.
Définition. Soit n ∈ N avec n ≥ 2 et a1 , . . . , an ∈ A.
— a1 , . . . , an sont deux à deux premiers entre eux si et seulement si, pour tout i, j ∈ {1, . . . , n}
avec i 6= j, ai et aj sont premiers entre eux.
— a1 , . . . , an sont globalement premiers entre eux si et seulement si les seuls diviseurs communs
de a1 , . . . , an sont les éléments inversibles de A.
Propriété. Soit p ∈ A un élément irréductible et a ∈ A : p|a, ou bien p et a sont premiers entre eux.
Il faut savoir le démontrer.

1.2 PGCD

Théorème. Si K est un corps, alors K[X] est un anneau principal.


Il faut savoir le démontrer.
Remarque. Soit A un anneau commutatif intègre. On dit qu’il est euclidien (hors programme) si et
seulement si il existe v : A \ {0} −→ N tel que, pour tout (a, b) ∈ A × (A \ {0}), il existe q, r ∈ A
vérifiant a = bq + r et (r = 0) ∨ (v(r) < v(b)).
On peut montrer que si A est euclidien, alors A est principal. La réciproque est fausse (admis).
Notation. Jusqu’à la fin de ce chapitre “arithmétique”, on fixe un anneau A que l’on suppose
principal.
Remarque. On peut montrer que Z[i] = {n + mi/(n, m) ∈ Z2 } est un anneau principal. C’est
l’anneau des entiers de Gauss.
Définition. Soit (a, b) ∈ A2 . d est un PGCD de a et b si et seulement si aA + bA = dA.

1
127
Semaine 26 : Résumé de cours 1 Arithmétique

Caractérisation du PGCD par divisibilité : d est un PGCD de (a, b) ∈ A2 si et seulement si d


est un diviseur commun de a et b et si, pour tout diviseur commun d0 de a et b, d0 divise d.
Il faut savoir le démontrer.
Propriété. a et b sont premiers entre eux si et seulement si 1 est un PGCD de a et b.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ A, on dit que d est un PGCD de a1 , . . . , ak
si et seulement si dA = a1 A + · · · + ak A, i.e si et seulement si d est un commun diviseur de a1 , . . . , ak
tel que si d0 est un autre commun diviseur de a1 , . . . , ak , alors d0 divise d.
Soit B une partie quelconque de A. d est un PGCD de B si et seulement si dA = Id(B), i.e si et
seulement si d est un diviseur commun des éléments de B tel que si d0 est un autre diviseur commun
des éléments de B, alors d0 divise d.
Propriété. Lorsque A = Z (resp : A = K[X]), en imposant au PGCD d’être positif (resp : unitaire)
il est unique. On le note alors a ∧ b.
Propriété. Soit k ∈ N, a1 , . . . , ak ∈ A et h ∈ {1, . . . , k}.
Alors, en convenant de noter a ∼ b lorsque a et b sont associés,
— Commutativité du PGCD :
pour tout σ ∈ Sk , P GCD(a1 , . . . , ak ) ∼ P GCD(aσ(1) , . . . , aσ(k) ).
— Associativité du PGCD :
P GCD(a1 , . . . , ak ) ∼ P GCD(P GCD(a1 , . . . , ah ), P GCD(ah+1 , . . . , ak )).
— Distributivité de la multiplication par rapport au PGCD : pour tout α ∈ A,
P GCD(αa1 , . . . , αak ) ∼ αP GCD(a1 , . . . , ak ).
Il faut savoir le démontrer.

1.3 PPCM

Définition. Soit (a, b) ∈ A2 . m est un PPCM de a et b si et seulement si aA ∩ bA = mA.


Caractérisation du PPCM par divisibilité : m est un PPCM de (a, b) ∈ A2 si et seulement si m
est un multiple commun de a et b et si, pour tout multiple commun m0 de a et b, m0 est un multiple
de m.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ A, m est un PPCM de a1 , . . . , ak si et
seulement si mA = a1 A ∩ · · · ∩ ak A, i.e si et seulement si m est un commun multiple de a1 , . . . , ak tel
que si m0 est un autre commun multiple de a1 , . . . , ak , alors m0 est un multiple de m. \
Soit B est une partie quelconque de A. m est un PPCM de B si et seulement si mA = bA, i.e
b∈B
si et seulement si m est un multiple commun des éléments de B tel que si m0 est un autre multiple
commun des éléments de B, alors m0 est un multiple commun de m.
\
Remarque. Dans ce contexte, on convient que si B = ∅, bA = A, donc 1A est un PPCM de ∅.
b∈B

Propriété. Soit k ∈ N, a1 , . . . , ak ∈ A et h ∈ {1, . . . , k}.


Alors, en convenant de noter a ∼ b lorsque a et b sont associés,
— Commutativité du PPCM :
pour tout σ ∈ Sk , P P CM (a1 , . . . , ak ) ∼ P P CM (aσ(1) , . . . , aσ(k) ).
— Associativité du PPCM :
P P CM (a1 , . . . , ak ) ∼ P P CM (P P CM (a1 , . . . , ah ), P P CM (ah+1 , . . . , ak )).
— Distributivité de la multiplication par rapport au PPCM :
pour tout α ∈ A, P P CM (αa1 , . . . , αak ) ∼ αP P CM (a1 , . . . , ak ).

c Éric Merle 2 MPSI2, LLG


128
Semaine 26 : Résumé de cours 1 Arithmétique

1.4 Les théorèmes de l’arithmétique


Théorème de Bézout. Soit (a, b) ∈ A2 .
a et b sont premiers entre eux si et seulement si : ∃(u, v) ∈ A2 ua + vb = 1.
Théorème de Bézout (généralisation). Soit n ∈ N avec n ≥ 2 et a1 , . . . , an ∈ A.
a1 , . . . , an sont globalement premiers entre eux si et seulement si :
∃u1 , . . . , un ∈ A , u1 a1 + · · · + un an = 1.
Propriété. Soit (a, b) ∈ A2 . Notons d un PGCD de a et b. Alors
il existe (a0 , b0 ) ∈ A2 , avec a0 et b0 premiers entre eux, tel que a = a0 d et b = b0 d.
Théorème de Gauss. Soit (a, b, c) ∈ A3 . Si a|bc avec a et b premiers entre eux, alors a|c.
Corollaire. Soit p, a, b ∈ A. Si p | ab avec p irréductible, alors p | a ou p | b.
Propriété. Soit (a, b, c) ∈ A3 , n ∈ N∗ et a1 , . . . , an ∈ A.
On désigne par a ∧ b un PGCD de a et b et par a ∨ b un PPCM de a et b.
 Si a ∧ b = a ∧ c = 1, alors a ∧ bc = 1.
 Si a ∧ b = 1, ∀(k, l) ∈ (N∗ )2 ak ∧ bl = 1.
 Si a|b, c|b et a ∧ c = 1 alors ac|b.
Si pour tout i ∈ {1, . . . , n}, ai |b et si i 6= j =⇒ ai ∧ aj = 1, alors a1 × · · · × an | b.
 ab ∼ (a ∧ b)(a ∨ b). En particulier, a ∧ b = 1 =⇒ a ∨ b ∼ ab.
Il faut savoir le démontrer.

1.5 K[X] est un anneau factoriel

Notation. On suppose ici que A ∈ {Z, K[X]} (K étant un corps quelconque).


Si A = Z, on pose P = P, et si A = K[X], P est l’ensemble des polynômes irréductibles et unitaires.
Théorème. Soit a ∈ A avec a 6= 0. Il existe un unique couple Y (u, (νp )p∈P ), où u ∈ U (A) et où
(νp )p∈P est une famille presque nulle d’entiers, tel que a = u pνp : c’est la décomposition de a
p∈P
en facteurs irréductibles. νp s’appelle la valuation p-adique de a.
Il faut savoir le démontrer.
Propriété.
Y ∈ (A \ {0})2 , dont les décompositions en facteurs irréductibles sont
Soit (a, b)Y
a=u pνp et b = v pµp . Alors a | b ⇐⇒ [∀p ∈ P, νp ≤ µp ].
p∈P p∈P
Y Y
min(νp ,µp )
De plus, a ∧ b = p et a ∨ b = pmax(νp ,µp ) . En particulier, a et b sont premiers entre
p∈P p∈P
eux si et seulement si aucun élément de P n’intervient à la fois dans la décomposition en facteurs
irréductibles de a et dans celle de b.
Lemme d’Euclide. Soient (a, b) ∈ A2 avec b 6= 0, et q, r tels que a = bq + r. Alors a ∧ b = b ∧ r.
Algorithme d’Euclide. Soit (a0 , a1 ) ∈ A2 .
• Pour i ≥ 1, tant que ai 6= 0, on note ai+1 le reste de la division euclidienne de ai−1 par ai . On définit
ainsi une suite finie (ai )0≤i≤N d’éléments de A telle que aN = 0 et, pour tout i ∈ {0, . . . , N − 1},
a0 ∧ a1 = ai ∧ ai+1 . En particulier, pour i = N − 1, on obtient a0 ∧ a1 = aN −1 .
• Supposons maintenant que a0 ∧ a1 = aN −1 = 1. D’après le théorème de Bézout, il existe (s, t) ∈ A2
tel que sa0 + ta1 = 1. La suite de l’algorithme d’Euclide permet le calcul d’un tel couple (s, t) : Notons
qi le quotient de la division euclidienne de ai−1 par ai . Ainsi, ai+1 = ai−1 − qi ai.
En particulier, avec i = N − 2, on obtient 1 = aN −3 − qN −2 aN −2 .
Supposons que, pour un entier i ∈ {1, . . . , N −3}, on dispose d’entiers si et ti tels que 1 = si ai +ti ai+1 .
Alors 1 = si ai + ti (ai−1 − ai qi ) = (si − ti qi )ai + ti ai−1 , ce qui donne des entiers si−1 et ti−1 tels que
1 = si−1 ai−1 + ti−1 ai .

c Éric Merle 3 MPSI2, LLG


129
Semaine 26 : Résumé de cours 2 Racines d’un polynôme

Par récurrence descendante, on peut donc calculer des entier s0 et t0 tels que 1 = s0 a0 + t0 a1 .
Corollaire. Supposons que L est un sous-corps de K et soit (A, B) ∈ L[X] × (L[X] \ {0}).
Les PGCD et PPCM de A et B sont les mêmes, que l’on regarde A et B comme des polynômes de
L[X] ou de K[X].
Exercice. Soit a, b, c ∈ A avec a et b non nuls.
Résoudre l’équation de Bézout (B) : au + bv = c en l’inconnue (u, v) ∈ A2 .
Il faut savoir le démontrer.

2 Racines d’un polynôme


2.1 Identification entre polynômes formels
et applications polynomiales

Notation. On fixe un corps K quelconque.


Propriété. Soit P ∈ K[X] et a1 , . . . , ak k éléments de K deux à deux distincts :
a1 , . . . , ak sont toutes racines de P si et seulement si P est un multiple de (X − a1 ) × · · · × (X − ak ).
Il faut savoir le démontrer.
Corollaire. Un polynôme non nul admet au plus deg(P ) racines.
Principe de rigidité des polynômes : si P ∈ K[X] possède une infinité de racines, alors P = 0.
Propriété. Soit n ∈ N et P, Q ∈ Kn [X].
Si {x ∈ K / P̃ (x) = Q̃(x)} contient au moins n + 1 scalaires, alors P = Q.
Théorème. On peut identifier l’ensemble K[X] des polynômes formels avec l’ensemble PK des ap-
plications polynomiales de K dans K si et seulement si K est de cardinal infini.
Y
Remarque. Si K est fini de cardinal q, alors (X − a) = X q − X.
a∈K
Il faut savoir le démontrer.

c Éric Merle 4 MPSI2, LLG


130
Semaine 27 – Racines d’un polynôme, fractions rationnelles

Semaine 27 (du 27 avril au 1er mai) :


Résumé de cours

1 Racines d’un polynôme


1.1 Polynôme d’interpolation de Lagrange

Notation. Dans tout ce paragraphe, on fixe un corps quelconque K, n ∈ N et une famille


a0 , . . . , an ∈ K de n + 1 scalaires deux à deux distincts.
Y X − aj
Pour tout i ∈ {0, . . . , n}, posons Li = .
0≤j≤n
ai − aj
j6=i

Les Li sont appelés les polynômes de Lagrange associés à (a0 , . . . , an ).


fi (ak ) = δi,k .
Propriété. Pour tout i, k ∈ {0, . . . , n}, L
n
X
Propriété. Pour tout P ∈ Kn [X], P = P̃ (ai )Li .
i=0
Il faut savoir le démontrer.
Théorème. Soit (b0 , b1 , . . . , bn ) ∈ Kn+1 une famille quelconque de scalaires. Il existe un unique
f0 (ai ) = bi . P0 est appelé
polynôme P0 de degré inférieur ou égal à n tel que, pour tout i ∈ {0, . . . , n}, P
le polynôme d’interpolation de Lagrange (associé  aux deux familles
 (a0 , a1 , . . . , an ) et (b0 , b1 , . . . , bn )).
Xn Y X − aj 

On dispose de la formule suivante : P0 = bi . Enfin, l’ensemble des polynômes P
i=0 0≤j≤n
ai − aj
j6=i
n
Y 
vérifiant, pour tout i ∈ {0, . . . , n}, P̃ (ai ) = bi , est égal à P0 + (X − ai ) K[X].
i=0

1.2 Polynôme dérivé

Notation. Dans ce paragraphe, on suppose que K est un corps de caractéristique nulle.


Propriété. Pour tout P ∈ K[X] tel que deg(P ) ≥ 1, deg(P 0 ) = deg(P ) − 1.
Corollaire. Soit P ∈ K[X]. P est un polynôme constant si et seulement si P 0 = 0.
Corollaire. Si P ∈ K[X], deg(P ) ≥ n =⇒ deg(P (n) ) = deg(P ) − n et P (n) = 0 ⇐⇒ deg(P ) < n.
X (X − a)n
Formule de Taylor : Soit P ∈ K[X] et a ∈ K. Alors P = P (n) (a).
n!.1K
n∈N
Il faut savoir le démontrer.
Corollaire. Soit P ∈ K[X], a ∈ K et k ∈ N. Alors
k−1
X (X − a)h (h)
le reste de la division euclidienne de P par (X − a)k est égal à P (a).
h!.1K
h=0

1
131
Semaine 27 : Résumé de cours 1 Racines d’un polynôme

1.3 Racines multiples

Notation. K désigne un corps quelconque.


Définition. Soit P ∈ K[X], a ∈ K et m ∈ N. a est une racine de P de multiplicité m si et seulement
si il existe Q ∈ K[X] tel que P (X) = (X − a)m Q(X) avec Q̃(a) 6= 0.
Remarque. a n’est pas racine de P si et seulement si a est racine de P de multiplicité nulle.
Définition. Soit P ∈ K[X], a ∈ K et m ∈ N.
a est racine de P de multiplicité au moins m si et seulement si (X − a)m | P .
Ainsi, a est racine de P de multiplicité m si et seulement si elle est racine de P de multiplicité au
moins m, mais n’est pas racine de P de multiplicité au moins m + 1.
Définition. On dit que a ∈ K est une racine simple (resp : double, triple) de
P ∈ K[X] si et seulement si a est une racine de P de multiplicité 1 (resp : 2, 3).
Définition. Soit P ∈ K[X] \ {0}. Posons {a1 , . . . , ak } = {x ∈ K/P̃ (x) = 0}. Pour tout h ∈ Nk ,
notons mh la multiplicité de ah pour le polynôme P . On dit alors que le nombre de racines de P ,
k
X
comptées avec multiplicité, est égal à mh .
h=1
Et k est le nombre de racines de P comptées sans multiplicité.
Propriété. Soit P ∈ K[X], a1 , . . . , ak ∈ K et m1 , . . . , mh ∈ N. Pour tout h ∈ {1, . . . , k}, ah est racine
Yk
de P de multiplicité au moins mh si et seulement si P est un multiple de (X − ah )mh .
h=1

Propriété. Soit P ∈ K[X] un polynôme non nul. Le nombre de racines de P , comptées avec multi-
plicité est inférieur ou égal au degré de P .
Hypothèse : Pour la suite de ce paragraphe, on suppose que car(K) = 0.
Théorème. Soit P ∈ K[X], a ∈ K et m ∈ N. a est racine de P de multiplicité au moins m si et
seulement si ∀i ∈ {0, . . . , m − 1}, P (i) (a) = 0.
Il faut savoir le démontrer.
Corollaire. Soit P ∈ K[X], a ∈ K et m ∈ N. a est racine de P de multiplicité m si et seulement si
∀i ∈ {0, . . . , m − 1}, P (i) (a) = 0 et P (m) (a) 6= 0.
Corollaire. Si a ∈ K est racine de P ∈ K[X] de multiplicité m ∈ N∗ , alors a est racine de P 0 de
multiplicité m − 1.

1.4 Polynômes scindés

Notation. K désigne un corps quelconque.


Définition. P ∈ K[X] \ {0} est scindé dans K[X] si et seulement si sa décomposition en polynômes
irréductibles dans K[X] ne fait intervenir que des polynômes de degré 1.
Propriété. Soit P ∈ K[X] \ {0}. P est scindé dans K[X] si et seulement si le nombre de racines de
P dans K, comptées avec multiplicité, est égal au degré de P .
Il faut savoir le démontrer.
Définition. Soit P ∈ K[X] \ {0}. On dit que P est simplement scindé dans K[X] si et seulement si
P est scindé dans K et si toutes ses racines sont simples.
Relations de Viète entre coefficients et racines : Soit P ∈ K[X] un polynôme scindé dans K[X]
de degré n, avec n ≥ 1. Alors P peut s’écrire sous les deux formes suivantes :

c Éric Merle 2 MPSI2, LLG


132
Semaine 27 : Résumé de cours 1 Racines d’un polynôme

— P (X) = an X n + an−1 X n−1 + · · · + a1 X + a0 , avec a0 , . . . , an ∈ K et an 6= 0 ;


— P (X) = an (X − β1 ) × · · · × (X − βn ), où β1 , . . . , βn est la liste des racines de P , comptées avec
multiplicité. Alors, pour tout p ∈ {1, . . . , n},
an−p X
σp = (−1)p , où σp = βi1 × · · · × βip .
an
1≤i1 <···<ip ≤n

Les σp s’appellent les fonctions symétriques élémentaires des racines. En particulier,


X n
an−1
— Pour p = 1, βi = − . Il s’agit de la somme des racines de P , comptées avec multiplicités.
i=1
an
Y n
a0
— Pour p = n, βi = (−1)n . Il s’agit du produit des racines de P , comptées avec multiplicités.
i=1
a n

La suite de ce paragraphe est hors programme.


Définition. Soit n ∈ N∗ et A ∈ K[X1 , . . . , Xn ] un polynôme à n indéterminées. On dit que A est
symétrique si et seulement si, pour tout σ ∈ Sn , A(Xσ(1) , . . . , Xσ(n) ) = A(X1 , . . . , Xn ).
Exemples. Les polynômes de Newton : X1p + · · · + Xnp , où n, p ∈ N∗ sont symétriques.
Xélémentaires : pour tout p ∈ {1, . . . , n},
Les polynômes symétriques
Σp (X1 , . . . , Xn ) = Xi1 × · · · × Xip est bien un polynôme symétrique.
1≤i1 <i2 <···<ip ≤n

Propriété. (Admise) Soit n ∈ N∗ . On suppose que A est un polynôme symétrique de L[X1 , . . . , Xn ]


(où L est un corps). Alors il existe B ∈ L[X1 , . . . , Xn ] tel que A = B(Σ1 , . . . , Σn ).
Corollaire. Avec ces notations, si K est un sur-corps de L et si P ∈ L[X] est scindé dans K[X], alors
en notant β1 , . . . , βn les racines de P comptées avec multiplicité, A(β1 , . . . , βn ) ∈ L.
Exemple. Soit P ∈ Q[X] un polynôme dont les racines complexes comptées avec multiplicité sont
notées β1 , . . . , βn . Alors pour tout p ∈ N∗ , β1p + · · · + βnp ∈ Q.

1.5 Polynômes de R[X] et de C[X]


X X
Définition. Si P = ak X k ∈ C[X], on note P = ak X k .
k∈N k∈N

C[X] −→ C[X]
Propriété. L’application est un isomorphisme d’anneaux.
P 7−→ P
Propriété. Soit P ∈ C[X], α ∈ C et m ∈ N. α est racine de P de multiplicité m si et seulement si α
est racine de P de multiplicité m.
Il faut savoir le démontrer.
Corollaire. Si P ∈ R[X] et si α est racine de P (resp : racine de multiplicité m), alors α est aussi
une racine de P (resp : racine de multiplicité m).
Théorème de d’Alembert : Tout polynôme à coefficients complexes de degré supérieur ou égal à 1
possède au moins une racine complexe.
Corollaire. Les polynômes irréductibles de C[X] sont exactement les polynômes de degré 1.
Corollaire. Dans C[X], deux polynômes sont premiers entre eux si et seulement si ils n’ont aucune
racine complexe commune.
Corollaire. Dans C[X], tout polynôme non nul est scindé.
Dans C[X], le nombre de racines, comptées avec multiplicité, de tout polynôme non nul est égal à son
degré.

c Éric Merle 3 MPSI2, LLG


133
Semaine 27 : Résumé de cours 2 Le corps des fractions rationnelles

Propriété. Soit P, Q ∈ C[X] \ {0}. Alors P | Q si et seulement si toute racine de P est racine de Q
avec une multiplicité pour Q supérieure ou égale à celle pour P .
Propriété. Les polynômes irréductibles de R[X] sont exactement les polynômes de degré 1 et les
polynômes de degré 2 à discriminant strictement négatif.
Il faut savoir le démontrer.
Propriété. Soit P ∈ R[X] \ {0}. P est scindé dans R[X] si et seulement si toutes ses racines sont
réelles.

2 Le corps des fractions rationnelles


2.1 Corps des fractions d’un anneau intègre commutatif

Théorème. Soit A un anneau intègre et commutatif. Il existe un corps K, unique à un isomorphisme


a
près, tel que A est un sous-anneau de K, et tel que tout élément de K peut s’écrire sous la forme
b
a
où (a, b) ∈ A2 avec b 6= 0. a est appelé le numérateur et b le dénominateur de l’écriture .
b
K est appelé le corps des fractions de A. C’est le plus petit corps contenant A.

2.2 Forme irréductible

Notation. K désigne un corps quelconque.


Définition. On note K(X) le corps des fractions de l’anneau intègre K[X]. Les éléments de K(X)
sont appelés des fractions rationnelles en l’indéterminée X.
Définition. Soit F ∈ K(X).
P P
est un représentant irréductible de F si et seulement si F = et si P ∧ Q = 1.
Q Q
P P
est un représentant unitaire de F si et seulement si F = et si S est unitaire.
Q Q
Propriété. Soit F ∈ K(X) \ {0}.
P
F possède un unique représentant irréductible et unitaire. Si on le note , alors
Q
λP
les représentants irréductibles de F sont les où λ ∈ K∗ ,
λQ
LP
et les représentants quelconques de F sont les où L ∈ K[X] \ {0}.
LQ
Il faut savoir le démontrer.

2.3 Degré
P 

Définition. deg = deg(P ) − deg(Q) ∈ Z ∪ {−∞}.
Q
Propriété. Soit F, G ∈ K(X).
— deg(F + G) ≤ max(deg(F ), deg(G)), avec égalité lorsque deg(F ) 6= deg(G).
— deg(F G) = deg(F ) + deg(G)).
— deg(F G−1 ) = deg(F ) − deg(G)).

c Éric Merle 4 MPSI2, LLG


134
Semaine 27 : Résumé de cours 2 Le corps des fractions rationnelles

2.4 Racines et pôles


A
Définition. Soit F ∈ K(X) une fraction rationnelle admettant pour représentant irréductible .
B
— Les racines de F sont les racines de A. Pour tout a ∈ K et m ∈ N, a est une racine de F de
multiplicité m si et seulement si a est racine de A de multiplicité m.
— Les pôles de F sont les racines de B. Pour tout a ∈ K et m ∈ N, a est un pôle de F de
multiplicité m si et seulement si a est racine de B de multiplicité m.
P P
Définition. Si F = ∈ C[X], on note F = .
Q Q
C(X) −→ C(X)
Propriété. L’application est un isomorphisme de corps.
P 7−→ P
Propriété. Soit F ∈ C(X), α ∈ C et m ∈ N. α est racine (resp : pôle) de F de multiplicité m si et
seulement si α est racine (resp : pôle) de F de multiplicité m.
Corollaire. Si F ∈ R(X) et si α est racine de F (resp : racine de multiplicité m), alors α est aussi
une racine de F (resp : racine de multiplicité m).

2.4.1 Fonctions rationnelles

A
Définition. Soit F ∈ K(X) une fraction rationnelle admettant pour représentant irréductible .
B
Notons P l’ensemble de ses pôles.
F̃ : K \ P −→ K
La fonction rationnelle associée à F est l’application Ã(x) .
x 7−→
B̃(x)
Propriété. Si deux fractions rationnelles coı̈ncident pour une infinité de valeurs de K, elles sont
égales.
Il faut savoir le démontrer.

2.5 Composition
X ∆
X
Définition. Si P = an X n ∈ K[X] et F ∈ K(X), P ◦ F = P (F ) = an F n .
n∈N n∈N

Propriété. Pour tout F ∈ K(X),


l’application P 7−→ P (F ) est un morphisme d’anneaux de K[X] dans K(X).
Lemme : Soit P ∈ K[X] et F ∈ K(X). Si P 6= 0 et si F ∈
/ K, alors P ◦ F 6= 0.
Définition. Soit F ∈ K(X) et G ∈ K(X) \ K.
P P (G)
Si F = , alors on pose F ◦ G = F (G) = .
Q Q(G)
Propriété. Pour tout G ∈ K(X) \ K, F 7−→ F (G) est un endomorphisme du corps K(X).

c Éric Merle 5 MPSI2, LLG


135
Semaine 28 – DES, calculs d’intégrales, matrices

Semaine 28 (du 4 au 8 mai) :


Résumé de cours

1 Les fractions rationnelles (fin)


1.1 Dérivation
0 0
P ∆ P Q−Q P
Définition. Soit F = ∈ K(X). On pose F 0 = ∈ K(X).
Q Q2
Définition. Par récurrence, on peut définir la dérivée n-ième formelle d’une fraction rationnelle.

Propriété. Pour tout F ∈ R(X) et n ∈ N, Fg


(n) = F̃ (n) .

Propriété. Pour tout F ∈ K[X], deg(F 0 ) ≤ deg(F ) − 1,


avec égalité lorsque car(K) = 0 et deg(F ) ∈
/ {0, −∞}.
Propriété. Soit F, G ∈ K(X), a ∈ K et n ∈ N.
— (F + G)0 = F 0 + G0 , et plus généralement, (F + G)(n) = F (n) + G(n) .
— (aF )0 = aF 0 , et plus généralement, (aF )(n) = aF (n) .
— (F G)0 = F 0 G + F G0 .
 F 0 F 0 G − G0 F
— Si G 6= 0, = .
G G2
n
X Y
Propriété. Pour tout n ∈ N et F1 , . . . , Fn ∈ K(X), (F1 × · · · × Fn ) =
0
Fi0 Fj .
i=1 j6=i
n  
X n
Formule de Leibniz : (F G)(n) = F (k) G(n−k) .
k
k=0

Propriété. Pour tout F, G ∈ K(X), avec G ∈


/ K, (F ◦ G)0 = G0 × (F 0 ◦ G).

1.2 Décomposition en éléments simples.


1.2.1 Partie entière

P
Définition. Un élément simple de K(X) est une fraction rationnelle de la forme , où m ∈ N∗ et
Qm
P, Q ∈ K[X], avec Q irréductible et deg(P ) < deg(Q).

A
Propriété de la partie entière : Soit F = ∈ K(X). Il existe un unique couple (E, B) ∈ K[X]2
S
B A B
tel que F = E + avec deg(B) < deg(S). De plus, si est irréductible alors l’est également.
S S S
E est la partie entière de F .
Il faut savoir le démontrer.

1
136
Semaine 28 : Résumé de cours 1 Les fractions rationnelles (fin)

1.2.2 Divisions successives


B
Méthode des divisions successives pour décomposer en éléments simples une fraction de la forme
Sm
où S est un polynôme irréductible de K[X] :
A connaı̂tre.

1.2.3 Le théorème

Théorème de décomposition en éléments simples :


A
Soit F ∈ K(X). On peut toujours écrire F sous la forme F = , où S1 , S2 , . . . , Sn
· · · Sn mn
S1 m1 S2 m2
sont des polynômes irréductibles dans K[X], m1 , . . . , mn ∈ N et A ∈ K[X]. Alors

il existe un unique E ∈ K[X] et une unique famille (Ti,j ) 1≤i≤n de polynômes de K[X] tels que
1≤j≤mi
n X
Ti,j 
X mi
F =E+ avec pour tout i ∈ [[1; n]] et j ∈ [[1; mi ]], deg(Ti,j ) < deg(Si ).
i=1 j=1 i
Sj
Cette égalité s’appelle la décomposition en éléments simples de F sur K.
Le polynôme E est la partie entière de F .
mi
X Ti,j
Pour i ∈ [[1; n]], la somme s’appelle la partie polaire de F relative au polynôme Si .
Sj
j=1 i

1.2.4 Dérivée logarithmique

Propriété. Soit P un polynôme scindé dans K[X]. Alors, en notant α1 , . . . , αn les racines de P et
Xn
P0 mi
m1 , . . . , mn leurs multiplicités respectives, = .
P i=1
X − αi

1.2.5 Dans C(X) et R(X)

Théorème de décomposition en éléments simples dans C(X) :


A
Soit F ∈ C(X). On peut toujours écrire F sous la forme F = , où
(X − α1 )m1 · · · (X − αn )mn
α1 , . . . , αn sont des poles de F , m1 , . . . , mn ∈ N sont leurs multiplicités

et A ∈ K[X]. Alors il existe un unique E ∈ K[X] et une unique famille (λi,j ) 1≤i≤n de complexes tels
1≤j≤mi
Xn X mi 
λi,j
que F = E + .
i=1 j=1
(X − αi )j
mi
X λi,j
Pour i ∈ [[1; n]], la somme est la partie polaire de F relative au pôle αi .
j=1
(X − ai )j

Théorème de décomposition en éléments simples dans R(X) :


Soit F ∈ R(X). On peut toujours écrire F sous la forme

A
F = n  Yp ,
Y
mi 2 ki
(X − ai ) × (X + bi X + ci )
i=1 i=1

où a1 , . . . , an sont des poles réels de F , m1 , . . . , mn ∈ N∗ sont leurs multiplicités, où pour tout
i ∈ {1, . . . , p}, bi , ci ∈ R avec b2i − 4ci < 0 et où A ∈ K[X].

c Éric Merle 2 MPSI2, LLG


137
Semaine 28 : Résumé de cours 1 Les fractions rationnelles (fin)

Alors il existe un unique E ∈ K[X] et trois uniques familles (λi,j ) 1≤i≤n , (fi,j ) 1≤i≤p et (gi,j ) 1≤i≤p
1≤j≤mi 1≤j≤ki 1≤j≤ki
n X  X p X
fi,j X + gi,j 
X mi ki
λi,j
de réels tels que F = E + + .
i=1 j=1
(X − αi )j i=1 j=1
(X 2 + bi X + ci )j

Méthode : En pratique, pour décomposer une fraction rationnelle F en éléments simples dans R(X)
ou dans C(X),
A
1. on commence par l’écrire sous forme irréductible unitaire, F = .
B
C
2. En effectuant la division euclidienne de A par B, on écrit F = E + , où E est la partie entière
B
de F . Lorsque deg(F ) < 0, il est évident que E = 0, donc on peut supprimer cette étape.
3. On scinde B en produit de polynômes irréductibles unitaires.
C
4. On écrit la DES de à l’aide de coefficients indéterminés.
B
5. On calcule ces coefficients indéterminés.

1.2.6 Quelques techniques de DES

Remarque. La technique des divisions euclidiennes successives est adaptée à la DES de fractions de
P
la forme m , où Q est irréductible.
Q
Propriété. Soit F ∈ K(X) et soit α ∈ K un pôle de F de multiplicité m ∈ N∗ . Alors le coefficient λ
1
de l’élément simple dans la DES de F vérifie λ = [(X^
− α)m F ](α).
(X − α)m
Il faut savoir le démontrer.
Propriété. Soit F ∈ K(X) une fraction rationnelle admettant un pôle simple α.
A 1
Si est un représentant irréductible de F , alors le coefficient λ de l’élément simple dans la
S X −α
Ã(α)
DES de F vérifie λ = .
S̃ 0 (α)
Il faut savoir le démontrer.
Généralisation : (hors programme) On suppose que car(K) = 0.
A
Soit F ∈ K(X) dont a ∈ K est l’un des pôles,de multiplicité m. Si est un représentant irréductible
S
1 m!Ã(α)
de F , alors le coefficient λ de l’élément simple dans la DES de F vérifie λ = .
(X − α)m ]
S (m) (α)

Utilisation d’un développement limité : Soit F ∈ C(X) et a un pôle de F de multiplicité m.


Xm
λi
On peut écrire la DES de F sous la forme F (X) = i
+ G(X). La fonction rationnelle
i=1
(X − a)
m
X
m
associée à G est continue en a, donc au voisinage de a, (t − a) F (t) = λi (t − a)m−i + O((t − a)m ).
i=1
On peut donc calculer les λi en effectuant un développement limité de (t − a)m F (t) au voisinage de
a puis en invoquant l’unicité du développement limité.

1.3 Application au calcul intégral


1.3.1 Primitives d’une fraction rationnelle
Z
Si F ∈ R(X), pour calculer F (t)dt, on décompose F en éléments simples dans R(X).

c Éric Merle 3 MPSI2, LLG


138
Semaine 28 : Résumé de cours 2 Les matrices

On est ainsi ramené au problème du calcul des primitives des éléments simples de R(X)
Z :
aX + b
Lorsque F (X) = 2 + cX + d)α
, avec ∆ = c2 − 4d < 0, on décompose le calcul de F (t)dt en celui
Z 0 (X Z
u (t) 2 dt
de α
dt, où u(t) = t + ct + d, et celui de .
u(t) u(t)α
c 2 c2
Pour ce dernier, on écrit X 2 +Z cX + d = (X + 2 ) + d − 4 = (X − p) + q
2 2

dt
et on se ramène au calcul de , que l’on réalise en posant t = tan u.
(1 + t2 )α

1.3.2 Fonctions rationnelles de sin et cos : hors programme


R
Pour calculer R(sin t, cos t) dt, où R ∈ R(X, Y ) :
R
Cas particulier. sinp t cosq t dt, avec p et q pairs. C’est le seul cas où on linéarise.
t
Cas général. On pose u = tan pour se ramener à une primitive de fraction rationnelle.
2
Les règles de Bioche. Notons f : t 7−→ R(sin t, cos t).
Si f (−t)d(−t) = f (t)dt, on posera x = cos t (On a cos(−t) = cos t) ,
Si f (π − t)d(π − t) = f (t)dt, on posera x = sin t (On a sin(π − t) = sin t) ,
Si f (π + t)d(π + t) = f (t)dt, on posera x = tan t (On a tan(π + t) = tan t).
Si deux des trois relations précédentes sont vérifiées, alors la troisième l’est aussi. On pose alors
x = sin2 t ou x = cos(2t).

1.3.3 Fonctions rationnelles en sh et ch : hors programme


R
Pour
R calculer R(sht, cht) dt, où R ∈ R(X, Y ), on regarde quel procédé serait utilisé pour le calcul
de R(sin t, cos t) dt et on le transpose en trigonométrie hyperbolique.
Dans le cas général, on peut poser x = et .

2 Les matrices
2.1 Vocabulaire

Définition. Soit (n, p) ∈ N∗ 2 . On appelle matrice à n lignes et à p colonnes (à coefficients dans K)
toute famille de scalaires indexée par Nn × Np .
Si M = (mi,j )(i,j)∈Nn ×Np = (mi,j ) 1≤i≤n , on représente M sous la forme suivante :
1≤j≤p

 
m1,1 ··· m1,p
 .. ..  ,
M = . . 
mn,1 ··· mn,p

où le (i, j)ème coefficient est situé à l’intersection de la ième ligne et de la j ème colonne.
Notation. L’ensemble des matrices à coefficients dans K, à n lignes et p colonnes est noté MK (n, p)
ou Mn,p (K). MK (n, n) est souvent noté MK (n) ou Mn (K).
Définitions :
— Une matrice ligne est une matrice ne possédant qu’une ligne.
— Une matrice colonne est une matrice ne possédant qu’une colonne.
— Une matrice carrée est une matrice possédant autant de lignes que de colonnes.
— M = (mi,j ) ∈ MK (n, p) est une matrice
 triangulaire supérieure si et seulement si
∀(i, j) ∈ Nn × Np i > j =⇒ mi,j = 0 .

c Éric Merle 4 MPSI2, LLG


139
Semaine 28 : Résumé de cours 2 Les matrices

— M est une matrice triangulaire inférieure


 si et seulement si
∀(i, j) ∈ Nn × Np i < j =⇒ mi,j = 0 .
— M = (mi,j ) ∈ MK (n, p) est une matrice  diagonale si et seulement si
∀(i, j) ∈ Nn × Np i 6= j =⇒ mi,j = 0 . On note alors M = diag(m1,1 , . . . , mn,n ).
— Une matrice carrée et diagonale est dite scalaire lorsque tous ses coefficients diagonaux sont
égaux. En particulier, lorsque tous ses coefficients diagonaux sont égaux à 1, on obtient la
matrice identité, notée In .
Remarque. On identifiera Kn avec MK (n, 1) (ensemble des matrices colonnes).

2.2 Opérations sur les matrices


Définition. On sait dèjà que MK (n, p) = KNn ×Np est un K-espace vectoriel . On dispose ainsi des
lois d’addition et de multiplication par un scalaire.
Convention : Lorsque A est un matrice, on notera Ai,j son coefficient de position (i, j).
Définition du produit matriciel : Soit (n, p, q) ∈ (N∗ )3 . Soient A ∈ MK (n, p) et B ∈ MK (p, q).
On appelle produit des matrices A et B la matrice C ∈ MK (n, q) définie par
p
X
[AB]i,j = Ai,k Bk,j .
k=1

Formule pour le produit de trois matrices : Soit (n, m, l, p) ∈ (N∗ )4 . X


Soient A ∈ MK (n, m), B ∈ MK (m, l) et C ∈ MK (l, p) : [(AB)C]i,h = [A(BC)]i,h = Ai,j Bj,k Ck,h .
1≤j≤m
1≤k≤l

Il faut savoir le démontrer.


Propriété. La multiplication matricielle est associative.
Propriété. La mutiplication matricielle est distributive par rapport à l’addition.
Propriété. Soit A ∈ Mn,p , B ∈ Mp,q et a ∈ K. Alors a(AB) = (aA)B = A(aB).
Propriété. Pour tout M ∈ MK (n, p), In M = M Ip = M .
Propriété. Soit n, p ∈ N∗ et M ∈ MK (n, p). Pour tout X ∈ Kp , M X ∈ Kn .
 
x1 p
. X
Si X =  .. , alors ∀i ∈ {1, . . . , n}, [M X]i = Mi,j xj
xp j=1
et M X = x1 M1 + · · · xp Mp , en notant M1 , . . . , Mp les colonnes de M .
Il faut savoir le démontrer.
Propriété. Si M ∈ MK (n, p), la j-ème colonne de M est M cj , où cj = (δi,j )1≤i≤n ∈ Kp .
M̃ : Kp −→ Kn
Définition. Si M ∈ MK (n, p), est une application linéaire que l’on appelle
X 7−→ M X
l’application linéaire canoniquement associée à la matrice M .
MK (n, p) −→ L(Kp , Kn )
Propriété. est un isomorphisme d’espaces vectoriels.
M 7−→ M̃
Il faut savoir le démontrer.
Remarque. On identifie souvent M et M̃ , auquel cas, pour tout X ∈ Kp , M X = M (X).
Cela permet d’interpréter une matrice M comme une application linéaire.

Définition. Soit M ∈ MK (n, p) : Ker(M ) = {X ∈ Kp / M X = 0}

et Im(M ) = {M X / X ∈ Kp } = Vect{colonnes de M }.

Corollaire. Soit (M, M 0 ) ∈ MK (n, p) : ∀X ∈ Kp M X = M 0 X ⇐⇒ M = M 0 .

c Éric Merle 5 MPSI2, LLG


140
Semaine 28 : Résumé de cours 2 Les matrices

2.3 L’algèbre des matrices carrées de taille n ∈ N∗

Propriété. (Mn (K), +, ., ×) est une K-algèbre, ni commutative ni intègre dès que n ≥ 2.

Définition. A ∈ Mn (K) est nilpotente si et seulement si il existe p ∈ N∗ tel que Ap = 0.

MK (n) −→ L(Kn )
Propriété. est un isomorphisme d’algèbres.
M 7−→ M̃
Il faut savoir le démontrer.
Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si à est inversible dans
]
L(Kn ) et dans ce cas, M −1 = M̃ −1 .

Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si, pour tout X ∈ Kn , il
existe un unique Y ∈ Kn tel que AX = Y .
 
a b ∆
Formule : Dans M2 (K), M = est inversible si et seulement si det(M ) = ad − cb 6= 0, et
c d
 −1  
a b 1 d −b
dans ce cas = .
c d det(M ) −c a
Il faut savoir le démontrer.
∆ a b
Formule de Cramer : Soit a, b, c, d, e, f ∈ K4 . Lorsque det = ad − cb = 6= 0,
c d
e b a e

ax + by = e f d c f
⇐⇒ x = ∧ y= .
cx + dy = f det det
Il faut savoir le démontrer.
Notation. GLn (K) = groupe des inversibles de Mn (K). On l’appelle le groupe linéaire de degré n.
Exemple. Un automorphisme intérieur de Mn (K) est un automorphisme sur Mn (K) de la forme
M 7−→ AM A−1 où A ∈ GLn (K).
Définition. Soit M ∈ Mn (K) et λ ∈ K. On dit que λ est une valeur propre de M si et seulement si
il existe X ∈ Cn avec X 6= 0 tel que M X = λX. Dans ce cas, on dit que X est un vecteur propre de
M pour la valeur propre λ.
Propriété. Les matrices diagonales de Mn (K) forment une sous-algèbre commutative de Mn (K).
Propriété. Pour tout i ∈ Nn , on pose ci = (δi,j )1≤j≤n ∈ Kn et Fi = Vect(ck )1≤k≤i .
Si M ∈ Mn (K), M est triangulaire supérieure ssi, pour tout j ∈ {1, . . . , n}, Fj est stable par M̃ .
Il faut savoir le démontrer.
Propriété. On suppose que n ≥ 2.
— L’ensemble des matrices triangulaires supérieures (respectivement : inférieures) de Mn (K) est
une sous-algèbre non commutative de Mn (K).
— Le produit d’une matrice triangulaire supérieure dont la diagonale est (a1 , . . . , an ) par une
matrice triangulaire supérieure dont la diagonale est (b1 , . . . , bn ) est une matrice triangulaire
supérieure dont la diagonale est (a1 b1 , . . . , an bn ).
Il faut savoir le démontrer.

c Éric Merle 6 MPSI2, LLG


141
Semaine 29 – Matrices, blocs, familles de vecteurs, dimension d’un espace vectoriel, rang d’une famille,
matrice d’une application linéaire, systèmes linéaires et pivot de Gauss

Semaine 29 (du 11 au 16 mai) :


Résumé de cours

1 Les matrices (suite)


1.1 Transposée d’une matrice

Définition. Soit A ∈ MK (n, p). On appelle transposée de la matrice A et on note t A la matrice


de MK (p, n) définie par [t A]i,j = Aj,i .

Propriété. Pour tout A ∈ MK (n, p), t (t A) = A.


MK (n, p) −→ MK (p, n)
Propriété. L’application t est un isomorphisme d’espaces vectoriels.
M 7−→ M
Propriété. Soit (A, B) ∈ MK (n, p) × MK (p, q). Alors, t (AB) = t B t A.
Il faut savoir le démontrer.
Corollaire. Si A ∈ GLn (K), t A ∈ GLn (K) et (t A)−1 = t (A−1 ).
Définition. M est une matrice symétrique si et seulement si t M = M .
M est une matrice antisymétrique si et seulement si t M = −M .
Remarque. Lorsque car(K) 6= 2, si M ∈ Mn (K) est antisymétrique, sa diagonale est nulle.
Notation. Sn (K) désigne l’ensemble des matrices symétriques d’ordre n.
An (K) désigne l’ensemble des matrices antisymétriques d’ordre n.
Propriété. Sn (K) et An (K) sont des sous-espaces vectoriels de Mn (K), mais ce ne sont pas des
sous-algèbres. Cependant, elles sont stables par passage à l’inverse.
Il faut savoir le démontrer.

1.2 Différentes interprétations du produit matriciel


Au niveau des colonnes de la matrice de droite : Soit A ∈ MK (n, p). Si B1 , . . . , Bq sont des
vecteurs colonnes de Kp , A × B1 B2 · · · Bq = AB1 AB2 · · · ABq .
Au niveau des colonnes de la matrice de gauche :
— Si M ∈ MK (n, p) et X ∈ Kp , M X est une combinaison linéaire des colonnes de M .
 
x1
.
Plus précisément, si l’on note M1 , . . . , Mp les colonnes de M et X =  .. ,
xp
M X = x 1 M1 + · · · + x p Mp .
— Soient A ∈ MK (n, p) et B ∈ MK (p, q). Les colonnes de AB sont des combinaisons linéaires des
colonnes de A : en notant A1 , . . . , Ap les colonnes de A et B = (bi,j ), la j ème colonne de AB
est égale à b1,j A1 + · · · + bp,j Ap .

1
142
Semaine 29 : Résumé de cours 1 Les matrices (suite)

Au niveau des lignes de la matrice de gauche : Soit A ∈ MK (n, p) et B ∈ MK (p, q). Notons
   
1A 1 AB
 .   . 
1 A, . . . , n A les lignes de A. Alors AB =  ..  × B =  .. .
nA n AB

Au niveau des lignes de la matrice de droite :


— Si M ∈ MK (n, p) et X ∈ M1,n , XM est une combinaison linéaire des lignes de M .
Plus précisément, si l’on note 1 M, . . . , n M les lignes de M et X = (x1 · · · xn ),
XM = x1 × 1 M + · · · + xn × n M .
— Soient A ∈ MK (n, p) et B ∈ MK (p, q). Les lignes de AB sont des combinaisons linéaires des
lignes de B : en notant 1 B, . . . , p B les lignes de B et A = (ai,j ), la ième ligne de AB est égale
à ai,1 × 1 B + · · · + ai,p × p B.

1.3 Trace d’une matrice


n
X
Définition. La trace de la matrice M ∈ Mn (K) est T r(M ) = mi,i .
i=1

Propriété. La trace est une forme linéaire de Mn (K).


Propriété. Soit A ∈ Mn,p (K) et B ∈ Mp,n (K). Alors, T r(AB) = T r(BA).
Il faut savoir le démontrer.
ATTENTION : Si (A, B, C) ∈ Mn (K)3 , en général T r(ABC) 6= T r(ACB).
Définition. Soit A, B ∈ Mn (K). On dit que A et B sont semblables si et seulement si il existe
P ∈ GLn (K) telle que B = P AP −1 .
La relation de similitude (“être semblable à”) est une relation d’équivalence sur Mn (K).
Définition. Une matrice de Mn (K) est diagonalisable (resp : trigonalisable) si et seulement si elle
est semblable à une matrice diagonale (resp : triangulaire supérieure).
Propriété. Deux matrices semblables ont la même trace, mais la réciproque est fausse.
Il faut savoir le démontrer.

1.4 Matrices décomposées en blocs


1.4.1 Matrices extraites

Définition. Soit n, p ∈ N et soit I et J deux parties de N telles que |I| = n et |J| = p. Notons
0 ≤ i1 ≤ i2 ≤ · · · ≤ in les éléments de I et 0 ≤ j1 ≤ i2 ≤ · · · ≤ jp les éléments de J.
Alors on convient d’identifier toute famille (Mi,j )(i,j)∈I×J de scalaires indexée par I × J avec la
matrice (Mih ,jk ) 1≤h≤n ∈ MK (n, p).
1≤k≤p

Remarque. Lorsque I ou J est vide, I ×J = ∅ et KI×J possède un unique élément, que l’on appellera
la matrice vide.
Définition. Soit n, p ∈ N∗ et M ∈ MK (n, p). Une matrice extraite de M est une matrice de la forme
(Mi,j )(i,j)∈I×J , où I ⊂ Nn et J ⊂ Np .

c Éric Merle 2 MPSI2, LLG


143
Semaine 29 : Résumé de cours 2 Familles de vecteurs

1.4.2 Matrices blocs


a
X b
X
∗ a ∗ b
Définition. Soient (n1 , . . . , na ) ∈ (N ) et (p1 , . . . , pb ) ∈ (N ) . On pose n = ni et p = pj .
i=1 j=1
Pour tout (i, j) ∈ Na ×Nb , considérons une matrice Mi,j ∈ MK (ni , pj ). Alors la famille de ces matrices
M = (Mi,j ) 1≤i≤a peut être identifiée à une matrice possédant n lignes et p colonnes. On dit que M
1≤j≤b
est une matrice décomposée en blocs, de dimensions (n1 , . . . , na ) et (p1 , . . . , pb ).
Définition. Avec ces notations, M est une matrice triangulaire supérieure par blocs si et
seulement si, pour tout (i, j) ∈ Na × Nb tel que i > j, Mi,j = 0.
De même on définit la notion de matrice triangulaire inférieure par blocs.
La matrice M = (Mi,j ) 1≤i≤a est une matrice diagonale par blocs si et seulement si, pour tout
1≤j≤b
(i, j) ∈ Na × Nb tel que i 6= j, Mi,j = 0.

1.4.3 Opérations sur les matrices blocs


Combinaison linéaire de matrices décomposées en blocs : Soient M = (Mi,j ) 1≤i≤a et
1≤j≤b
N = (Ni,j ) 1≤i≤a deux matrices décomposées en blocs selon les mêmes partitions (Ii )1≤i≤a et (Jj )1≤j≤b
1≤j≤b
respectivement de Nn et de Np . Alors, ∀u ∈ K, uM + N = (uMi,j + Ni,j ) 1≤i≤a .
1≤j≤b
Produit matriciel de deux matrices décomposées en blocs : soit n, p, q ∈ N∗ .
Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs selon les partitions (Ii )1≤i≤a et (Jj )1≤j≤b
1≤j≤b
respectivement de Nn et de Np . Soit N = (Nj,k ) 1≤j≤b une matrice décomposée en blocs selon la
1≤k≤c
même partition (Jj )1≤j≤b de Np et une partition (Kk )1≤k≤c de Nq .
Alors M N peut être vue comme une matrice décomposée en blocs selon les partitions (Ii )1≤i≤a de
X b 
Nn et (Kk )1≤k≤c de Nq et M N = Mi,j Nj,k 1≤i≤a .
j=1 1≤k≤c

En résumé, le produit de deux matrices par blocs se comporte comme le produit matriciel usuel.
Application : Produit de matrices triangulaires (resp : diagonales) par blocs, puissances de telles
matrices.

2 Familles de vecteurs
Notation. On fixe un K-espace vectoriel E et un ensemble quelconque I (éventuellement infini).

2.1 Familles libres et génératrices

Définition. Soit x = (xi )i∈I une


Xfamille de vecteurs de E. 
x est libre ssi ∀(αi )i∈I ∈ K ,
(I)
αi xi = 0 =⇒ (∀i ∈ I αi = 0) .
i∈I
X
x est liée ssi ∃(αi )i∈I ∈ K (I)
\ {0}, αi xi = 0.
i∈I
X
x est génératrice dans E ssi ∀x ∈ E, ∃(αi )i∈I ∈ K(I) , αi xi = x.
i∈I
x est une base de E si et seulement si elle est libre et génératrice dans E.
Définition. x, y ∈ E sont colinéaires si et seulement si la famille (x, y) est liée.

c Éric Merle 3 MPSI2, LLG


144
Semaine 29 : Résumé de cours 2 Familles de vecteurs

Propriété. Soit e = (ei )i∈I


Xune famille de vecteurs de E. e est une base de E si et seulement si
(I)
∀x ∈ E, ∃ !(αi )i∈I ∈ K , αi ei = x. Dans ce cas, pour x ∈ E, on appelle coordonnées de x dans
i∈I
X
la base (ei )i∈I l’unique famille presque nulle de scalaire (αi )i∈I telle que x = αi ei .
i∈I

2.2 Dimension d’un espace vectoriel

Définition. E est de dimension finie si et seulement si il possède une famille génératrice finie.
Lemme : Soit n ∈ N et e1 , . . . , en ∈ E.
Toute famille (x1 , . . . , xn+1 ) de n + 1 vecteurs de Vect(e1 , . . . , en ) est liée.
Il faut savoir le démontrer.
Corollaire. Si (e1 , . . . , en ) est une famille génératrice de E, alors toute famille libre de E est de
cardinal inférieur ou égal à n.
Théorème de la base incomplète : Soient E un K-espace vectoriel de dimension finie et (ei )i∈I
une famille génératrice de E. Soit J ⊂ I tel que (ei )i∈J est une famille libre.
Alors il existe un ensemble L avec J ⊂ L ⊂ I tel que (ei )i∈L est une base de E.
Il faut savoir le démontrer.
Propriété. Soit (ei )i∈I une famille libre de vecteurs de E. Soit ej ∈ E, où j ∈
/ I.
La famille (ei )i∈I∪{j} est libre si et seulement si ej ∈
/ Vect(ei )i∈I .
Propriété.
Soient E un K-espace vectoriel et g = (ei )i∈I une famille génératrice de E.
On dit qu’une sous-famille libre (ei )i∈J de g est maximale dans g si et seulement si pour tout i0 ∈ I \J,
la famille (ei )i∈J∪{i0 } est liée.
Si (ei )i∈J est libre maximale dans g, alors c’est une base de E.
Corollaire. Une famille libre de vecteurs de E est maximale si et seulement si en lui ajoutant un
vecteur elle devient liée.
Toute famille libre maximale de vecteurs de E est une base de E.
Corollaire. Soit E un K-espace vectoriel de dimension finie.
Toute famille libre de E peut être complétée en une base de E.
Définition. Soit E un K-espace vectoriel de dimension finie.
E admet au moins une base. Toutes les bases de E sont finies et ont même cardinal. Ce cardinal est
appelé la dimension de E et est noté dim(E) ou dimK (E).
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n et soit e une famille de E. e
est une base de E si et seulement si e est libre et de cardinal n, ou encore si et seulement si e est
génératrice et de cardinal n.
Il faut savoir le démontrer.
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n. Toute famille libre de E a au
plus n éléments et toute famille génératrice de E a au moins n éléments.
Théorème. Soit E un K-espace vectoriel de dimension quelconque.
Soit F et G deux sous-espaces vectoriels de E avec G de dimension finie et F ⊂ G.
Alors F est de dimension finie avec dim(F ) ≤ dim(G).
De plus [F = G ⇐⇒ dim(F ) = dim(G)].
Il faut savoir le démontrer.

c Éric Merle 4 MPSI2, LLG


145
Semaine 29 : Résumé de cours 2 Familles de vecteurs

2.3 Base canonique

Propriété. Soit n ∈ N∗ . Kn est un K-espace vectoriel de dimension n dont une base est
c = (c1 , . . . , cn ), où pour tout i ∈ {1, . . . , n}, ci = (δi,j )1≤j≤n . c est la base canonique de Kn .
Les coordonnées de x ∈ Kn dans la base c sont les composantes de x.

Propriété. Soit I un ensemble quelconque. Pour tout i ∈ I, on note ci = (δi,j )j∈I . Ainsi c = (ci )i∈I
est une famille de K(I) . C’est une base de K(I) , appelée la base canonique de K(I) . De plus, pour tout
x = (αi )i∈I ∈ K(I) : les coordonnées de x sont ses composantes.
Corollaire. La base canonique de K[X] est la famille (X n )n∈N .
Soit n ∈ N. (1, X, . . . , X n ) est la base canonique de Kn [X] : dim(Kn [X]) = n + 1.
Corollaire. La base canonique de Mn,p (K) est la famille des matrices élémentaires (Ei,j ) 1≤i≤n
1≤j≤m
définie par : Pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , p}, Ei,j = (δa,i δb,j ) 1≤a≤n .
X 1≤b≤p

Pour tout M ∈ Mn,p (K), M = Mi,j Ei,j : dim(Mn,p (K)) = np.


1≤i≤n
1≤j≤p

Exercice. Ei,j Eh,k = δj,h Ei,k .


Il faut savoir le démontrer.

2.4 Exemples
   
u1 v1
Propriété. Dans K , deux vecteurs u =
2
et v = forment une base de K2 si et seulement
u2 v2

si u1 v2 − u2 v1 = detc (u, v) 6= 0.

Exercice. Soit (Pn )n∈N une suite de polynômes de K[X]. On suppose que cette suite de
polynômes est étagée c’est-à-dire que, ∀n ∈ N deg(Pn ) = n.
Montrer que pour tout N ∈ N, (Pn )0≤n≤N est une base de KN [X].
En déduire que (Pn )n∈N est une base de K[X].
Il faut savoir le démontrer.
Exercice. Soit f un endomorphisme de E.
Montrer que f est une homothétie si et seulement si pour tout u ∈ E, (u, f (u)) est lié.
Il faut savoir le démontrer.
Propriété. Toute sur-famille d’une famille génératrice est génératrice.
Toute sous-famille d’une famille libre est libre.
Propriété. Une famille de vecteurs est libre si et seulement si toute sous-famille finie de cette famille
est libre.
Théorème. dim(E1 × · · · × En ) = dim(E1 ) + · · · + dim(En ).
Il faut savoir le démontrer.

2.5 Application linéaire associée à une famille de vecteurs


Ψx : K(I) −→ E
X
I
Propriété. Soit x = (xi ) ∈ E . Notons (αi )i∈I 7−→ αi xi .
i∈I
Ψx est une application linéaire.
• x est une famille libre si et seulement si Ψx est injective.
• x est une famille génératrice si et seulement si Ψx est surjective.

c Éric Merle 5 MPSI2, LLG


146
Semaine 29 : Résumé de cours 2 Familles de vecteurs

• x est une base si et seulement si Ψx est un isomorphisme.


Ψx est appelée l’application linéaire associée à la famille de vecteurs x.
Il faut savoir le démontrer.
Propriété. Soit x = (xi )i∈I une famille de vecteurs de E. x est libre si et seulement X si, pour tout
y ∈ Vect(x), il existe une unique famille presque nulle de scalaires (αi )i∈I telle que y = αi xi .
i∈I

Propriété. Si e = (ei )i∈I est une base de E, alors E est isomorphe à K(I) .

2.6 Image d’une famille par une application linéaire

Notation. Si u ∈ L(E, F ) et x = (xi )i∈I ∈ E I , on notera (u(xi ))i∈I = u(x).


Propriété. Avec cette notation, Ψu(x) = u ◦ Ψx .
Théorème.
• L’image d’une famille libre par une injection linéaire est une famille libre.
• L’image d’une famille génératrice par une surjection linéaire est génératrice.
• L’image d’une base par un isomorphisme est une base.
Il faut savoir le démontrer.
Théorème. Deux espaces de dimensions finies ont la même dimension si et seulement si ils sont
isomorphes.
Il faut savoir le démontrer.
Propriété. Soit E et F deux espaces de dimensions finies et soit f ∈ L(E, F ).
Si f est injective, alors dim(E) ≤ dim(F ).
Si f est surjective, alors dim(E) ≥ dim(F ).
Propriété. Soient E et F deux K-espaces vectoriels de dimensions quelconques. Soient u ∈ L(E, F )
et G un sous-espace vectoriel de E de dimension finie. Alors
u(G) est de dimension finie et dim(u(G)) ≤ dim(G), avec égalité lorsque u est injective.
Propriété. L’image d’une famille génératrice par une application linéaire u engendre Im(u).
Propriété. L’image d’une famille liée par une application linéaire est liée.
Théorème.
On suppose que E est un K-espace vectoriel admettant une base e = (ei )i∈I .
Soit f = (fi )i∈I une famille quelconque de vecteurs d’un second K-espace vectoriel F .
Il existe une unique application linéaire u ∈ L(E, F ) telle que,
 ∀i ∈ I u(ei ) = fi .
 libre  injective
De plus, (fi )i∈I est génératrice si et seulement si u est surjective .
 
une base bijective
Il faut savoir le démontrer.
Corollaire.
Soit E et F deux espaces vectoriels de dimensions finies et soit u ∈ L(E, F ).
Si dim(E) = dim(F ), alors u injective ⇐⇒ u surjective ⇐⇒ u bijective.
Exercice. Soit u ∈ L(K[X]) tel que pour tout P ∈ K[X], deg(u(P )) = deg(P ). Montrer que
u est un automorphisme sur K[X].
Il faut savoir le démontrer.
Propriété. Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). Alors
u inversible dans L(E) ⇐⇒ u inversible à droite dans L(E)
.
⇐⇒ u inversible à gauche dans L(E)

c Éric Merle 6 MPSI2, LLG


147
Semaine 29 : Résumé de cours 2 Familles de vecteurs

Corollaire. Soit A ∈ Mn (K). Alors


A inversible dans Mn (K) ⇐⇒ A inversible à droite dans Mn (K)
.
⇐⇒ A inversible à gauche dans Mn (K)
Exercice. Soit A une K-algèbre et B une sous-algèbre de A de dimension finie. Soit b ∈ B.
Montrer que si b est inversible dans A, alors b−1 ∈ B.
Il faut savoir le démontrer.
Propriété. Soit A ∈ Mn (K) une matrice triangulaire supérieure, dont la diagonale est notée
 i ∈ {1, . .
(a1 , . . . , an ). Alors A est inversible si et seulement si pour tout . , n}, ai 6= 0, et dans ce
1 1
cas, A−1 est encore triangulaire supérieure et sa diagonale est ,..., .
a1 an
Propriété. Si E admet une base (ei )i∈I , alors L(E, F ) est isomorphe à F I .
Il faut savoir le démontrer.
Théorème. dim(L(E, F )) = dim(E) × dim(F ).

2.7 Rang d’une famille de vecteurs

Définition. Soient E un espace vectoriel et x une famille de vecteurs de E.



Le rang de x est rg(x) = dim(Vect(x)) ∈ N ∪ {+∞}.

Propriété. Pour une famille x de vecteurs d’un K-espace vectoriel E,


— rg(x) ≤ #(x). Lorsque rg(x) < +∞, il y a égalité si et seulement si x est libre.
— rg(x) ≤ dim(E). Lorsque rg(x) < +∞, il y a égalité si et seulement si x est génératrice.
Propriété.
Soit u ∈ L(E, F ) et x une famille de vecteurs de E.
Alors rg(u(x) ≤ rg(x), avec égalité lorsque rg(x) < +∞ et u injective.
Il faut savoir le démontrer.
Propriété. Soit (xi )i∈I une famille de vecteurs d’un K-espace vectoriel E. Alors rg(xi )i∈I n’est pas
modifié si l’on échange l’ordre de deux vecteurs, si l’on multiplie l’un des vecteurs xi par un scalaire
non nul, ou bien si l’on ajoute à l’un des xi une combinaison linéaire des autres xj .

2.8 Matrice d’une application linéaire

Définition. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0. Soient
e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F . Si u ∈ L(E, F ), on appelle matrice
de l’application linéaire u dans les bases e et f la matrice notée mat(u, e, f ) = (αi,j ) ∈ MK (n, p)
définie par l’une des conditions équivalentes suivantes :
— pour tout i ∈ Nn et j ∈ Np , αi,j est la ième coordonnée du vecteur u(ej ) dans la base f .
— pour tout i ∈ Nn et j ∈ Np , [mat(u, e, f )]i,j = fi∗ (u(ej )).
Xn
— mat(u, e, f ) est l’unique matrice (αi,j ) ∈ MK (n, p) vérifiant : ∀j ∈ Np u(ej ) = αi,j fi .
i=1
— mat(u, e, f ) est l’unique matrice dont la j-ème colonne, égale à Ψ−1
f (u(ej )), contient les coor-
données de u(ej ) dans la base f .
Interprétation tabulaire : Avec les notations précédentes,

u(e1 ) ··· u(ep )


m1,1 ··· m1,p f1
mat(u, e, f ) =  . ..  .. .
 .. .  .
mn,1 ··· mn,p fn

c Éric Merle 7 MPSI2, LLG


148
Semaine 29 : Résumé de cours 3 Les systèmes linéaires

Notation. Lorsque E = F et que l’on choisit e = f , on note mat(u, e) au lieu de mat(u, e, e).

Propriété. Pour tout n, p ∈ N∗ , pour tout M ∈ MK (n, p), mat(M̃ , c, c0 ) = M , en notant c et c0 les
bases canoniques de Kp et de Kn .
Remarque. Nous disposons maintenant de deux manières équivalentes de définir l’application linéaire
M̃ : Kp −→ Kn
canoniquement associée à une matrice M ∈ MK (n, p) : c’est l’application ,
X 7−→ M̃ (X) = M X
ou bien c’est l’unique application M̃ ∈ L(Kp , Kn ) telle que mat(M̃ , c, c0 ) = M .
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0. Soient
e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F .
L(E, F ) −→ MK (n, p)
L’application est un isomorphisme d’espaces vectoriels.
u 7−→ mat(u, e, f )
Théorème. Soient E, F et G trois K-espaces vectoriels de dimensions finies, munis de bases e, f et
g. Soient u ∈ L(E, F ) et v ∈ L(F, G). Alors, mat(v ◦ u, e, g) = mat(v, f, g) × mat(u, e, f ).
Il faut savoir le démontrer.
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0, munis
des bases e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ), et soit u ∈ L(E, F ).
On note M la matrice de u dans les bases e et f .
Soit (x, y) ∈ E × F . On note X la matrice colonne des coordonnées de x dans la base e, et Y celle des
coordonnées de y dans la base f . Alors,

u(x) = y ⇐⇒ M X = Y.

Propriété. On reprend les notations précédentes. Lorsque n = p, u est un isomorphisme si et


seulement si M est une matrice inversible et dans ce cas, mat(u, e, f )−1 = mat(u−1 , f, e).
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n, muni d’une base e. L’application
L(E) −→ Mn (K)
est un isomorphisme d’algèbres.
u 7−→ mat(u, e)

3 Les systèmes linéaires


3.1 Trois interprétations d’un système linéaire

Définition. Une équation linéaire à p inconnues scalaires est une équation de la forme
(E) : α1 x1 + α2 x2 + · · · + αp xp = b, où α1 , . . . , ap , b ∈ K sont des paramètres, et où x1 , . . . , xp ∈ K
sont les inconnues.
Notation. Fixons (n, p) ∈ N∗ 2 et considérons un système linéaire à n équations et p inconnues,
c’est-à-dire un système d’équations de la forme suivante :


 α1,1 x1 + · · · + α1,p xp = b1

 . ..

 ..
 .
(S) : αi,1 x1 + · · · + αi,p xp = bi ,

 .. ..



 . .

αn,1 x1 + · · · + αn,p xp = bn

où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K, les p inconnues
étant x1 , . . . , xp , éléments de K.

c Éric Merle 8 MPSI2, LLG


149
Semaine 29 : Résumé de cours 3 Les systèmes linéaires



b1
.
Le vecteur  ..  est appelé le second membre du système, ou bien le membre constant. Lorsqu’il est
bn
nul, on dit que le système est homogène.
Première interprétation.
  Combinaison
  linéaire
 de vecteurs.

α1,1 α1,2 α1,p  
b1
 ..   ..   ..   . 
 . 
 
 . 
 
 . 
   .. 
 
Notons C1 =      
 αi,1 , C2 =  αi,2 , . . ., Cp =  αi,p , et B =  bi . Il s’agit de p + 1 vecteurs
 .   .   .   . 
 ..   ..   ..   .. 
αn,1 αn,2 αn,p bn
de Kn . Alors (S) ⇐⇒ x1 C1 + x2 C2 + · · · + xp Cp = B.
Définition. On dit que (S) est compatible si et seulement s’il admet au moins une solution.
Propriété. (S) est compatible si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Deuxième interprétation. Matricielle. Notons M la matrice de Mn,p (K) dont les colonnes sont
 
x1
.
C1 , . . ., Cp , et X =  .. . Alors (S) ⇐⇒ M X = B.
xp
Définition. On dit que (S) est un système de Cramer si et seulement si n = p et si M est
inversible. Dans ce cas, (S) admet une unique solution.
Troisième interprétation. A l’aide d’une application linéaire.
Soient E et F des K-espaces vectoriels de dimensions p et n munis de bases
e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On note u l’unique application linéaire de L(E, F ) telle que
mat(u, e, f ) = M , x le vecteur de E dont les coordonnées dans e sont X et b le vecteur de F dont les
coordonnées dans f sont B. Alors (S) ⇐⇒ u(x) = b.
Définition. On dit que (S) est un système homogène si et seulement si b = 0.
Définition. Le système homogène associé à (S) est (SH ) : u(x) = 0.
Propriété. L’ensemble des solutions de (SH ) est Ker(u).
C’est un sous-espace vectoriel de dimension p − r, où r désigne le rang de u (ou de M ).

3.2 Les opérations élémentaires

Définition. On appelle manipulations ou opérations élémentaires sur les lignes d’une matrice, les
applications de MK (n, p) dans MK (n, p) suivantes :
1) Ajouter à une ligne le multiple d’une autre, opération notée : Li ←− Li + λLj , où i 6= j
et λ ∈ K. C’est une transvection.
2) Multiplier une ligne par un scalaire non nul, notée : Li ←− αLi , où α ∈ K∗ . C’est une affinité.
3) Permuter deux lignes, notée : Li ←→ Lj , où i 6= j. C’est une transposition.
On définirait de même les opérations sur les colonnes.
Propriété. Si σ ∈ Sn , on note Pσ = (δi,σ(j) ) ∈ Mn (K). Alors Pσσ0 = Pσ Pσ0 .
Il faut savoir le démontrer.
Propriété.
En notant (Ei,j )(i,j)∈{1,...,n}2 la base canonique de Mn (K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , n}2 avec i 6= j,

c Éric Merle 9 MPSI2, LLG


150
Semaine 29 : Résumé de cours 3 Les systèmes linéaires

Li ←− Li + λLj : MK (n, p) −→ MK (n, p)


M 7−→ (In + λEi,j )M

Li ←− λLi : MK (n, p) −→ MK (n, p)


M 7−→ (In + (λ − 1)Ei,i )M

Li ←→ Lj : MK (n, p) −→ MK (n, p)
M 7−→ P(i,j) M
De même, en notant (Ei,j )(i,j)∈{1,...,p}2 la base canonique de Mp (K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , p}2
avec i 6= j, alors
Ci ←− Ci + λCj : MK (n, p) −→ MK (n, p)
M 7−→ M (Ip + λEj,i )

Ci ←− λCi : MK (n, p) −→ MK (n, p)


.
M 7−→ M (Ip + (λ − 1)Ei,i )

Ci ←→ Cj : MK (n, p) −→ MK (n, p)
M 7−→ M P(i,j)
Il faut savoir le démontrer.
Propriété. Si l’on effectue une série d’opérations élémentaires sur les lignes d’une matrice M , alors
on a multiplié M à gauche par une certaine matrice inversible.
Si l’on effectue une série d’opérations élémentaires sur les colonnes d’une matrice M , alors on a
multiplié M à droite par une certaine matrice inversible.
Notation. Soit (S) : M X = B un système linéaire de matrice M ∈ Mn,p (K) et de vecteur constant
B ∈ Kn . On appellera matrice globale de (S) la matrice à n lignes et p+1 colonnes dont les p premières
colonnes sont celles de M et dont la dernière colonne est égale à B.
Propriété. Soient (S) : M X = B et (S 0 ) : M 0 X = B 0 . On suppose que l’on peut passer de la matrice
globale de (S) à celle de (S 0 ) à l’aide d’une série d’opérations élémentaires portant uniquement sur
les lignes. Alors ces deux systèmes sont équivalents.
Propriété. Soit M ∈ Mn (K). On suppose que l’on peut transformer, par des opérations élémentaires
portant uniquement sur les lignes, la matrice blocs M In ∈ MK (n, 2n) en une matrice de la forme
In N ∈ MK (n, 2n). Alors M est inversible et M −1 = N .
Il faut savoir le démontrer.

3.3 Méthode du pivot de Gauss

Notation. On souhaite résoudre le système (S) : M X = B de n équations à p inconnues. La matrice


globale du système sera notée (ai,j ) ∈ MK (n, p + 1). Pour simplifier les notations, si on transforme
(ai,j ) par des opérations élémentaires, le résultat sera encore noté (ai,j ).
But : Transformer (ai,j ) de sorte que : ∀(i, j) ∈ {1, . . . , n} × {1, . . . , p} i > j =⇒ ai,j = 0.
Pour cela, si l’on suppose que les r − 1 premières colonnes de (ai,j ) sont déjà bien formées :
Premier cas : ∀i ∈ {r, . . . , n} ai,r = 0 : on passe à l’étape suivante.
Second cas : ∃i0 ∈ {r, . . . , n} ai0 ,r 6= 0 : On dit que ai0 ,r est le pivot de l’étape r.
On permute d’abord les lignes Li0 et Lr . Ainsi ar,r 6= 0. Ensuite on effectue la série d’opérations
ai,r
élémentaires : for i from r + 1 to n do Li ←− Li − ar,r Lr od.
Il faut être capable de présenter cet algorithme en détails.
Remarque. Comme on n’effectue que des opérations élémentaires sur les lignes, les lignes de la
matrice finale du système engendrent le même espace vectoriel que les lignes de la matrice initiale. La

c Éric Merle 10 MPSI2, LLG


151
Semaine 29 : Résumé de cours 3 Les systèmes linéaires

méthode du pivot permet donc de déterminer une base de l’espace vectoriel engendré par les lignes
(ou les colonnes en opérant sur les colonnes) d’une matrice.
La méthode du pivot permet aussi de déterminer une base de l’image d’une application linéaire : On
considère sa matrice dans des bases données et on détermine une base de ses vecteurs colonnes en
appliquant la méthode du pivot au niveau des colonnes.

3.4 Méthode du pivot total

But : Transformer (ai,j ) de sorte qu’il existe s ∈ {0, min(n, p)} vérifiant
∀(i, j) ∈ N2s , i > j =⇒ ai,j = 0, ∀r ∈ Ns , ar,r 6= 0 et ∀(i, j) ∈ {s + 1, . . . , n} × {1, . . . , p}, ai,j = 0.
La seule différence par rapport à l’algorithme précédent est qu’on accepte de choisir le pivot de l’étape
r parmi les ai,j pour (i, j) ∈ {r, . . . , n} × {r, . . . , p}. Notons ai0 ,j0 6= 0 le pivot choisi. On échange Cr
et Cj0 puis on applique les mêmes opérations élémentaires que dans l’algorithme précédent.
 À la fin de l’algorithme, le système est compatible si et seulement si ∀i ∈ {s+1, . . . , n} ai,p+1 = 0 :
c’est un système d’équations de l’espace vectoriel engendré par les colonnes de (S).
Si la matrice de (S) est celle d’une application linéaire u dans des bases e et f , ces conditions de
compatibilité constituent un système d’équations de Im(u) dans la base f .
Définition. Résoudre un système (S) : M X = B à n équations et p inconnues, c’est déterminer
une partie I de {1, . . . , p} et une famille (bi,j )(i,j)∈({1,...,p}\I)×I telles que :
X
∀i ∈ {1, . . . , p} \ I, xi = ci + bi,j xj . Les (xj )j∈I sont les inconnues principales et les (xi )i∈{1,...,p}\I
j∈I
sont les inconnues secondaires. En résumé, résoudre un système, c’est exprimer les inconnues secon-
daires en fonction des inconnues principales.

3.5 Méthode de Gauss-Jordan, lorsque le système est de Cramer

But : Transformer la matrice globale en une matrice dont les n premières colonnes correspondent à
la matrice In , en utilisant uniquement des opérations élémentaires sur les lignes.
Pour cela, comme pour le pivot partiel, à l’étape r, on choisit un pivot ai0 ,r 6= 0 où r ≤ i0 ≤ n, ce qui
est possible car le système est de Cramer, puis on effectue : Li0 ←→ Lr ,
ai,r 1
∀i ∈ {1, . . . , n} \ {r}, Li ←− Li − ar,r Lr et Lr ←− ar,r Lr .
Il faut être capable de présenter cet algorithme en détails.
Corollaire. Une matrice de Mn (K) est inversible si et seulement si elle est le produit de matrices
de transvections, d’affinités et de transpositions.

c Éric Merle 11 MPSI2, LLG


152
Semaine 30 – Somme de sous-espaces vectoriels, supplémentaires, sommes directes, projecteurs et symétries,
sous-espaces propres, changement de bases

Semaine 30 (du 18 au 20 mai) :


Résumé de cours

Somme de sous-espaces vectoriels


Notation. K désigne un corps quelconque et E désigne un K-espace vectoriel.

1 Sommes et sommes directes


k
!
[
Définition. Si Ei = sev de E, E1 + · · · + Ek = Vect Ei .
i=1

nX
k o
Propriété. E1 + · · · + Ek = xi / ∀i ∈ {1, . . . , k} xi ∈ E i .
i=1
k
X M
Définition. Ei est directe, et alors notée Ei , si et seulement si
i=1 1≤i≤k
k
!
X
∀(x1 , . . . , xk ) ∈ E1 × · · · × Ek xi = 0 =⇒ (∀i ∈ {1, . . . , k} xi = 0) ,
i=1
k
X k
X
ce qui est équivalent à : ∀x ∈ Ei , ∃!(x1 , . . . , xk ) ∈ E1 × · · · × Ek x = xi .
i=1 i=1

2 Supplémentaires d’un sous-espace vectoriel


Propriété. F + G est directe si et seulement si F ∩ G = {0}.
/ F , F et Kx sont en somme directe.
Propriété. Si x ∈
Deux droites vectorielles distinctes sont en somme directe.
Définition. Deux sous-espaces vectoriels F et G de E sont supplémentaires (dans E) si et seule-
ment si E = F ⊕ G, i.e E = F + G et F ∩ G = {0}, i.e ∀x ∈ E, ∃!(x1 , x2 ) ∈ F × G, x = x1 + x2 .
Propriété. Soient E un K-espace vectoriel de dimension finie et F un sous-espace vectoriel de E. F
admet au moins un supplémentaire, et pour tout supplémentaire G de F , dim(F ) + dim(G) = dim(E).
Remarque. En dimension quelconque, tout sous-espace vectoriel de E possède au moins un supplé-
mentaire, si l’on accepte l’axiome du choix.
1 1
Propriété. Mn (K) = Sn (K) ⊕ An (K) : ∀M ∈ Mn (K), M = (M + t M ) + (M − t M ).
2 2
n(n + 1) n(n − 1)
De plus dim(Sn (K)) = et dim(An (K)) = .
2 2
Il faut savoir le démontrer.

1
153
Semaine 30 : Résumé de cours 4 Propriétés des sommes directes

3 Rang d’une application linéaire


Théorème. Soit u ∈ L(E, F ).
Im(u)
Si H est un supplémentaire de Ker(u) dans E, alors u|H est un isomorphisme.
Il faut savoir le démontrer.
Définition. rg(u) = dim(Im(u)) ∈ N ∪ {+∞} : il s’agit du rang de l’application linéaire u.
Propriété. Si e est une base de E et u ∈ L(E, F ), alors rg(u) = rg(u(e)).
Formule du rang. Soit u ∈ L(E, F ) avec E de dimension finie.
Alors rg(u) est fini et dim(Im(u)) + dim(Ker(u)) = dim(E) .
Propriété. Si u ∈ L(E, F ), alors rg(u) ≤ min(dim(E), dim(F )). De plus,
lorsque E est de dimension finie, rg(u) = dim(E) si et seulement si u est injective
et lorsque F est de dimension finie, rg(u) = dim(F ) si et seulement si u est surjective.
Théorème. rg(v ◦ u) ≤ inf(rg(u), rg(v)).
On ne modifie par le rang d’une application linéaire en la composant avec un isomorphisme (à sa
gauche ou à sa droite).

Définition. Si M ∈ MK (n, p), le rang de M est rg(M ) = rg(M̃ ) = dim(Im(M )).
Le rang d’une matrice est aussi le rang de la famille de ses vecteurs colonnes.
Propriété. rg(mat(u, e, f )) = rg(u).
Il faut savoir le démontrer.
Propriété. M ∈ Mn (K) est inversible si et seulement si rg(M ) = n.
Propriété. Soit (A, B) ∈ MK (n, p) × MK (p, q). Alors, rg(AB) ≤ min(rg(A), rg(B)).
On ne modifie pas le rang d’une matrice en la multipliant par une matrice inversible.

4 Propriétés des sommes directes


4.1 Un moyen de définir une application linéaire
M
Théorème. Soit (Ei )1≤i≤k une famille de k sous-espaces vectoriels de E telle que E = Ei . Soit
1≤i≤k
F un K-espace vectoriel et, pour tout i ∈ {1, . . . , k}, soit ui une application linéaire de Ei dans F .
Il existe une unique application linéaire u de E dans F telle que, pour tout i ∈ {1, . . . , k}, la restriction
de u à Ei est égale à ui . Ainsi, pour définir une application linéaire u de E dans F , il suffit de préciser
ses restrictions aux sous-espaces vectoriels Ei .

4.2 Formules dimensionnelles


X
k  Xk
Propriété. dim Ei ≤ dim(Ei ), avec égalité si et seulement si la somme est directe .
i=1 i=1
Il faut savoir le démontrer.
Remarque. Ainsi, lorsque E est de dimension finie, si F et G sont deux sous-espaces vectoriels de
E, ils sont supplémentaires dans E si et seulement si E = F + G et dim(E) = dim(F ) + dim(G).
Formule de Grassmann : dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


154
Semaine 30 : Résumé de cours 5 Les projecteurs

4.3 Associativité des sommes directes

Propriété. Associativité d’une somme directe. Si (Ii )1≤i≤p est une partition de {1, . . . , k}, alors
E1 , . . . , Ekformentune somme directe si et seulement si ∀i ∈ {1, . . . , p}, (Ej )j∈Ii forment une somme
M
directe et Ej forment une somme directe.
i∈{1,...,p}
j∈Ii

Théorème. Soient k un entier supérieur ou égal à 2, et (Ei )1≤i≤k une famille de k sous-espaces
i−1
\X
vectoriels de E. E1 , . . . , Ek sont en somme directe si et seulement si ∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Il faut savoir le démontrer.

4.4 Base adaptée à une décomposition en somme directe

Théorème. Soit E un K-espace vectoriel muni d’une base (ei )i∈I . Soit (Ik )1≤k≤n une partition de
n
M
I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei )i∈Ik . Alors E = Ek .
k=1

Théorème réciproque. Soit (Ek )1≤k≤n une famille de sous-espaces vectoriels d’un K-espace vectoriel
Mn
E tels que E = Ek . Pour tout k ∈ {1, . . . , n}, on suppose que Ek admet une base bk . Alors la
k=1
concaténation des bases (bk )1≤k≤n , notée b, est une base de E. On dit que b est une base adaptée à
Mn
la décomposition en somme directe E = Ek .
k=1

Définition. Lorsque F est un sous-espace vectoriel de E, on appelle base de E adaptée à F toute


base obtenue en complétant une base de F .

5 Les projecteurs
Définition. p ∈ L(E) est un projecteur si et seulement si p2 = p.
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
Pour x ∈ E, on note (p(x), q(x)) l’unique couple de F × G tel que x = p(x) + q(x).
p et q sont des projecteurs.
p est appelé le projecteur sur F parallèlement à G, et q le projecteur associé à p.
On vérifie que p + q = IdE et pq = qp = 0.
Il faut savoir le démontrer.
Propriété réciproque. Soit p un projecteur de E. Alors p est le projecteur sur Im(p) parallèlement à
Ker(p). La décomposition de x ∈ E selon la somme directe E = Im(p)⊕Ker(p) est x = p(x)+(x−p(x)),
avec p(x) ∈ F = Im(p) et x − p(x) ∈ G = Ker(p).
Pour tout x ∈ E, x = p(x) ⇐⇒ x ∈ F : F = Ker(IdE − p).
Il faut savoir le démontrer.
Définition. s ∈ L(E) est une symétrie si et seulement si s2 = IdE .
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
L’unique application s de E dans E telle que, pour tout f, g ∈ F ×G, s(f +g) = f −g est une symétrie,
appelée symétrie par rapport à F parallèlement à G. Si l’on note p le projecteur sur F parallèlement
à G, et q le projecteur associé à p, alors s = p − q = 2p − IdE .

c Éric Merle 3 MPSI2, LLG


155
Semaine 30 : Résumé de cours 7 Changement de base

Propriété réciproque. On suppose que car(K) 6= 2.


Pour toute symétrie s de E, il existe deux sous-espaces vectoriels supplémentaires F et G tels que s est
la symétrie par rapport à F parallèlement à G. Il s’agit de F = Ker(IdE − s) et de G = Ker(IdE + s).

6 Sous-espaces propres
Notation. On fixe un K-espace vectoriel E et u ∈ L(E).
Définition. λ ∈ K est une valeur propre de u si et seulement s’il existe un vecteur x non nul de
E tel que u(x) = λx. Dans ce cas, tout vecteur y non nul tel que u(y) = λy est appelé un vecteur
propre de u associé à la valeur propre λ.
De plus, toujours lorsque λ est une valeur propre de u, Ker(λIdE − u) est appelé le sous-espace
propre de u associé à la valeur propre λ. Il est noté Eλ , ou Eλu en cas d’ambiguı̈té.
Remarque. Si λ est une valeur propre de u, l’ensemble des vecteurs propres de u pour la valeur
propre λ est Eλ \ {0}.
Remarque. Même lorsque λ n’est pas une valeur propre de u, on note parfois
Eλ = Ker(λIdE − u), mais dans ce cas, Eλ = {0}.
Définition. Soient n ∈ N∗ et M ∈ Mn (K) : Les éléments propres de M (c’est-à-dire les valeurs
propres, les vecteurs propres et les sous-espaces propres) sont les éléments propres de l’endomorphisme
canoniquement associé à M .
Propriété.
λ ∈ K est une valeur propre de u si et seulement si λIdE − u n’est pas injective.
En particulier, u est injectif si et seulement si 0 n’est pas une valeur propre de u.
Définition. On appelle spectre de u l’ensemble des valeurs propres de u. Il est noté Sp(u).
Théorème.
La somme d’un nombre fini de sous-espaces propres de u est toujours directe.
Il faut savoir le démontrer.
Corollaire. Si (xi )i∈I est une famille de vecteurs propres de u associés à des valeurs propres deux à
deux distinctes, alors cette famille est libre.
Exemple. Supposons que E 6= {0}.
Soient F et G deux sous-espaces vectoriels supplémentaires non nuls dans E.
• Si u est une homothétie de rapport λ, où λ ∈ K, Sp(u) = {λ} et Eλ = E.
• Si u est le projecteur sur F parallèlement à G, Sp(u) = {0, 1}, E1 = F et E0 = G.
• Si u est la symétrie par rapport à F parallèlement à G, Sp(u) = {1, −1}, E1 = F et E−1 = G.
Propriété.
Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.
Il faut savoir le démontrer.

7 Changement de base
Notation. On fixe un K-espace vectoriel E de dimension finie égale à n ∈ N∗ .
Propriété. Soit e = (e1 , . . . , en ) une base de E et f = (fj )1≤j≤n ∈ E n une famille de n vecteurs de
E. Pour tout j ∈ Nn , on pose pi,j = e∗i (fj ) : c’est la ième coordonnée dans la base e du j ème vecteur
de la famille f . Alors f est une base si et seulement si la matrice P = (pi,j ) est inversible. Dans ce
cas, P est noté Pef (ou bien Pe→f ) et on dit que Pef = (pi,j ) est la matrice de passage de la base e
vers la base f .

c Éric Merle 4 MPSI2, LLG


156
Semaine 30 : Résumé de cours 7 Changement de base

Interprétation tabulaire : Avec les notations précédentes,

 f1 ··· fn 
p1,1 ··· p1,n e1
Pef =  . ..  .. .
 .. .  .
pn,1 ··· pn,n en

Remarque. Si f = (fj )1≤j≤p est une famille de p vecteurs de E, on pose



matfe = (e∗i (fj )) 1≤i≤n ∈ Mn,p (K). Alors rg(matfe ) = rg(f ).
1≤j≤p

Propriété. Soit e une base de E :


Pour toute matrice P inversible d’ordre n, il existe une unique base f de E telle que P = Pef .
0 0
Propriété. Soit e et e0 deux bases de E. Alors Pee = mat(IdE , e0 , e) = mat(IdE )ee .
Il faut savoir le démontrer.
Formule de changement de base pour les vecteurs :

Soit e et e0 deux bases de E. Soit x ∈ E. On pose X = mat(x)e le vecteur colonne des coordonnées
de x dans la base e. De même on pose X 0 = mat(x)e0 .
0 0
Alors, X = Pee X 0 , ou encore mat(x)e = Pee mat(x)e0 .
Il faut savoir le démontrer.
0 0 −1
Formule. Si e, e0 et e00 sont trois bases de E, Pee” = Pee Pee”
0 et Pee = Pee0 .
Formule de changement de bases pour les applications linéaires :
Soient E et F deux K-espaces vectoriels de dimensions finies.
On suppose que e et e0 sont deux bases de E et que f et f 0 sont deux bases de F .
0 0 0
Soit u ∈ L(E, F ). Notons M = mat(u)ef , M 0 = mat(u)ef 0 , P = Pee et Q = Qff .
0 0
Alors, M 0 = Q−1 M P c’est-à-dire mat(u)ef 0 = Pff0 × mat(u)ef × Pee .
Il faut savoir le démontrer.
Formule de changement de bases pour les endomorphismes :
Soit E un K-espace vectoriel de dimension finie et u ∈ L(E). On suppose que e et e0 sont deux bases
0
de E. Notons M = mat(u, e), M 0 = mat(u, e0 ) et P = Pee . Alors, M 0 = P −1 M P .

c Éric Merle 5 MPSI2, LLG


157
Semaine 31 – Diagonalisation et trigonalisation, trace d’un endomorphisme, matrices équivalentes et sem-
blables, hyperplans, déterminants (formes multilinéaires)

Semaine 31 (du 25 au 30 mai) :


Résumé de cours

Notation. K désigne un corps quelconque.

1 Diagonalisation et trigonalisation
Définition. Soit E un K-espace vectoriel de dimension n ∈ N∗ et u ∈ L(E).
On dit que u est diagonalisable si et seulement si il vérifie l’une des propriétés suivantes :
i) Il existe une base e de E telle que mat(u, e) est diagonale.
ii) Il existeMune base de E constituée de vecteurs propres de u.
iii) E = Eλu .
λ∈SpK (u)
X
iv) n = dim(Eλu ).
λ∈SpK (u)
Il faut savoir le démontrer.
Propriété. les homothéties, les projecteurs et les symétries sont diagonalisables.
Définition. Soit M ∈ Mn (K). On dit que M est diagonalisable si et seulement si son endomorphisme
canoniquement associé est diagonalisable.
Propriété. M ∈ Mn (K) est diagonalisable si et seulement si il existe P ∈ GLn (K) telle que P −1 M P
est une matrice diagonale.
Il faut savoir le démontrer.
Définition. Soit M ∈ Mn (K) une matrice diagonalisable. “diagonaliser” M , c’est déterminer une
matrice diagonale D et une matrice inversible P telles que M = P DP −1 .
Définition. Un endomorphisme u est trigonalisable si et seulement s’il existe une base dans laquelle
la matrice de u est triangulaire supérieure.
Définition. M ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme canoniquement associé
à M est trigonalisable, c’est-à-dire si et seulement si il existe P ∈ GLn (K) telle que P −1 M P est
triangulaire supérieure.
Définition. Soit M ∈ Mn (K). “Trigonaliser ” M , c’est déterminer si M est trigonalisable, et dans
ce cas, c’est calculer P ∈ GLn (K) et T triangulaire supérieure telles que M = P T P −1 .

2 Trace d’un endomorphisme


Définition.
Soit E un K-espace vectoriel de dimension finie. La quantité Tr(mat(u, e)) ne dépend pas du choix de
la base e de E. On la note Tr(u). C’est la trace de l’endomorphisme u.
Propriété. Si u, v ∈ L(E), alors Tr(uv) = Tr(vu).

1
158
Semaine 31 : Résumé de cours 3 Matrices équivalentes et matrices semblables

Propriété. Soit E un K-espace vectoriel de dimension finie.


Si p est un projecteur de E, alors Tr(p) = rg(p).
Il faut savoir le démontrer.

3 Matrices équivalentes et matrices semblables


3.1 Matrices équivalentes

Définition. Deux matrices M et M 0 de MK (n, p) sont équivalentes si et seulement s’il existe


P ∈ GLp (K) et Q ∈ GLn (K) telles que M 0 = QM P −1 .
On définit ainsi une relation d’équivalence sur MK (n, p).
Propriété. Deux matrices sont équivalentes si et seulement si elles représentent une même application
linéaire dans des bases différentes, autant pour la base de départ que pour la base d’arrivée.
Propriété. Deux matrices sont équivalentes si et seulement si il est possible de transformer l’une en
l’autre par une succession d’opérations élémentaires portant sur les lignes ou sur les colonnes.
Il faut savoir le démontrer.
Théorème. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0, et
soit u ∈ L(E, F ). Notons r le rang de u. Il existe une base e de E et  une base f de Ftelles que
Ir 0r,p−r ∆
mat(u, e, f ) admet la décomposition en blocs suivante : mat(u, e, f ) = = Jn,p,r .
0n−r,r 0n−r,p−r
Il faut savoir le démontrer.
Propriété. Si M ∈ MK (n, p), M est équivalente à Jn,p,r , où r désigne le rang de M .
Corollaire. Deux matrices sont équivalentes si et seulement si elles ont le même rang.
Il faut savoir le démontrer.

3.2 Propriétés du rang d’une matrice

Propriété. Pour toute matrice M ∈ MK (n, p), rg(M ) = rg(t M ).


On en déduit que le rang de M est aussi le rang de la famille de ses vecteurs lignes.
Il faut savoir le démontrer.
Propriété. Si l’on effectue une série de manipulations élémentaires sur une matrice, on ne modifie
pas le rang de cette matrice.
Remarque. Pour déterminer le rang d’une matrice, une méthode consiste donc à transformer cette
matrice en une matrice dont on connaı̂t le rang par une succession d’opérations élémentaires portant
sur les lignes ou sur les colonnes. On peut en particulier utiliser l’algorithme du pivot.
Propriété. Le rang d’une matrice est égal au nombre d’étapes dans la méthode du pivot global.
Propriété. Soit M ∈ MK (n, p). Si P est une matrice extraite de M , alors rg(P ) ≤ rg(M ).
Propriété. Soit A ∈ MK (n, p) une matrice non nulle.
rg(A) est égal à la taille maximale des matrices inversibles extraites de A.
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


159
Semaine 31 : Résumé de cours 4 Les hyperplans

3.3 Matrices semblables


Définition. Deux matrices carrées M et M 0 dans Mn (K) sont semblables si et seulement s’il existe
P ∈ GLn (K) tel que M 0 = P M P −1 . On définit ainsi une seconde relation d’équivalence sur Mn (K),
appelée relation de similitude.
Propriété. Deux matrices sont semblables si et seulement si elles représentent un même endomor-
phisme dans des bases différentes, en imposant de prendre une même base au départ et à l’arrivée.
Propriété. Soient (M, M 0 ) ∈ Mn (K)2 et P ∈ GLn (K) tels que M 0 = P M P −1 .
Alors, pour tout n ∈ N, M 0n = P M n P −1 et pour tout Q ∈ K[X], Q(M 0 ) = P Q(M )P −1 .
Si M 0 et M sont inversibles, pour tout n ∈ Z, M 0n = P M n P −1 .

4 Les hyperplans
Dans tout ce chapitre, on fixe un K-espace vectoriel E, où K est un corps.

4.1 En dimension quelconque


Définition. Soit H un sous-espace vectoriel de E. On dit que H est un hyperplan si et seulement si
il existe une droite vectorielle D telle que H ⊕ D = E.
Propriété. Soit H un hyperplan et D une droite non incluse dans H. Alors H ⊕ D = E.
Il faut savoir le démontrer.
Propriété. Soit H une partie de E. H est un hyperplan de E si et seulement si il est le noyau d’une
forme linéaire non nulle. De plus, si H = Ker(ϕ) = Ker(ψ), alors ϕ et ψ sont colinéaires.
Il faut savoir le démontrer.
Définition. Soient H un hyperplan de E et ϕ ∈ L(E, K) \ {0} tel que H = Ker(ϕ).
Alors x ∈ H ⇐⇒ [(E) : ϕ(x) = 0]. On dit que (E) est équation de H.

4.2 En dimension finie


Notation. On suppose que E est un espace de dimension finie notée n, avec n > 0.
Si e = (e1 , . . . , en ) est une base de E, pour tout i ∈ {1, . . . , n}, on note e∗i l’application qui associe à
tout vecteur x de E sa ième coordonnée dans la base e.
Propriété. Avec les notations précédentes, la famille e∗ = (e∗i )1≤i≤n est une base de L(E, K) = E ∗ ,
que l’on appelle la base duale de e.
Il faut savoir le démontrer.
Remarque. Les hyperplans de E sont les sous-espaces vectoriels de E de dimension n − 1.
Définition. Soit e = (e1 , . . . , en ) une base de E et H un hyperplan de E.
Xn
Si H = Ker(ψ), où ψ ∈ E ∗ , en notant ψ = αi e∗i , l’équation de l’hyperplan H devient
i=1
n
X n
X
x= xi ei ∈ H ⇐⇒ αi xi = 0 : c’est une équation cartésienne de H.
i=1 i=1

Exemple. Dans un plan vectoriel rapporté à une base (~ı, ~), une droite vectorielle D a une équation
cartésienne de la forme : →

v = x~ı + y~ ∈ D ⇐⇒ ax + by = 0, où (a, b) ∈ R2 \ {0}.
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), un plan vectoriel P a
une équation cartésienne de la forme : →

v = x~ı+y~+z~k ∈ P ⇐⇒ ax+by+cz = 0, où (a, b, c) ∈ R3 \{0}.

c Éric Merle 3 MPSI2, LLG


160
Semaine 31 : Résumé de cours 5 Déterminants

4.3 Les hyperplans affines


Notation. Soit E un espace affine de direction E. On fixe un point O ∈ E.
Définition. Un hyperplan affine est un sous-espace affine dirigé par un hyperplan de E.
Propriété. Soit H une partie de E. H est un hyperplan affine de E si et seulement si il existe
−−→
ϕ ∈ L(E, K) \ {0} et a ∈ K tel que, pour tout M ∈ E, [M ∈ H ⇐⇒ ϕ(OM ) = a].
−−→
Dans ce cas, la condition ϕ(OM ) = a est appelée une équation de H.
De plus, la direction de H est l’hyperplan Ker(ϕ), d’équation ϕ(x) = 0 en l’inconnue x ∈ E.
Il faut savoir le démontrer.


Remarque. Dans le cas particulier où E = E et où O = 0 , l’équation devient ϕ(M ) = a, donc les
hyperplans affines de E sont exactement les ϕ−1 ({a}), avec ϕ ∈ L(E, K) \ {0} et a ∈ K.
Propriété. Supposons que E est de dimension finie égale à n ∈ N∗ et que E est muni d’une base
e = (e1 , . . . , en ), dont la base duale est notée e∗ = (e∗1 , . . . , e∗n ). Soit H un hyperplan affine de E,
−−→
dont une équation est Ψ(OM ) = a. Notons (α1 , . . . , αn ) les coordonnées de Ψ dans e∗ . Si M a pour
Xn
coordonnées (x1 , . . . , xn ) dans le repère affine (O, e), alors M ∈ H ⇐⇒ αi xi = a .
i=1
C’est la forme générale d’une équation cartésienne d’hyperplan affine en dimension n.

4.4 Application aux systèmes linéaires


Notation. On fixe (n, p) ∈ N∗ 2 et on considère un système linéaire de n équations à p inconnues de
p
X
la forme : ∀i ∈ Nn , αi,j xj = bi , où, pour tout i, j, αi,j ∈ K, pour tout i, bi ∈ K, les p inconnues
j=1
étant x1 , . . . , xp , éléments de K.

Propriété. Notons M la matrice de (S). Ainsi (S) ⇐⇒ M X = B, où B = (bi ) ∈ Kn .


Si (S) est compatible, l’ensemble des solutions de (S) est un sous-espace affine de Kp dimension p − r,
où r désigne le rang de M et dont la direction est Ker(M ).
Propriété. Soient E et F des K-espaces vectoriels de dimensions p et n munis de bases
e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On note u l’unique application linéaire de L(E, F ) telle que
mat(u, e, f ) = M , x le vecteur de E dont les coordonnées dans e sont X et b le vecteur de F dont les
coordonnées dans f sont B. Alors (S) ⇐⇒ u(x) = b. Avec ces notations, l’ensemble des solutions de
(S) est soit vide, soit un sous-espace affine de E de direction Ker(u).
Quatrième interprétation d’un système linéaire : A l’aide de formes linéaires.
p
X
Notons e∗ = (e∗1 , . . . , e∗p ) la base duale de e. Pour tout i ∈ {1, . . . , n}, posons li = αi,j e∗j .
j=1
Les li sont des formes linéaires telles que (S) ⇐⇒ [∀i ∈ {1, . . . , n} li (x) = bi ].
\n
L’ensemble des solutions de (S) est li −1 ({bi }). C’est une intersection d’hyperplans affines.
i=1

Propriété. Si E est un K-espace vectoriel de dimension p, l’intersection de r hyperplans vectoriels


de E est un sous-espace vectoriel de dimension supérieure à p − r.
Réciproquement tout sous-espace vectoriel de E de dimension p − r où r ≥ 1 est une intersection de
r hyperplans de E, donc est caractérisé par un système de r équations linéaires.
Il faut savoir le démontrer.
Propriété. Tout sous-espace affine de E peut être caractérisé par un système d’équations linéaires.
Tout sous-espace affine différent de E est une intersection d’un nombre fini d’hyperplans affines.

c Éric Merle 4 MPSI2, LLG


161
Semaine 31 : Résumé de cours 5 Déterminants

5 Déterminants
Notation. K désigne un corps quelconque.

5.1 Applications multilinéaires

Définition. Soient p ∈ N∗ et (E1 , . . . , Ep ) une famille de p K-espaces vectoriels.


Soient F un K-espace vectoriel et f une application de E1 × · · · × Ep dans F .
f est une application p-linéaire si et seulement si, pour tout j ∈ Np
et pour tout (a1 , . . . , aj−1 , aj+1 , . . . , ap ) ∈ E1 × · · · × Ej−1 × Ej+1 × . . . × Ep ,
E −→ F
l’application j est linéaire.
xj 7−→ f (a1 , . . . , aj−1 , xj , aj+1 , . . . , ap )
Définition. Une application bilinéaire est une application 2-linéaire.
Notation.
— Lp (E1 , . . . , Ep ; F ) désigne l’ensemble des applications p-linéaires de E1 × · · · × Ep dans F .
C’est un sous-espace vectoriel de F(E1 × · · · × Ep , F ).
— On note Lp (E, F ) = Lp (E, . . . , E ; F ) et Lp (E) = Lp (E, K).
| {z }
p fois
Les éléments de Lp (E) sont appelés des formes p-linéaires sur E.
Notation. On fixe p ∈ N∗ et deux K-espaces vectoriels E et F .
Propriété. Soit u1 , . . . , up p applications linéaires de E dans K.
u: E p −→ K
p
Y
Alors l’application (x1 , . . . , xp ) 7−→ ui (xi ) est une forme p-linéaire.
i=1

σ(f ) : E p −→ F
Définition. Soient σ ∈ Sp et f ∈ Lp (E, F ). On note .
(x1 , . . . , xp ) 7−→ f (xσ(1) , . . . , xσ(p) )
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire symétrique (resp : antisymétrique) si
et seulement si pour tout σ ∈ Sp , σ(f ) = f (resp : σ(f ) = ε(σ)f , où ε(σ) désigne la signature de la
permutation σ).
Propriété. Soit f ∈ Lp (E, F ).
f est symétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = f .
f est antisymétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = −f .
Il faut savoir le démontrer.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire alternée si et seulement si elle
annule tout p-uplet de vecteurs de E contenant au moins deux vecteurs égaux.
Propriété. Soit f ∈ Lp (E, F ).
Si f est alternée, alors elle est antisymétrique.
Lorsque car(K) 6= 2, alternée ⇐⇒ antisymétrique.
Il faut savoir le démontrer.
Propriété. f ∈ Lp (E, F ) est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p , f (x1 , . . . , xp )
ne varie pas lorsque l’on ajoute à l’un des xi une combinaison linéaire des autres xj , ou encore si et
seulement si l’image par f de toute famille liée de vecteurs est nulle.
Corollaire. Si E est de dimension n ∈ N∗ et si p > n, toute forme p-linéaire alternée sur E est nulle.

c Éric Merle 5 MPSI2, LLG


162
Semaine 31 : Résumé de cours 5 Déterminants

5.2 Les trois notions de déterminants


Au sein de ce paragraphe, E désignera un K-espace vectoriel de dimension finie égale à n, avec n > 0.

5.2.1 Volume
Supposons temporairement que K = R. Pour tout x = (x1 , . . . , xn ) ∈ E n , on note Hx l’hyperpa-
n
X
rallélépipède Hx = { ti xi / t1 , . . . , tn ∈ [0, 1]}.
i=1
Si vol est une application de E n dans R telle que, pour tout x ∈ E n , |vol(x)| représente le volume
de Hx et le signe de vol(x) représente l’orientation du n-uplet x, alors en imposant des contraintes
raisonnables aux notions de volume et d’orientation, l’application vol est nécessairement une forme
n-linéaire alternée.

5.2.2 Déterminant d’un système de n vecteurs

Notation. On note An (E) l’ensemble des formes n-linéaires alternées.

Définition. Soit e = (e1 , . . . , en ) une base de E et x = (x1 , . . . , xn ) ∈ E n .


X n
Y

Le déterminant de x dans la base e est le scalaire dete (x1 , . . . , xn ) = ε(σ) e∗σ(j) (ej ).
σ∈Sn j=1

Théorème. Soit e une base de E. Si f est une forme n-linéaire alternée sur E, alors f = f (e)dete .
Il faut savoir le démontrer.
X n
Y X n
Y

Propriété. dete (x1 , . . . , xn ) = ε(σ) eσ(j) (ej ) = ε(σ) e∗j (xσ(j) ).
σ∈Sn j=1 σ∈Sn j=1
Il faut savoir le démontrer.
Propriété. dete est une forme n-linéaire alternée telle que dete (e) = 1.
Il faut savoir le démontrer.
Propriété. An (E) est une droite vectorielle dirigée par dete .
Remarque. dete (x) est donc la seule définition raisonnable du volume algébrique de Hx , si l’on
choisit l’unité de volume de sorte que le volume de He soit égal à 1.

5.2.3 Déterminant d’une matrice

Définition. Le déterminant de M ∈ Mn (K) est le déterminant des vecteurs colonnes de M dans la


base canonique de Kn .
α1,1 ··· α1,n
Représentation tabulaire. Si M = (αi,j ) ∈ Mn (K). On note det(M ) = .. .. .
. .
αn,1 ··· αn,n
X n
Y X n
Y
Propriété. det(M ) = ε(σ) Mj,σ(j) = ε(σ) Mσ(j),j = det(t M ).
σ∈Sn j=1 σ∈Sn j=1
Ainsi det(M ) est aussi le déterminant des vecteurs lignes de M dans la base canonique de Kn .
Formule de Sarrus :
p1,1 p1,2 p1,3
p2,1 p2,2 p2,3 = p1,1 p2,2 p3,3 + p2,1 p3,2 p1,3 + p3,1 p1,2 p2,3
p3,1 p3,2 p3,3
−p1,3 p2,2 p3,1 − p2,3 p3,2 p1,1 − p3,3 p1,2 p2,1 .

c Éric Merle 6 MPSI2, LLG


163
Semaine 31 : Résumé de cours 5 Déterminants

5.2.4 Déterminant d’un endomorphisme

Définition. Soit u ∈ L(E). Le déterminant de l’endomorphisme u est l’unique scalaire, noté


det(u), vérifiant ∀f ∈ An (E) ∀x ∈ E n f (u(x)) = (det(u))f (x).
Il faut savoir le démontrer.
Propriété. Soient e une base de E et u ∈ L(E).
Pour tout (x1 , . . . , xn ) ∈ E n , dete (u(x1 ), . . . , u(xn )) = det(u)dete (x1 , . . . , xn ) .
En particulier, det(u) = dete (u(e1 ), . . . , u(en )).
Propriété. Pour toute base e de E et pour tout u ∈ L(E), det(u) = det(M at(u, e)).

c Éric Merle 7 MPSI2, LLG


164
Semaine 32 – Déterminants (calculs), produits scalaires, espaces préhilbertiens, espaces vectoriels normés de
dimensions finies, orthogonalité

Semaine 32 (du 1er au 5 juin) :


Résumé de cours

1 Déterminants (suite et fin)


1.1 Propriétés du déterminant

Notation. On fixe n ∈ N∗ , E un K-espace vectoriel de dimension n et e une base de E.


Propriété. dete est n-linéaire alternée, donc antisymétrique. dete (e) = 1.
dete (x1 , . . . , xn ) n’est pas modifié si l’on ajoute à l’un des xi une combinaison linéaire des autres xj .
Propriété. Le déterminant d’une matrice M de Mn (K) est modifié en :
— det(M ) pour une opération élémentaire du type Li ←− Li + λLj ou Ci ←− Ci + λCj ;
— αdet(M ) pour une opération élémentaire du type Li ←− αLi ou Ci ←− αCi ;
— −detM pour un échange entre deux lignes ou deux colonnes.
ATTENTION : En général, det(αM + N ) 6= αdet(M ) + det(N ).
Méthode : Pour calculer le déterminant d’une matrice, on tente de modifier la matrice par des
manipulations élémentaires, afin de se ramener à une matrice dont on connait le rang ou le déterminant.
Propriété. det(IdE ) = 1, det(In ) = 1.
Pour tout λ ∈ K et u ∈ L(E), det(λu) = λn det(u).
Pour tout λ ∈ K et A ∈ Mn (K), det(λA) = λn det(A).
Théorème. Si f, g ∈ L(E), alors det(f g) = det(f ) × det(g) .
Pour tout A, B ∈ Mn (K), det(AB) = det(A)det(B).
Il faut savoir le démontrer.
Formule de changement de base : Soient e et e0 deux bases de E, et soit x une famille de n
vecteurs de E. Alors, dete0 (x) = dete0 (e)dete (x) .

Théorème. x est une base si et seulement si dete (x) 6= 0.


Il faut savoir le démontrer.
Corollaire. Soit u ∈ L(E) et A ∈ Mn (K).
1
u ∈ GL(E) si et seulement si det(u) 6= 0 et dans ce cas, det(u−1 ) = .
det(u)
1
A ∈ GLn (K) si et seulement si det(A) 6= 0 et dans ce cas, det(A−1 ) = .
det(A)
Remarque. det est donc un morphisme du groupe GL(E) vers (K∗ , ×).
Son noyau est un sous-groupe (distingué) de GL(E), noté SL(E).
C’est le groupe spécial linéaire de E : SL(E) = {u ∈ L(E) / det(u) = 1}.
En particulier de SLn (K) = {M ∈ Mn (K) / det(M ) = 1} : c’est le groupe spécial linéaire de degré n.
Propriété. Deux matrices carrées semblables ont le même déterminant.

1
165
Semaine 32 : Résumé de cours 1 Déterminants (suite et fin)

1.2 Calcul des déterminants

Définition. Soit M = (mi,j ) ∈ Mn (K). Pour tout (i, j) ∈ N2n , notons i,j M la matrice extraite de M
en ôtant la ième ligne et la j ème colonne. La quantité det(i,j M ) s’appelle le (i, j)ème mineur de M
La quantité Ci,j = (−1)i+j det(i,j M ) s’appelle le (i, j)ème cofacteur de M .
Théorème. Pour tout j ∈ Nn ,
n
X
det(M ) = mi,j Ci,j : c’est le développement de det(M ) selon sa j ème colonne.
i=1
n
X
Pour tout i ∈ Nn , det(M ) = mi,j Ci,j : c’est le développement de det(M ) selon sa ième ligne.
j=1
Il faut savoir le démontrer.
Définition. On appelle comatrice de M la matrice (Ci,j ) 1≤i≤n des cofacteurs de M .
1≤j≤n
On la notera Com(M ) ou bien Cof (M ).
La transposée de la comatrice s’appelle la matrice complémentaire de M .
Théorème. ∀M ∈ Mn (K) M t Cof (M ) = t Cof (M )M = det(M )In .
Il faut savoir le démontrer.
1 t
Corollaire. Lorsque M est inversible, M −1 = Cof (M ).
det(M )
Théorème. Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs, où, pour tout i, j ∈ Na ,
1≤j≤a
a
Y
Mi,j ∈ Mni ,nj (K). Si M est triangulaire supérieure (ou inférieure) par blocs, det(M ) = det(Mi,i ).
i=1
Il faut savoir le démontrer.
Corollaire. Le déterminant d’une matrice triangulaire supérieure ou inférieure est égal au produit
de ses éléments diagonaux.

1.3 Formules de Cramer

Propriété. Considérons un système linéaire de Cramer (S) : M X = B, où M ∈ GLn (K), B ∈ Kn ,


 
x1
. det(j M )
dont l’unique solution est notée X =  ..  ∈ Kn . Alors, pour tout j ∈ {1, . . . , n}, xj =
det(M )
xn
où j M est la matrice dont les colonnes sont celles de M , sauf la j ème qui est égale à B.
Il faut savoir le démontrer.

1.4 Exemples de déterminants.


1.4.1 Déterminant de Vandermonde

Définition. Soient n ∈ N et (a0 , . . . , an ) ∈ Kn+1 .


j−1
La matrice de Vandermonde est V(a0 , . . . , an ) = (ai−1 ) ∈ Mn+1 (K),
et le déterminant de Vandermonde est V (a0 , . . . , an ) = det(V(a0 , . . . , an )).
Y
Propriété. V (a0 , . . . , an ) = (aj − ai ).
0≤i<j≤n
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


166
Semaine 32 : Résumé de cours 2 Produits scalaires

1.4.2 Déterminants tridiagonaux

Définition. Soient n un entier supérieur ou égal à 2 et M = (mi,j ) ∈ Mn (K).


M est tridiagonale si et seulement si , pour tout (i, j) ∈ N2n , |i − j| ≥ 2 =⇒ mi,j = 0.
Propriété. Soit M = (mi,j ) ∈ Mn (K) une matrice tridiagonale. Pour tout k ∈ Nn , notons Mk la
matrice extraite de M en ne retenant que ses k premières colonnes et ses k premières lignes. Alors la
suite (det(Mk ))1≤k≤n vérifie une relation de récurrence linéaire d’ordre 2.

1.4.3 Déterminants circulants

Définition. Une matrice M ∈ Mn (K) est circulante si et seulement si on passe de l’une de ses lignes
à la suivante selon une permutation circulaire des coefficients vers la droite.
Méthode : Pour des matrices circulantes simples, on peut commencer par remplacer la première ligne
par la somme de toutes les lignes. La première ligne devient alors colinéaire à (1, 1, . . . , 1). On peut
ensuite effectuer des différences de colonnes pour placer des 0 sur la première ligne.

2 Produits scalaires
2.1 Définition d’un produit scalaire

Notation. E est un R-espace vectoriel.


Définition. ϕ ∈ L2 (E) est définie si et seulement si ∀x ∈ E \ {0}, ϕ(x, x) 6= 0.
Définition. ϕ ∈ L2 (E) est positive si et seulement si ∀x ∈ E, ϕ(x, x) ≥ 0.
Définition. Un produit scalaire est une forme bilinéaire symétrique définie positive,
c’est-à-dire une application ϕ : E 2 −→ R telle que, pour tout x, y, z ∈ E et λ ∈ R,
— ϕ(x, y) = ϕ(y, x) ;
— ϕ(λx + y, z) = λϕ(x, z) + ϕ(y, z) ;
— x 6= 0 =⇒ ϕ(x, x) > 0.
Un espace préhilbertien réel est un couple (E, ϕ), où E est un R-espace vectoriel et où ϕ est un
produit scalaire sur E.

2.2 Exemples
E!2 −→ R
X X X
 Si e = (ei )i∈I est une base de E, xi ei , yi ei 7−→ xi yi est un p.s sur E.
i∈I i∈I i∈I
ϕ: Rn × R n −→ R
Xn
 est le produit scalaire canonique de Rn .
((α1 , . . . , αn ), (β1 , . . . , βn )) 7−→ αi βi
i=1
Alors, pour tout X, Y ∈ Rn , ϕ(X, Y ) = t XY .
Z b
 En posant ϕ(f, g) = f (t)g(t)dt, ϕ est un produit scalaire sur C([a, b], R).
a
Il faut savoir le démontrer.
Exercice. Montrer que (M, N ) 7−→ Tr(t M N ) est un produit scalaire sur Mn (R).
Il faut savoir le démontrer.
P
Notation.  Pour p ∈ R∗+ , lp = {(un ) ∈ RN / |un |p CV}.

 Notons l l’ensemble des suites bornées de réels.

c Éric Merle 3 MPSI2, LLG


167
Semaine 32 : Résumé de cours 3 Espaces vectoriels normés de dimensions finies

Propriété. l1 , l2 et l∞ sont des sous-espaces vectoriels de RN .


De plus si (an ) et (bn ) sont dans l2 , alors (an bn ) est un élément de l1 .
X
Propriété. Pour tout (un ), (vn ) ∈ l2 , on pose ((un )|(vn )) = un vn .
n∈N
l2 muni de (.|.) est un espace préhilbertien.

2.3 Identités remarquables

Notation. E est un espace préhilbertien réel. Son produit scalaire sera noté (.|.).
p
Définition. Pour tout x ∈ E, la norme de x est kxk = (x|x).
Formule. Pour tout ((x, y), α) ∈ E 2 × R,

kαxk = |α|kxk,
kx + yk2 = kxk2 + kyk2 + 2(x|y),
kx − yk2 = kxk2 + kyk2 − 2(x|y),
kx + yk2 − kx − yk2 = 4(x|y),
kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ).

La dernière formule est la formule du parallélogramme ou formule de la médiane.


Les seconde, troisième et quatrième formules sont des formules de polarisation.
Théorème de Pythagore : (x|y) = 0 ⇐⇒ kx + yk2 = kxk2 + kyk2 .

2.4 Inégalités de Cauchy-Schwarz et de Minkowski


Inégalité de Cauchy-Schwarz : ∀(x, y) ∈ E 2 |(x|y)| ≤ kxkkyk,
avec égalité si et seulement si x et y sont colinéaires.
Il faut savoir le démontrer.
Inégalité de Minkowski, ou inégalité triangulaire : ∀(x, y) ∈ E 2 kx + yk ≤ kxk + kyk,
avec égalité ssi x et y sont positivement colinéaires, i.e y = 0 ou il existe k ∈ R+ tel que x = ky.
Il faut savoir le démontrer.
Théorème. La norme associée au produit scalaire d’un espace préhilbertien est bien une norme.

3 Espaces vectoriels normés de dimensions finies


Notation. K désigne R ou C.
Propriété. Suites à valeurs dans un espace de dimension finie. On suppose que E est un
K-espace vectoriel de dimension finie, muni d’une base e = (e1 , . . . , eq ). Soit (xn ) une suite de vecteurs
Xq
de E. Pour tout n ∈ N, on note xn = xi,n ei . Alors, la suite (xn ) converge dans E si et seulement
i=1
q
X
si, pour tout i ∈ Nq , la suite (xi,n ) converge dans K, et, dans ce cas, lim xn = ( lim xi,n )ei .
n→+∞ n→+∞
i=1

Propriété. Limite d’une application à valeurs dans un espace de dimension finie. Sup-
posons que F est un K-espace vectoriel de dimension finie dont une base est (e1 , . . . , eq ) et notons
f : E −→ F q
q X
X . Soient A une partie de Df , a ∈ A et l = li e i ∈ F .
x 7−→ f (x) = fi (x)ei
i=1
i=1

c Éric Merle 4 MPSI2, LLG


168
Semaine 32 : Résumé de cours 4 Orthogonalité

Alors, f (x) −→
x→a
l si et seulement si pour tout i ∈ Nq , fi (x) −→ l.
x→a i
x∈A x∈A

Propriété. Continuité en un point d’une application à valeurs dans un espace de dimen-


sion finie. Supposons que F est un K-espace vectoriel de dimension finie dont une base est (e1 , . . . , eq )
f : E −→ F
Xq
et notons . Soit a ∈ Df .
x 7−→ f (x) = fi (x)ei
i=1
Alors, f est continue en a si et seulement si pour tout i ∈ Nq , fi est continue en a.
Théorème.
Les parties compactes d’un espace vectoriel de dimension finie sont exactement ses fermés bornés.
Théorème de Bolzano-Weierstrass.
De toute suite bornée de vecteurs d’un K-espace vectoriel de dimension finie, on peut extraire une
sous-suite convergente.
Théorème. Tout K-espace vectoriel de dimension finie est complet.
Propriété. Soit G un K-espace vectoriel normé de dimension finie ou infinie. Tout sous-espace
vectoriel de G de dimension finie est fermé.
Il faut savoir le démontrer.
Théorème.
Sur un K-espace vectoriel de dimension finie, toutes les normes sont équivalentes.
Théorème. Toute application linéaire dont l’ensemble de départ est de dimension finie est continue.
Il faut savoir le démontrer.
Théorème. Une application p-linéaire est toujours continue lorsqu’elle est définie sur le produit
cartésien de p K-espaces vectoriels de dimensions finies.
Propriété. Les applications polynomiales de Kn dans K, dépendant de n variables, sont continues.
Si E est un K-espace vectoriel de dimension finie et si e est une base de E, lorsque f : E −→ K
est telle que f (x) dépend polynomialement des coordonnées du vecteur x dans la base e, alors f est
continue.

4 Orthogonalité
Notation. E est un espace préhilbertien. Son produit scalaire est noté < ., . >.

4.1 Orthogonalité en dimension quelconque


Définition. Soit (x, y) ∈ E 2 . x et y sont orthogonaux ssi < x, y >= 0. On note x⊥y.
Définition. Si A ⊂ E, A⊥ = {x ∈ E/∀y ∈ A x⊥y} : l’orthogonal de A est l’ensemble des vecteurs
de E qui sont orthogonaux à tous les vecteurs de A.
Exemple. Si a ∈ E \ {0}, a⊥ est un hyperplan.
Propriété. Soit A une partie de E. Alors A⊥ est un sous-espace vectoriel de E.
Définition. Soient A et B deux parties de E. On dit qu’elles sont orthogonales si et seulement si
tout vecteur de A est orthogonal à tout vecteur de B : A⊥B ⇐⇒ [∀(a, b) ∈ A × B, a⊥b].
Propriété. Soient A et B deux parties de E. A⊥B ⇐⇒ A ⊂ B ⊥ ⇐⇒ B ⊂ A⊥ .
Propriété. A ⊆ B =⇒ B ⊥ ⊆ A⊥ , (A ∪ B)⊥ = A⊥ ∩ B ⊥ , A⊥ = (Vect(A))⊥ et A ⊆ (A⊥ )⊥ .
Il faut savoir le démontrer.
Remarque. Si F et G sont deux sous-espaces vectoriels, (F + G)⊥ = F ⊥ ∩ G⊥ ,
mais en général, (F ∩ G)⊥ 6= F ⊥ + G⊥ et F ⊥⊥ 6= F .

c Éric Merle 5 MPSI2, LLG


169
Semaine 33 – Orthogonalité en dimension finie, distance à un espace vectoriel, Gram-Schmidt, endomor-
phismes (symétriques, orthogonaux) d’un espace euclidien, groupe orthogonal, rotations, orientation d’un
espace vectoriel réel, géométrie plane, isométries vectorielles

Semaine 33 (du 8 au 12 juin) :


Résumé de cours

Espaces préhilbertiens
1 Orthogonalité
1.1 Orthogonalité en dimension quelconque (suite)

Propriété. {0}⊥ = E et E ⊥ = {0}.


Définition. (xi )i∈I ∈ E I est orthogonale si et seulement si : ∀(i, j) ∈ I 2 , (i 6= j =⇒ xi ⊥xj ).
Elle est orthonormale si et seulement si : ∀(i, j) ∈ I 2 , < xi , xj >= δi,j .
Relation de Pythagore : Si (x1 , . . . , xn ) une famille orthogonale de vecteurs de E,
n
X n
X
k xi k2 = kxi k2 . Lorsque n ≥ 3, la réciproque est fausse.
i=1 i=1

Propriété. Une famille orthogonale sans vecteur nul est libre.


En particulier, une famille orthonormale est toujours libre.
Propriété.
X Supposons queX E admet une base orthonormée notée (ei )i∈I .
Si x = αi ei ∈ E et y = βi ei ∈ E, alors
i∈I i∈I
X X X
< x, y >= 2
αi βi , kxk = αi2 et x = < ei , x > ei .
i∈I i∈I i∈I

Propriété. Supposons que E est muni d’une base e = (ei )i∈I .


Alors il existe un unique produit scalaire sur E pour lequel e est une base orthonormée.
Propriété. Soient n ∈ N∗ et (Ei )1≤i≤n une famille de n sous-espaces vectoriels de E deux à deux
M⊥ ⊥
M ⊥
M
orthogonaux. Alors ils forment une somme directe que l’on note E1 ··· En = Ei .
1≤i≤n

Définition. Soient F et G deux sous-espaces vectoriels de E.



G est un supplémentaire orthogonal de F si et seulement si E = F ⊕ G.

Propriété. Soit F un sous-espace vectoriel de E. F admet au plus un supplémentaire orthogonal.



Il s’agit de F ⊥ . Il est cependant possible que F ⊕ F ⊥ 6= E.
Il faut savoir le démontrer.

1
170
Semaine 33 : Résumé de cours 1 Orthogonalité

1.2 En dimension finie


E −→ L(E, R)
Propriété. Si E est de dimension finie, l’application est un isomorphisme.
x 7−→ < x, . >
Théorème. On ne suppose pas que E est de dimension finie. Si F est un sous-espace vectoriel de
dimension finie de E, alors F ⊥ est l’unique supplémentaire orthogonal de F . De plus F = (F ⊥ )⊥ .
Il faut savoir le démontrer.
Définition. Un espace euclidien est un espace préhilbertien de dimension finie.
Hypothèse : jusqu’à la fin du paragraphe, E est supposé euclidien de dimension n > 0.
Propriété. Si F et G sont deux sous-espaces vectoriels de E, alors (F ∩ G)⊥ = F ⊥ + G⊥ .
Propriété. Si F est un sous-espace vectoriel de E, alors dim(F ⊥ ) = dimE − dimF .
Propriété. Soit e une base orthonormée de E. Soient x, y ∈ E dont les coordonnées dans la base e
sont données sous forme de vecteurs colonnes notés X et Y . Alors < x, y >=t Y X =t XY.
Remarque. Si e est une base orthonormée de E, pour tout u ∈ L(E), pour tout i, j ∈ Nn ,
[mat(u, e)]i,j = hei , u(ej )i.
La fin de ce paragraphe est hors programme.
Définition. La matrice du produit scalaire dans la base e est égale à

mat(< ., . >, e) = (< ei , ej >) 1≤i≤n ∈ Mn (R).


1≤j≤n

Propriété. e est orthogonale si et seulement si mat(< ., . >, e) est diagonale.


e est orthonormée si et seulement si mat(< ., . >, e) = In .
Formule. Soit e une base quelconque de E. On note Ω la matrice de < ., . > dans la base e. Soient x
et y deux vecteurs de E, dont les coordonnées dans e sont données sous la forme des vecteurs colonnes
X et Y de Rn . Alors X
< x, y >= t XΩY = t Y ΩX = xi yj ωi,j .
1≤i≤n
1≤j≤n

Il faut savoir le démontrer.


Définition. Soit E un K-espace vectoriel de dimension finie, muni d’une base
e = (e1 , . . . , en ) et soit ϕ une forme bilinéaire sur E.
La matrice de ϕ dans la base e est mat(ϕ, e) = (ϕ(ei , ej ))1≤i,j≤n ∈ Mn (K).
Pour tout x, y ∈ E, en posant X = mate (x) et Y = mate (y), ϕ(x, y) = t XΩY .
ϕ est symétrique si et seulement si Ω ∈ Sn (K).

1.3 Distance d’un vecteur à un sous-espace vectoriel


L ⊥
Définition. Soit F un sous-espace vectoriel de E tel que F F = E. La projection orthogonale
sur F est la projection sur F parallèlement à F ⊥ . Dans ce chapitre, elle est notée pF .
Remarque. Pour tout x ∈ E, x − pF (x) = pF ⊥ (x) ∈ F ⊥ .
Formule. Soit F un sous-espace vectoriel de dimension finie de E, muni d’une base orthonormée
n
X
e = (e1 , . . . , en ). Alors, pour tout x ∈ E, pF (x) = < ei , x > ei .
i=1
Il faut savoir le démontrer.

c Éric Merle 2 MPSI2, LLG


171
Semaine 33 : Résumé de cours 1 Orthogonalité

Théorème de la projection orthogonale :


Soient a ∈ E et F un sous-espace vectoriel de dimension finie de E. Alors, d(a, F ) = d(a, pF (a)).
Pour tout y ∈ F \ {pF (a)}, d(a, y) > d(a, F ). kak2 = kpF (a)k2 + d(a, F )2 .
n
X
Si (e1 , . . . , en ) est une base orthonormée de F , kak2 ≥ < ei , a >2 : inégalité de Bessel.
i=1
Il faut savoir le démontrer.
Propriété. Soit a ∈ E \ {0}. On pose H = a⊥ . H est un hyperplan dont a est un vecteur normal.
hx, ai
Pour tout x ∈ E, pH (x) = x − a et, en notant sH la symétrie orthogonale par rapport à H,
kak2
hx, ai
sH (x) = x − 2 a.
kak2
Propriété. On suppose que E est de dimension finie n ≥ 1. Soit H un hyperplan affine de E, passant
par un point A et dirigé par l’hyperplan vectoriel H : Si →

n est un vecteur non nul de H ⊥ , on dit que
−−→

− |<→ −
n , AM > |
n est un vecteur normal à H. Dans ce cas, pour tout M ∈ E d(M, H) = .
k→
−nk
X n
Si H a pour équation cartésienne αi xi = c dans un repère orthonormé, pour tout M ∈ E,
i=1
n
X
| αi xi − c|
i=1
d(M, H) = v , où (x1 , . . . , xn ) sont les coordonnées de M dans le repère.
uX
u n 2
t αi
i=1
Il faut savoir le démontrer.

1.4 Procédé d’orthonormalisation de Gram-Schmidt

Théorème. Orthonormalisation de Gram-Schmidt.


Soient n ∈ N∗ et (xk )k∈{1,...,n} une famille libre de vecteurs de E. Alors il existe une unique famille
orthonormale de vecteurs (ek )k∈{1,...,n} telle que, pour tout k ∈ {1, . . . , n},
i) ek ∈ Vect(x1 , . . . , xk )
ii) et < ek , xk >∈ R∗+ .
k−1
X
Ek
De plus, la famille (ek )k∈{1,...,n} est définie par ek = , où Ek = xk − < ei , xk > ei .
kEk k i=1
Il faut savoir le démontrer.
Interprétation matricielle du procédé de Gram-Schmidt.
Soient n ∈ N∗ et x = (xk )k∈{1,...,n} une base de E.
Alors il existe une unique base orthonormée e = (e1 , . . . , en ) de E telle que la matrice de passage de
e vers x est triangulaire supérieure, ses coefficients diagonaux étant de plus strictement positifs.
Il faut savoir le démontrer.
Propriété. Si E est euclidien, il admet au moins une base orthonormée.
Toute une famille orthonormale de E peut être complétée en une base orthonormale de E.
Théorème. Orthonormalisation de Gram-Schmidt pour une famille infinie
Soient (xk )k∈N∗ une famille libre de vecteurs de E. Alors il existe une unique famille orthonormale
de vecteurs (ek )k∈N∗ telle que, pour tout k ∈ N∗ ,
i) ek ∈ Vect(x1 , . . . , xk )
ii) et < ek , xk >∈ R∗+ .

c Éric Merle 3 MPSI2, LLG


172
Semaine 33 : Résumé de cours 2 Endomorphismes d’un espace euclidien E

Xk−1
Ek
De plus, la famille (ek )k∈N∗ est définie par : ek = , où Ek = xk − < ei , xk > ei .
kEk k i=1

2 Endomorphismes d’un espace euclidien E


2.1 Endomorphismes symétriques

Définition. u ∈ L(E) est symétrique ssi ∀(x, y) ∈ E 2 , < u(x), y >=< x, u(y) >.
Propriété. Soient e une base orthonormée de E et u ∈ L(E).
Alors u est symétrique si et seulement si mat(u, e) est symétrique.
Il faut savoir le démontrer.
Notation. S(E) est l’ensemble des endomorphismes symétriques de E.
C’est un sous-espace vectoriel de L(E).
Propriété. Une projection est un endomorphisme symétrique ssi c’est une projection orthogonale.
Il faut savoir le démontrer.
Propriété. Une symétrie est un endomorphisme symétrique ssi c’est une symétrie orthogonale.
Propriété. Si u ∈ S(E) et si F est un sous-espace vectoriel stable par u, alors F ⊥ est stable par u.
Vous verrez en seconde année le
Théorème spectral : Si u ∈ S(E), il existe au moins une base orthonormée de vecteurs propres de
u. On dit que u est diagonalisable en base orthonormée.

2.2 Groupe orthogonal.


2.2.1 Caractérisations d’un automorphisme orthogonal.

Définition. Soit u ∈ L(E). On dit que u est un automorphisme orthogonal ou une isométrie
vectorielle si et seulement si l’une des propriétés suivantes est vérifiée.
— conservation du produit scalaire : ∀x, y ∈ E, < u(x), u(y) >=< x, y > ;
— conservation de la norme : ∀x ∈ E, ku(x)k = kxk.
— si e est une base orthonormée de E, en posant M = mat(u, e),
M inversible et M −1 = t M .
Il faut savoir le démontrer.
Notation. On note O(E) l’ensemble des automorphismes orthogonaux de E.
Propriété. O(E) est un sous-groupe de (GL(E), ◦). On l’appelle le groupe orthogonal de E.
Propriété. Si u ∈ O(E), SpR (u) ⊂ {1, −1}.
Propriété. Soit u ∈ O(E). Si F est un sous-espace vectoriel stable par u, F ⊥ est stable par u.

2.2.2 Les rotations.

Propriété. Si u ∈ O(E), alors det(u) ∈ {−1, 1}, mais la réciproque est fausse.
Définition. Soit u ∈ O(E). On dit que u est une rotation si et seulement si det(u) = 1.
u est une isométrie vectorielle indirecte ou négative si et seulement si det(u) = −1.
Propriété. L’ensemble des rotations de E, noté SO(E), est un sous-groupe de O(E), appelé groupe
spécial orthogonal . L’ensemble des isométries indirectes de E est noté O− (E) = O(E) \ SO(E). Il
n’a pas de structure particulière.

c Éric Merle 4 MPSI2, LLG


173
Semaine 33 : Résumé de cours 2 Endomorphismes d’un espace euclidien E

2.2.3 Les symétries orthogonales

Propriété. La symétrie par rapport à F parallèlement à G (où F ⊕ G = E) est un automorphisme


orthogonal si et seulement si c’est une symétrie orthogonale (ie : G = F ⊥ ).
Propriété. Soit F un sous-espace vectoriel de E. Notons s la symétrie orthogonale par rapport à
F . s ∈ SO(E) si et seulement si dim(E) − dim(F ) est paire.
En particulier, si F est un hyperplan, s ∈ O− (E) et, dans ce cas, s est appelée une réflexion,
et si dim(F ) = dim(E) − 2, s est une rotation, et dans ce cas, s est appelée un retournement.
Définition. On dit que deux sous-espaces vectoriels F et G de E sont perpendiculaires lorsque F ⊥
et G⊥ sont orthogonaux, c’est-à-dire lorsque G⊥ ⊂ F .

2.2.4 Matrices orthogonales.

Propriété. Soit M ∈ Mn (R). C’est une matrice orthogonale si et seulement si l’une des propriétés
suivantes est vérifiée.
— t M M = In ;
— M t M = In ;
— M est inversible et M −1 =t M .
Propriété. L’ensemble des matrices orthogonales est un sous-groupe de GLn (R) appelé le groupe
orthogonal de degré n et noté O(n).
Propriété. Pour tout M ∈ O(n), det(M ) ∈ {−1, 1}.
Définition. Les matrices orthogonales de déterminant égal à 1 sont appelées les matrices de
rotations. Les matrices orthogonales de déterminant égal à -1 sont appelées les matrices orthogonales
gauches ou indirectes. L’ensemble des matrices de rotations est un sous-groupe de O(n), appelé groupe
spécial orthogonal de degré n et noté SO(n). L’ensemble des matrices orthogonales indirectes est
noté O− (n) = O(n) \ SO(n). Il n’a pas de structure particulière.
Propriété. M ∈ O(n) si et seulement si la famille de ses vecteurs colonnes (ou de ses vecteurs lignes)
est orthonormale dans Rn muni de son produit scalaire canonique.
Il faut savoir le démontrer.
Propriété. Soient e une base orthonormée de E et e0 une base quelconque de E.
e0 est orthonormée si et seulement si la matrice de passage de e à e0 est orthogonale.
Propriété. Soient u ∈ L(E) et e une base orthonormée de E.
Les propriétés suivantes sont équivalentes.
— u ∈ O(E) ;
— mat(u, e) ∈ O(n) ;
— u(e) est une base orthonormée.
Propriété. (Hors programme) Dans une matrice orthogonale droite, chaque coefficient est égal à son
cofacteur. Dans une matrice orthogonale gauche, chaque coefficient est l’opposé de son cofacteur.
Propriété. Si M ∈ Sn (R), il existe P ∈ O(n) et D diagonale telles que M = P DP −1 = P Dt P .

2.2.5 Orientation d’un espace vectoriel réel.


Dans ce paragraphe, E est un R-espace vectoriel de dimension finie n > 0, pour le moment non muni
d’une structure euclidienne.
0
Notation. B étant l’ensemble des bases de E, on convient que ∀(e, e0 ) ∈ B 2 , eRe0 ⇐⇒ det(Pee ) > 0.
Propriété. R est une relation d’équivalence sur B.

c Éric Merle 5 MPSI2, LLG


174
Semaine 33 : Résumé de cours 3 Géométrie plane

B/R est formé de deux éléments qui sont appelés les orientations de E.
“Orienter E”, c’est choisir l’une de ces deux orientations qui devient l’ensemble des bases directes.
Hypothèse : jusqu’à la fin de ce chapitre, on suppose que E est un espace euclidien orienté de
dimension n > 0.
Définition. Soit D une droite vectorielle incluse dans E que l’on oriente en choisissant un vecteur


unitaire k ∈ D. “Orienter l’hyperplan D⊥ par le vecteur ~k de D”, c’est choisir comme orientation de
D⊥ l’ensemble des bases (e1 , . . . , en−1 ) de D⊥ telles que (e1 , . . . , en−1 , ~k) est une base directe de E.
Propriété. Soient e et e0 deux bases orthonormées de E. On suppose que e est directe.
0
Alors e0 est directe si et seulement si Pee ∈ SO(n).
Propriété. Soient u ∈ L(E) et e une base orthonormée directe de E.
Les propriétés suivantes sont équivalentes.
— u ∈ SO(E) ;
— mat(u, e) ∈ SO(n) ;
— u(e) est une base orthonormée directe.

2.2.6 Produit mixte.

Dans tout ce paragraphe, E désigne un espace euclidien orienté de dimension n > 0.


Définition. Soit (x1 , . . . , xn ) ∈ E n . Le produit mixte de (x1 , . . . , xn ) est dete (x1 , . . . , xn ), où e est
une base orthonormée directe quelconque de E. Il est noté det(x1 , . . . , xn ) ou encore [x1 , . . . , xn ].
Remarque.
Si on change l’orientation de l’espace E, le produit mixte est changé en son opposé.
Propriété.
−−→ −−→
On suppose que n = 2. L’aire d’un parallélogramme ABCD vaut |det(AB, AD)|.
Propriété. On suppose que n = 3. Le volume d’un parallélépipède dont les côtés correspondent aux
vecteurs u, v, et w vaut |det(u, v, w)|.

3 Géométrie plane
Notation. E est un plan euclidien orienté dont (~ı, ~) est une base orthonormée.
Pour tout α ∈ R, on notera uα = cos(α)~ı + sin(α)~.

3.1 Le groupe orthogonal de degré 2

Propriété.
       
cos θ − sin θ cos θ sin θ
SO(2) = Rθ = / θ ∈ R . O (2) = Sθ =

/θ∈R .
sin θ cos θ sin θ − cos θ
Il faut savoir le démontrer.
Propriété. En identifiant R2 avec le plan complexe C,
— l’endomorphisme rθ canoniquement associé à Rθ est la similitude directe
z 7−→ eiθ z, c’est-à-dire la rotation de centre 0 et d’angle θ ;
— l’endomorphisme sθ canoniquement associé à Sθ est la similitude indirecte
θ
z 7−→ eiθ z, c’est-à-dire la réflexion par rapport à la droite Rei 2 .

c Éric Merle 6 MPSI2, LLG


175
Semaine 33 : Résumé de cours 3 Géométrie plane
       
cos α cos(θ + α) cos α cos(θ − α)
Formule. Pour tout (θ, α) ∈ R2 , Rθ = et Sθ = .
sin α sin(θ + α) sin α sin(θ − α)
Formules : Rθ Rϕ = Rθ+ϕ , Rθ Sϕ = Sθ+ϕ , Sθ Sϕ = Rθ−ϕ , Sθ Rϕ = Sθ−ϕ .
Il faut savoir le démontrer.
Formule. Pour tout (θ, ϕ) ∈ R2 , Sθ−1 = Sθ et Sα−1 Rθ Sα = R−θ .
(R, +) −→ (SO(2), ×)
Propriété. L’application est un morphisme surjectif de groupes. On en
θ 7−→ Rθ
déduit que (SO(2), ×) est un groupe commutatif.
Propriété. L’application Rθ 7−→ eiθ est un isomorphisme entre les groupes (SO(2), ×) et U.

3.2 Les isométries vectorielles du plan

Propriété. Soient s ∈ O− (E). Il existe θ ∈ R tel que mat(s, e) = Sθ . s est la réflexion par rapport à
la droite vectorielle Ru θ . Ainsi, les éléments de O− (E) sont les réflexions de E.
2

Définition. On suppose que E est orienté. Soit r ∈ SO(E). La matrice Rθ de r dans une base
orthonormée directe de E ne dépend pas du choix de cette base. θ est appelé l’angle de la rotation r,
déterminé à 2π près. Si on change d’orientation, cette mesure est changée en son opposé.

3.3 Un résultat sur les similitudes (hors programme)

Propriété. Soit E un espace euclidien et f : E −→ E une application telle que f (0) = 0 et pour
tout x, y ∈ E, kf (x) − f (y)k = kx − yk. Alors f est un automorphisme orthogonal.
Il faut savoir le démontrer.
Corollaire. Une application f : C −→ C est une similitude si et seulement si il existe λ ∈ R∗+ tel
que : ∀z, z 0 ∈ C, |f (z) − f (z 0 )| = λ|z − z 0 |.

c Éric Merle 7 MPSI2, LLG


176
Semaine 34 – Angles, droites affines, géométrie dans l’espace, produit vectoriel, ensembles dénombrables et
familles sommables, théorèmes de Fubini

Semaine 34 (du 15 au 20 juin) :


Résumé de cours

Espaces préhilbertiens (fin)


1 Géométrie plane (suite)
1.1 Angles

Notation. E désigne un plan euclidien orienté.


Définition. Soient x et y deux vecteurs non nuls de E. L’angle orienté des vecteurs x et y est l’angle
x y [ < x, y > [ det(x, y)
de l’unique rotation qui transforme en . cos (x, y) = et sin (x, y) = .
kxk kyk kxkkyk kxkkyk
Propriété. Les xi désignant des vecteurs non nuls de E, on a les formules suivantes :
 Relation de Chasles : (x\ \ \
1 , x2 ) + (x2 , x3 ) = (x1 , x3 ).
\ \
 (x2 , x1 ) = −(x1 , x2 ).
 (x\ \
1 , x2 ) = 0 ⇐⇒ R+ x1 = R+ x2 et (x1 , x2 ) = π ⇐⇒ R+ x1 = R− x2 .
 Si r est une rotation, (r(x\ \
1 ), r(x2 )) = (x1 , x2 ).
 Si s est une réflexion, (s(x\ \
1 ), s(x2 )) = −(x1 , x2 ).

Définition. E est un espace préhilbertien


 quelconque.
 L’angle non orienté ou écart angulaire des
[ < x, y >
vecteurs x, y ∈ E est (x, y) = arccos ∈ [0, π].
kxkkyk
— Lorsque (x,[ y) ∈]0, π2 [, cet angle est dit aigu ;
— Lorsque (x,[ y) ∈] π , π[, cet angle est dit obtus ;
2
[
— Lorsque (x, y) = π2 (i.e lorsque x⊥y), on dit que c’est un angle droit ;
[
— Lorsque (x, y) ∈ {0, π}, on dit que c’est un angle plat :

1.2 Les droites affines du plan usuel


On se place dans un plan affine E euclidien orienté.
Propriété. Les droites affines de E ont pour équation : ux + vy + w = 0, où (u, v) 6= 0.
Le vecteur de coordonnées (u, v) est orthogonal à la droite.
Les droites non parallèles à ~ admettent une équation de la forme y = px + q, p étant appelé la pente
de la droite.
Propriété. La droite passant par le point de coordonnées (x0 , y0 ) et orthogonale au vecteur (u, v) a
pour équation u(x − x0 ) + v(y − y0 ) = 0.

1
177
Semaine 34 : Résumé de cours 2 Géométrie dans l’espace

Propriété. La droite passant par le point de coordonnées (x0 , y0 ) et dirigée par le vecteur (u, v) a
u x − x0
pour équation −v(x − x0 ) + u(y − y0 ) = 0 = .
v y − y0
Propriété. La droite passant par les points (supposés distincts) de coordonnées (x0 , y0 ) et (x1 , y1 )
x − x0 x1 − x0
a pour équation = 0.
y − y0 y1 − y0

2 Géométrie dans l’espace

E est un espace euclidien orienté de dimension 3 et E est un espace affine de direction E. On dit que
E est l’espace usuel. On fixe un repère de E, noté R = (O, e), où e une base orthonormée directe de
E, notée e = (~ı, ~, ~k) ou e = (e1 , e2 , e3 ) selon les cas.

2.1 Le produit vectoriel (hors programme).

Définition. Si a, b ∈ E, a ∧ b est l’unique vecteur de E tel que ∀x ∈ E det(a, b, x) =< a ∧ b, x > .


Il faut savoir le démontrer.
Propriété. L’application (a, b) 7−→ a ∧ b est bilinéaire et antisymétrique.
Propriété. Soit (a, b) ∈ E 2 . (a, b) est un système lié si et seulement si a ∧ b = 0.
Il faut savoir le démontrer.
Propriété. Soit a et b deux vecteurs indépendants entre eux.
Alors a ∧ b est un vecteur orthogonal à a et b tel que (a, b, a ∧ b) est une base directe de l’espace. De
plus ka ∧ bk = kakkbk sin φ, où φ est l’angle non orienté entre a et b.
Formule. Identité de Lagrange : Pour tout (a, b) ∈ E 2 , < a, b >2 +ka ∧ bk2 = kak2 kbk2 .
Propriété. e1 ∧ e2 = e3 e2 ∧ e3 = e1 e3 ∧ e1 = e2 .
α2 β2
α1 β1 α3 β3
α β1
Formule. Si a = α2 et b = β2 alors a ∧ b = − 1 .
α3 β3
α3 β3
e e α1 β1
e α2 β2
Il faut savoir le démontrer.

2.2 Equation d’un plan

Propriété. Les plans affines de E ont pour équation : ux + vy + wz + t = 0, où (u, v, w) 6= 0.


Le vecteur de coordonnées (u, v, w) est orthogonal (on dit aussi normal) au plan.
La direction du plan est le plan vectoriel d’équation ux + vy + wz = 0.
Propriété. Deux plans de E d’équations ux+vy +wz +t = 0 et u0 x+v 0 y +w0 z +t0 = 0 sont parallèles
si et seulement si les vecteurs normaux de coordonnées (u, v, w) et (u0 , v 0 , w0 ) sont colinéaires, donc si
u u0
et seulement si v ∧ v 0 = 0.
0
e w e w

Propriété. Le plan passant par le point de coordonnées (x0 , y0 , z0 ) et orthogonal au vecteur (u, v, w)
a pour équation u(x − x0 ) + v(y − y0 ) + w(z − z0 ) = 0.

c Éric Merle 2 MPSI2, LLG


178
Semaine 34 : Résumé de cours 3 Ensembles dénombrables

Propriété. Le plan passant par le point de coordonnées (x0 , y0 , z0 ) et dirigé par deux vecteurs
x − x0 u u 0
indépendants de coordonnées (u, v, w) et (u0 , v 0 , w0 ) a pour équation cartésienne y − y0 v v 0 = 0.
z − z0 w w0

2.3 Système d’équations d’une droite

Propriété.
 Une droite affine de E admet un système d’équations de la forme :
ux + vy + wz + t =0
0 0 0 0 , où ux + vy + wz + t = 0 et u0 x + v 0 y + w0 z + t0 = 0 sont les équations
ux+v y+w z+t =0
u u0
de deux plans affines non parallèles. Cette droite est dirigée par le vecteur v ∧ v0 .
0
e w e w

2.4 Le groupe orthogonal en dimension 3

Théorème. Réduction des matrices orthogonales :


On suppose ici que E est un espace euclidien de dimension n ≥ 1.
Si u ∈ O(E), il existe une base orthonormale B de E telle que
 
Ik1 0 ... ... 0
 0 −Ik2 0 ... 0 
 .. . 
 
mat(u, B) =  0 0 τ1 . .. 
 . .. .. .. 
 . . . . 0
.
0 ... . . . 0 τp
 
cos θi − sin θi
où τi = avec sin θi 6= 0 et k1 + k2 + 2p = n.
sin θi cos θi
Notation. Soient ω un vecteur non nul de E et θ ∈ R. On désigne par r(ω, θ) l’unique rotation de
E qui laisse invariant ω et qui induit sur le plan ω ⊥ , orienté selon le vecteur ω, la rotation d’angle θ.

 non nul de E etθ ∈ R. Il existe une base orthonormée directe e de


Propriété. Soient ω un vecteur
cos θ − sin θ 0
E telle que mat(r(ω, θ), e) =  sin θ cos θ 0 . Plus précisément, on peut choisir e = (i, j, k) où
0 0 1
ω
(i, j) est une base orthonormée directe du plan ω ⊥ , orienté selon le vecteur ω et où k = .
kωk
Théorème. Si r ∈ SO(E), il existe ω ∈ E \ {0} et θ ∈ R tels que r = r(ω, θ).
Remarque. Si r ∈ SO(E), on obtient ω tel que r = r(ω, θ), en étudiant l’équation r(x) = x,
c’est-à-dire en recherchant les vecteurs propres pour la valeur propre 1. De plus, Tr(r) = 1 + 2 cos θ .

Remarque. Soit u ∈ O− (E). det(−u) = (−1)3 det(u) = 1, donc −u ∈ SO(E).


Ainsi, on peut décrire géométriquement une isométrie indirecte, en déterminant
ω ∈ E \ {0} et θ ∈ R tels que u = −r(ω, θ).

c Éric Merle 3 MPSI2, LLG


179
Semaine 34 : Résumé de cours 4 Familles sommables de réels positifs

Ensembles dénombrables et familles


sommables
3 Ensembles dénombrables
Définition. Un ensemble est dénombrable si et seulement s’il est en bijection avec N.
Propriété. Toute partie infinie de N est dénombrable.
Propriété. On dit qu’un ensemble est au plus dénombrable si et seulement si il est fini ou dénombrable.
Un ensemble est au plus dénombrable si et seulement s’il est en bijection avec une partie de N.
Lemme technique : Un ensemble I est fini ou dénombrable si et seulement s’il existe une suite
croissante (Jn )n∈N de parties finies de I dont la réunion est égale à I.
Dans ce cas, on dira que (Jn )n∈N est une suite adaptée à I.
Corollaire. Z, N × N et Q sont dénombrables.
Exercice. Montrer que Q[X] est dénombrable.
Solution. À connaı̂tre.
Propriété. Une réunion au plus dénombrable d’ensembles au plus dénombrables est au plus dénombrable.
Il faut savoir le démontrer.
Propriété. Un produit cartésien fini d’ensembles dénombrables est dénombrable.
Propriété. R n’est pas dénombrable.
Il faut savoir le démontrer.
Propriété. Hors programme : P(N) n’est pas dénombrable.

4 Familles sommables de réels positifs


Notation. Pour tout ce paragraphe, on fixe un ensemble I.
On fixe également une famille u = (ui )i∈I ∈ RI+ de réels positifs indexée par I.
X X
Définition. On pose ui = sup ui ∈ R+ ∪ {+∞} .
J∈P(I)
i∈I J finie i∈J
X
Définition. La famille u est sommable si et seulement si ui < +∞, c’est-à-dire si et seulement si
i∈I
X
il existe M ≥ 0 tel que, pour toute partie finie J de I, ui ≤ M .
i∈J

Propriété. Si (ui )i∈I est sommable, alors {i ∈ I/ui 6= 0} est au plus dénombrable.
Remarque. Pour toute la suite, I est supposé au plus dénombrable.
Propriété. Soient v = (vi )i∈I et w = (wi )i∈I deux familles de réelsXpositifsX
telles que, pour tout
i ∈ I, vi ≤ wi . Si w est sommable, alors v est également sommable et vi ≤ wi
i∈I i∈I

Propriété. Lorsque v = (vi )i∈I et w = (wi )i∈I sont deux familles


X deX
réels positifs telles que, pour
tout i ∈ I vi ≤ wi , on peut toujours écrire que, dans [0, +∞], vi ≤ wi .
i∈I i∈I

Propriété. Soit (Jn )n∈N une suite adaptée à I. Les propriétés suivantes sont équivalentes :

c Éric Merle 4 MPSI2, LLG


180
Semaine 34 : Résumé de cours 5 Familles sommables de complexes

— (ui )i∈I est


X sommable.

— La suite ui est majorée.
n∈N
i∈J
Xn 
— La suite ui est convergente dans R+ .
n∈N
i∈Jn
X X X
De plus, dans ce cas, ui = sup ui = lim ui .
n∈N n→+∞
i∈I i∈Jn i∈Jn
Il faut savoir le démontrer.
P
Propriété. Lorsque I = N, (un ) ∈ RN
+ est sommable si et seulement si un est convergente et dans
X +∞
X
ce cas, un = un .
n∈N n=0

Théorème. Supposons que I est dénombrable et soit ϕ une bijection de N dans I.


X +∞
X
P
(ui )i∈I est sommable si et seulement si uϕ(n) est convergente et dans ce cas, ui = uϕ(n) .
i∈I n=0

Propriété de linéarité : Si (vi )i∈I et (wi )i∈I sont deux familles


X sommables de Xréels positifs,
X alors
pour tout α ∈ R+ , (αvi + wi )i∈I est sommable. Dans ce cas, (αvi + wi ) = α vi + wi .
i∈I i∈I i∈I
Il faut savoir le démontrer.
R+ ∪ {+∞}.
Convention : Soit (ui )i∈I une famille d’éléments deX
S’il existe i0 ∈ I tel que ui0 = +∞, on convient que ui = +∞.
i∈I

Convention : lorsqu’on travaille dans R+ ∪ {+∞}, on utilise la convention 0 × (+∞) = 0.


On convient aussi, mais c’est plus universel, que pour tout x ∈ R∗+ , x × (+∞) = +∞.
Propriété. Soit (vi )i∈I X
et (wi )i∈I deux familles
X d’éléments
X de R+ ∪ {+∞} et soit α ∈ R+ ∪ {+∞}.
Alors, dans tous les cas, (αvi + wi ) = α vi + wi .
i∈I i∈I i∈I

5 Familles sommables de complexes


Notation. I désigne un ensemble au plus dénombrable et (Jn )n∈N est une suite adaptée à I.
On fixe une famille u = (ui )i∈I de complexes.
Définition. (ui )i∈I est sommable si et seulement si la famille (|ui |)i∈I est sommable dans R+ .
X
Ainsi, (ui )i∈I est sommable si et seulement si |ui | < +∞ .
i∈I


Propriété. Supposons que tous les ui sont réels. On pose u+
i = max(ui , 0) et ui = max(−ui , 0). :
+ − + − + −
ui = ui − ui et |ui | = ui + ui .X(ui )i∈I X
est sommable
X si et seulement si (ui )i∈I et (ui )i∈I sont
sommables. Dans ce cas, on pose ui = u+i − u−
i .
i∈I i∈I i∈I

Propriété. Supposons que les ui sont complexes. Alors Re(u) = (Re(uk ))k∈I et Im(u) = (Im(uk ))k∈I
sont à valeurs dans R.
Xu est sommable
X si et X
seulement si Re(u) et Im(u) sont sommables et dans ce
cas, on convient que uk = Re(uk ) + i Im(uk ),
k∈I k∈I k∈I
X X
Propriété. ∀(ui )i∈I ∈ CI , ui = lim uj .
n→+∞
i∈I j∈Jn

c Éric Merle 5 MPSI2, LLG


181
Semaine 34 : Résumé de cours 6 Propriétés des familles sommables

Il faut savoir le démontrer.


X X
Inégalité triangulaire : si u est sommable, alors ui ≤ |ui |.
i∈I i∈I
P
Propriété. Lorsque I = N, une suite (un )n∈N est sommable si et seulement si la série un est
X +∞
X
absolument convergente. Dans ce cas, un = un .
n∈N n=0
X X
Propriété. Lorsque I = Z, (un )n∈Z est sommable si et seulement si les séries un et u−n sont
n≥0 n≥0
X +∞
X +∞
X
absolument convergentes et dans ce cas un = u−n + un .
n∈Z n=1 n=0

6 Propriétés des familles sommables


Notation. I désigne un ensemble au plus dénombrable et (Jn )n∈N est une suite adaptée à I.

6.1 Linéarité

Propriété de linéarité : soit a = (ai )i∈I et b = (bi )i∈I deux familles


X sommables de Xcomplexes
X et
soit α ∈ C. Alors la famille αa + b = (αai + bi )i∈I est sommable et (αai + bi ) = α ai + bi .
i∈I i∈I i∈I
Il faut savoir le démontrer.
Propriété. Soit (ui )i∈I ∈ RI+ et (vi )i∈I ∈ CI . Si pour tout i ∈ I, |vi | ≤ ui et si (ui ) est sommable,
X X
alors (vi ) est sommable et vi ≤ ui .
i∈I i∈I

Notation. l∞ (I, K)est l’ensemble


n des familles (ui )i∈I bornées
o de réels,
X
p
et pour p ∈ [1, +∞[, l (I, K) = (ui )i∈I /
p
|ui | < +∞ .
i∈I

Propriété. l (I, K), l (I, K) et l (I, K) sont des sous-espaces vectoriels de KI .


1 2 ∞

De plus si (ai ) et (bi ) sont dans l2 (I, K), alors (ai bi ) est un élément de l1 (I, K).
X
Propriété. Pour tout (ui ), (vi ) ∈ l2 (I, R), on pose ((ui )|(vi )) = ui vi .
i∈I
l2 (I, R) muni de (.|.) est un espace préhilbertien.
Propriété.
— En posant k(ui )i∈I k∞ = sup |ui |, (l∞ (I), K) est un espace vectoriel normé ;
i∈I
X
— En posant k(ui )i∈I k1 = |ui |, (l1 (I), K) est un espace vectoriel normé ;
i∈I
s X
— En posant k(ui )i∈I k2 = |ui |2 , (l2 (I), K) est un espace vectoriel normé.
i∈I

6.2 Commutativité

Propriété. Commutativité de la somme d’une famille sommable.


Soient (ui )i∈I une famille sommable de complexes et ϕ une bijection de I dans I.

c Éric Merle 6 MPSI2, LLG


182
Semaine 34 : Résumé de cours 6 Propriétés des familles sommables
X X
Alors (uϕ(i) )i∈I est aussi sommable et uϕ(i) = ui .
i∈I i∈I
Il faut savoir le démontrer.
Propriété. (Hors programme) Soient (ui )i∈I une famille
X sommable Xde complexes et ϕ une bijection
de K dans I. Alors (uϕ(k) )k∈K est aussi sommable et uϕ(k) = ui .
k∈K i∈I
X X
Remarque. Lorsque (ui )i∈I ∈ RI+ , pour toute bijection d’un ensemble K dans I, uϕ(k) = ui .
k∈K i∈I

Théorème. Sommation par paquets pour des familles de réels positifs.


Soit (Iq )q∈N une partition de I (on accepte que certains Iq soient vides).
On suppose que u = (ui )i∈I ∈ RI+ . Alors u est sommable si et seulement si
 pour toutX q ∈ N, la famille (ui )i∈Iq est sommable et
 la suite ui est sommable.
q∈N
i∈Iq
X XX
Dans ce cas, ui = ui .
i∈I q∈N i∈Iq
X XX
Remarque. En cas de non sommabilité, on a encore : ui = ui = +∞.
i∈I q∈N i∈Iq
Ainsi, on peut énoncer le théorème sous une forme plus concise
X : XX
si (Iq )q∈N est une partition de I et si (ui )i∈I ∈ RI+ , alors ui = ui .
i∈I q∈N i∈Iq

Corollaire. Interversion de sommations pour des suites doubles de réels positifs (Fubini).
Soit (up,q )(p,q)∈N2 ∈ RN
2
+ . Les propriétés suivantes sont équivalentes.
 La famille (up,q )(p,q)∈N2 est sommable.  
X
 Pour tout q ∈ N, (up,q )p∈N est sommable et la suite  up,q  est sommable.
p∈N
 q∈N
X
 Pour tout p ∈ N, (up,q )q∈N est sommable et la suite  up,q  est sommable.
q∈N
p∈N
Dans ce cas, on dit que (up,q )(p,q)∈N2 est une suite double sommable et on dispose des égalités suivantes.
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0

Remarque. Comme précédemment, si l’on accepte de travailler dans R+ ∪ {+∞}, on peut énoncer
ce théorème sous la forme suivante : ! +∞ +∞ !
X +∞ X
X +∞ X X
N 2
Pour tout (up,q )(p,q)∈N2 ∈ R+ , up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0

c Éric Merle 7 MPSI2, LLG


183
Semaine 34 : Résumé de cours 6 Propriétés des familles sommables

Théorème. Sommation par paquets pour des familles de complexes.


Soit (Iq )q∈N une partition de I et
 (ui )i∈I
 une famille sommable de complexes. Alors, pour tout
X X XX
q ∈ N, (ui )i∈Iq est sommable, et  ui  est sommable. De plus, ui = ui .
i∈I q∈N i∈Iq
i∈Iq
q∈N

Corollaire. Interversion de sommations pour des suites doubles de complexes.


Soit (up,q )(p,q)∈N2 ∈ CN une suite double sommable de complexes.
2

 Pour q0 ∈ N, (u
 tout   p,q0 ) est
X X
sommable, pour tout p0 ∈ N, (up0 ,q ) est sommable, et les suites  up,q  et  up,q  sont
p∈N q∈N
! ! q∈N p∈N
X +∞ X
X +∞ +∞ X
X +∞
sommables. De plus up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0
X X
Exemple. Soient an et bn deux séries absolument convergentes de complexes. Alors la famille
  
X X X
(ap bq )(p,q)∈N2 est une suite double sommable et ap bq =  ap   bq  .
(p,q)∈N2 p∈N q∈N
Il faut savoir le démontrer.
P P
Définition. Produit de Cauchy de deux séries. Soient un et vn deux séries de complexes.
X n
X
Pour tout n ∈ N, on pose wn = up vq = up vn−p .
p+q=n p=0
P P P
La série wn est appelée le produit de Cauchy des deux séries un et vn .
Propriété. Le produit de Cauchy de deux séries absolument convergentes
! est absolument
! convergent.
+∞
X +∞
X +∞
X
P P
Si un et vn sont absolument convergentes, alors wn = un vn .
n=0 n=0 n=0
Il faut savoir le démontrer.

c Éric Merle 8 MPSI2, LLG


184
Semaine 35 – Probabilités, conditionnelles et indépendance, variables aléatoires discrètes

Semaine 35 (du 22 au 27 juin) :


Résumé de cours

Les probabilités (début)


1 Espaces probabilisés
Définition. On appelle tribu, ou σ-algèbre sur un ensemble Ω tout ensemble F de parties de Ω
vérifiant : Ω ∈ F, F est stable par passage au complémentaire
[ (si F ∈ F alors Ω \ F ∈ F) et F est
stable par réunion dénombrable (si (Fn )n∈N ∈ F N , alors Fn ∈ F).
n∈N
Vocabulaire spécifique aux probabilités : Avec les notations précédentes,
 Ω s’appelle l’univers.
 Les éléments de F s’appellent les événements.
 Si {ω} ∈ F, on dit que c’est un événement élémentaire.
 ∅ est l’événement impossible.
 Si A est un événement, Ω \ A est l’événement contraire de A.
 Si A et B sont deux événements, A ∩ B est l’événement “A et B”, A ∪ B est l’événement “A ou B”.
Lorsque A ∩ B = ∅, les deux événement A et B sont dits incompatibles.
Définition. Soit F une tribu sur un univers Ω. On appelle système complet d’événements toute
famille (Ai )i∈I (où I est fini ou dénombrable) d’événements 2 à 2 disjoints dont la réunion vaut Ω.
Définition. Si F est une tribu sur un univers Ω, on dit que (Ω, F) est un espace probabilisable.
Définition. Soit (Ω, F) un espace probabilisable. On dit que P est une probabilité sur (Ω, F) si et
seulement si P est une application de F dans [0, 1] telle
! que P (Ω) = 1 et pour toute suite (Fn )n∈N

[ ∞
X
d’événements de F deux à deux disjoints, P Fn = P (Fn ).
n=0 n=0
Dans ce cas, le triplet (Ω, F, P ) est appelé un espace probabilisé.
Propriété. Avec les notations précédentes, pour F, G, H, Fn ∈ F on a :
 P (∅) = 0,
 Si F0 , . . . , Fp !
sont p + 1 événements deux à deux disjoints, où p ≥ 1,
[ p X p
alors P Fn = P (Fn ).
n=0 n=0
 P (F ) = 1 − P (F ) (où F désigne Ω \ F ),
 si G ⊂ H, P (H \ G) = P (H) − P (G).
 si G ⊂ H, P (G) ≤ P (H) (on dit que P est croissante),
 P (G ∪ H) = P (G) + P (H) − P (G!∩ H),
[∞ X∞
 Inégalité de Boole : P Fn ≤ P (Fn ) .
n=0 n=0

1
185
Semaine 35 : Résumé de cours 2 Probabilité conditionnelle et indépendance

Il faut savoir le démontrer.



Notation. On notera souvent P (G, H) = P (G ∩ H).

Propriété : Probabilité sur un univers dénombrable. Lorsque Ω est fini ou dénombrable, on


prendra toujours F = P(Ω). Dans ce cas, pour se donner une probabilité XP sur (Ω, F), il faut et il
suffit de donner une famille sommable (pω )ω∈Ω de réels positifs telle que pω = 1. On définit alors
ω∈Ω
X
P par : pour tout F ∈ F, P (F ) = pω .
ω∈F

Définition. Supposons que Ω est de cardinal fini. On dit que P est la probabilité uniforme lorsque
tous les événements élémentaires sont équiprobables. Dans ce cas, avec les notations de la propriété
1 Card(F )
précédente, pour tout ω ∈ Ω, pω = , et pour tout F ∈ F, P (F ) = .
Card(Ω) Card(Ω)
Propriété de continuité : dans un espace probabilisé (Ω,

! F, P ),
[
si (Fn ) est une suite croissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0

!
\
Si (Fn ) est une suite décroissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0
Il faut savoir le démontrer.
Définition. On dit que l’événement F est négligeable si et seulement si P (F ) = 0.
On dit que l’événement F est presque sûr si et seulement si P (F ) = 1.
Si Q est une propriété dépendant de ω ∈ Ω, lorsque {ω ∈ Ω/Q(ω)} est un événement presque sûr, on
dit que “Q(ω) presque sûrement”.
Propriété. Une réunion finie ou dénombrable d’événements négligeables est négligeable.
Une intersection finie ou dénombrable d’événements presque sûrs est presque sûre.

2 Probabilité conditionnelle et indépendance

∆ P (H ∩ G)
Définition. Si P (G) > 0, P (H|G) = : c’est la probabilité conditionnelle de H sachant
P (G)
que G est réalisé. L’application H 7−→ P (H|G) est une probabilité sur Ω, notée PG .
P (H ∩ G)
Ainsi, P (H|G) = PG (H) = .
P (G)
Formule des probabilités composées :
si G1 , . . . , Gk sont k événements tels que P (G1 ∩ · · · ∩ Gk−1 ) > 0, alors
\k
P ( Gi ) = P (G1 ) × P (G2 |G1 ) × P (G3 |G1 ∩ G2 ) × · · · × P (Gk |G1 ∩ · · · ∩ Gk−1 ).
i=1
Formule des probabilités totales : si (Gi )i∈I est un systèmeX complet d’événements, où I est fini
ou dénombrable, et si pour tout i ∈ I, P (Gi ) > 0, alors P (G) = P (G|Gi )P (Gi ).
i∈I
P (H|G)P (G)
Formule de Bayes : Si P (G) ∈]0, 1[ et P (H) > 0, alors P (G|H) =
P (H|G)P (G) + P (H|G)P (G)
Si (Gi )i∈I est un système complet d’événements avec pour tout i ∈ I, P (Gi ) > 0, et si P (H) > 0,
P (H|Gi )P (Gi )
P (Gi |H) = X
alors P (H|Gj )P (Gj ) .
j∈I

c Éric Merle 2 MPSI2, LLG


186
Semaine 35 : Résumé de cours 3 Variables aléatoires discrètes

Il faut savoir le démontrer.


Définition. H et G sont indépendants si et seulement si P (G ∩ H) = P (G)P (H) .
Propriété. Si H et G sont indépendants, alors H et G sont aussi indépendants.
Remarque. Un événement A est indépendant de lui-même si et seulement si P (A) ∈ {0, 1}.
Définition. I étant un ensemble quelconque, les événements de la famille
!(Gi )i∈I sont mutuellement
\ Y
indépendants si et seulement si pour toute partie finie J de I, P Gi = P (Gi ).
i∈J i∈J

Remarque. “mutuellement indépendants” =⇒ “2 à 2 indépendants”, mais la réciproque est fausse.


Propriété. Soit (Gi )i∈I une famille d’événements mutuellement indépendants. Si l’on remplace cer-
tains Gi par leur conjugué Gi , alors c’est encore une famille d’événements mutuellement indépendants.

3 Variables aléatoires discrètes


Définition. Soit (Ω, F, P ) un espace de probabilité. Une variable aléatoire à valeurs dans un ensemble
E muni d’une tribu E est une fonction X : Ω −→ E telle que, pour tout A ∈ E, X −1 (A) ∈ F.
On note souvent ”X ∈ A” au lieu de X −1 (A).
Remarque. Lorsque E = R, on dit que X est une variable aléatoire réelle.
Lorsque E = N, on dit que X est une variable aléatoire entière.
Propriété. Avec les notations précédentes, si l’on pose, pour tout A ∈ E, PX (A) = P (X ∈ A),
alors PX est une probabilité sur (E, E) que l’on appelle la loi de X.
Définition. Si B est un événement de Ω, la loi de X conditionnée par B désigne l’application
P ((X ∈ A) ∩ B)
A 7−→ P (X ∈ A|B) = , de E dans [0, 1]. C’est encore une probabilité sur (E, E).
P (B)
Définition. On dit qu’une variable aléatoire X est discrète si et seulement si X(Ω) est fini ou
dénombrable et si E = P(E).
Remarque. Le programme de MP ne prévoit que l’étude des variables aléatoires discrètes, ce que
nous supposerons donc dorénavant.
Propriété. Soit (Ω, F, P ) un espace de probabilité et X une application de Ω dans un ensemble
quelconque E. X est une variable aléatoire discrète si et seulement si X(Ω) est fini ou dénombrable
et si, pour tout d ∈ X(Ω), X −1 ({d}) ∈ F.
Dans ce cas, la loi de X est entièrement déterminée par la famille (P (X = d))d∈X(Ω) .
Remarque. Toute variable aléatoire entière est discrète.
Définition. Soit X une variable aléatoire discrète de Ω dans E et f une application de E dans un

ensemble F . Alors Y = f (X) = f ◦ X est une nouvelle variable aléatoire discrète dont la loi est donnée
X
par : ∀y ∈ F, PY (y) = P (X ∈ f −1 ({y})) = PX (x).
x∈X(Ω)
f (x)=y

Il faut savoir le démontrer.


Définition. Soit X une variable aléatoire de Ω dans un ensemble E de cardinal fini. On dit que X
suit une loi uniforme (souvent notée U) si et seulement si PX est la probabilité uniforme, c’est-à-dire
1
si et seulement si pour tout k ∈ E, P (X = k) = .
Card(E)
Définition. On fixe une variable aléatoire X à valeurs dans N.
Les lois classiques au programme sont les suivantes :

c Éric Merle 3 MPSI2, LLG


187
Semaine 35 : Résumé de cours 3 Variables aléatoires discrètes

— Loi de dirac, lorsqu’il existe n0 ∈ N tel que P (X = n0 ) = 1 et P (X = n) = 0 pour tout n 6= n0 .


On dit alors que X est une variable aléatoire déterministe, ou bien constante.
— Loi de Bernoulli de paramètre p ∈ [0, 1], notée B(p) :
P (X = 1) = p et P (X = 0) = 1 − p .
C’est le cas lorsque X représente le succès (X = 1) ou l’échec (X = 0) d’une épreuve.
— Loi binomiale de paramètres n ∈ N∗ et p ∈ [0, 1], notée B(n, p) :

Pour tout k ∈ {0, . . . , n}, P (X = k) = nk pk (1 − p)n−k (et P (X = m) = 0 pour
m ∈ / {0, . . . , n}). C’est le cas lorsque X désigne le nombre de succès parmi une suite de n
épreuves indépendantes de loi de Bernoulli de paramètre p.
— Loi géométrique de paramètre p ∈]0, 1[, notée G(p) :
Pour tout n ∈ N∗ , P (X = n) = (1 − p)n−1 p (et P (X = 0) = 0).
C’est le cas lorsque X représente l’instant du premier succès lors d’une suite d’épreuves
indépendantes de loi de Bernoulli de paramètre p.
λn
— Loi de Poisson de paramètre λ ∈ R∗+ , notée P(λ) : pour tout n ∈ N, P (X = n) = e−λ .
n!
Notation. On utilisera la notation X ∼ L pour indiquer que la variable aléatoire X suit la loi L et
la notation X ∼ Y pour indiquer que les deux variables aléatoires suivent la même loi.
Propriété. X est une variable aléatoire à valeurs dans {0, 1} si et seulement si il existe un événement
A tel que X = 1A . Dans ce cas, on a X = 1A ∼ B(p) où p = P (A).

c Éric Merle 4 MPSI2, LLG


188
Semaine 36 – Convergence en loi, variables aléatoires indépendantes, espérance et variance, propriétés de
convergence, théorie de l’intégration, sommes de Riemann, applications réglées

Semaine 36 (du 29 juin au 3 juillet) :


Résumé de cours

Les probabilités (fin)


1 Variables aléatoires discrètes (suite)
Définition. Si X est une variable aléatoire réelle, l’application x 7−→ P (X ≤ x) est la fonction de
répartition de X.
Définition. Hors programme : Convergence en loi :
Soit (Xk )k∈N une suite de variables aléatoires réelles et X une autre variable aléatoire réelle. On dit
que Xk converge en loi vers X lorsque k tend vers +∞ si et seulement si pour tout x ∈ R tel que
L
P (X = x) = 0, P (Xk ≤ x) −→ P (X ≤ x). on note alors Xk −→ X.
k→+∞ k→+∞

Propriété. Soit (Xk )k∈N une suite de variables aléatoires entières et X une autre variable aléatoire
L
entière. Xk −→ X ⇐⇒ [∀n ∈ N, P (Xk = n) −→ P (X = n)].
k→+∞ k→+∞

Propriété. Pour les variables aléatoires entières, les lois géométriques sont les seules lois sans
mémoire. Plus précisément, si X est une variable aléatoire à valeurs dans N∗ , elle est sans mémoire,
c’est-à-dire qu’elle vérifie pour tout (n, k) ∈ N2 P (X > n + k|X > n) = P (X > k), si et seulement si
il existe p ∈]0, 1[ tel que X ∼ G(p).
Il faut savoir le démontrer.

2 Variables aléatoires indépendantes


2.1 Lois conjointes et lois marginales

Définition. Soit n ∈ N∗ . Si X1 , . . . , Xn est une suite de n variables aléatoires discrète de Ω dans des
ensemble Ei , alors, en posant pour tout ω ∈ Ω, X(ω) = (X1 (ω), . . . , Xn (ω)), on définit une variable

aléatoire discrète X = (X1 , . . . , Xn ) de Ω dans E1 × · · · × En .
On dit que la loi de X est la loi conjointe des variables aléatoires X1 , . . . , Xn .
Pour tout i ∈ {1, . . . , n}, la loi de Xi est appelée la ième loi marginale de X.
Exemple. Soit X = (X1 , X2 ) un couple de variables aléatoires entières. On note (p1,k ) = (P (X1 = k))
la première loi marginale de X et (p2,k ) = (P (X2 = k)) la seconde loi marginale.
X X
On note également ch,k = P (X = (h, k)) la loi conjointe. Alors p1,k = ck,h et p2,k = ch,k .
h∈N h∈N

Définition. Soit X = (X1 , X2 ) un couple de variables aléatoires discrètes. Pour tout h ∈ X2 (Ω)
tel que P (X2 = h) > 0, la loi conditionnelle de X1 sachant que X2 = h désigne la probabilité
A 7−→ P (X1 ∈ A|X2 = h) (définie sur P(X1 (Ω))). Elle est caractérisée par la suite des

1
189
Semaine 36 : Résumé de cours 2 Variables aléatoires indépendantes

(P (X1 = k|X2 = h))k∈N . On définit de même la loi conditionnelle de X2 sachant que X1 = k.


ck,h
Exemple. Avec les notations de l’exemple précédent, P (X1 = k|X2 = h) = .
p2,h

2.2 Indépendance

Définition. Soit X = (X1 , . . . , Xn ) un n-uplet de variables discrètes. Elles sont mutuellement


n
Y n
Y
indépendantes si et seulement si pour tout k = (k1 , . . . , kn ) ∈ Xi (Ω), P (X = k) = P (Xi = ki ).
i=1 i=1

Propriété. X1 , . . . , Xn sont indépendantes si et seulement si pour toute famille K1 , . . . , Kn de parties


n
Y
de X1 (Ω), . . . , Xn (Ω), P (X1 ∈ K1 , . . . , Xn ∈ Kn ) = P (Xi ∈ Ki ).
i=1

Remarque. Si X1 , . . . , Xn sont des variables aléatoires mutuellement indépendantes, alors elles sont
2 à 2 indépendantes, mais la réciproque est fausse.
Définition. Si (Xi )i∈I est une famille de variables aléatoires discrètes, avec I de cardinal infini, on
dit que ces variables aléatoires sont mutuellement indépendantes si et seulement si pour toute partie
finie J incluse dans I, les variables aléatoires Xj pour j ∈ J sont mutuellement indépendantes.
Propriété. Soit X et Y deux variables aléatoires discrètes indépendantes de Ω dans E et F respec-
tivement. Soit f : E 7−→ E 0 et g : F 7−→ F 0 deux fonctions. Alors f (X) et g(Y ) sont encore deux
variables aléatoires discrètes indépendantes.
Il faut savoir le démontrer.
Remarque. On peut généraliser l’énoncé et la démonstration au cas suivant : Si (Xi )i∈I est une
famille de variables aléatoires mutuellement indépendantes, alors pour toute famille de fonctions
(fi )i∈I correctement définies, (fi (Xi ))i∈I est encore une famille de variables aléatoires mutuellement
indépendantes.
Corollaire. Soit X1 , . . . , Xm , Y1 , . . . , Yn des variables aléatoires discrètes mutuellement indépendantes.
Alors pour toutes fonctions f et g correctement définies, les variables aléatoires f (X1 , . . . , Xm ) et
g(Y1 , . . . , Yn ) sont indépendantes.
Remarque. Là encore, on peut généraliser . . .
Propriété. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes. On sup-
pose qu’il existe p ∈ [0, 1] tel que, pour tout i ∈ {1, . . . , m}, Xi ∼ B(ni , p), où ni ∈ N∗ (p ne dépend
pas de i). Alors X1 + · · · + Xm ∼ B(n1 + · · · + nm , p).
Il faut savoir le démontrer.
Remarque. On en déduit que le nombre de succès parmi une suite de m épreuves indépendantes de
loi de Bernoulli de paramètre p suit une loi binomiale de paramètres m et p.
Exercice. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes telles
que chaque Xi suit une loi de Poisson de paramètre λi > 0. Montrer que X = X1 + · · · + Xn
suit une loi de Poisson de paramètre λ = λ1 + · · · + λm .
Il faut savoir le démontrer.
Propriété. Soit (pn ) ∈]0, 1[N telle que npn −→ λ ∈ R∗+ . Soit (Xn ) une suite de variables aléatoires
n→+∞
telle que Xn ∼ B(n, pn ). Alors Xn converge en loi vers la loi de Poisson de paramètre λ.
Il faut savoir le démontrer.
Remarque. Vue la démonstration, l’approximation de la loi de Xn par une loi de Poisson est d’autant
plus valable que k << n et λ << n.

c Éric Merle 2 MPSI2, LLG


190
Semaine 36 : Résumé de cours 3 Espérance et variance

Application : Dans une file d’attente, supposons que le nombre moyen d’individus arrivant entre
les temps 0 et 1 vaut λ > 0. On note N la variable aléatoire égale au nombre d’individus arrivant
dans la file d’attente entre les temps 0 et 1. On suppose que, pour n suffisamment grand, au plus un
individu arrive entre les temps i−1 i
n et n (c’est l’hypothèse des événements rares). Alors N suit une loi
de Poisson de paramètre λ.
Définition. Une loi discrète sur un ensemble E est la donnée d’une probabilité sur EXmuni de sa
tribu pleine P(E) telle que A = {x ∈ E/P (x) > 0} est fini ou dénombrable et telle que P (x) = 1.
x∈A

Théorème. Soit (En )n∈N une suite d’ensembles et pour tout n ∈ N, soit Ln une loi discrète sur En .
Alors il existe un espace probabilisé (Ω, F, P ) et une suite (Xn ) de variables aléatoires mutuellement
indépendantes telle que, pour tout n ∈ N, Xn ∼ Ln .
Remarque. Ce théorème prouve l’existence d’une suite (Xn )n≥1 de variables aléatoires indépendantes
telles que pour tout n ∈ N∗ , Xn ∼ B(p), où p ∈]0, 1[ ne dépend pas de n. Cette suite modélise une
succession infinie d’épreuves indépendantes qui ont toutes la même probabilité de succès, égale à p.
Notons X la variable aléatoire égale à l’instant du premier succès : X(ω) = min{k ∈ N∗ /Xk (ω) = 1}.
Alors X ∼ G(p).

3 Espérance et variance
3.1 L’espérance

Définition. Soit X est une variable aléatoire


X discrète à valeurs réelles.

 Si X est à valeurs dans R+ , E(X) = d.P (X = d) ∈ R+ ∪ {+∞}.
d∈X(Ω)
 Sinon, on dit que X est d’espérance finie si et seulement si (d.P (X = d))d∈X(Ω) est sommable, et

X
dans ce cas, E(X) = d.P (X = d).
d∈X(Ω)

Remarque. E(X) ne dépend que de la loi de X.


X
Propriété. Si Ω est fini ou dénombrable, alors E(X) = X(ω)P ({ω}).
ω∈Ω

Propriété. Si A est un événement de l’espace probabilisé (Ω, F, P ),


alors P (A) = E(1A ) , où 1A désigne la fonction caractéristique de la partie A de Ω.
Définition. Une variable aléatoire réelle est dite centrée si et seulement si E(X) = 0.
Exercice. Montrer qu’une variable aléatoire réelle et positive est centrée si et seulement si elle
est nulle presque sûrement.
Il faut savoir le démontrer.
Théorème de transfert : Soit X : Ω −→ E une variable aléatoire discrète et g : E −→ R
une application. g(X) est d’espérance finie si et seulement si la famille (g(d).P (X = d))d∈X(Ω) est
X
sommable, et dans ce cas, E(g(X)) = g(d)P (X = d) .
d∈X(Ω)
Il faut savoir le démontrer lorsque X(Ω) est fini.
Linéarité de l’espérance :
On note L1 (Ω, P ) l’ensemble des variables aléatoires discrètes de Ω dans R d’espérance finie.
L1 (Ω, P ) est un espace vectoriel et pour tout X, Y ∈ L1 (Ω, P ), E(αX + βY ) = αE(X) + βE(Y ).
Il faut savoir le démontrer.

c Éric Merle 3 MPSI2, LLG


191
Semaine 36 : Résumé de cours 3 Espérance et variance

Propriété. Si X ∈ L1 (Ω, P ), pour tout a, b ∈ R, aX + b ∈ L1 (Ω, P ) et E(aX + b) = aE(X) + b.


Propriété. Soit X ∈ L1 (Ω, P ). Si X est presque sûrement constante égale à c, alors E(X) = c.
X est presque sûrement constante si et seulement si X est presque sûrement égale à son espérance.
Propriété. X ≥ 0 =⇒ E(X) ≥ 0.
Propriété. Croissance de l’espérance : X ≤ Y =⇒ E(X) ≤ E(Y ).
Propriété. Inégalité triangulaire : Pour tout X ∈ L1 (Ω, P ), |E(X)| ≤ E(|X|).
Propriété de comparaison : Soit X et Y deux variables aléatoires réelles telles que |X| ≤ Y et Y
est d’espérance finie. Alors X est aussi d’espérance finie.
E(X)
Formule. Inégalité de Markov : Si X ≥ 0 et a > 0, alors P (X ≥ a) ≤ .
a
Il faut savoir le démontrer.
Théorème. Si X1 , . . . , Xk sont k variables aléatoires discrètes réelles d’espérances finies et mutuel-
lement indépendantes, alors X1 × · · · × Xk est d’espérance finie et
E(X1 × · · · × Xk ) = E(X1 ) × · · · × E(Xk ). La réciproque est fausse.
À savoir démontrer lorsque les Xi (Ω) sont finis.

3.2 La variance

Définition. Soit k ∈ N∗ et X une variable aléatoire réelle. Si X k est d’espérance finie, on dit que
E(X k ) est le moment d’ordre k de X.
Notation. On note L2 (Ω, P ) l’ensemble des variables aléatoires X discrètes à valeurs réelles possédant
un moment d’ordre 2, définies sur l’espace probabilisé (Ω, F, P ).
Lemme : Si X1 , X2 ∈ L2 (Ω, P ), alors X1 X2 ∈ L1 (Ω, P ).
Corollaire. L2 (Ω, P ) est un sous-espace vectoriel de L1 (Ω, P ).
Définition. Si X1 , X2 ∈ L2 (Ω, P ), la covariance est Cov(X1 , X2 ) = E[(X1 − E(X1 ))(X2 − E(X2 ))].
Propriété. Cov est une forme bilinéaire symétrique positive sur L2 (Ω, P ), mais ce n’est pas un
produit scalaire.
Définition. Si X ∈ L2 (Ω, P ),p
la variance de X est V ar(X) = E[(X − E(X))2 ].
L’écart type de X est σ(X) = V ar(X).
Remarque. V ar(X) = 0 si et seulement si X est presque sûrement constante.
Définition. X est réduite si et seulement si X ∈ L2 (Ω, P ) et V ar(X) = 1.
Propriété. Formule de Koenig-Huygens : Si X ∈ L2 (Ω, P ), V ar(X) = E(X 2 ) − E(X)2 .
Si X1 , X2 ∈ L2 (Ω, P ), alors Cov(X1 , X2 ) = E(X1 X2 )−E(X1 )E(X2 ) : donc, si deux variables aléatoires
de L2 (Ω, P ) sont indépendantes, elles sont orthogonales au sens de Cov (la réciproque est fausse).
Propriété. Pour a, b ∈ R et X ∈ L2 (Ω, P ), V ar(aX + b) = a2 V ar(X).
X − E(X)
Propriété. Si X ∈ L2 (Ω, P ) avec σ(X) 6= 0, alors est centrée et réduite.
σ(X)
Propriété.
 Si X1 , X2 ∈ L2 (Ω, P ), V ar(X1 + X2 ) = V ar(X1 ) + V ar(X2 ) + 2Cov(X1 , X2 ).
k
X X
2
 Si X1 , . . . , Xk ∈ L (Ω, P ), V ar(X1 + · · · + Xk ) = V ar(Xi ) + 2 Cov(Xi , Xj ).
i=1 1≤i<j≤k

c Éric Merle 4 MPSI2, LLG


192
Semaine 36 : Résumé de cours 4 Propriétés de convergence

 Si X1 , . . . , Xk sont k variables aléatoires de L2 (Ω, P ) que l’on suppose deux à deux indépendantes,
alors V ar(X1 + · · · + Xk ) = V ar(X1 ) + · · · + V ar(Xk ).
Il faut savoir le démontrer.
Propriété. Inégalité de Cauchy-Schwarz : pour tout X, Y ∈ L2 (Ω, P ), E(XY )2 ≤ E(X 2 )E(Y 2 ),
avec égalité ssi il existe α, β ∈ R tel que (α, β) 6= (0, 0) et αX + βY est presque sûrement nulle.
pour tout X, Y ∈ L2 (Ω, P ), Cov(X, Y )2 ≤ V ar(X)V ar(Y ), avec égalité ssi il existe α, β ∈ R tel que
(α, β) 6= (0, 0) et αX + βY est presque sûrement constante.
Définition. (hors programme) : Soient X, Y ∈ L2 (Ω, P ) telles que V ar(X)V ar(Y ) > 0. Le coefficient
∆ Cov(X, Y )
de corrélation linéaire entre X et Y est Corr(X, Y ) = .
σ(X)σ(Y )
Propriété. Corr(X, Y ) ∈ [−1, 1].
Propriété. |Corr(X, Y )| = 1 si et seulement si il existe (a, b) ∈ R2 tel que P (Y = aX + b) = 1.
Remarque. Corr(X, Y ) indique dans quelle mesure Y dépend linéairement de X, mais Corr(X, Y )
ne mesure pas les dépendances non linéaires (on peut avoir par exemple Corr(X, X 2 ) = 0).
Formule. Espérance et variance pour les lois au programme.
 Loi de Bernoulli de paramètre p ∈ [0, 1] : P (X = 1) = p et P (X = 0) = 1 − p.
E(X) = p et V ar(X) = p(1 − p) .
 Loi binomiale  k de paramètres n ∈ N∗ et p ∈ [0, 1] : Pour tout k ∈ {0, . . . , n},
n n−k
P (X = k) = k p (1 − p) (et P (X = m) = 0 pour m ∈ / {0, . . . , n}).
E(X) = np et V ar(X) = np(1 − p) .
 Loi géométrique de paramètre p ∈]0, 1[ : Pour tout n ∈ N∗ , P (X = n) = (1 − p)n−1 p (et
1 1−p
P (X = 0) = 0). E(X) = et V ar(X) = .
p p2
 Loi de Poisson de paramètre λ ∈ R∗+ :
λn
pour tout n ∈ N, P (X = n) = e−λ . E(X) = λ = V ar(X).
n!
Il faut savoir le démontrer.

4 Propriétés de convergence
Formule. Inégalité de Bienaymé-Tchebychev : Soit X une variable aléatoire réelle. Alors, pour
V ar(X)
tout ε > 0, P (|X − E(X)| ≥ ε) ≤ .
ε2
Il faut savoir le démontrer.
Définition. (hors programme) Soit (Xn )n∈N une suite de variables aléatoires et soit X une variable
aléatoire. Xn converge vers X en probabilité ssi pour tout ε > 0, P (|Xn − X| ≥ ε) −→ 0.
n→+∞

Théorème. Loi faible des grands nombres :


Soit (Xn ) une suite de variables aléatoires dans L2 (Ω, P ) que l’on suppose toutes de même loi et deux
X1 + · · · + Xn
à deux indépendantes. Posons µ = E(Xn ), qui est indépendante de n. Alors converge
n
en probabilité vers la variable aléatoire constante égale à µ.
Il faut savoir le démontrer.

c Éric Merle 5 MPSI2, LLG


193
Semaine 36 : Résumé de cours 5 Intégration des applications en escalier

Théorie de l’intégration
Notation. K ∈ {R, C}, a, b ∈ R avec a < b, E est un Banach, i.e un K-espace vectoriel normé
complet, f est une application de [a, b] dans E.

5 Intégration des applications en escalier


5.1 Les applications en escalier

Définition. On appelle subdivision de [a, b] toute famille finie (ai )0≤i≤n de réels
telle que a = a0 < a1 < · · · < an = b.
Notation. On notera S l’ensemble des subdivisions de [a, b].
 
b−a
Exemple. a + i ∈ S. On dit que c’est une subdivision uniforme.
n 0≤i≤n

Définition. Le pas de σ = (ai )0≤i≤n ∈ S est δ(σ) = max1≤i≤n (ai − ai−1 ).



Notation. Le support de la subdivision σ est l’ensemble A(σ) = {ai / 0 ≤ i ≤ n}.

Propriété. Notons Pf ([a, b]) l’ensemble des parties finies de [a, b] contenant a et b.

L’application A: S −→ Pf ([a, b])


est bijective.
σ 7−→ A(σ)

Définition. σ ∈ S est plus fine que σ 0 ∈ S ssi A(σ) ⊇ A(σ 0 ). Dans ce cas, on note σ 0  σ.
Propriété.  est une relation d’ordre partiel.

Définition. Si σ, σ 0 ∈ S, on pose σ ∪ σ 0 = A−1 (A(σ) ∪ A(σ 0 )) : c’est l’unique subdivision de [a, b]
dont le support est la réunion des supports de σ et de σ 0 . C’est sup{σ, σ 0 }.
Définition. f est une application en escalier sur [a, b] si et seulement s’il existe une subdivision
(ai )0≤i≤n de [a, b] telle que, pour tout i ∈ Nn , f est constante sur l’intervalle ]ai−1 , ai [.
Définition. Si f est en escalier et σ = (ai )0≤i≤n ∈ S, σ est une subdivision adaptée à f si et
seulement si, pour tout i ∈ Nn , f est constante sur l’intervalle ]ai−1 , ai [.
Propriété. Les applications en escalier de [a, b] sont bornées.
Propriété. Soit f une application en escalier et σ une subdivision de [a, b] adaptée à f . Alors toute
subdivision plus fine que σ est aussi adaptée à f .

5.2 Intégrale d’une application en escalier

Définition. Soit f une application en escalier et σ = (ai )0≤i≤n une subdivision adaptée à f . Pour
tout i ∈ Nn , notons λi la valeur constante de f sur ]ai−1 , ai [. On pose
Z b n
X
f (t)dt = (ai − ai−1 )λi .
a i=1

Cette quantité est indépendante du choix de σ parmi les subdivisions adaptées à f .


Il faut savoir le démontrer.

c Éric Merle 6 MPSI2, LLG


194
Semaine 36 : Résumé de cours 6 Les applications réglées (hors programme)

Z b
Remarque. Lorsque E = R, f représente une somme d’aires de rectangles, affectées d’un signe
Z b a
négatif lorsque λi < 0, donc f est l’aire algébrique de la surface située entre le graphe de f et l’axe
a
des abscisses.
Propriété. Supposons que f est en escalier et soit g une application de [a, b] dans E qui ne diffère
Rb Rb
de f qu’en un nombre fini de points de [a, b]. Alors g en escalier et a g = a f .
Théorème. Notons E([a, b], E) l’ensemble des applications en escalier de [a, b] dans E. C’est un
E([a, b], E) −→ E
K-espace vectoriel et l’application R b est linéaire.
f 7−→ a f
Il faut savoir le démontrer.
Propriété. Soient F un second K-espace vectoriel de dimension
R  finie et u ∈ L(E, F ).
Rb b
Si f est en escalier, u ◦ f est en escalier et a u ◦ f = u a f .
Rb
Propriété. Si f est une application en escalier à valeurs dans R+ , f ≥ 0. a
Rb Rb
Corollaire. Si f, g ∈ E([a, b], E), alors [∀t ∈ [a, b], f (t) ≤ g(t)] =⇒ a f ≤ a g .
Z b Z b
Inégalité triangulaire : Pour tout f ∈ E([a, b], E), f (t)dt ≤ kf (t)kdt.
a a

Relation de Chasles : Soit f ∈ E([a, b], E) et c ∈]a, b[.


Z b Z c Z b
Alors f/[a,c] et f/[c,b] sont des applications en escalier et f= f+ f.
a a c

6 Les applications réglées (hors programme)


6.1 Définition
Définition. On dit que f : [a, b] −→ E est réglée si et seulement si c’est la limite uniforme d’une
suite d’applications en escalier, c’est-à-dire si et seulement si il existe une suite (fn ) ∈ E([a, b], E)N
telle que sup kfn (t) − f (t)k −→ 0. On note R([a, b], E) l’ensemble des applications réglées.
x∈[a,b] n→+∞

Propriété. R([a, b], E) est l’adhérence de E([a, b], E) dans (B([a, b], E), k.k∞ ).

6.2 Les applications continues par morceaux


Propriété. C([a, b], E) ⊂ R([a, b], E) : toute application continue est réglée.
Il faut savoir le démontrer.
Définition. f : [a, b] −→ E est continue par morceaux si et seulement si il existe une subdivision
σ = (ai )0≤i≤n de [a, b] telle que, pour tout i ∈ Nn , f/]ai−1 ,ai [ est prolongeable par continuité sur
[ai−1 , ai ], ce qui est équivalent à f est continue sur [a, b] \ {a0 , . . . , an } et f admet en chaque ai une
limite à droite (sauf en b) et une limite à gauche (sauf en a). Dans ce cas, on dit que la subdivision σ
est adaptée à f .
Définition. Si I est un intervalle quelconque de R, f : I −→ E est continue par morceaux si et
seulement si toutes ses restrictions aux segments inclus dans I sont continues par morceaux.
Propriété. Les applications continues par morceaux de [a, b] dans E sont réglées.
Théorème. (Hors programme) Une application de [a, b] dans E est réglée si et seulement si elle
admet en tout point de [a, b] une limite à droite (sauf en b) et une limite à gauche (sauf en a).

c Éric Merle 7 MPSI2, LLG


195
Semaine 36 : Résumé de cours 7 Intégration des applications réglées

Corollaire. Les applications monotones de [a, b] dans R sont réglées.


Corollaire. Le produit de deux applications réglées est réglé.

7 Intégration des applications réglées


7.1 Construction

Définition. Soit f : [a, b] −→ E une application réglée.


k.k∞ Rb Z b 
N
Il existe (fn )n∈N ∈ E([a, b], E) telle que fn −→ f . On pose a
f (t) dt = lim fn (t) dt .
n→+∞ n→+∞ a
Il faut savoir le démontrer.
Remarque. Seule la construction de l’intégrale sur [a, b] d’une application continue par morceaux
est au programme.

7.2 Propriétés
R([a, b], E) −→ E
Théorème. R([a, b], E) est un K-espace vectoriel et R b est linéaire.
f 7−→ a
f
Il faut savoir le démontrer.
Propriété. Soit F un second K-espace vectoriel de Banach et u ∈ L(E, F ) que l’on suppose continue.
Z b Z b !
Si f ∈ R([a, b], E), alors u ◦ f ∈ R([a, b], F ) et u◦f =u f .
a a
Il faut savoir le démontrer.
Propriété. On suppose que E est de dimension finie et que e = (e1 , . . . , ep ) est une base de E. Soit
f ∈ R([a, b], E). Notons f1 , . . . , fp les applications coordonnées de f , de sorte que, ! pour tout t ∈ [a, b],
n
X Z b n
X Z b
f (t) = fj (t)ej . Alors f1 , . . . , fp sont réglées et f (t) dt = fj (t) dt ej .
j=1 a j=1 a

Remarque. Réciproquement, si f1 , . . . , fp sont réglées, alors f est aussi réglée.


p
Y
Propriété. Supposons que E = Ei , où pour tout i ∈ Np , Ei est un espace de Banach. Soit
i=1
f ∈ R([a, b], E). Notons f1 , . . . , fp les applications composantes de f , de ! sorte que, pour tout t ∈ [a, b],
Z b Z b
f (t) = (f1 (t), . . . , fp (t)). Alors f1 , . . . , fp sont réglées et f= fi .
a a
1≤i≤p

Remarque. Réciproquement, si f1 , . . . , fp sont réglées, alors f est aussi réglée.


Z b Z b
Inégalité triangulaire : Pour tout f ∈ R([a, b], E), f (t)dt ≤ kf (t)kdt.
a a
Z b
Propriété. Si f est une application réglée à valeurs dans R+ , f ≥ 0.
a
Rb Rb
Corollaire. Si f, g ∈ R([a, b], E), alors [∀t ∈ [a, b], f (t) ≤ g(t)] =⇒ a
f ≤ a
g : l’intégrale est
croissante.
Z b
Exemple. Si f est réglée, f (t)dt ≤ (b − a) sup kf (t)k.
a t∈[a,b]

c Éric Merle 8 MPSI2, LLG


196
Semaine 36 : Résumé de cours 9 Primitives

Propriété. Soit f une application réglée (resp : continue par morceaux) de [a, b] dans E. Si g est
une application de [a, b] dans E qui ne diffère de f qu’en un nombre fini de points de [a, b], alors g est
Rb Rb
réglée (resp : continue par morceaux) et a f = a g.
Relation de Chasles : soit f ∈ R([a, b], E) et c ∈]a, b[.
Z b Z c Z b
Alors f |[a,c] et f |[c,b] sont réglées et f= f+ f.
a a c
Z α
Convention : Si f est une application définie en α ∈ R, on convient f = 0.
α
Z a Z b
Convention : Si f : [a, b] −→ E est réglée, on convient que f =− f.
b a
Propriété. La relation de Chasles se généralise au cas d’une application f réglée sur l’intervalle
[min(a, b, c), max(a, b, c)], les réels (a, b, c) étant quelconques.
Remarque. Avec ces conventions, les égalités établies dans ce paragraphe restent valables, mais ce
n’est pas le cas des inégalités.

8 Sommes de Riemann
Notation. On fixe une application f de [a, b] dans E.
Définition. On appelle subdivision pointée de [a, b] tout couple (σ, ξ), où σ = (ai )0≤i≤n est une
subdivision de [a, b] et où ξ = (ξi )1≤i≤n vérifie ∀i ∈ Nn ξi ∈ [ai−1 , ai ].
Notation. Notons S 0 l’ensemble des subdivisions pointées de [a, b]. Si (σ, ξ) = ((ai ), (ξi )) ∈ S 0 , on
notera fσ,ξ l’application en escalier définie par ∀i ∈ Nn ∀x ∈]ai−1 , ai [ f (x) = f (ξi ),
Définition. Soit (σ, ξ) = ((ai )0≤i≤n , (ξi )1≤i≤n ) ∈ S 0 . On appelle somme de Riemann associée à f et
Z b n
X
à (σ, ξ) la quantité S(f, σ, ξ) = fσ,ξ = (ai − ai−1 )f (ξi ).
a i=1

Théorème. Si f est une application réglée de [a, b] dans E,


Z b
∗ ∗ 0
∀ε ∈ R+ ∃α ∈ R+ ∀(σ, ξ) ∈ S (δ(σ) ≤ α =⇒ kS(f, σ, ξ) − f k ≤ ε).
a
À savoir démontrer lorsque f est continue.
Corollaire. Soit (σn , ξn )n∈N ∈ S 0N une suite de subdivisions pointées dont le pas tend vers 0. Alors,
Z b
si f est réglée, la suite des sommes de Riemann associée à f et à (σn , ξn ) converge vers f . Plus
a
précisément, en notant, pour tout n ∈ N, σn = (ai,n )0≤i≤ϕ(n)
et ξn = (ξi,n )1≤i≤ϕ(n) , si f est réglée et si max (ai,n − ai−1,n ) −→ 0,
1≤i≤ϕ(n) n→+∞
ϕ(n)
X Z b
alors (ai,n − ai−1,n )f (ξi,n ) −→ f.
n→+∞ a
i=1
n Z
b−aX b − a b
Cas particulier : si f est continue par morceaux, f a+i −→ f.
n i=1 n n→+∞ a

c Éric Merle 9 MPSI2, LLG


197
Semaine 36 : Résumé de cours 9 Primitives

9 Primitives
Notation. Conformément au programme officiel, on se limite au cas où E est un K-espace vectoriel
de dimension finie. On sait alors qu’il est complet, donc c’est bien un espace de Banach.
On fixe un intervalle I de R d’intérieur non vide et une application f : I −→ E.
Définition. g : I −→ E est une primitive de f si et seulement si g est dérivable sur I et g 0 = f .
Propriété. Si f admet une primitive g0 sur I, alors g est une primitive de f si et seulement si il
existe k ∈ E tel que ∀x ∈ I g(x) = g0 (x) + k.
Propriété. On suppose que f est réglée sur I (c’est-à-dire Z
que les restrictions de f aux intervalles
x
compacts inclus dans I sont réglées). Soit a ∈ I. Alors x 7−→ f (t) dt est continue sur I.
a
Théorème fondamental de l’analyse : On suppose que f est continue sur I. Soit a ∈ I.
F : I −→ E Z x
Alors x 7−→ f (t)dt est l’unique primitive de f s’annulant en a.
a
Il faut savoir le démontrer.
Corollaire. Soient (a, b) ∈ R2 avec a 6= b et f une application continue de [a, b] dans E. Si F est une
Z b
notation
primitive de f , alors f (t)dt = F (b) − F (a) = [F (t)]ba .
a
Z b
Corollaire. Si f est une application de classe C 1 sur [a, b], f 0 (t)dt = f (b) − f (a).
a

Théorème. Soit f une application de [a, b] dans R.


Rb
Si f est continue, positive et si a f = 0, alors f est identiquement nulle sur [a, b].
Il faut savoir le démontrer.
Z b
1
Définition. Si f : [a, b] −→ E est réglée, la valeur moyenne de f est f (t) dt.
b−a a
Propriété. Si f : [a, b] −→ R est une application continue, f atteint sa valeur moyenne : il existe
Z b
1
c ∈]a, b[ tel que f (c) = f (t) dt.
b−a a

c Éric Merle 10 MPSI2, LLG


198

Vous aimerez peut-être aussi