Académique Documents
Professionnel Documents
Culture Documents
Semaine 5 – Relations binaires, d’ordre, ordre naturel, minimum et max dans N, rela-
tions d’équivalence 20
2
TABLE DES MATIÈRES 3
Semaine 34 – Angles, droites affines, géométrie dans l’espace, produit vectoriel, en-
sembles dénombrables et familles sommables, théorèmes de Fubini 177
1 Fonctions de R dans R.
Notations : Nous emploierons dans les énoncés ci-dessous l’une des deux notations suivantes :
Notation a) : Soit D et E deux parties de R. On considère une application f , de D dans E, ce qui
signifie que, pour tout x ∈ D, on se donne un unique f (x) ∈ E.
Notation b) : On considère une fonction f de R dans R, ce qui signifie que, pour tout x ∈ R, on associe
ou bien aucun réel, ou bien un unique réel qui est alors noté f (x).
Remarque. En pratique, les deux mots application et fonction sont souvent considérés comme
synonymes et c’est le contexte qui permet de savoir laquelle des notations précédentes est employée.
Définition. (Notation b)) Le domaine de définition de f , noté Df est l’ensemble des réels x ∈ R
pour lesquels la quantité f (x) est calculable.
Remarque. On peut ainsi passer d’une notation à l’autre :
Si f est une application de D dans E (notation a)), alors on peut voir f comme une fonction de R
dans R (notation b)) telle que D ⊂ Df .
Réciproquement, si f est une fonction de R dans R (notation b)), on peut voir f comme une application
de D dans E, pour toute partie D incluse dans Df et pour toute partie E contenant
∆
f (D) = {f (x) / x ∈ D}.
1
1
Semaine 1 : Résumé de cours 1 Fonctions de R dans R.
Les définitions et propriétés qui terminent ce paragraphe sont à connaı̂tre même si on ne les démontrera
effectivement que plus tard.
Définition : Soit f une application d’un ensemble quelconque E dans un ensemble quelconque F
(ainsi E et F ne sont pas forcément des parties de R).
— On dit que f est surjective si et seulement si ∀y ∈ F, ∃x ∈ E, y = f (x). Ainsi,
f est surjective si et seulement si tout élément de F possède au moins un antécédent.
— On dit que f est injective si et seulement si ∀x, y ∈ E, [f (x) = f (y) =⇒ x = y]. Ainsi,
f est injective si et seulement si, pour tout couple d’éléments distincts de E, leurs images sont
différentes. f est injective si et seulement si tout élément de F possède au plus un antécédent.
Définition. Un polynôme P (à coefficients réels) est une application de R dans R (notation a)) de
la forme x 7−→ a0 + a1 x + · · · + an xn , où n ∈ N et a0 , . . . , an ∈ R.
Si an 6= 0, on dit que n est le degré de ce polynôme. On note n = deg(P ).
Par convention, l’application identiquement nulle est un polynôme de degré égal à −∞.
Propriété. Graphiquement, les antécédents de λ par f sont les abscisses des points d’intersection
du graphe de f avec la droite horizontale d’équation y = λ.
Propriété. Graphiquement, les solutions de l’inéquation f (x) ≥ λ, en l’inconnue x, sont les abscisses
des points du graphe de f situés au-dessus de la droite horizontale d’équation y = λ.
Définition. Une application f : D −→ E est majorée si et seulement si il existe M ∈ R tel que,
pour tout x ∈ D, f (x) ≤ M , c’est-à-dire si et seulement si le graphe de f est situé sous la droite
horizontale d’équation y = M .
2 Trigonométrie
2.1 Les fonctions circulaires
Définition. Soit θ ∈ R. On admet que le complexe eiθ est sur le cercle unité et que θ est l’angle
M1\M0 Meiθ (en notant Mz le point d’affixe z).
On pose cos(θ) = Re(eiθ ) et sin(θ) = Im(eiθ ).
Ainsi cos(θ) est l’abscisse du point Meiθ et sin(θ) est son ordonnée.
sin θ
tan θ
O cos θ 1
cos(2a) + 1 1 − cos(2a)
cos2 a = et sin2 a = ≥ 0.
2 2
2 cos a. cos b = cos(a + b) + cos(a − b),
2 sin a. sin b = cos(a − b) − cos(a + b),
2 sin a. cos b = sin(a + b) + sin(a − b).
Formules de factorisation :
p+q p−q
cos p + cos q = 2 cos cos ,
2 2
p+q p−q
cos p − cos q = −2 sin sin ,
2 2
p+q p−q
sin p + sin q = 2 sin cos ,
2 2
p−q p+q
sin p − sin q = 2 sin cos .
2 2
Il faut savoir les retrouver en utilisant les complexes.
Formules (hors programme) : en posant u = tan θ2 , on a
1 − u2 2u 2u
cos θ = 2
, sin θ = 2
, tan θ = .
1+u 1+u 1 − u2
Propriété. Lignes trigonométriques à connaı̂tre :
π π π π
θ 0 6 4 3 2
√ √
3 2 1
cos θ 1 2 √2 √2
0
1 2 3
sin θ 0 √2 2 1
3
√2
tan θ 0 3 1 3 non défini
La croissance de la fonction tangente sur [0, π2 [ aide à retenir la dernière ligne.
Définition. L’application cos réalise une bijection (décroissante) de [0, π] dans [−1, 1].
On note arccos l’application réciproque.
Propriété. Pour tout u, v ∈ R, cos u = cos v ⇐⇒ u ≡ ±v √ [2π].
3
Il faut savoir résoudre les équations suivantes : cos x = et cos x = cos( π3 − 2x).
2
Définition. L’application sin réalise une bijection (croissante) de [− π2 , π2 ] dans [−1, 1]. On note arcsin
l’application réciproque. Il faut savoir tracer son graphe.
Propriété. Pour tout u, v ∈ R, sin u = sin v ⇐⇒ (u ≡ v [2π]) ∨ (u ≡ π − v [2π]).
1 Dérivation et intégration
1.1 Pente de la tangente
Propriété. Pour une droite d’équation y = px + y0 , on dit que p est sa pente et que y0 est l’ordonnée
à l’origine.
On dispose également des droites “verticales”, d’équation x = x0 , où x0 ∈ R, qui sont de pente infinie.
Deux droites affines du plan sont parallèles si et seulement si elles ont la même pente.
Propriété. Soit f : R −→ R une fonction. Pour tout x0 , x1 ∈ Df , avec x0 6= x1 , la corde du graphe
de f entre les abscisses x0 et x1 est par définition l’unique droite du plan passant par les points du
graphe de f d’abscisses x0 et x1 .
f (x1 ) − f (x0 )
Elle a pour équation : y − f (x0 ) = × (x − x0 ).
x1 − x0
f (x1 ) − f (x0 )
En particulier, la pente de cette droite est égale à .
x1 − x0
Définition. Soit f : R −→ R une fonction définie sur un intervalle I et soit x0 ∈ I.
f (x1 ) − f (x0 )
On dit que f est dérivable en x0 si et seulement si la quantité possède une limite lorsque
x1 − x0
0
x1 tend vers x0 . Dans ce cas, cette limite est notée f (x0 ) et est appelée la dérivée de f en x0 .
Informellement, lorsque f est dérivable en x0 , la corde du graphe de f entre les abscisses x0 et x1 tend
vers la tangente en x0 , d’équation : y − f (x0 ) = f 0 (x0 ).(x − x0 ).
Cela dit que la meilleure approximation de f , au voisinage de x0 , parmi l’ensemble des applications
affines, est x 7−→ f (x0 ) + f 0 (x0 ).(x − x0 ).
Il faut retenir que f 0 (x0 ), lorsqu’elle est définie, est la pente de la tangente au graphe de f en le point
d’abscisse x0 .
Définition. On dit que f est dérivable sur l’intervalle I si et seulement si elle est dérivable en chacun
des réels de I. On dispose alors de l’application f 0 , définie au moins sur I.
On dit alors que f est de classe D1 .
Lorsque f 0 est continue sur I, on dit que f est de classe C 1 sur I.
Définition. Si f 0 est définie sur un intervalle I, on dit que f est deux fois dérivable sur I lorsque f 0
est dérivable en tout point de I. La dérivée de la dérivée de f est notée f 00 . On l’appelle la dérivée
seconde de f .
Soit n ∈ N. Par récurrence, la dérivée n-ième de f lorsqu’elle est définie est la dérivée de la dérivée
(n − 1)-ième. On la note f (n) . On dit alors que f est de classe Dn sur I.
On dit que f est de classe C n sur I lorsque f est n fois dérivable sur I et que f (n) est continue.
On dit que f est de classe C ∞ sur I lorsque, pour tout n ∈ N, f est C n sur I.
Remarque. On convient que f (0) = f , pour toute application f de R dans R.
1
7
Semaine 2 : Résumé de cours 1 Dérivation et intégration
Théorème. Soit f une fonction de I dans R, où I est un intervalle de R. On suppose que f est
dérivable sur I.
— f est constante sur I si et seulement si f 0 est identiquement nulle sur I.
— f est croissante sur I si et seulement si ∀x ∈ I, f 0 (x) ≥ 0.
— f est décroissante sur I si et seulement si ∀x ∈ I, f 0 (x) ≤ 0.
— Si f 0 (x) est de signe constant sur I et si {x ∈ I/f 0 (x) = 0} est fini, alors f est strictement
monotone.
Il faut savoir redémontrer les propriétés suivantes. Il faut aussi les connaı̂tre pour les utiliser éventuellement
sans démonstration.
— pour tout x > 0, sin x < x.
— Pour tout x ∈ [−1, 1], arccosx + arcsinx = π2 .
— Pour tout t ∈ R∗ , arctant + arctan 1t = sgn(t) × π2 .
1.4 Intégration
Z b
Définition. Soit a, b ∈ R avec a < b. Soit f : [a, b] −→ R une application continue. On note f (t)dt
a
(prononcer “intégrale de a à b de f(t) dt”) l’aire comprise entre l’axe des abscisses (noté Ox) et le
graphe de f , en comptant positivement les aires au dessus de l’axe Ox (donc lorsque f (x) ≥ 0) et
négativement les aires situées au dessous de l’axe Ox (lorsque f (x) ≤ 0).
Convention : Avec les notations et hypothèses précédentes, on convient que
Z a Z b Z a
f (t)dt = − f (t)dt et que f (t)dt = 0.
b a a
Propriété. Soit I un intervalle inclus dans R.
Soit f et g deux applications continues de I dans R.
Soit a, b ∈ I (on peut avoir a < b, b < a ou bien a = b).
Z b Z b Z b
— Linéarité : Pour tout α, β ∈ R, (αf + βg) = α f +β g.
a Z b aZ c a
Z b
— Relation de Chasles : Pour tout c ∈ I, f (t)dt = f+ f.
a a c
Soit a, b ∈ I : on suppose maintenant que a ≤ b.
Z b
— Positivité : si f ≥ 0, alors f (t)dt ≥ 0.
a Z b Z b
— Croissance de l’intégrale : si f ≤ g, alors f (t)dt ≤ g(t)dt.
a a
Z b
Rb
— Inégalité triangulaire : f (t)dt ≤ a |f (t)|dt.
a
Propriété. Soit a, b ∈ R avec a < b et soit f : [a, b] −→ R une application continue et positive,
Rb
telle que a f (t)dt = 0. Alors f est identiquement nulle sur [a, b].
1.5 Primitivation
— ex+y = ex ey ,
— e0 = 1 et e1 = e,
1 ex
— e−x = x , ex−y = y ,
e e
— enx = (ex )n .
et
— et −→ 0, et −→ +∞. −→ +∞.
t→−∞ t→+∞ t t→+∞
Représentation graphique de ln et exp : A connaı̂tre
Logarithmes et exponentielles en base a.
∆ ln x
— Soit a ∈ R∗+ \ {1}. ∀x ∈ R∗+ , lna (x) = .
ln a
Pour tout x, y ∈ R+ et b ∈ R,
∗
Définition. Un monôme de degré n ∈ N est une application de la forme x 7−→ axn , où a est un
paramètre réel. Cette application est définie sur R.
Une fonction polynomiale est une somme finie de monômes.
Lorsque n ∈ Z avec n < 0, x 7−→ xn est définie sur R∗ .
Représentation graphique de x 7−→ xn lorsque n ∈ Z : A connaı̂tre.
Représentation graphique de x 7−→ xα où α ∈ R \ Z, lorsque x décrit R∗+ : A connaı̂tre.
Convention : Pour tout b ∈ R∗+ , 0b = 0 et 00 = 1 .
2 Déformations du graphe
Notation. f désigne une fonction de D dans R, où D ⊂ R.
Propriété. On fixe un réel a.
— Le graphe de x 7−→ f (x) + a se déduit du graphe de f par la translation de vecteur a→ − .
— Le graphe de x 7−→ f (x + a) se déduit du graphe de f par la translation de vecteur −a→ −ı . A
savoir établir.
— Le graphe de x 7−→ f (a − x) se déduit du graphe de f par la symétrie orthogonale selon la
droite verticale d’abscisse a2 .
— Le graphe de x 7−→ f (ax) se déduit du graphe de f par l’affinité orthogonale d’axe invariant Oy
et de coefficient a1 , qui correspond, en identifiant un point avec le couple de ses coordonnées, à
la tranformation (x, y) 7−→ ( xa , y) (A savoir établir). Ceci a pour effet,
— lorsque a > 1, d’écraser le graphe de f d’un facteur a vers l’axe des ordonnées, parallèlement
à l’axe Ox,
— lorsque 0 < a < 1, d’étirer le graphe de f d’un facteur a1 autour de l’axe Oy, parallèlement
à l’axe Ox.
— Le graphe de x 7−→ af (x) se déduit du graphe de f par une affinité d’axe invariant Ox et de
coefficient a, i.e par la transformation (x, y) 7−→ (x, ay).
3 Trigonométrie hyperbolique
Définition. On définit les fonctions usuelles suivantes :
1
12
Semaine 3 : Résumé de cours 4 Applications trigonométriques réciproques
ex + e−x
— cosinus hyperbolique : ∀x ∈ R, chx = ,
2
ex − e−x
— sinus hyperbolique : ∀x ∈ R, shx = ,
2
shx ex − e−x e2x − 1
— tangente hyperbolique : ∀x ∈ R, thx = = x −x
= 2x .
chx e +e e +1
Propriété. Les fonctions sh, ch et th sont de classe C ∞ sur R et
ch0 = sh, sh0 = ch, th0 (x) = 1 − th2 x = 12 .
ch x
Il faut connaı̂tre les graphes de sh, ch et th.
Toute formule de la trigonométrie circulaire est associée avec une formule duale de la trigonométrie
hyperbolique. Cependant, le programme officiel se limite à la formule suivante :
Formule : ∀x ∈ R, ch2 x − sh2 x = 1.
Mais il n’est pas interdit de connaı̂tre quelques formules de trigonométrie hyperbolique :
— ch(a + b) = cha.chb + sha.shb,
— sh(a + b) = sha.chb + cha.shb,
ch(2a) + 1 ch(2a) − 1
— ch2 a = , sh2 a = ≥ 0.
2 2
5 Calculs d’intégrales
5.1 Changement de variables
Théorème. On suppose que f est une application continue d’un intervalle I dans R,
et que ϕ est une application de classe C 1 d’un intervalle J dans I. Alors,
Z β Z ϕ(β)
2 0
∀(α, β) ∈ J f (ϕ(t))ϕ (t)dt = f (x)dx. (1)
α ϕ(α)
Lorsque l’on remplace un membre de cette égalité par l’autre, on dit que l’on effectue le changement
de variable x = ϕ(t).
Démonstration à connaı̂tre.
Propriété. Soit a ∈Z R∗+ et soit f une
Z a application continue sur [−a,
Z a a].
a
Si f est paire, alors f (t) dt = 2 f (t) dt. Si f est impaire, f (t) dt = 0.
−a 0 −a
Théorème.
Z Soit u : I −→ R et vZ: I −→ R deux applications de classe C 1 sur I.
Alors, u(t)v 0 (t) dt = u(t)v(t) − u0 (t)v(t) dt, t ∈ I.
1 Fondations
1.1 Ensembles et éléments
Axiome d’extensionnalité : Si E et F sont deux ensembles, alors
E = F si et seulement si pour tout x ∈ E, x ∈ F et pour tout x ∈ F , x ∈ E.
Définition. {a} est un singleton.
Lorsque a 6= b, {a, b} est appelé une paire.
Définition. Un prédicat P sur un ensemble E est une application de E dans {V, F }, où V symbolise
le vrai et F le faux.
Définition d’un ensemble en compréhension : Si E est un ensemble et P un prédicat sur E,
alors F = {x ∈ E/P (x)} est un ensemble.
De plus, pour tout x ∈ E, x ∈ F ⇐⇒ P (x).
Le paradoxe de Russell :
Notons A la collection de tous les ensembles et posons B = {x ∈ A/x ∈ / x}. Alors B ∈ B si et
seulement si B ∈
/ B, ce qui est impossible. Cela signifie que A n’est pas un ensemble !
À connaı̂tre.
1.2 Quantificateurs
Définition du quantificateur universel :
Soit E un ensemble et P un prédicat sur E. La propriété “∀x ∈ E, P (x)” signifie que pour tous les
éléments x de E, P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} est égal à E.
Définition du quantificateur existentiel :
Avec les mêmes notations, la propriété “∃x ∈ E, P (x)” signifie qu’il existe au moins un x ∈ E tel
que P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} =
6 ∅.
Existence et unicité : La propriété “∃!x ∈ E, P (x)” signifie qu’il existe un unique x ∈ E tel que
P (x) est vraie, c’est-à-dire que {x ∈ E/P (x)} est un singleton.
Remarque. L’emploi des quantificateurs en guise d’abréviations est exclu : l’usage d’un “∀x” est
toujours suivi d’un “∈ E, P (x)” (ou plus rarement d’un “, P (x)”), où P est un prédicat sur E.
Remarque. Soit P un prédicat sur un ensemble E. Alors dans les phrases
“∀x ∈ E, P (x)” et “∃x ∈ E, P (x)”, on peut remplacer la variable x par y, ou n’importe quel autre
symbole. On dit que, dans les phrases “∀x ∈ E, P (x)” et “∃x ∈ E, P (x)”, x est une variable muette
ou bien que c’est une variable liée.
Dans la propriété “∃y ∈ R, x = y 2 ”, y est une variable liée, et par opposition, on dit que x est une
variable libre.
1
15
Semaine 4 : Résumé de cours 1 Fondations
Notation. Soit (Ei )i∈I une famille d’ensembles deux à deux disjoints, c’est-à-dire telle que, pour
j ∈ I avec i 6= j, Ei ∩ Ej = ∅.
tout i,[ G
Alors Ei est appelée une réunion disjointe et elle est notée Ei .
i∈I i∈I
2 Formules propositionnelles
2.1 Syntaxe
Définition par induction des formules propositionnelles : on part d’un ensemble V dont les
éléments sont appelés des variables propositionnelles. On utilise également les “connecteurs logiques”
suivants : ∧, ∨, =⇒, ⇐⇒, ¬.
L’ensemble F des formules propositionnelles est défini par induction structurelle :
Remarque. Une formule propositionnelle s’appelle aussi une proposition, une assertion, une formule,
un énoncé, une expression booléenne, etc.
Définition. Si P et Q sont deux formules propositionnelles, P ∧ Q (prononcer “P et Q”) s’appelle la
conjonction de P et de Q, P ∨ Q (prononcer “P ou Q”) s’appelle la disjonction de P et de Q, P =⇒ Q
s’appelle une implication, P ⇐⇒ Q est une équivalence, et ¬P est la négation de la proposition P .
2.2 Sémantique
Définition. Une distribution de valeurs de vérité sur l’ensemble V des variables propositionnelles est
une application de V dans l’ensemble {V, F }.
Définition. Soit v une distribution de valeurs de vérité sur l’ensemble V. On prolonge v sur l’ensemble
des formules propositionnelles construites à partir de V de la manière suivante : pour toutes formules
propositionnelles P et Q,
— v(P ∧ Q) = 1 si et seulement si v(P ) = v(Q) = 1.
— v(P ∨ Q) = 1 si et seulement si v(P ) = 1 ou v(Q) = 1.
— v(P =⇒ Q) = 0 si et seulement si v(P ) = 1 et v(Q) = 0.
— v(P ⇐⇒ Q) = 1 si et seulement si v(P ) = v(Q).
— v(¬P ) = 1 si et seulement si v(P ) = 0.
Définition. La définition précédente est équivalente à la donnée des “tables de vérité” des connecteurs
logiques ∧, ∨, =⇒, ⇐⇒ et ¬ :
P Q P ∧ Q P ∨ Q P =⇒ Q
V V V V V
V F F V F
F V F V V
F F F F V
Définition. Lorsque P =⇒ Q, on dit que P est une condition suffisante pour Q et que Q est une
condition nécessaire pour P .
Lorsque P ⇐⇒ Q, on dit que P est une condition nécessaire et suffisante pour Q.
Définition. Une tautologie est une formule propositionnelle qui est toujours vraie, quelle que soit la
distribution de valeurs de vérité des variables propositionnelles qui interviennent dans la formule.
Exemple. Quelques tautologies à connaı̂tre ( A, B, C désignent des formules propositionnelles quel-
conques) :
1. (A ∨ (B ∨ C)) ⇐⇒ ((A ∨ B) ∨ C) : associativité de ∨ (∧ est aussi associatif),
2. (A ∧ (B ∨ C)) ⇐⇒ ((A ∧ B) ∨ (A ∧ C)) : distributivité de ∧ par rapport à ∨,
3. (A ∨ (B ∧ C)) ⇐⇒ ((A ∨ B) ∧ (A ∨ C)) : distributivité de ∨ par rapport à ∧,
4. (A ∧ (A ∨ B)) ⇐⇒ A : première loi d’absorption,
5. ((A ∨ (A ∧ B)) ⇐⇒ A seconde loi d’absorption,
6. (¬(A ∨ B)) ⇐⇒ (¬A ∧ ¬B) : loi de Morgan,
7. (¬(A ∧ B)) ⇐⇒ (¬A ∨ ¬B) : loi de Morgan,
8. (A =⇒ B) ⇐⇒ (¬A) ∨ B (une définition de l’implication),
9. ¬(A =⇒ B) ⇐⇒ A ∧ (¬B),
10. (A =⇒ B) ⇐⇒ (¬B =⇒ ¬A) : contraposition.
11. ((A =⇒ B) ∧ (B =⇒ C)) =⇒ (A =⇒ C) (règle du modus ponens).
Il faut savoir le démontrer.
Définition. On dit que deux propositions P et Q sont logiquement équivalentes si et seulement si la
proposition P ⇐⇒ Q est une tautologie. On notera alors P ≡ Q
Ainsi, lorsque l’on ne s’intéresse qu’à la valeur booléenne des propositions, on peut remplacer toute
proposition par une proposition qui lui est logiquement équivalente.
Exemple. (A ∧ (B ∨ C)) ≡ ((A ∧ B) ∨ (A ∧ C)).
¬(A =⇒ B) ≡ A ∧ ¬B et A =⇒ B ≡ ¬A ∨ B.
Définition. La contraposée de l’implication A =⇒ B est égale à ¬B =⇒ ¬A.
Toute implication est logiquement équivalente à sa contraposée.
1 Relations binaires
1.1 Définitions
Définition. Une relation binaire R sur E × F est une partie de E × F , mais on notera “xRy” au
lieu de “(x, y) ∈ R”. Le graphe de R est {(x, y) ∈ E × F/xRy}, donc le graphe de R est . . . égal à R.
Définition. Lorsque E = F , on dit que
— R est réflexive si et seulement si ∀x ∈ E, xRx,
— R est symétrique si et seulement si ∀x, y ∈ E, (xRy) =⇒ (yRx),
— R est antisymétrique si et seulement si ∀x, y ∈ E, [(xRy) ∧ (yRx) =⇒ x = y],
— et R est transitive si et seulement si ∀x, y, z ∈ E, [(xRy) ∧ (yRz) =⇒ (xRz)].
1
20
Semaine 5 : Résumé de cours 1 Relations binaires
Remarque. Un ensemble ordonné dont toute partie non vide possède un plus petit élément est
appelé un ensemble bien ordonné.
Principe de la descente infinie : pour montrer que “∀n ∈ N, R(n)”, une alternative à la récurrence
est de raisonner par l’absurde en supposant qu’il existe n ∈ N tel que ¬[R(n)]. Ainsi, l’ensemble
F = {n ∈ N/¬R(n)} possède un minimum n0 . On peut parfois aboutir à une contradiction en
construisant un entier vérifiant m < n0 et m ∈ F .
Définition. Une relation binaire sur un ensemble E est une relation d’équivalence si et seulement si
R est réflexive, symétrique et transitive.
Exemple fondamental : Soit E et F deux ensembles et f : E −→ F une application.
Convenons que, pour tout x, y ∈ E, x R y ⇐⇒ f (x) = f (y).
Alors R est une relation d’équivalence sur E.
Définition. Soit R une relation d’équivalence sur E.
Si x ∈ E, on note x l’ensemble des y ∈ E tels que xRy.
x s’appelle la classe d’équivalence de x.
On désigne par E/R l’ensemble des classes d’équivalence : E/R = {x/x ∈ E}.
E/R s’appelle l’ensemble quotient de E par R.
Propriété. pour tout x, y ∈ E, xRy ⇐⇒ x = y.
Il faut savoir le démontrer.
Définition. Une partition P de E est une partie de P(E) telle que :
— pour tout A, B ∈ P, A 6= B =⇒ A ∩ B = ∅,
— pour [tout A ∈ P, A 6= ∅,
— et A = E.
A∈P
Théorème. Si R est une relation d’équivalence sur E, son ensemble quotient E/R est une partition
de E. Réciproquement, si P est une partition de E, il existe une unique relation d’équivalence R sur
E telle que P = E/R : Elle est définie par ∀x, y ∈ E, [xRy ⇐⇒ (∃C ∈ P, x, y ∈ C)]. En résumé, la
donnée d’une relation d’équivalence sur E est équivalente à la donnée d’une partition de E.
Il faut savoir démontrer la première phrase.
1 Axiome du choix
En voici deux énoncés équivalents.
— Pour tout ensemble I, pour toute famille (Ei )i∈I d’ensembles tous non vides, il existe une
famille (xi )i∈I telle que, pour tout i ∈ I, xi ∈ Ei .
— Pour tout ensemble E, pour toute relation d’équivalence sur E, il existe un ensemble R tel que
l’intersection de R avec chaque classe d’équivalence est un singleton.
2 L’art de la démonstration
La structure d’une démonstration se construit avant tout en fonction de la structure de la propriété
à démontrer. En conséquence, on regarde d’abord la cible à atteindre et seulement lorsque c’est
nécessaire les hypothèses dont on dispose pour y parvenir. On ne sait pas a priori sous quelles formes
ces hypothèses seront utilisées.
Définition. Si P est un prédicat sur un ensemble E, “résoudre l’équation P(x), en l’inconnue x ∈ E”,
c’est calculer {x ∈ E/P (x)} qu’on appelle alors l’ensemble des solutions de l’équation.
“calculer” signifie “donner l’ensemble des solutions sous la forme la plus simple possible”.
Remarque. La plupart des équations sont de la forme “f (x) = g(x)”, où f et g sont deux applications
de E dans un autre ensemble F .
Lorsque F = R, on rencontre parfois des équations de la forme “f (x) ≤ g(x)”, ou “f (x) < g(x)”.
Dans ce cas, on parle plutôt d’inéquations.
Méthode :
— Précisez d’abord pour quelles valeurs x ∈ E l’équation a bien un sens. Par exemple, pour une
équation de la forme “f (x) = g(x)”, il faudra d’abord rechercher les domaines de défnition de
f et de g.
1
23
Semaine 6 : Résumé de cours 2 L’art de la démonstration
— Autant que possible, raisonnez par équivalence comme dans l’exemple précédent.
Cependant le fait de raisonner par équivalence impose parfois trop de lourdeur à la rédaction.
Lorsqu’on choisit de raisonner par implication, après avoir montré que P (x) =⇒ x ∈ S, pour un
certaine partie S de E, il restera à rechercher quels sont les éléments de S qui sont effectivement
solutions.
2.4 Implication
Pour montrer [P =⇒ Q], on suppose que P est vraie (hypothèse supplémentaire) et on démontre Q.
Raisonnement par contraposition : l’implication P =⇒ Q est logiquement équivalente à
(¬Q) =⇒ (¬P ), qui est appelée sa contraposée. Ainsi, pour démontrer P =⇒ Q, on peut raisonner par
contraposition, c’est-à-dire démontrer (¬Q) =⇒ (¬P ) : on suppose que Q est fausse et on démontre
que P est fausse.
Le raisonnement par l’absurde : cela consiste à supposer que R est fausse et à aboutir à une
contradiction, souvent de la forme S ∧ (¬S).
Pour montrer que [P ⇐⇒ Q], on montre souvent [P =⇒ Q] puis la réciproque [Q =⇒ P ].
Dans des cas simples, on peut raisonner par une succession d’équivalences.
Pour montrer que les propriétés P1 , . . . , Pk sont équivalentes, on peut se contenter de montrer le cycle
d’implications P1 =⇒ P2 =⇒ · · · =⇒ Pk =⇒ P1 . Mais la liste P1 , . . . , Pk n’est pas toujours donnée
dans l’ordre idéal. Il convient donc parfois de la réordonner.
2.5 Quantificateurs
Pour montrer que [∀x ∈ E, P (x)], le plus souvent, on prend x quelconque dans E,
en écrivant “soit x ∈ E”, puis on démontre P (x).
Pour montrer que [∃x ∈ E, P (x)], la méthode directe consiste à construire un élément x de E
satisfaisant P (x).
On peut aussi raisonner par l’absurde, en supposant que [∀x ∈ E, ¬(P (x))] et en recherchant une
contradiction. Il faut cependant que cette nouvelle hypothèse se marie bien avec les autres hypothèses.
Pour montrer que ¬(∀x ∈ E, P (x)), on peut rechercher un x dans E tel que P (x) est fausse. Dans
ce contexte, x est appelé un contre-exemple du prédicat P (x).
3 Z
3.1 Construction de Z
3.2 L’anneau Z
3.3 L’ordre de Z
Compatibilité de la relation d’ordre avec l’addition :
∀x, y, x0 , y 0 ∈ Z, [x ≤ y] ∧ [x0 ≤ y 0 ] =⇒ x + x0 ≤ y + y 0 .
Identification de N avec une partie de Z : on identifie n ∈ N avec (n, 0).
Règle des signes :
— ∀n ∈ Z, n ≥ 0 ⇐⇒ n ∈ N.
— ∀n, m ∈ Z, ([n ≥ 0] ∧ [m ≥ 0]) =⇒ nm ≥ 0.
— ∀n ∈ Z, n ≥ 0 ⇐⇒ −n ≤ 0.
si a ≥ 0, x ≤ y =⇒ ax ≤ ay,
— ∀x, y, a ∈ Z,
si a ≤ 0, x ≤ y =⇒ ax ≥ ay.
Propriété. Toute partie non vide majorée de Z possède un maximum.
Toute partie non vide minorée de Z possède un minimum.
Définition. Soit n ∈ Z.
Le signe de n au sens large est
— 1 ou bien “positif” lorsque n ≥ 0,
— −1 ou bien “négatif” lorsque n ≤ 0.
Le signe de n au sens strict est
— 1 ou bien “strictement positif” lorsque n > 0,
— 0 ou bien “nul” lorsque n = 0,
— −1 ou bien “strictement négatif” lorsque n < 0.
Définition. Pour tout n ∈ Z, on note |n| = max{−n, n}.
Propriété. Pour tout n ∈ Z, n ≤ |n|, avec égalité si et seulement si n ≥ 0. De plus |n|2 = n2 .
Propriété. ∀n, m ∈ Z, |nm| = |n||m|.
Propriété. Z est un anneau intègre, c’est-à-dire que, pour tout n, m ∈ Z,
nm = 0 =⇒ [(n = 0) ∨ (m = 0)].
Remarque. Soit D une partie de R.
L’ensemble des applications de D dans R, noté F(D, R), muni de l’addition et du produit entre
fonctions, est un anneau. Les éléments neutres sont respectivement l’application identiquement nulle
et l’application constante égale à 1.
Cependant cet anneau n’est pas intègre car on peut avoir f g = 0 alors que f 6= 0 et g 6= 0.
Cet exemple est à connaı̂tre.
Propriété. Soit n, m ∈ Z2 . nm ≥ 0 si et seulement si n et m sont de même signe au sens large.
Propriété. Soit a, b, n ∈ Z tels que an ≤ bn. Si n > 0 alors a ≤ b et si n < 0, alors a ≥ b.
Inégalité triangulaire : ∀n, m ∈ Z, |n + m| ≤ |n| + |m|, avec égalité si et seulement si n et m sont
de même signe.
Il faut savoir le démontrer.
3.5 Divisibilité
Propriété. Soit p ∈ N et b, a1 , . . . , ap , c1 , . . . , cp ∈ Z.
X p
Si pour tout i ∈ {1, . . . , p}, b | ai , alors b | ci ai .
i=1
3.6 Congruence
Définition. Soit x0 ∈ R. Pour tout x, y ∈ R, on dit que x est congru à y modulo x0 et on note
x ≡ y [x0 ] si et seulement si il existe k ∈ Z tel que x − y = kx0 . La relation de congruence modulo x0
est une relation d’équivalence sur R. Elle est compatible avec l’addition entre réels mais pas avec la
multiplication entre réels.
3.7 PGCD
Définition. Soit (a, b) ∈ Z2 . aZ + bZ est le sous-groupe de Z engendré par {a, b}, donc il existe un
unique d ∈ N tel que aZ+bZ = dZ. On dit que d est le PGCD de a et b. On note d = PGCD(a, b) = a∧b.
Propriété. Pour la relation d’ordre de divisibilité dans N, a ∧ b = inf | {|a|, |b|}.
Il faut savoir le démontrer.
Remarque. Lorsque a ou b est un entier relatif non nul, au sens de l’ordre naturel sur N, a ∧ b est
aussi le plus grand diviseur commun de a et b.
Propriété. a et b sont premiers entre eux si et seulement si a ∧ b = 1.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ Z, on dit que d est le PGCD de a1 , . . . , ak
si et seulement si d ∈ N et dZ = a1 Z + · · · + ak Z = Gr{a1 , . . . , ak }. Alors d = inf | {a1 , . . . , ak }.
Si B est une partie quelconque de Z, on dit que d est le PGCD de B si et seulement si d ∈ N et
dZ = Gr(B). Alors d = inf | (B).
Propriété. Soit k ∈ N, a1 , . . . , ak ∈ Z et h ∈ {1, . . . , k}.
— Commutativité du PGCD :
P GCD(a1 , . . . , ak ) ne dépend pas de l’ordre de a1 , . . . , ak .
— Associativité du PGCD :
P GCD(a1 , . . . , ak ) = P GCD(a1 , . . . , ah ) ∧ P GCD(ah+1 , . . . , ak ).
— Distributivité de la multiplication par rapport au PGCD : pour tout α ∈ Z,
P GCD(αa1 , . . . , αak ) = |α|P GCD(a1 , . . . , ak ).
Il faut savoir le démontrer.
3.8 PPCM
Définition. Soit (a, b) ∈ Z2 . aZ ∩ bZ est un sous-groupe de Z, donc il existe un unique entier naturel
m tel que aZ ∩ bZ = mZ. On dit que m est un PPCM de a et b et on note m = a ∨ b.
Propriété. Soit (a, b) ∈ Z2 . a ∨ b = sup| {|a|, |b|}.
Remarque. Lorsque a et b sont des entiers relatifs non nuls, a ∨ b = min≤ {k ∈ N∗ / a|k et b|k}.
Définition. Plus généralement, si k ∈ N∗ et si a1 , . . . , ak ∈ Z, on dit que m est le PPCM de a1 , . . . , ak
si et seulement si m ∈ N et mZ = a1 Z ∩ · · · ∩ ak Z. Alors m = sup| {a1 , . . . , ak }.
Si B est\une partie quelconque de Z, on dit que m est le PPCM de B si et seulement si m ∈ N et
mZ = bZ. Alors m = sup| (B).
b∈B
\
Remarque. Dans ce contexte, on convient que si B = ∅, bZ = Z, donc 1 est le PPCM de ∅.
b∈B
Ainsi, toute partie de N possède une borne supérieure et une borne inférieure pour la relation d’ordre
de divisibilité. On dit que l’ensemble ordonné (N, | ) est un treillis complet.
Propriété. Soit k ∈ N, a1 , . . . , ak ∈ Z et h ∈ {1, . . . , k}.
— Commutativité du PPCM :
P P CM (a1 , . . . , ak ) ne dépend pas de l’ordre de a1 , . . . , ak .
— Associativité du PPCM :
P P CM (a1 , . . . , ak ) = P P CM (a1 , . . . , ah ) ∨ P P CM (ah+1 , . . . , ak ).
Lemme d’Euclide. Soient (a, b) ∈ Z2 avec b 6= 0. Notons q et r les quotient et reste de la division
euclidienne de a par b. Alors a ∧ b = b ∧ r.
Algorithme d’Euclide. Soit a0 , a1 ∈ N∗ avec a0 > a1 .
Pour i ≥ 1, tant que ai 6= 0, on note ai+1 le reste de la division euclidienne de ai−1 par ai .
On définit ainsi une suite strictement décroissante d’entiers naturels (ai )0≤i≤N telle que aN = 0.
Alors a0 ∧ a1 = aN −1 .
De plus, lorsque a0 ∧a1 = 1, cet algorithme permet de calculer des entier s0 et t0 tels que 1 = s0 a0 +t0 a1 .
À connaı̂tre précisément.
Exercice. Soit a, b, c ∈ Z avec a et b non nuls.
Résoudre l’équation de Bézout (B) : au + bv = c en l’inconnue (u, v) ∈ Z2 .
À connaı̂tre.
1 Q
Définition. On définit une relation binaire R sur Z × Z∗ par (a, b)R(c, d) ⇐⇒ ad = bc. C’est une
relation d’équivalence. On pose Q = (Z × Z∗ )/R.
Pour tout (a, b) ∈ Z × Z∗ , on note ab = (a, b).
Pour l’écriture ab , on dit que a est son numérateur et que b est son dénominateur.
a c ∆ ac a c ∆ ad + cb
Pour tout (a, b), (c, d) ∈ Z × Z∗ , on pose × = et + = .
b d bd b d bd
On définit ainsi une addition et une multiplication sur Q.
Propriété. (Q, +, ×) est un corps, c’est-à-dire que
— (Q, +, ×) est un anneau,
— Q n’est pas réduit à {0} (on note Q∗ = Q \ {0}),
— Q est commutatif,
— tout élément non nul de Q est inversible : ∀x ∈ Q∗ , ∃y ∈ Q∗ , xy = 1.
Propriété. Comme tout corps, Q est intègre, c’est-à-dire que, pour tout x, y ∈ Q,
xy = 0 =⇒ [(x = 0) ∨ (y = 0)].
La démonstration dans un corps quelconque est à connaı̂tre.
Z −→ Q
Propriété. L’application permet d’identifier Z avec une partie de Q.
n 7−→ n1
On parvient à prolonger l’ordre de Z en un ordre sur Q, qui reste compatible avec l’addition et qui
vérifie la règle des signes pour le produit.
On prolonge aussi sur Q la notion de valeur absolue ainsi que ses propriétés vues dans Z.
Propriété. Pour tout x ∈ Q, il existe un unique couple (a, b) tel que x = ab avec a ∈ Z et b ∈ N∗ ,
tels que a et b sont premiers entre eux. On dit alors que ab est la forme irréductible de x.
Démonstration à connaı̂tre.
√
Exercice. Montrer que 2 est irrationnel.
A connaı̂tre.
Q est archimédien :
Soit x et y deux rationnels strictement positifs. Alors il existe n ∈ N tel que x < ny.
1
31
Semaine 7 : Résumé de cours 2 L’ensemble R des réels
Caractérisation de R : (admise)
Il existe au moins un corps K totalement ordonné dans lequel toute partie non vide majorée admet
une borne supérieure.
De plus si K 0 est un autre corps totalement ordonné dans lequel toute partie non vide majorée admet
une borne supérieure, il existe une bijection f de K dans K 0 telle que f est un morphisme de corps
ordonnés, c’est-à-dire :
— ∀x, y ∈ K, x ≤ y =⇒ f (x) ≤ f (y),
— ∀x, y ∈ K, f (x + y) = f (x) + f (y),
— ∀x, y ∈ K, f (xy) = f (x)f (y),
— f (1K ) = 1K 0 .
Cela signifie que, quitte à renommer x en f (x), K et K 0 sont égaux, tant que dans K et K 0 on se
contente d’utiliser leurs structures de corps totalement ordonnés.
Ainsi, à un morphisme bijectif près, il existe un unique corps totalement ordonné dans lequel toute
partie non vide majorée admet une borne supérieure. Il est noté R et ses éléments sont appelés les
réels.
Il existe un morphisme injectif de corps ordonné de Q dans R, qui permet d’identifier Q avec une
partie de R.
Propriété. Toute partie non vide minorée de R possède une borne inférieure.
Il faut savoir le démontrer.
Passage à la borne supérieure (resp : inférieure) : Soit (E, ) un ensemble ordonné et soit A
une partie de E possédant une borne supérieure.
Soit e ∈ E. Alors sup(A) ≤ e ⇐⇒ [∀a ∈ A, a ≤ e].
Le fait de passer de la propriété “∀a ∈ A, a ≤ e” à l’affirmation “sup(A) ≤ e” s’appelle le passage à
la borne supérieure.
Il faut savoir le justifier : si [∀a ∈ A, a ≤ e], alors e est un majorant de A, or sup(A) est le plus
petit des majorants, donc sup(A) ≤ e.
ATTENTION, en général, sup(A) ∈ / A, donc le passage à la borne supérieure ne se réduit pas au
fait d’appliquer la propriété “∀a ∈ A, a ≤ e” avec a = sup(A).
De même, si B est une partie de E possédant une borne inférieure, le principe du passage à la
borne inférieure consiste à passer de la propriété, “∀a ∈ A, a ≥ e” à “inf(A) ≥ e”.
Propriété. Soit A une partie non vide majorée de R. Soit s ∈ R. Alors
Définition.
— Pour tout a, b ∈ R, l’intervalle ]a, b[ est défini par ]a, b[= {x ∈ R/a < x < b}.
— Pour tout a, b ∈ R, l’intervalle [a, b] est défini par [a, b] = {x ∈ R/a ≤ x ≤ b}.
— Si a ∈ R et b ∈ R, les intervalles [a, b[ et ]b, a] sont définis par :
[a, b[= {x ∈ R/a ≤ x < b} et ]b, a] = {x ∈ R/b < x ≤ a}.
— En particulier, R =] − ∞, +∞[ et ∅ =]0, −1[ sont des intervalles.
Définition.
— Un intervalle est ouvert si et seulement si il est de la première forme ]a, b[ avec a, b ∈ R.
— On dit qu’un intervalle est fermé si et seulement si son complémentaire est une réunion d’un
ou deux d’intervalles ouverts.
— Ainsi, [a, b] est fermé lorsque a, b ∈ R, mais [a, +∞[ est aussi fermé (avec a ∈ R).
— ∅ et R sont à la fois ouverts et fermés.
— [0, 1[ n’est ni ouvert ni fermé. On dit qu’il est semi-ouvert ou semi-fermé.
— Les intervalles fermés bornés sont de la forme [a, b] avec a, b ∈ R. On les appelle aussi des
segments.
Définition. Une partie A de R est convexe si et seulement si pour tout a, b ∈ A avec a < b, [a, b] ⊂ A.
Théorème. Les parties convexes de R sont exactement ses intervalles.
Il faut savoir le démontrer.
Corollaire. Une intersection d’intervalles de R est un intervalle de R.
Propriété. Si une famille d’intervalles est d’intersection non vide, l’union de ces intervalles est encore
un intervalle.
Il faut savoir le démontrer.
Propriété. Le signe au sens large du produit de deux réels est égal au produit des signes de ces réels.
Définition. Pour tout x ∈ R, on note |x| = max{−x, x}.
∀x, y ∈ R, |xy| = |x||y|.
(a + b) − |a − b| (a + b) + |a − b|
min(a, b) = et max(a, b) = .
2 2
Distance entre réels : Lorsque x, y ∈ R, la quantité d(x, y) = |x − y| est appelée la distance entre
les deux réels x et y. Elle vérifie l’inégalité triangulaire : d(x, z) ≤ d(x, y) + d(y, z).
3 Développement décimal
3.1 Développement décimal d’un entier naturel
Propriété. Si (xn ) une suite strictement croissante d’entiers naturels, on montre par récurrence que
pour tout n ∈ N, xn ≥ n.
Définition. Les chiffres en base 10 sont 0, 1, . . . , 9.
Théorème. Pour tout n ∈ N, il existe Xune unique suite presque nulle de chiffres
(ak )k∈N ∈ {0, . . . , 9} (N)
telle que n = ak 10k .
k∈N
Remarque. On peut généraliser et développer en base a où a est un entier supérieur ou égal à 2.
CNSX n ∈ N, dont le développement décimal est noté
de divisibilité : Soit X
n= ak 10k . On note s = ak la somme des chiffres de n.
k∈N k∈N
— n est divisible par 2 si et seulement si a0 ∈ {0, 2, 4, 6, 8}.
— n est divisible par 5 si et seulement si a0 ∈ {0, 5}.
— n est divisible par 10 si et seulement si a0 = 0.
2 Applications
2.1 Généralités
Définition. Une fonction f de E dans F est un triplet f = (E, F, Γ), où E et F sont des ensembles
et où Γ est une relation binaire sur E × F telle que
∀x ∈ E, ∀y, z ∈ F, (x Γ y) ∧ (x Γ z) =⇒ (y = z), c’est-à-dire telle que pour tout x ∈ E, il existe au
plus un y ∈ F en relation avec x. On note alors “y = f (x) ” au lieu de x Γ y ou bien (x, y) ∈ Γ.
— Le domaine de définition de f est {x ∈ E/∃y ∈ F, x Γ y}. On le notera Df .
— Une application de E dans F est une fonction telle que Df = E.
— E s’appelle l’ensemble de départ de f et F l’ensemble d’arrivée.
— Γ s’appelle le graphe de f . Γ = {(x, y) ∈ E × F/x Γ y} = {(x, f (x))/x ∈ Df }.
— Lorsque y = f (x), où x ∈ E et y ∈ F ,
— on dit que y est l’image de x par f et
1
36
Semaine 8 : Résumé de cours 2 Applications
Définition. Soit f une application d’un ensemble ordonné (E, ≤E ) dans un ensemble ordonné (F, ≤F ).
— f est croissante si et seulement si [∀x, y ∈ E, x ≤E y =⇒ f (x) ≤F f (y)].
— f est strictement croissante si et seulement si ∀x, y ∈ E, x <E y =⇒ f (x) <F f (y).
— f est décroissante si et seulement si elle est croissante de (E, ≤E ) dans (F, ≥F ).
— f est strictement décroissante si et seulement si ∀x, y ∈ E, x <E y =⇒ f (x) >F f (y).
— f est monotone si et seulement si f est croissante ou décroissante.
— f est strictement monotone si et seulement si f est strictement croissante ou strictement
décroissante.
Propriété.
— La composée de deux applications croissantes est croissante.
— La composée de deux applications décroissantes est croissante.
— La composée d’une application croissante et d’une application décroissante est décroissante.
Il faut savoir le démontrer.
Propriété. Soit f et g deux fonctions de R dans R.
— Si f et g sont croissantes, alors f + g est croissante.
— Si f et g sont décroissantes, alors f + g est décroissante.
— Si f est croissante, −f est décroissante.
— Si f et g sont à valeurs positives et croissantes (resp : décroissantes), alors f g est croissante
(resp : décroissante).
— Si f et g sont à valeurs strictement positives et sont strictement croissantes (resp : strictement
décroissantes), alors f g est strictement croissante (resp : strictement décroissante).
Il faut savoir le démontrer.
Définition. Soit f et g deux applications d’un ensemble E dans un ensemble ordonné (F, ≤). On
écrit f ≤ g si et seulement si , pour tout x ∈ E, f (x) ≤ g(x).
On définit ainsi une relation d’ordre sur F(E, F ).
— Lorsque f est une bijection de E dans F , pour tout y ∈ F , f −1 (y) est l’unique antécédent de
y par f .
En particulier, dès que l’on utilise une expression de la forme f −1 (y) où y est un élément de l’ensemble
d’arrivée de f , on suppose nécessairement que f est une bijection.
Lorsque y ∈ F , il importe de bien distinguer f −1 (y) qui représente, pour une bijection f , l’unique
antécédent de y, et f −1 ({y}) qui représente, pour une application f quelconque, l’ensemble des
antécédents de y. Cet ensemble peut être vide lorsque f n’est pas surjective, il peut contenir plus
de deux éléments lorsque f n’est pas injective.
Propriété. Si f est une bijection de E dans F , alors pour tout B ⊂ F , f (f −1 (B)) = B et, pour tout
A ⊂ E, f −1 (f (A)) = A.
Propriété. (HP) Les applications injectives sont simplifiables à gauche et les applications surjectives
sont simplifiables à droite.
Il faut savoir le démontrer.
Propriété. Si E 6= ∅, alors f : E −→ F est injective si et seulement si il existe g : F −→ E telle
que g ◦ f = IdE .
Il faut savoir le démontrer.
Propriété. f : E −→ F est surjective si et seulement si il existe g : F −→ E telle que f ◦ g = IdF .
Il faut savoir le démontrer.
3 Lois internes
Définition. Une loi interne sur E est une application f de E × E dans E. Dans ce contexte la
notation préfixe “f (x, y)” est remplacée par la notation infixe “x f y”, où x, y ∈ E.
On dit que (E, f ) est un magma (hors programme).
Définition. Soit ∆ une loi interne sur E. ∆ est associative si et seulement si pour tout x, y, z ∈ E,
(x ∆ y) ∆ z = x ∆ (y ∆ z). On dit alors que (E, ∆) est un magma associatif. Dans ce cas, si
x1 , . . . , xp ∈ E, la quantité x1 ∆ x2 ∆ · · · ∆ xp ne dépend pas des différentes façons de la parenthéser.
Définition. Soit ∆ une loi interne sur E et soit e ∈ E. On dit que e est un élément neutre de (E, ∆)
si et seulement si, pour tout x ∈ E, x ∆ e = e ∆ x = x. Si E possède un élément neutre, il est unique.
On dit alors que (E, ∆) est un magma unitaire, ou bien unifère.
Définition. Un monoı̈de est un magma associatif unitaire. Il est commutatif, ou abélien, si et seule-
ment si pour tout x, y, x ∆ y = y ∆ x.
Remarque. l’usage est de confondre le monoı̈de (E, ∆) et l’ensemble sous-jacent E.
Notation. Si (E, ∆) est un monoı̈de d’élément neutre e, on convient que
x1 ∆ x2 ∆ · · · ∆ xp = e, lorsque p = 0.
Définition. Soit (E, ×) un monoı̈de d’élément neutre 1E et x ∈ E. On dit que x est inversible à
droite (resp : à gauche) si et seulement si il existe y ∈ E tel que yx = 1E (resp : xy = 1E ).
Si x est inversible à gauche et à droite, il existe un unique y ∈ E tel que xy = yx = 1E . On note
y = x−1 , c’est le symétrique de x.
Il faut savoir le démontrer.
Propriété.
Si x et y sont inversibles dans le monoı̈de (E, ×), alors xy est aussi inversible et (xy)−1 = y −1 x−1 .
Définition. Un groupe est un monoı̈de dans lequel tout élément est inversible.
Définition. On appelle anneau tout triplet (A, +, .), où A est un ensemble et où “+” et “.” sont
deux lois internes sur A telles que
• (A, +) est un groupe abélien (l’élément neutre étant noté 0 ou 0A ),
• “.” est une loi associative, admettant un élément neutre noté 1 ou 1A ,
• la loi “.” est distributive par rapport à la loi “+”, c’est-à-dire que
∀(x, y, z) ∈ A3 x.(y + z) = (x.y) + (x.z) et (x + y).z = (x.z) + (y.z).
1
42
Semaine 9 : Résumé de cours 3
Notation. Pour tout n ∈ N, Sn désigne l’ensemble des bijections de Nn dans Nn , que l’on appelle
des permutations sur Nn .
n
X n
X
Commutativité généralisée : Soit n ∈ N et x1 , . . . , xn ∈ G. Alors, ∀σ ∈ Sn , xi = xσ(j) .
i=1 j=1
Définition. Soit A un ensemble fini et (xa )a∈A une famille de G indexée par A.
X Xn
∆
Notons n = |A|. Il existe une bijection f de Nn dans A. On pose xa = xf (i) .
a∈A i=1
Cette quantité ne dépend pas de la bijection f .
Il faut savoir le démontrer.
Propriété d’additivité : Soit A un ensemble
X fini, (x a )a∈A
et (ya )a∈A deux familles d’éléments de G
X X
indexées par A. Alors (xa + ya ) = xa + ya .
a∈A a∈A a∈A
Distributivité généralisée
X A un ensemble fini, λ ∈ C et (xa )a∈A une famille de complexes
: SoitX
indexée par A. Alors (λxa ) = λ xa .
a∈A a∈A
Changement de variable dans une somme finie : Soit B un ensemble X fini,X(xb )b∈B une famille
d’éléments de G. Soit ϕ une bijection d’un ensemble A dans B. Alors xb = xϕ(a) .
b∈B a∈A
Il faut savoir le démontrer.
Formule : calcul d’une somme géométrique .
n
X q m − q n+1
Soit q ∈ C \ {1}, soit m, n ∈ N avec m ≤ n. Alors qk = .
1−q
k=m
Il faut savoir le démontrer.
Théorème. Soit (G, ×) un groupe commutatif fini. Alors, pour tout g ∈ G, g |G| = 1G .
Il faut savoir le démontrer.
Remarque. Ce théorème est encore vrai lorsque G n’est pas commutatif (cf plus loin).
Sommation par paquets : Soit A un ensemble fini et (xa )a∈A une famille d’éléments de G G. On
suppose qu’il existe un ensemble fini B et une famille (Ab )b∈B de parties de A telles que A = Ab .
b∈B
X X X
Alors xa = xa .
a∈A b∈B a∈Ab
3 Applications et cardinaux
Notation. Considérons une application f de E dans F , où E est de cardinal fini.
Propriété. Soit E un ensemble fini et f une application de E dans un ensemble quelconque F . Alors
f (E) est fini. De plus,
|f (E)| ≤ |E|, avec égalité si et seulement si f est injective, et
|f (E)| ≤ |F |, avec égalité si et seulement si f est surjective.
Il faut savoir le démontrer.
Propriété. Soit E et F deux ensembles finis de même cardinal. Soit f une application de E dans F .
Alors f injective ⇐⇒ f surjective ⇐⇒ f bijective .
Propriété. Soit A et B deux ensembles.
S’il existe une injection de A dans B et si B est fini, alors A est fini et |A| ≤ |B|.
S’il existe une surjection de A dans B et si A est fini, alors B est fini et |A| ≥ |B|.
Principe des tiroirs : Si l’on doit ranger p objets dans n tiroirs et que p > n, alors il existe au moins
2 objets qui seront dans le même tiroir.
Plus généralement, si p > cn, où c ∈ N∗ , il existe un tiroir qui contient plus de c + 1 objets.
Il faut savoir le démontrer.
Principe des bergers : Soit E et F des ensembles finis et f : E −→ F une application. On suppose
que tout élément de F possède exactement k antécédents par f . Alors |E| = k|F |.
Il faut savoir le démontrer.
4 Listes et combinaisons
Vocabulaire : Soit E un ensemble et p ∈ N.
— Une p-liste (aussi appelée un p-uplet) d’éléments de E est un élément de E p .
— Un p-arrangement d’éléments de E est une p-liste dont les éléments sont deux à deux distincts.
— Une p-combinaison de E est une partie de E de cardinal p.
Formule de Bernoulli : Soit (A, +, ×) un anneau. Soit a et b deux éléments de A qui commutent
n
X
(i.e ab = ba). Alors, pour tout n ∈ N, an+1 − bn+1 = (a − b) ak bn−k .
k=0
Il faut savoir le démontrer.
1
46
Semaine 10 : Résumé de cours 1
Somme géométrique : Une suite (un ) de complexes est géométrique de raison r si et seulement si
n
X un+1 − um
∀n ∈ N, un+1 = run . Dans ce cas, un = u0 rn et uk = .
r−1
k=m
X X
n X
q
Propriété. Dans un anneau, vk w` = vk w` .
m≤k≤n k=m `=p
p≤`≤q
1.1.7 Produits
Toutes les propriétés précédentes, lorsqu’elles étaient valables dans un monoı̈de commutatif (G, +)
sont valables en notation multiplicative dans un monoı̈de commutatif (G, ×).
Propriété. C est un corps, dont R est un sous-corps et dont les lois sont définies par
(a + ib) + (c + id) = (a + c) + i(b + d)
∀a, b, c, d ∈ R,
(a + ib) × (c + id) = (ac − bd) + i(ad + bc)
a − ib
Si z 6= 0, l’inverse de z = a + ib est .
a2 + b2
Définition. ∀z ∈ C, ∃!a, b ∈ R, z = a + ib. On note a = Re(z) et b = Im(z).
L’écriture du complexe z sous la forme z = Re(z) + iIm(z) s’appelle l’écriture algébrique de z.
Définition. Les imaginaires purs sont les ib où b ∈ R.
Propriété. Comme pour tout corps, C est intègre, c’est-à-dire que, pour tout z, z 0 ∈ C, si zz 0 = 0,
alors z = 0 ou z 0 = 0.
1
Propriété. = −i .
i
Linéarité des parties réelle et imaginaire : Pour tout z, z 0 ∈ C et α ∈ R,
Re(αz + z 0 ) = αRe(z) + Re(z 0 ) et Im(αz + z 0 ) = αIm(z) + Im(z 0 ).
Définition. On considère un plan P affine euclidien orienté, rapporté à un repère orthonormé direct
R = (O,~ı, ~). Soit (x, y) ∈ R2 . On peut alors définir le complexe z = x + iy et le point M de P dont
les coordonnées dans le repère R sont (x, y). On dit que z est l’affixe du point M et que M est l’image
du complexe z.
Si l’on note M (z) l’image du complexe z, l’application z 7−→ M (z) est une bijection de C dans P qui
permet parfois d’identifier C avec P (muni de son repère R).
−−→ −−→
On dit également que z est l’affixe du vecteur OM et que OM est le vecteur image de z.
−−→ −−→
Si l’on note u(z) le vecteur image de z, l’application z 7−→ u(z) est une bijection de C dans l’ensemble
des vecteurs de P .
Pour ces raisons, C est souvent appelé le plan complexe.
Interprétation géométrique de l’addition entre complexes :
Soit z, z 0 ∈ C. Avec les notations précédentes, notons −
→z et −
u u→ 0
z 0 les vecteurs images de z et z . Alors le
−
→ −→
vecteur uz + uz0 a pour affixe z + z .0
Ainsi, si l’on identifie C avec l’ensemble des vecteurs de P , l’addition entre complexes correspond à
l’addition entre vecteurs du plan.
Si l’on visualise les deux complexes z et z 0 par deux points Mz et Mz0 du plan P , le complexes z + z 0
est donc le point qui complète O, Mz , Mz0 en un parallélogramme.
Interprétation géométrique de la différence de deux complexes :
−−−−−−−−→
Avec les mêmes notations, z 0 − z est l’affixe du vecteur M (z)M (z 0 ).
2.3 La conjugaison
∆
Définition. Soit x, y ∈ R. Le conjugué du complexe z est le complexe z = x − iy.
Géométriquement, z est le symétrique de z selon l’axe Ox des réels.
Propriété. z ∈ R ⇐⇒ z = z et z ∈ iR ⇐⇒ z = −z.
z+z z−z
Propriété. Pour tout z ∈ C, Re(z) = et Im(z) = .
2 2i
z z
Propriété. Pour tout z, z 0 ∈ C, z = z, z + z 0 = z + z 0 et zz 0 = z × z 0 , = .
z0 z0
Corollaire. Pour tout n ∈ Z et z ∈ C∗ , z n = z n .
3 Le module
∆ p
Définition. Soit x, y ∈ R. Le module du complexe z = x + iy est |z| = x2 + y 2 .
Interprétation géométrique :
−−→
|z| désigne la distance du point M (z) à l’origine, ainsi que la norme du vecteur u(z).
La distance entre M (z) et M (z 0 ) est égale à |z − z 0 |.
Propriété. ∀z ∈ C, |z|2 = zz.
1 z z
Propriété. Pour tout z ∈ C∗ , = = 2.
z zz |z|
Propriété. Pour tout z, z 0 ∈ C,
— |z| = |z| (compatibilité du module avec la conjugaison) ;
— |zz 0 | = |z| × |z 0 | (compatibilité du module avec la multiplication) ;
— pour tout n ∈ N, |z n | = |z|n ;
z0 |z 0 |
— si z 6= 0, = .
z |z|
Propriété. Le module est une norme sur C, c’est-à-dire que l’application |.| : C −→ R vérifie les
propriétés suivantes : Pour tout z, z 0 ∈ C et α ∈ R,
— |z| ≥ 0 (positivité),
— |z| = 0 ⇐⇒ z = 0 (séparation),
— |αz| = |α| × |z| (homogénéité),
— |z + z 0 | ≤ |z| + |z 0 | (inégalité triangulaire).
Il faut savoir le démontrer.
1
50
Semaine 11 : Résumé de cours 2 Fonctions à valeurs dans C
2.2 Dérivation
Définition. Soit I un intervalle inclus dans R et f : I −→ C une application. On verra plus loin
que f est continue (resp : dérivable, k fois dérivable, de classe C k où k ∈ N∗ ∪ {∞}) si et seulement
si les applications Re(f ) et Im(f ) sont continues (resp : dérivables, k fois dérivables, de classe C k où
k ∈ N∗ ∪ {∞}). De plus, lorsque f est k fois dérivable, où k ∈ N∗ , on verra que,
pour tout t ∈ I, f (k) (t) = [Re(f )](k) (t) + i[Im(f )](k) (t).
Propriété. Les formules suivantes, déjà admises pour des fonctions de R dans R sont aussi valables
pour des fonctions de R dans C, ainsi que nous le démontrerons plus tard.
Les fonctions qui interviennent dans ces formules sont toutes supposées dérivables sur un intervalle.
On se limite éventuellement à un sous-intervalle pour s’assurer que les quantités qui interviennent
dans les formules sont bien définies. :
— Pour tout α, β ∈ C, (αf + βg)0 = αf 0 + βg 0 .
— (f g)0 = f 0 g + f g 0 .
1 0 f0
— = − 2.
f f
f f 0 g − g0 f
— = .
g g2
— Si g : R −→ R, alors (f ◦ g)0 = g 0 × (f 0 ◦ g).
— Pour tout n ∈ Z, (f n )0 = nf 0 × f n−1 .
Formule de Leibniz : Soient f et g deux applications d’un intervalle I dans C. Si f et g sont n fois
dérivables sur I, alors f g est n fois dérivable sur I et
Xn
n
(f g)(n) = f (k) g (n−k) .
k
k=0
2.3 Intégration
Définition. Soit I un intervalle de R. Soit f : I −→ C une application continue. Pour tout a, b ∈ I,
on pose
Z b Z b Z b
f (t) dt = Re(f (t)) dt + i Im(f (t)) dt.
a a a
Z b Z b Z b Z b
Remarque. Ainsi, Re f (t) dt = Re(f (t)) dt et Im f (t) dt = Im(f (t)) dt.
a a a a
On admettra pour le moment que les intégrales vérifient les propriétés suivantes :
Propriété. Soit I un intervalle inclus dans R.
Soit f et g deux applications continues de I dans C. Soit a, b ∈ I.
Z b Z b Z b
— Linéarité : Pour tout α, β ∈ C, (αf + βg) = α f +β g.
a Z b aZ Za
c b
— Relation de Chasles : Pour tout c ∈ I, f (t)dt = f+ f.
Z b Z amax(a,b) a c
Définition. Soit I un intervalle de R et f une application de I dans C que l’on suppose continue.
On dit que F est une primitive de f sur I si et seulement si F est dérivable et F 0 = f .
Si F0 est une primitive de f , alors les autres primitives de f sont exactement les applications F0 + k,
où k est une fonction constante.
Théorème : Soit I un intervalle
Z x de R et f une application de I dans C que l’on suppose continue.
Soit x0 ∈ I. Alors x 7−→ f (t)dt est l’unique primitive de f qui s’annule en x0 .
x0
La formule d’intégration par parties itérée reste valable pour des fonctions de I dans C, ainsi que la
formule de Taylor avec reste intégral, l’inégalité de Taylor-Lagrange et celle de Taylor-Young.
3 L’exponentielle complexe
3.1 En théorie
∀ε > 0, ∃N ∈ N, ∀n ≥ N, |zn − `| ≤ ε.
On dit que (zn )n∈N est convergente si et seulement si il existe ` ∈ C tel que zn −→ `.
n→+∞
P
Définition. La série de complexes zn converge si et seulement si la suite de ses sommes partielles
Xn +∞
X Xn
zk est une suite convergente. On note alors zn = lim zk .
n∈N n→+∞
k=0 n=0 k=0
P
Propriété. Si zn est une série convergente de complexes, alors zn −→ 0.
Pn→+∞
La réciproque est fausse : on peut avoir zn −→ 0 alors que la série zn diverge.
n→+∞
Il faut savoir le démontrer.
P X P
Théorème. Si |zn | converge alors zn est une série convergente. On dit alors que la série zn
est absolument convergente.
Définition. On a vu, grâce à l’inégalité de Taylor-Lagrange, que pour tout t ∈ R,
Xn
tk X z n
t
e = lim . Ainsi, pour tout complexe z ∈ C, la série est absolument convergente.
n→+∞ k! n! n∈N
k=0
Xn
zk
Ceci permet de prolonger l’exponentielle réelle sur C, en convenant que ∀z ∈ C, ez = lim .
n→+∞ k!
k=0
Propriété. Soit (zn )n∈N une suite de complexes qui converge vers ` ∈ C. Alors zn −→ `.
n→+∞
Il faut savoir le démontrer.
Propriété. Pour tout z ∈ C, ez = ez .
Il faut savoir le démontrer.
Propriété. Pour tout u, v ∈ C, eu ev = eu+v .
Il faut savoir le démontrer.
1
Corollaire. Pour tout z ∈ C, ez 6= 0 et z = e−z .
e
Propriété. |ez | = eRe(z) .
Il faut savoir le démontrer.
Théorème. ez ∈ U ⇐⇒ z ∈ iR.
Formules d’Euler :
+∞
X +∞
X
θ2n θ2n+1
Propriété. Pour tout θ ∈ R, cos θ = (−1)n et sin θ = (−1)n .
n=0
(2n)! n=0
(2n + 1)!
Il faut savoir le démontrer.
Corollaire. sin est une fonction impaire et cos est une fonction paire.
cos et sin sont de classe C ∞ et cos0 = − sin, sin0 = cos.
Il faut savoir le démontrer.
Formule circulaire : Pour tout θ ∈ R, cos2 θ + sin2 θ = 1.
Formule d’addition : cos(a + b) = cos a cos b − sin a sin b et sin(a + b) = sin a cos b + cos a sin b.
P
Définition.
P On appelle série alternée toute série réelle de la forme (−1)n αn ou
(−1)n+1 αn , où pour tout n ∈ N, αn ∈ R+ .
Théorème
P spécial des séries alternées (TSSA).
Soit On dit qu’elle est spéciale alternée lorsque la suite (|an |) est décroissante
an une série alternée.P
et tend vers 0. Dans ce cas, an est convergente.
+∞
X +∞
X
De plus, pour tout n ∈ N, ak est du signe de son premier terme an et | ak | ≤ |an+1 |.
k=n k=n+1
Propriété. L’application cos est strictement décroissante sur ]0, 2] et elle possède un unique zéro sur
π
]0, 2], que l’on notera : c’est la définition de π.
2
Propriété. Pour tout x ∈ R, cos(x + π2 ) = − sin(x) et sin(x + π2 ) = cos(x).
On dispose des tableaux de variations suivants :
π 3π
x 0 2 π 2 2π
cos(x) 1 & 0 & −1 % 0 % 1
sin(x) 0 % 1 & 0 & −1 % 0
2π est la plus petite période de cos, ainsi que de sin.
Propriété. Soit (a, b) ∈ R2 tel que a2 + b2 = 1.
Il existe un unique θ ∈ [0, 2π[ tel que a = cos(θ) et b = sin(θ).
Corollaire. Soit θ, ϕ ∈ R tels que cos θ = cos ϕ et sin θ = sin ϕ. Alors θ ≡ ϕ [2π].
R −→ U
Paramétrage du cercle unité : l’application est périodique et sa plus petite période
t 7−→ eit
est 2π. Sa restriction à [0, 2π[ est bijective.
[a, b] −→ C
M:
Définition. Soit a, b ∈ R avec a < b et une application de classe C 1 .
t 7−→ M (t)
Notons C = {M (t)/t ∈ [a, b]} : C est une courbe dans le plan complexe, dont l’application M est un
Z b
paramétrage. Par définition, la longueur de C est égale à |M 0 (t)|dt.
a
it
Propriété. Soit θ ∈ [0, 2π]. Notons Cθ = {e /t ∈ [0, θ]} : Cθ est une portion du cercle unité. Sa
longueur est égale à θ.
d α
Propriété. Pour tout α ∈ C, (t ) = αtα−1 .
dt
α+β α−β −α+β α+β α−β
Technique de l’angle moyen : eiα + eiβ = ei 2 (ei 2 + ei 2 ) = 2ei 2 cos( )
2
α+β α−β −α+β α+β α−β
et eiα − eiβ = ei 2 (ei 2 − ei 2 ) = 2iei 2 sin( ).
2
3.3 Linéarisation
3.4 Antilinéarisation
1
56
Semaine 12 : Résumé de cours 3 Les similitudes
Propriété. Soit →−
u et →−v deux vecteurs non nuls d’affixes u = a + ib et v = c + id.
→
− →
− u ∆ a c ∆
— u // v ⇐⇒ ∈ R ⇐⇒ Im(uv) = 0 ⇐⇒ ad − bc = = det(→−
u,→
−v ) = 0.
v b d
det(→ −u,→−
v ) est le déterminant (aussi appelé le produit mixte) des deux vecteurs →
−
u et →
−
v.
→
− →
− u ∆ →
− →
−
— u ⊥ v ⇐⇒ ∈ iR ⇐⇒ Re(uv) = 0 ⇐⇒ ac + bd =< u , v >= 0.
v
<→ −
u,→ −
v > est le produit scalaire des deux vecteurs → −u et →
−
v.
Il faut savoir le démontrer.
Corollaire. Soit A, B, C trois points du plan usuel, d’affixes respectifs a, b, c ∈ C.
a−b
— (A, B et C sont alignés) ⇐⇒ ∈ R ⇐⇒ Im((a − b)(c − b)) = 0, c’est-à-dire
c−b
C ∈ (AB) ⇐⇒ arg(c − a) ≡ arg(b − a) [π] ⇐⇒ (∃t ∈ R, c = (1 − t)a + tb).
a−b
— (Le triangle ABC est rectangle en B) ⇐⇒ ∈ iR ⇐⇒ Re((a − b)(c − b)) = 0.
c−b
3 Les similitudes
3.1 Les similitudes directes
Définition. Une application f : C −→ C est une isométrie si et seulement si elle conserve les
distances, c’est-à-dire si et seulement si , pour tout z, z 0 ∈ C, |f (z) − f (z 0 )| = |z − z 0 |.
Définition. La translation de vecteur b ∈ C est la transformation tb : z 7−→ z + b. Elle est bijective,
6 0, c’est une isométrie.
d’application réciproque t−b , elle ne possède aucun point fixe lorsque b =
Définition. La rotation de centre z0 ∈ C et d’angle θ ∈ R est la transformation
rz0 ,θ : z 7−→ eiθ (z − z0 ) + z0 . Elle est bijective, d’application réciproque rz0 ,−θ , elle admet z0 comme
unique point fixe lorsque θ ∈ / 2πZ, c’est une isométrie.
Définition. L’homothétie de centre z0 ∈ C et de rapport λ ∈ R∗ est la transformation
hz0 ,λ : z 7−→ λ(z − z0 ) + z0 . Elle est bijective, d’application réciproque hz0 , λ1 , elle admet z0 comme
unique point fixe lorsque λ 6= 1.
Définition. Soit D une droite affine du plan usuel. La réflexion d’axe D est la symétrie orthogonale
par rapport à D.
Propriété. la conjugaison z 7−→ z est la réflexion d’axe Ox.
Remarque. La suite de ce paragraphe est hors programme.
Propriété. Soit θ ∈ R. L’application z 7−→ e2iθ z est la réflexion (vectorielle) selon la droite (vecto-
rielle) eiθ R.
Il faut savoir le démontrer.
Propriété. Soit θ ∈ R et z0 ∈ C. L’application z 7−→ e2iθ (z − z0 ) + z0 est la réflexion (affine) selon
la droite (affine) z0 + eiθ R.
Il faut savoir le démontrer.
Propriété. Soit θ ∈ R et z0 ∈ C. Notons rD la réflexion selon la droite D.
rD est involutive, D est l’ensemble de ses points fixes, rD est une isométrie, rD transforme les angles
−−−−−→\ −−−−−→ \
→
− →
−
en leurs opposés : pour tout a, b, c deux à deux distincts, (s(a)s(b), s(a)s(c)) = −(ab, ac).
Définition. On dit que f est une similitude affine indirecte si et seulement si c’est une application
de C dans C de la forme z 7−→ az + b, où a ∈ C∗ et b ∈ C.
On dit que c’est une similitude vectorielle indirecte lorsque f (0) = 0.
Une similitude affine indirecte f transforme les angles en leurs opposés et conserve les proportions :
|f (z) − f (z 0 )|
est une constante indépendante de (z, z 0 ) ∈ C2 avec z 6= z 0 .
|z − z 0 |
Définition. Une réflexion glissée d’axe D est la composée commutative d’une réflexion d’axe D avec
une translation selon un vecteur parallèle à D.
Propriété. La composée d’une homothétie et d’une réflexion glissée est une similitude affine indirecte.
Propriété. Soit f : z 7−→ λe2iθ z + b une similitude affine indirecte. C’est la composée d’une
homothétie de rapport λ avec une réflexion glissée selon une droite parallèle au vecteur eiθ .
Définition. On note S − l’ensemble des similitudes indirectes et S = S − t S + .
S est un sous-groupe de S(C).
La composée de k éléments de S + avec h éléments de S − , quel que soit l’ordre, est un élément de S +
si h est pair et de S − si h est impair.
Propriété. (Admise pour le moment) : Soit f : C −→ C une application. f ∈ S si et seulement si
il existe λ ∈ R∗+ tel que, pour tout z, z 0 ∈ C, |f (z) − f (z 0 )| = λ|z − z 0 |.
Propriété. L’application qui associe à toute similitude z 7−→ az + b ou z 7−→ az + b la quantité |a|
est un morphisme de groupes, donc le noyau est le sous-groupe des isométries noté I.
Propriété. Posons I + = I ∩ S + et I − = I ∩ S − .
I + est l’ensemble des translations et des rotations.
I − est l’ensemble des réflexions glissées.
0
Propriété. Soit D = z0 + eıθ R et D0 = z00 + eıθ R deux droites affines.
Si θ 6≡ θ0 [π], alors D ∩ D0 est un singleton {z0 } et rD0 ◦ rD est la rotation de centre z0 et d’angle
2(θ0 − θ) = 2(D,\ D0 ).
0
Sinon, D et D sont parallèles et rD0 ◦ rD est une translation.
1 La structure de groupe
1.1 Définitions
Définition. (G, .) est un groupe si et seulement si G est muni d’une loi interne “.” qui vérifie
— l’associativité : pour tout x, y, z ∈ G, x(yz) = (xy)z ;
— l’existence d’un élément neutre 1G : pour tout x ∈ G, 1G .x = x.1G = x :
— l’existence, pour tout x ∈ G, d’un symétrique x−1 tel que : xx−1 = x−1 x = 1G .
Définition. Pour un groupe, “commutatif” et “abélien” sont synonymes.
Notation. On utilise principalement deux notations pour désigner la loi interne d’un groupe :
Notation multiplicative : dans un groupe (G, .), l’élément neutre est noté 1 ou 1G , le symétrique de
n
Y
x ∈ G est noté x−1 et si x1 , . . . , xn ∈ G, on note x1 × · · · × xn = xi , en convenant que ce produit
i=1
vaut 1G lorsque n = 0 (produit vide).
Notation additive : dans un groupe abélien (G, +), l’élément neutre est noté 0 ou 0G , le symétrique
n
X
de x ∈ G est noté −x et si x1 , . . . , xn ∈ G, on note x1 + · · · + xn = xi , en convenant que cette
i=1
somme vaut 0G lorsque n = 0 (somme vide).
Définition. Si (G, .) est un groupe fini, le cardinal de G est appelé l’ordre de G.
Propriété. Soit (G, .) un groupe et a ∈ G. Alors a est régulier (ou simplifiable) à gauche et à droite,
c’est-à-dire que ∀x, y ∈ G, [ax = ay =⇒ x = y] et [xa = ya =⇒ x = y].
−1
Propriété. Dans un groupe (G, .), (x1 × · · · × xn )−1 = x−1
n × · · · × x1 .
∆
Propriété. Dans un groupe abélien (G, +), on pose x − y = x + (−y).
On dispose des formules : x − (y + z) = x − y − z et x − (y − z) = x − y + z.
Définition. Le groupe produit des n groupes ((Gi , .i ))i∈{1,...,n} est (G, .), où G = G1 × · · · × Gn et
où la loi “.” est définie par : (x1 , . . . , xn ).(y1 , . . . , yn ) = (x1 .1 y1 , . . . , xn .n yn ).
1
60
Semaine 13 : Résumé de cours 1
Propriété. Si E est un ensemble, alors l’ensemble des bijections de E dans E est un groupe pour la
loi de composition. On l’appelle le groupe symétrique de E et on le note S(E). Son élément neutre
est l’application identité IdE et, pour tout f ∈ S(E), le symétrique de f est la bijection réciproque
de f , dont la notation f −1 est en cohérence avec cette propriété.
1.4 Sous-groupes
1.4.1 Définition
Propriété et définition : Soit (G, .) un groupe et H une partie de G.
H est un groupe pour la restriction de la loi “.” à H × H, avec le même élément neutre 1G si et
seulement si
— H 6= ∅ ;
— ∀(x, y) ∈ H 2 , xy ∈ H (stabilité du produit) ;
— ∀x ∈ H , x−1 ∈ H (stabilité du symétrique).
Cet ensemble de conditions est équivalent à
— H 6= ∅ ;
— ∀(x, y) ∈ H 2 , xy −1 ∈ H.
Dans ce cas, on dit que H est un sous-groupe de G.
Propriété de transitivité : Un sous-groupe d’un sous-groupe d’un groupe G est un sous-groupe
de G.
Définition. Soit (G, .) un groupe et a ∈ G. On définit la famille (an )n∈Z par les relations suivantes :
— Initialisation : a0 = 1G (encore le produit vide) ;
— Itération : pour tout n ∈ N, an+1 = a.an (donc pour n ∈ N∗ , an = a × · · · × a) ;
| {z }
nf ois
— Symétrique : pour tout n ∈ Z avec n < 0, an = (a−n )−1 .
Formules : pour tout n, m ∈ Z, an am = an+m et (an )m = anm .
Si ab = ba (on dit que a et b commutent), pour tout n ∈ Z, (ab)n = an bn .
Remarque. Si a et b commutent, alors pour tout n, k ∈ Z, an et bk commutent également entre eux.
Il faut savoir le démontrer.
En notation additive, dans le cadre des groupes commutatifs, ce qui précède devient :
Définition. soit (G, +) un groupe commutatif et a un élément de G. On définit la famille (na)n∈Z
par les relations suivantes :
— Initialisation : 0.a = 0G ;
— Itération : pour tout n ∈ N, (n + 1).a = a + (n.a)
(donc pour n ∈ N∗ , n.a = a + · · · + a) ;
| {z }
nf ois
— Symétrique : pour tout n ∈ Z avec n < 0, n.a = −((−n).a).
Propriété. Soit (G, +) un groupe abélien et a, b ∈ G. Pour tout n, m ∈ Z,
(n.a) + (m.a) = (n + m).a, m.(n.a) = (nm).a et n.(a + b) = (na) + (nb).
Propriété. Soit
nX (G, +) un groupe abélieno et A une partie de G.
(A)
Alors Gr(A) = na .a/(na )a∈A ∈ Z .
a∈A
nX
p o
Remarque. En particulier, Gr({x1 , . . . , xp }) = ni xi /(ni )1≤i≤p ∈ Zp .
i=1
Propriété. Soit (G, .) un groupe et a ∈ G. Alors le groupe engendré par la partie {a} est
Gr({a}) = {an /n ∈ Z}. On le note plus simplement Gr(a).
Propriété. Soit (G, +) un groupe abélien et a ∈ G. Alors le groupe engendré par la partie {a} est
Gr({a}) = {na/n ∈ Z}. On le note Gr(a). On peut donc écrire Gr(a) = Z.a.
Propriété. Les sous-groupes de (Z, +) sont les nZ, où n ∈ N.
Il faut savoir le démontrer.
Définition. Soit a un élément d’un groupe G. Lorsque Gr(a) est de cardinal fini, ce cardinal est
appelé l’ordre de a.
Définition. On dit qu’un groupe (G, .) est monogène si et seulement si il existe a ∈ G tel que
G = Gr(a). On dit alors que a est un générateur de G.
Remarque. Tout groupe monogène est abélien.
Définition. Un groupe G est dit cyclique si et seulement si G est monogène et fini.
k
Exemple. Un = {e2iπ n /k ∈ {0, . . . , n − 1}} est un groupe cyclique.
Propriété. Soit (G, .) un groupe, a ∈ G et n ∈ N∗ .
Les propriétés suivantes sont équivalentes :
— i) Gr(a) est cyclique de cardinal n.
— ii) {k ∈ N∗ /ak = 1} est non vide et son minimum est égal à n.
— iii) Pour tout k ∈ Z, [ak = 1 ⇐⇒ k ∈ nZ].
— iv) Les éléments de Gr(a) sont exactement 1, a, . . . , an−1 et ils sont deux à deux distincts.
Dans ce cas, n est l’ordre de a et de Gr(a).
Il faut savoir le démontrer.
Remarque. En notation additive, Si f est un morphisme dont le groupe d’arrivée (H, +) est abélien,
alors Ker(f ) = f −1 ({0H }) = {x ∈ G/f (x) = 0H }.
Propriété. Soient (G, .) et (H, .) deux groupes, et f un morphisme de G dans H.
Propriété. Un groupe est monogène non cyclique si et seulement si il est isomorphe à (Z, +).
Il faut savoir le démontrer.
2 La structure d’anneau
2.1 Définition
Définition. On appelle anneau tout triplet (A, +, .), où A est un ensemble et où “+” et “.” sont
deux lois internes sur A telles que
• (A, +) est un groupe abélien (l’élément neutre étant noté 0 ou 0A ),
• “.” est une loi associative, admettant un élément neutre noté 1 ou 1A ,
• la loi “.” est distributive par rapport à la loi “+”, c’est-à-dire que
∀(x, y, z) ∈ A3 x.(y + z) = (x.y) + (x.z) et (x + y).z = (x.z) + (y.z).
Définition. Un anneau (A, +, .) est commutatif ou abélien si et seulement si la loi “.” est commutative.
Propriété. L’ensemble U (A) des éléments inversibles d’un anneau A est un groupe multiplicatif.
Définition. Un anneau A est un corps si et seulement si
• A n’est pas réduit à {0A },
• A est commutatif,
• et tout élément de A différent de 0A est inversible.
Définition. Soit (K, +, .) un corps et L ⊂ K. L est un sous-corps de K si et seulement si, en le
munissant des restrictions sur L2 des lois “+” et “.”, L est un corps possédant les mêmes éléments
neutres que ceux de K.
Propriété. L est un sous-corps de K ssi c’est un sous-anneau de K tel que : ∀x ∈ L \ {0} x−1 ∈ L.
2.6 Formules
α +···+α =n
α1 ! · · · αp !
1 p
n
X
Formule de Bernoulli : Si a, b ∈ A avec ab = ba, alors an+1 − bn+1 = (a − b) ak bn−k .
k=0
Définition. Un anneau A est intègre si et seulement si il est commutatif et non nul et s’il n’admet
aucun diviseur de 0, ni à gauche ni à droite, c’est-à-dire si et seulement si, pour tout a, b ∈ A,
ab = 0 =⇒ (a = 0) ∨ (b = 0).
Propriété. Un corps est en particulier un anneau intègre.
1 Les idéaux
Définition. Une partie I d’un anneau A est un idéal de A à gauche (resp : à droite) si et seulement
si I 6= ∅, ∀(x, y) ∈ I 2 , x + y ∈ I et ∀(x, y) ∈ A × I, x.y ∈ I (resp : y.x ∈ I).
On dit qu’un idéal est absorbant pour le produit.
Lorsque I est un idéal à gauche et à droite, on dit que c’est un idéal bilatère.
Notation. Pour la suite, on fixe un anneau (A, +, .) que l’on suppose commutatif.
Propriété. Tout idéal est un groupe pour la loi “+”.
Propriété. Soit A un anneau commutatif et I un idéal de A. Alors 1 ∈ I ⇐⇒ I = A .
Propriété. Une intersection d’idéaux de A est un idéal de A.
Il faut savoir le démontrer.
Définition. Soit B une partie de A. L’idéal engendré par B est l’intersection des idéaux de A
contenant B. C’est le plus petit idéal (au sens de l’inclusion) contenant B. On le note Id(B).
Propriété. Soient B et C deux parties de A telles que C ⊂ B. Alors Id(C) ⊂ Id(B).
Xn
Propriété. Si B est une partie de A, Id(B) = { ai bi /n ∈ N, (a1 , . . . , an ) ∈ An , (b1 , . . . , bn ) ∈ B n }.
i=1
Il faut savoir le démontrer.
Définition. Un idéal I de A est principal si et seulement si il existe b ∈ A tel que I = Id(b).
Définition. Un anneau est principal si et seulement si c’est un anneau commutatif, intègre et dont
tous les idéaux sont principaux.
Théorème. Z est un anneau principal.
Théorème. Si K est un corps, alors K[X] est un anneau principal.
Il faut savoir le démontrer.
Propriété. Soit I et J deux idéaux de A. Alors I + J est un idéal de A.
Propriété. Soient A et B deux anneaux commutatifs et f : A −→ B un morphisme d’anneaux.
Ker(f ) est un idéal de A et si I est un idéal de B, f −1 (I) est un idéal de A contenant Ker(f ).
Il faut savoir le démontrer.
1
68
Semaine 14 : Résumé de cours 3 Anneaux quotients
2 Groupes quotients
Notation. On fixe un groupe (G, .) et un sous-groupe H de G.
On note RH la relation binaire définie sur G par : ∀(x, y) ∈ G2 , [xRH y ⇐⇒ x−1 y ∈ H].
Propriété. RH est une relation d’équivalence et, pour tout x ∈ G, la classe d’équivalence de x pour
∆
RH est x = {xh/h ∈ H} = xH. On note G/H l’ensemble des classes d’équivalence.
3 Anneaux quotients
Notation. On fixe un anneau commutatif (A, +, .) et un idéal I de A.
Propriété. (A/I, +, .) est un anneau commutatif en posant, pour tout x, y ∈ A x.y = x.y.
Propriété. Dans l’anneau Z/nZ, on dispose des régles supplémentaires de calculs suivantes :
— Pour tout h, k ∈ Z, hk = h.k.
— 1 = 1Z/nZ .
1 Z/nZ
1.1 Propriétés spécifiques de Z/nZ
1
70
Semaine 15 : Résumé de cours 1 Z/nZ
i=1
k
Y 1
Alors ϕ(n) = n 1− .
i=1
pi
Propriété. Z.1A , le plus petit sous-anneau de A, est isomorphe à Z lorsque car(A) = 0 et à Z/nZ
lorsque car(A) = n ∈ N∗ .
Il faut savoir le démontrer.
Corollaire. Un anneau de caractéristique nulle est de cardinal infini, la réciproque étant fausse.
Propriété. Si A est intègre et car(A) 6= 0, alors car(A) ∈ P.
Il faut savoir le démontrer.
Propriété. Si car(A) = p ∈ P, alors x 7−→ xp est un endomorphisme sur A, dit de Frobenius.
Il faut savoir le démontrer.
Notation. Pour toute la suite de ce paragraphe, K désigne un corps quelconque.
Propriété. La caractéristique d’un corps est ou bien nulle, ou bien un nombre premier.
Propriété. On appelle sous-corps premier de K le plus petit sous-corps de K.
— Si car(K) = p ∈ P, le sous-corps premier de K est Z.1K , il est isomorphe à Z/pZ.
— Si car(K) = 0, le sous-corps premier de K est {(p.1K )(q.1K )−1 / p ∈ Z, q ∈ N∗ }. Il est isomorphe
à Q. En particulier, K est de cardinal infini.
Propriété. Si K est un corps fini de caractéristique p, l’endomorphisme de Frobenius x 7−→ xp sur
K est un automorphisme de corps. Lorsque K = Fp , c’est l’identité.
Première partie
Equations différentielles (suite)
1 Équations différentielles linéaires d’ordre 2
1.1 Équations à coefficients quelconques
Une équation différentielle linéaire d’ordre 2 est de la forme (E) : y” = a(x)y 0 + b(x)y + c(x)
où a, b, c sont trois applications continues d’un intervalle I dans K = R ou C.
L’équation homogène associèe est (H) : y” = a(x)y 0 + b(x)y.
Propriété. Notons SH l’ensemble des solutions de (H) et SE l’ensemble des solutions de (E). Si y0
∆
est une solution de (E), alors SE = {y0 + y/y ∈ SH } = y0 + SH .
Définition. Soit (x0 , y0 , y00 ) ∈ I × K × K. On appelle problème de Cauchy relatif à (E) et au triplet
(x0 , y0 , y00 ) le problème de la recherche des solutions de (E) telles que y(x0 ) = y0 et y 0 (x0 ) = y00 .
Théorème de Cauchy-Lipschitz.
Pour tout (x0 , y0 , y00 ) ∈ I × K × K, il y a existence et unicité au problème de Cauchy relatif à (E) et
au triplet (x0 , y0 , y00 ).
Cas particulier où on connaı̂t une solution ϕ1 de (H) ne s’annulant pas sur I : on pose
y(x) = λ(x)ϕ1 (x). Alors (E) est équivalente à une équation linéaire d’ordre 1 en λ0 .
Il faut savoir le démontrer.
1
73
Semaine 16 : Résumé de cours 2 Equations à variables séparables (hors programme)
Notation.
Soient I et K deux intervalles infinis et soient a : I −→ R et b : K −→ R deux applications continues.
L’équation différentielle (E) : a(t) − b(y)y 0 = 0 est appelée une équation est à variables séparées.
Si A et B sont des primitives de a et de b respectivement,
d A(t) − B(y(t))
(E) ⇐⇒ = 0, donc les courbes intégrales de (E) ont pour équations cartésiennes
dt
A(x) = B(y) + C, où C ∈ R.
En pratique, on écrira (E) ⇐⇒ a(t)dt = b(y)dy ⇐⇒ A(t) = B(y) + C.
Notation. Soient I et K deux intervalles infinis. Soient a et d deux applications continues de I dans
R et b et c deux applications continues de K dans R. L’équation (E) : a(t)c(y) − b(y)d(t)y 0 = 0 est
appelée une équation est à variables séparables.
En divisant par c(y) et d(t) on se ramene à une équation à variables séparées.
• Plus précisément, soit y : I −→ R une application dérivable. Quitte à restreindre l’intervalle I, on
a(t)
supposera que d ne s’annule pas sur I. Ainsi (E) ⇐⇒ c(y) − y 0 b(y) = 0.
d(t)
Il faudra ensuite étudier les possibles raccordements des solutions en chaque zéro de d.
• Si y0 ∈ K est un zéro de c, l’application constante y = y0 est une solution de (E). Ainsi chaque
zéro de c fournit une solution particulière.
a(t) b(y)
On suppose ensuite que ∀t ∈ I c(y(t)) 6= 0. Alors (E) ⇐⇒ − y0 = 0 : c’est une équation à
d(t) c(y)
variables séparées, donc on est ramené au a). Il reste ensuite à étudier les possibles recollements de
ces dernières solutions avec les solutions particulières y = y0 où y0 est un zéro de c.
Deuxième partie
Espaces vectoriels (début)
Notation. K désigne un corps quelconque.
Notation. Symbole de Kronecker : δi,j = 0 lorsque i 6= j et δi,i = 1 lorsque i = j.
Définition.
Un K-espace vectoriel est un triplet (E, +, .), où (E, +) est un groupe abélien et “.” est une application
K × E −→ E
tel que, pour tout x, y ∈ E et α, β ∈ K,
(α, x) 7−→ α.x
— α.(x + y) = (α.x) + (α.y),
— (α + β).x = (α.x) + (β.x),
— (α × β).x = α.(β.x),
— 1K .x = x.
Remarque. Lorsque E est un K-espace vectoriel, ses éléments seront appelés des vecteurs et les
éléments de K seront appelés des scalaires.
Exemples.
Soient E un K-espace vectoriel et I un ensemble quelconque. Alors l’ensemble E I des familles
(xi )i∈I d’éléments de E indexées par I est un K-espace vectoriel si l’on convient que
(xi )i∈I + (yi )i∈I = (xi + yi )i∈I et, pour tout α ∈ K, α.(xi )i∈I = (α.xi )i∈I .
De même, l’ensemble F(I, E) des applications de I dans E est un K-espace vectoriel si l’on convient
que, pour tout f, g ∈ F(I, E) et α ∈ K, pour tout x ∈ I,
∆ ∆
(f + g)(x) = f (x) + g(x) et (α.f )(x) = a.(f (x)).
En particulier, pour tout n ∈ N∗ , Rn est un R-espace vectoriel.
Si L est un sous-corps de K, alors K est un L-espace vectoriel.
L’ensemble KN des suites de scalaires est un K-espace vectoriel.
K[X] est un K-espace vectoriel.
Propriété. Soit E un K-espace vectoriel. Soit x, y ∈ E et λ, µ ∈ K :
— 0K .x = 0E et λ.0E = 0E ;
— (−1K ).x = −x ;
— (λ − µ)x = λ.x − µ.x ;
— λx = 0 ⇐⇒ (λ = 0) ∨ (x = 0) ;
— (λx = λy) ∧ (λ 6= 0) =⇒ x = y ;
— (λx = µx) ∧ (x 6= 0) =⇒ λ = µ.
Définition. Soient n ∈ N∗ et ((Ei , +, .))i∈{1,...,n} une famille de n K-espaces vectoriels.
On structure E = E1 × · · · × En en un K-espace vectoriel en convenant que
— ∀x = (x1 , . . . , xn ) ∈ E, ∀y = (y1 , . . . , yn ) ∈ E, x + y = (x1 + y1 , . . . , xn + yn ),
— ∀α ∈ K, ∀x = (x1 , . . . , xn ) ∈ E, α.x = (α.x1 , . . . , α.xn ).
Propriété. Une intersection d’une famille de sous-espaces vectoriels est un sous-espace vectoriel.
Il faut savoir le démontrer.
Définition. Soit E un K-espace vectoriel
\ et A une partie de E. Notons S l’ensemble des sous-espaces
vectoriels de E contenant A. Alors F est un sous-espace vectoriel de E contenant A et, par
F ∈S
construction, c’est le plus petit sous-espace vectoriel contenant A. On le note Vect(A).
Exemple. Vect(∅) = {0}, puisque {0} est le plus petit sous-espace vectoriel de E.
Si F est un sous-espace vectoriel d’un K-espace vectoriel E, Vect(F ) = F .
Propriété. Si A ⊂ B, alors Vect(A) ⊂ Vect(B).
Propriété. Soient E un K-espace vectoriel et A une ( partie de E. Alors V ect(A)
) est l’ensemble des
X
combinaisons linéaires de vecteurs de A : Vect(A) = αa a/(αa )a∈A ∈ K(A) .
a∈A
Il faut savoir le démontrer.
Notation. Si (xi )i∈I ∈ E I , on note Vect(xi )i∈I = Vect({xi / i ∈ I}).
Xn
En particulier, Vect(x1 , . . . , xn ) = { αi xi / a1 , . . . , an ∈ K}.
i=1
Si u ∈ E \ {0}, Vect(u) = {αu/α ∈ K} est appelé la droite vectorielle engendrée par le vecteur u.
Propriété. Soit E un K-espace vectoriel et A ⊂ E. Si x ∈ Vect(A), Vect(A ∪ {x}) = Vect(A).
Si x = λy + a avec λ ∈ K et a ∈ Vect(A), alors Vect(A ∪ {x}) = Vect(A ∪ {y}).
Il faut savoir le démontrer.
Propriété. Soit (xi )i∈I une famille de vecteurs d’un K-espace vectoriel E. Alors Vect(xi )i∈I n’est
pas modifié si l’on effectue l’une des opérations élémentaires suivantes :
— échanger xi0 et xi1 , où i0 , i1 ∈ I avec i0 6= i1 ;
— multiplier xi0 par α ∈ K avec α 6= 0 ;
— ajouter à l’un des xi une combinaison linéaire des autres xj .
Il faut savoir le démontrer.
Définition. Soit p ∈ N∗ et E1 , . . . , Ep p sous-espaces vectoriels de E.
[
p nX p o
∆
E1 + · · · + Ep = Vect Ei . On vérifie que E1 + · · · + Ep = xi / ∀i ∈ {1, . . . , p}, xi ∈ Ei .
i=1 i=1
Définition. Soient E et F deux K-espaces vectoriels. Une application f de E dans F est une
application linéaire (on dit aussi un morphisme ou un homomorphisme de K-espaces vectoriels) si et
seulement si ∀(α, x, y) ∈ K × E × E f (αx + y) = αf (x) + f (y).
Un isomorphisme est un morphisme bijectif.
Un endomorphisme est un morphisme de E dans lui-même.
Un automorphisme est un endomorphisme bijectif.
Une forme linéaire est une application linéaire à valeurs dans K.
Exemples.
C([−1, 1], R) −→ R
Z 1
— est une forme linéaire.
f 7−→ f (t)t2 dt
−1
D2 ([0, 1], R) −→ F([0, 1], R)
— est linéaire.
f 7−→ f 00
l1 (C) −→ C
X
— (an )n∈N 7−→ an est une forme linéaire.
n∈N
Définition. Les homothéties (vectorielles) de E sont les applications de la forme λ.IdE , où λ ∈ K.
Notation.
— On note L(E, F ) l’ensemble des applications linéaires de E dans F .
∆
— On pose L(E) = L(E, E).
— On pose L(E, K) = E ∗ ; c’est l’ensemble des formes linéaires, appelé le dual de E.
Kn −→ K
Xn
Propriété. Les formes linéaires sur K sont exactement les (x )
n
7−→ αi xi
i 1≤i≤n
i=1
où (α1 , . . . , αn ) ∈ Kn .
Il faut savoir le démontrer.
!
X X
Propriété. Si u ∈ L(E, F ) et (xi )i∈I ∈ E I , ∀(αi )i∈I ∈ K(I) u αi xi = αi u(xi ).
i∈I i∈I
Propriété. Soit u ∈ L(E, F ) et (xi )i∈I ∈ E I . Alors u Vect(xi )i∈I = Vect(u(xi ))i∈I .
Il faut savoir le démontrer.
Propriété. La composée de deux applications linéaires est une application linéaire.
1
78
Semaine 17 : Résumé de cours 1 La structure d’espace vectoriel (fin)
Définition. On appelle K-espace affine tout triplet (E, E, +E ), où E est un ensemble non vide,
E est un K-espace vectoriel (dont la loi additive sera notée +E ) et où +E est une application
E × E −→ E
telle que
(M, x) 7−→ M +E x
E −→ E
i) Pour tout M ∈ E, l’application est une bijection.
x 7−→ M +E x
ii) ∀(M, x, y) ∈ E × E × E (M +E x) +E y = M +E (x +E y).
Les éléments de E sont appelés des points et E est appelé la direction de E.
Notation. Soient E un espace affine de direction E et (A, B) ∈ E 2 .
−−→
D’après i), il existe un unique vecteur x tel que A +E x = B. On note x = AB ou encore x = B −E A.
Remarque. On peut établir que les règles de calcul relatives aux opérations “+E ” (point+E vecteur) et
“−E ” (point−E point) sont formellement les mêmes que celles que vérifient l’addition et la soustraction
−−→ −−→ −→
sur R. Par exemple, la relation de Chasles s’écrit : AB + BC = (B − A) + (C − B) = C − A = AC.
−−→ −−→
Définition. Si A, B, C, D sont quatre points de E, ABCD est un parallélogramme ssi AB = DC.
Remarque. Dans les propriétés i) et ii) définissant un espace affine, lorsqu’un point M de E intervient,
c’est toujours quantifié de la manière suivante : “∀M ∈ E . . .”. Ainsi, dans un espace affine, tous les
points ont la même importance. C’est un espace homogène, contrairement aux espaces vectoriels.
Les propriétés qui suivent montrent que cette différence entre la notion de K-espace vectoriel et celle
de K-espace affine est la seule qui soit vraiment pertinente.
Propriété. Soient (E, E, +) un K-espace affine et A un point de E. E est un espace vectoriel en
−−→ −−→ −−→
convenant que, pour tout (M, N, α) ∈ E × E × K, M + N = A + (AM + AN ) et α.M = A + (α.AM ).
Remarque. Cette propriété montre que tout K-espace affine est assimilable à un K-espace vectoriel
dès lors que l’on a choisi un point A, qui jouera le rôle de vecteur nul.
Propriété réciproque. Soit E un K-espace vectoriel. Le triplet (E, E, +) est un K-espace affine, que
l’on dit canoniquement associé à l’espace vectoriel E.
Convention. En accord avec le programme, les seuls espaces affines que nous utiliserons sont les
espaces affines canoniquement associés à un espace vectoriel.
Définition. (A, +, ., ?) est une K-algèbre si et seulement si (A, +, .) est un K-espace vectoriel,
(A, +, ?) est un anneau et si ∀(λ, a, b) ∈ K × A × A λ.(a ? b) = (λ.a) ? b = a ? (λ.b).
On dit que A est commutative (ou abélienne) si et seulement si la loi ? est commutative.
On dit que A est intègre si et seulement si l’anneau (A, +, ?) est un anneau intègre.
Exemples. (K[X], +, ., ×) est une K-algèbre commutative et intègre.
F(I, K) et KI sont des algèbres.
Propriété. Si E est un K-espace vectoriel, alors (L(E), +, ., ◦) est une K-algèbre.
Le groupe des inversibles de L(E) est noté (GL(E), ◦).
Il faut savoir le démontrer.
Remarque. Plus généralement, si E, F et G sont 3 K-espaces vectoriels, pour tout α ∈ K, pour tout
f, g ∈ L(F, G) et h ∈ L(E, F ), (αf + g) ◦ h = αf ◦ h + g ◦ h et
pour tout f, g ∈ L(E, F ) et h ∈ L(F, G), h ◦ (αf + g) = αh ◦ f + h ◦ g.
Propriété. Soit (A, +, ., ?) une K-algèbre. B est une sous-algèbre de (A, +, ., ?) si et seulement si
1A ∈ B et pour tout x, y ∈ B et λ ∈ K, x + y, x ? y, λx ∈ B.
Définition. Soient (A+, ., ×) et (B, +, ., ×) deux K-algèbres. Une application f : A −→ B est un
morphisme d’algèbres si et seulement si f (1A ) = 1B et pour tout x, y ∈ A et α ∈ K,
f (x + y) = f (x) + f (y), f (x × y) = f (x) × f (y), f (α.x) = α.f (x).
Exemple. Soit E un K-espace vectoriel et u ∈ GL(E). Alors l’application w 7−→ uwu−1 est un
automorphisme de l’algèbre L(E). Ce type d’automorphisme est appelé un automorphisme intérieur.
Il faut savoir le démontrer.
Propriété. Une composée de morphismes d’algèbres est un morphisme d’algèbres.
L’application réciproque d’un isomorphisme d’algèbres est un isomorphisme d’algèbres.
L’image directe ou réciproque d’une sous-algèbre par un morphisme d’algèbres est une sous-algèbre.
Définition. Soit E un K-espace vectoriel . On appelle norme sur E toute application k.k : E −→ R
telle que, pour tout (x, y, λ) ∈ E × E × K,
kxk ≥ 0 (positivité).
kxk = 0 =⇒ x = 0 (k.k est définie),
kλxk = |λ|kxk (k.k est homogène), et
kx + yk ≤ kxk + kyk, cette dernière propriété étant appelée l’inégalité triangulaire.
Si k.k est une norme sur E, le couple (E, k.k) est appelé un espace vectoriel normé.
Remarque. Si E est un espace vectoriel normé , k0k = 0.
Corollaire de l’inégalité triangulaire. ∀(x, y) ∈ E 2 |kxk − kyk| ≤ kx − yk.
Il faut savoir le démontrer.
Définition.
Soient E un espace vectoriel normé et u ∈ E. u est unitaire si et seulement si kuk = 1.
u
Si u 6= 0, on appelle vecteur unitaire associé à u le vecteur , qui est bien unitaire.
kuk
Définition. Soient E un espace vectoriel normé et F un sous-espace vectoriel de E.
La restriction à F de la norme de E fait de F un espace vectoriel normé.
Exemple. Sur R et sur C, |.| est une norme.
N1 : E −→ R+
p
X ,
x = (x1 , . . . , xp ) 7−→ N1 (x) = kxi kEi
i=1
N2 : E −→ R+ v
u p
uX , et
x = (x1 , . . . , xp ) 7−→ N2 (x) = t kxi k2Ei
i=1
N∞ : E −→ R+
x = (x1 , . . . , xp ) 7−→ N∞ (x) = max kxi kEi .
1≤i≤p
Propriété. Soient (a, b) ∈ R2 avec a < b. Sur C([a, b], K), on dispose de trois normes classiques.
k.k1 : C([a, b], K) −→ R+
Z b
,
f 7−→ kf k1 = |f (x)|dx
a
k.k2 : C([a, b], K) −→ R+ s
Z b , et
f 7−→ kf k2 = |f (x)|2 dx
a
k.k∞ : C([a, b], K) −→ R+
f 7−→ kf k∞ = sup |f (x)| .
x∈[a,b]
2.3 Distance
Les seuls espaces métriques qui sont au programme sont les (A, dA ) où A est une partie d’un espace
vectoriel normé E et où dA est la distance induite sur A par la distance associée à la norme de E.
Propriété. Soit E un espace vectoriel normé dont la distance associée est notée d.
Alors ∀(x, y, z) ∈ E 3 d(x + z, y + z) = d(x, y).
Cette propriété ne se généralise pas aux espaces métriques.
Propriété. Corollaire de l’inégalité triangulaire.
Soit E un espace vectoriel normé dont la distance associée est notée d.
Alors ∀(x, y, z) ∈ E 3 |d(x, y) − d(y, z)| ≤ d(x, z).
Définition. Soient E un espace vectoriel normé et (a, r) ∈ E × R∗+ .
La boule ouverte centrée en a de rayon r est l’ensemble Bo (a, r) = {x ∈ E/d(a, x) < r}.
La boule fermée de centre a et de rayon r est l’ensemble Bf (a, r) = {x ∈ E/d(a, x) ≤ r}.
La sphère de centre a et de rayon r est l’ensemble S(a, r) = {x ∈ E/d(a, x) = r}.
K désigne R ou C.
Définition. Dans un espace métrique, la boule unité est la boule fermée de centre 0 et de rayon 1.
Propriété. (non généralisable aux espaces métriques)
Les boules d’un espace vectoriel normé sont des convexes.
Il faut savoir le démontrer.
Définition. Soient E un espace métrique, A et B deux parties non vides de E et a ∈ E.
On note d(a, A) = inf d(a, x). C’est la distance de a à A.
x∈A
On note d(A, B) = inf d(x, y). C’est la distance de A à B.
(x,y)∈A×B
On appelle diamètre de A la quantité δ(A) = sup d(x, y) ∈ R+ ∪ {+∞}.
(x,y)∈A2
1
84
Semaine 18 : Résumé de cours 2 limite d’une suite dans un espace métrique
Propriété. Soit E un espace vectoriel normé . On note l∞ (E) l’ensemble des suites bornées à valeurs
dans E. Si (xn )n∈N ∈ l∞ (E), on note k(xn )k∞ = sup kxn k.
n∈N
Alors (l∞ (E), k.k∞ ) est un espace vectoriel normé .
Définition. Dans un espace vectoriel normé E, deux normes k.k1 et k.k2 sont équivalentes si et
seulement s’il existe (α, β) ∈ (R∗+ )2 tel que ∀x ∈ E kxk1 ≤ αkxk2 et kxk2 ≤ βkxk1 .
Propriété. Avec les notations précédentes, k.k1 et k.k2 sont équivalentes si et seulement si IdE :
(E, k.k1 ) −→ (E, k.k2 ) et IdE : (E, k.k2 ) −→ (E, k.k1 ) sont lipschitziennes.
Exemple. Soient E1 , . . ., Ep p espaces vectoriels normés dont les normes sont notées N1 , . . ., Np .
Sur E = E1 × · · · × Ep , les trois normes classiques, k.k1 , k.k2 et k.k∞ sont deux à deux équivalentes.
Il faut savoir le démontrer.
Propriété. Soit E un espace vectoriel normé. Sur l’ensemble des normes de E, la relation “être
équivalente à” est une relation d’équivalence.
Propriété. Soient E un K-espace vectoriel et k.k1 et k.k2 deux normes équivalentes sur E.
Une partie A de E est bornée pour k.k1 si et seulement si elle est bornée pour k.k2 .
Propriété. Soient E et F deux K-espaces vectoriels. On suppose que E (resp : F ) est muni de deux
normes équivalentes, notées k.kE E F F
1 et k.k2 (resp : k.k1 et k.k2 ). Alors f : E −→ F est lipschitzienne
pour k.k1 et k.k1 si et seulement si elle est lipschitzienne pour k.kE
E F F
2 et k.k2 .
Il faut savoir le démontrer.
Propriété. Soient (ln ) une suite de E qui converge vers l ∈ E et (αn ) une suite de scalaires qui
converge vers α. Alors la suite (αn .ln ) converge vers α.l.
Il faut savoir le démontrer.
N
Propriété. L’ensemble des suites convergentes de E noté Ecv est un sous-espace vectoriel de l∞ (E)
N
Ecv −→ E
et l’application (x ) 7−→ lim xn est une application linéaire.
n
n→+∞
3 Suites de complexes
3.1 Premières propriétés
1 1
Propriété. Soit (xn ) ∈ C∗ N telle que xn −→ ` ∈ C \ {0}. Alors −→ .
n→+∞ xn n→+∞ `
Il faut savoir le démontrer.
Propriété. Soit (zn ) une suite de complexes et ` ∈ C.
Alors zn −→ ` si et seulement si Re(zn ) −→ Re(`) et Im(zn ) −→ Im(`).
n→+∞ n→+∞ n→+∞
Dans ce cas, on a donc lim zn = lim Re(zn ) + i lim Im(zn ).
n→+∞ n→+∞ n→+∞
Propriété. Soit a, b ∈ C avec a 6= 1. Si pour tout n ∈ N, un+1 = aun + b, on calcule c ∈ C tel que
c = ac + b. Alors un − c est géométrique.
Propriété. Soient (a, b) ∈ K2 \ {(0, 0)} et (un ) ∈ KN telle que un+2 = aun+1 + bun .
χ(X) = X 2 − aX − b est le polynôme caractéristique de (un ). On note ∆ = a2 + 4b.
— Si ∆ 6= 0, en notant λ1 et λ2 les deux racines de χ, ∃(C1 , C2 ) ∈ C2 ∀n ∈ N, un = C1 λn1 +C2 λn2 .
— Si de plus K = R et ∆ < 0, en posant λ1 = ρeiθ ,
∃(D1 , D2 ) ∈ R2 ∀n ∈ N, un = ρn (D1 cos(nθ) + D2 sin(nθ)).
— Si ∆ = 0, en notant λ la racine double, ∃(C1 , C2 ) ∈ K2 ∀n ∈ N, un = λn (C1 + nC2 ).
Il faut savoir le démontrer.
4 Suites de réels
4.1 Limites infinies
Définition. xn −→ +∞ ⇐⇒ ∀M ≥ 0, ∃N ∈ N, ∀n ≥ N, xn ≥ M .
n→+∞
xn −→ −∞ ⇐⇒ ∀M ≥ 0, ∃N ∈ N, ∀n ≥ N, xn ≤ −M .
n→+∞
Définition. Lorsqu’une suite de réels tend vers +∞ ou −∞, elle est toujours divergente : on dit
qu’elle diverge vers +∞ ou −∞. On distingue ainsi trois catégories de suites réelles :
— Les suites convergentes. Ce sont celles qui convergent vers un réel.
— Les suites divergentes de première espèce. Ce sont celles qui divergent vers +∞ ou −∞.
— Toutes les autres suites. On dit qu’elles sont divergentes de seconde espèce.
Propriété. Si ϕ : N −→ N est strictement croissante,
pour tout n ∈ N, ϕ(n) ≥ n, donc ϕ(n) −→ +∞.
n→+∞
Propriété. Composition des limites : Si (xn ) est dans un espace métrique et si xn −→ `, avec `
n→+∞
éventuellement infinie, pour tout ϕ : N −→ N telle que ϕ(n) −→ +∞, xϕ(n) −→ `.
n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. Dans un espace métrique , xn −→ l si et seulement si x2n −→ l et x2n+1 −→ l.
n→+∞ n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. Soit p ∈ N∗ . Si, pour tout i ∈ {0, . . . , p − 1}, xpn+i −→ l, alors xn −→ l.
n→+∞ n→+∞
K désigne R ou C.
Propriété. Soit X une partie non vide de R. Il existe une suite de réels (xn ) telle que
xn −→ sup(X) ∈ R ∪ {+∞} (resp : xn −→ inf(X) ∈ R ∪ {−∞}).
n→+∞ n→+∞
Il faut savoir le démontrer.
Propriété. Soit (xn ) une suite géométrique de réels de raison a, tel que x0 6= 0.
— Si |a| < 1, alors xn −→ 0.
n→+∞
— Si a = 1, xn est constante.
— Si a > 1, xn −→ ε∞, où ε est le signe de x0
n→+∞
— Si a ≤ −1, (xn ) diverge.
1
89
Semaine 19 : Résumé de cours 1 Suites de vecteurs (fin)
Définition. Deux suites (xn ) et (yn ) de réels sont adjacentes si et seulement si l’une est croissante,
l’autre est décroissante et si xn − yn −→ 0.
n→+∞
Théorème. Si (xn ) et (yn ) sont adjacentes avec (xn ) est croissante, alors ces deux suites convergent
vers une limite commune ` ∈ R. De plus, pour tout (p, q) ∈ N2 , xp ≤ ` ≤ yq .
Il faut savoir le démontrer.
Théorème des segments emboı̂tés : Soit (In )n∈N\une suite de segments, décroissante au sens de
l’inclusion, dont les longueurs tendent vers 0. Alors In est un singleton.
n∈N
Il faut savoir le démontrer.
Définition. E est un espace métrique complet si et seulement si toute suite de Cauchy de E est
convergente.
Théorème. Si toute suite bornée de E possède au moins une valeur d’adhérence, alors E est complet.
Théorème. R et C sont complets.
2 Séries de vecteurs
Notation. K désigne R ou C.
Définition. Un espace de Banach est un K-espace vectoriel normé complet.
Notation. On fixe dans ce chapitre un espace de Banach noté E.
Définition. Soit (an )n∈N une suite de vecteurs. On appelle série de terme général an , et on note
n
X
P P
an , la suite de terme général (an , ak ). Ainsi, an est une suite d’éléments de E 2 .
k=0
Remarque. L’intérêt de cette définition un peu formelle est de distinguer les séries de vecteurs des
suites de vecteurs.
Propriété.
P L’ensemble
P des P S(E)P
Pséries de vecteurs, noté est un K-espace vectoriel.
De plus, an + α bn = (an + αbn ), lorsque an et bn sont dans S(E) et lorsque α ∈ K.
n
X P
Notation. ak est appelée la somme partielle (des n + 1 premiers termes) de an .
k=0
P
Propriété. Soit (An ) une suite de vecteurs. P Il existe une unique série an dont la suite des sommes
partielles est (An ). Il s’agit de la série (An − An−1 ), en convenant que A−1 = 0. Cette série est
appelée la série télescopique associée à la suite (An ).
Il faut savoir le démontrer.
Définition.
X Soient n0 ∈ N∗ et (an )n≥n0 une suite de vecteurs.
P
an est la série bn où bn = 0 si n < n0 et bn = an si n ≥ n0 .
n≥n0
X
On dit que an est une série tronquée à l’ordre n0 .
n≥n0
P
Corollaire. On ne change pas la nature de la série an si l’on modifie un nombre fini d’éléments
de la suite (an ).
+∞
X
P
Définition. Si an converge, son n-ième reste de Cauchy est Rn = ak . On a Rn −→ 0.
n→+∞
k=n+1
P
Propriété. Soit (un ) une suite de vecteurs. La série télescopique (un+1 − un ) converge si et
+∞
X
seulement si la suite (un ) converge et dans ce cas, (un+1 − un ) = lim un − u0 .
n→+∞
n=0
Il faut savoir le démontrer.
P P P
Propriété. Si an et bn convergent et si λ ∈ K, alors (an + λbn ) converge et
+∞
X +∞
X +∞
X
(an + λbn ) = an + λ bn . Ainsi, l’ensemble des séries convergentes de vecteurs est un sous-
n=0 n=0 n=0
Sconv (E) −→ K
+∞
X
espace vectoriel de S(E), noté Sconv (E) et l’application P est linéaire.
an 7−→ an
n=0
Il faut savoir le démontrer.
Propriété. La somme d’une série convergente et d’une série divergente est une série divergente.
Remarque. On en déduit que, si la somme de deux séries est convergente, ces deuxP séries ont
P même
nature. Cependant, il estPpossible qu’elles divergent toutes les deux. Par exemple, an + (−an )
converge, même lorsque an diverge.
Propriété. Si une série converge, son terme général tend vers 0. La réciproque est fausse.
Il faut savoir le démontrer.
P
Définition. Lorsque la suite an ne tend pas vers 0, on dit que la série an diverge grossièrement.
+∞
X
P 1
Propriété. La série géométrique an converge ssi |a| < 1 et dans ce cas an = .
n=0
1−a
Propriété. Séries à valeurs dans un produit.
Soient p ∈ N∗ et E1 , . . ., Ep p espaces vectoriels normés. On note E = E1 × · · · × Ep que l’on munit
de l’une des trois normes classiques.
Soient (xn )n∈NP= ((x1,n , . . . , xp,n ))n∈N une suite d’éléments de E. P
Alors la série xn converge si et seulement si, pour tout i ∈ Np , xi,n est convergente.
+∞
X +∞
X +∞
X
De plus, dans ce cas, xn = x1,n , . . . , xp,n .
n=0 n=0 n=0
P P
Propriété. Soit an une serie de complexes. Elle converge si et seulement si les séries Re(an ) et
+∞
X +∞
X +∞
X
P
Im(an ) convergent, et dans ce cas an = Re(an ) + i Im(an ).
n=0 n=0 n=0
P P
Définition. an est absolument convergente si et seulement si la série kan k est convergente.
P P
Propriété. Soit an ∈ S(E) . Si an est absolument convergente, alors elle converge
+∞
X +∞
X
et k an k ≤ kan k (Inégalité triangulaire). La réciproque est fausse.
n=0 n=0
Il faut savoir le démontrer.
P
Définition. an est semi-convergente ssi elle converge sans être absolument convergente.
P P
Propriété. Soit an une série de vecteurs et bn une série de réels positifs.
On suppose Pque ka n k = O(b ).
n P
Si la série P bn converge, alors Pan est absolument convergente.
Si la série kan k diverge, alors bn est divergente.
Remarque. En pratique, on utilise souvent ce théorème lorsque an = o(bn ).
P P
Théorème. Soient an , bn ∈ S(R+ ) telles que an ∼ bn . Alors les deux séries ont la même nature.
P P
Théorème. Soit an , bn ∈ S(R). On suppose que bn est positif P à partir
P d’un certain rang ou
bien que bn est négatif à partir d’un certain rang. Si an ∼ bn , alors an et bn ont la même nature.
méthode : pour étudier la nature d’une série, on commence par rechercher un équivalent
de son terme général.
On montrera plus tard le théorème suivant, dont l’énoncé peut être utilisé dès maintenant.
On dit que la suite an est négligeable devant la suite bn si et seulement si an = o(bn ).
De même, on dit que la fonction f (x) est négligeable devant g(x) lorsque x est au voisinage de a si et
seulement si f (x) = o(g(x)) au voisinage de a, c’est-à-dire, en supposant que l’on peut diviser, si et
f (x)
seulement si −→ 0.
g(x) x→a
Théorème des croissances comparées : Soit α, β, γ ∈ R∗+ et a > 1.
1. Les suites lnα (n), nβ , an et n! tendent vers +∞ et chacune est négligeable devant les suivantes.
2. Au voisinage de +∞, les fonctions lnα x, xβ et eγx tendent vers +∞ et chacune est négligeable
devant les suivantes.
1
3. Au voisinage de 0+ , | ln x|α = o β .
x
1
4. Au voisinage de −∞, eγx = o .
|x|β
1 Séries de Riemann
Technique de comparaison entre séries et intégrales (TCSI) : Soit n0 ∈ N.
Soit f : [n0 , +∞[−→ R une application décroissante et continue. La TCSI consiste en la présentation
des trois étapes suivantes :
Première étape : Soit k > n0 . f étant décroissante, pour tout t ∈ [k − 1, k], f (k) ≤ f (t) ≤ f (k − 1).
Z k
Deuxième étape : En intégrant, on obtient f (k) ≤ f (t)dt ≤ f (k − 1).
k−1
n
X Z n n−1
X
Troisième étape : Soit n > n0 : en sommant, f (k) ≤ f (t)dt ≤ f (k).
k=n0 +1 n0 n=n0
Théorème de comparaison entre séries et intégrales : Sous les mêmes notations et hypothèses,
P Z n
la série f (n) a même nature que la suite f (t)dt .
n0 n≥n0
Il faut savoir le démontrer.
X 1
Propriété. La série de Riemann converge si et seulement si α > 1.
nα
n≥1
Il faut savoir le démontrer.
P
Critère de Riemann : Soient an ∈ S(R+P).
S’il existe α > 1 tel que nα an −→ 0, alors an converge.
n→+∞ P
S’il existe α ≤ 1 tel que nα an −→ +∞, alors an diverge.
n→+∞
1
95
Semaine 20 : Résumé de cours 4 Non commutativité des séries semi-convergentes.
Xn
1
Propriété. (Hors programme). = ln(n) + γ + o(1), où γ est la constante d’Euler .
k
k=1
Il faut savoir le démontrer.
Hors programme : séries de Bertrand. Soit (α, β) ∈ R2 .
X 1
La série converge si et seulement si α > 1 ou bien (α = 1 et β > 1).
n≥2
n lnβ n
α
2 Critère de D’Alembert
P
Propriété. Critère de D’Alembert. Soit an une série de réels positifs, non nuls à partir d’un
an+1
certain rang, telle que −→ l ∈ R.
P an n→+∞
Si l < 1, an est convergente,
P
Si l > 1 ou si l = 1+ , an diverge grossièrement.
Lorsque l = 1, on ne peut conclure. C’est le cas douteux du critère de d’Alembert.
Il faut savoir le démontrer.
Hors programme : Si (an ) et (bn ) sont deux suites de réels strictement positifs telles que, pour tout
an+1 bn+1
n ∈ N, ≤ , alors an = O(bn ).
an bn
Il faut savoir le démontrer.
√
Propriété. Formule de Stirling : n! ∼ 2πne−n nn .
3 Séries alternées
P
Définition.
P On appelle série alternée toute série réelle de la forme (−1)n αn ou
(−1)n+1 αn , où pour tout n ∈ R, αn ∈ R+ .
Théorème
P des séries spéciales alternées (TSSA).
n |) est décroissante et tend vers 0. On dit dans ce cas
Soit P an une série alternée telle que la suite (|aP
que an est une série spéciale alternée. Alors an est convergente.
XN
De plus pour tout (n, N ) ∈ N avec N ≥ n, la quantité
2
ak est du signe de son premier terme (qui
k=n
est an ) et a un module inférieur ou égal au module de son premier terme. C’est encore vrai lorsque
+∞
X
N = +∞, donc pour tout n ∈ {−1} ∪ N, le reste de Cauchy ak est du signe de son premier
k=n+1
+∞
X
terme (qui est an+1 ) et, pour tout n ∈ {−1} ∪ N, | ak | ≤ |an+1 |.
k=n+1
Il faut savoir le démontrer.
Propriété. Les boules fermées (donc en particulier les singletons) sont des fermés.
Il faut savoir le démontrer.
Corollaire. Toute partie de E de cardinal fini est un fermé de E.
1
98
Semaine 21 : Résumé de cours 1 Topologie dans un espace métrique
On dit que x est un point d’accumulation de A si et seulement si, pour tout V ∈ V(x), (V ∩A)\{x} =
6 ∅,
c’est-à-dire si et seulement si x ∈ A \ {x}.
Propriété. Les points adhérents de A sont les points de E situés à une distance nulle de A.
Il faut savoir le démontrer.
Définition. Une partie de E est dense dans E si et seulement si elle rencontre toutes les boules
ouvertes de E.
Propriété. Une partie A de E est dense dans E si et seulement si A = E.
◦ ◦
Définition. Soit A ⊂ E. La frontière de A est F r(A) = A \ A = A ∩ E \ A = A ∩ (E \ A).
◦
Propriété. Soit A une partie de E. [A \ F r(A)] = A ⊂ A ⊂ A = [A ∪ F r(A)].
Propriété. a ∈ A si et seulement s’il existe une suite d’éléments de A qui converge vers a.
Il faut savoir le démontrer.
Corollaire. A est dense dans E si et seulement si pour tout l ∈ E, il existe (xn ) ∈ AN telle que
xn −→ l.
n→+∞
Propriété. A est fermé si et seulement si toute suite convergente d’éléments de A a pour limite un
élément de A.
Propriété. Les boules, ouverts, fermés et voisinages pour la topologie induite sur A sont respecti-
vement les traces sur A des boules centrées dans A, des ouverts, des fermés et des voisinages pour la
topologie de E.
Il faut savoir le démontrer.
Propriété. Si B est une partie de A, l’adhérence de B pour la topologie induite sur A est la trace
sur A de l’adhérence de B pour la topologie globale sur E.
Propriété. Soit B une partie de A. B est dense dans A si et seulement si A ⊂ B.
Définition. Une partie A de E est compacte si et seulement si toute suite d’éléments de A admet
au moins une valeur d’adhérence dans A.
Propriété. Tout compact de E est fermé et borné.
Il faut savoir le démontrer.
Propriété. Soit A un compact de E et B ⊂ A : B est compact si et seulement s’il est fermé.
Théorème. Les compacts de R et de C sont exactement les parties fermées et bornées.
Théorème (hors programme) : Caractérisation de la compacité par la propriété de Borel
Lebesgue. Soit A une partie de E. Les assertions suivantes sont équivalentes.
i) A est compact.
2 Continuité ponctuelle
On fixe deux espaces métriques E et F , ainsi qu’une fonction f : E −→ F , dont le domaine de
définition sera noté Df .
Notation. On fixe une partie A de Df . On fixe également a, qui peut être infini. On suppose qu’il
existe au moins une suite (an ) ∈ AN telle que an −→ a. On fixe aussi l dans F ∪ {∞, +∞, −∞}.
n→+∞
Définition. f (x)
tend vers l lorsque x tend vers
a en appartenant à A si et seulement si
N
∀(xn )n∈N ∈ A xn −→ a =⇒ f (xn ) −→ l . Dans ce cas, on note f (x) −→ x→a
l.
n→+∞ n→+∞
x∈A
Propriété. Lorsque E et F sont des espaces vectoriels normés, si l’on remplace l’une des normes sur
E ou F par une norme équivalente, la condition f (x) −→
x→a
l est inchangée.
x∈A
Propriété. Si A ⊂ B ⊂ Df et si f (x) −→
x→a
l, alors f (x) −→
x→a
l.
x∈B x∈A
Propriété. Si a ∈ E et l ∈ F ,
f (x) −→
x→a
l ⇐⇒ ∀ε ∈ R∗+ ∃α ∈ R∗+ ∀x ∈ A (d(x, a) ≤ α =⇒ d(f (x), l) ≤ ε).
x∈A
Il faut savoir le démontrer.
Remarque. Dans (1), on peut prendre les deux dernières inégalités indifféremment strictes ou larges.
Propriété. On peut adapter cette caractérisation dans le cas où a et l sont éventuellement infinis.
On obtient par exemple :
— Si l ∈ F et E = R,
f (x) −→ l ⇐⇒ ∀ε ∈ R∗+ ∃M ∈ R∗+ ∀x ∈ A (x ≥ M =⇒ kf (x) − lk < ε).
x→+∞
x∈A
— Si a ∈ E et F = R,
f (x) −→
x→a
+∞ ⇐⇒ ∀M ∈ R∗+ ∃α ∈ R∗+ ∀x ∈ A (kx − ak ≤ α =⇒ f (x) ≥ M ).
x∈A
— Si a = ∞ et l ∈ F , en choisissant e0 ∈ E,
−→ l ⇐⇒ ∀ε ∈ R∗+ ∃M ∈ R∗+ ∀x ∈ A (d(x, e0 ) ≥ M =⇒ d(f (x), l) ≤ ε).
f (x) x→∞
x∈A
Définition. Dans R, on appelle voisinage de +∞ toute partie contenant un intervalle ]c, +∞[ où
c ∈ R et voisinage de −∞ toute partie contenant un intervalle ] − ∞, c[.
Ainsi V(+∞) = {V ⊂ R/∃c ∈ R ]c, +∞[⊂ V } et V(−∞) = {V ⊂ R/∃c ∈ R ] − ∞, c[⊂ V }.
Définition. On suppose que E n’est pas borné. Soit e ∈ E. On appelle voisinage dans E de ∞ toute
partie contenant le complémentaire d’une boule fermée centrée en e.
Ainsi V(∞) = {V ⊂ E/∃R > 0 E \ Bf (e, R) ⊂ V }. On vérfie que V(∞) ne dépend pas de e.
Propriété. Avec les définitions précédentes de voisinages, on a encore :
Une intersection de deux voisinages de a est un voisinage a.
Toute partie contenant un voisinage de a est un voisinage de a.
Remarque.
Avec ces nouvelles définitions, les hypothèses portant sur a et A énoncées au début du présent para-
graphe se résument ainsi : tout voisinage V de a rencontre A .
Définition. On dit que f |A vérifie une certaine propriété au voisinage de a si et seulement s’il existe
un voisinage V de a tel que f |V ∩A vérifie cette propriété.
Lorsqu’on énonce une propriété portant sur f au voisinage de a ∈ E, on dit que c’est une propriété
locale (de f au voisinage de a). Lorsqu’on énonce une propriété portant sur f au voisinage de ∞ ou
de ±∞, on dit que c’est une propriété asymptotique.
Propriété. f (x) −→
x→a
l ⇐⇒ ∀V ∈ V(l) ∃U ∈ V(a) f (U ∩ A) ⊂ V .
x∈A
Il faut savoir le démontrer.
Propriété. Caractère local (ou asymptotique) de la notion de limite.
Pour tout U0 ∈ V(a), f (x) −→
x→a
l ⇐⇒ f (x) −→
x→a
l.
x∈A x∈A∩U0
Ainsi la valeur de l’éventuelle limite de f (x) lorsque x tend vers a pour x appartenant à A ne dépend
pas du comportement global de f sur A mais seulement du comportement de f |A au voisinage de a.
En particulier, si l’on modifie les valeurs de f (x) lorsque x ∈/ U0 , on ne modifie pas la valeur logique
de la proposition f (x) −→
x→a
l.
x∈A
Définition. Soit a ∈ E tel que a ∈ Df \ {a}. Ainsi, a est un point d’accumulation de Df . S’il existe
l ∈ F tel que f (x) −→
x→a
l, on écrit que f (x) −→
x→a
l ou même f (x) −→ l.
x→a
x∈Df \{a} x6=a
l = x→a
lim f (x) ou l = lim f (x). Il s’agit de la notion de limite à gauche du réel a.
x<a
x→a−
Remarque. Soient a ∈ Df et U0 ∈ V(a). f est continue en a si et seulement si f |Df ∩U0 est continue
en a. Ainsi la notion de continuité (au point a) est une notion locale.
Définition. On dit que f est continue si et seulement si elle est continue en chaque point de son
domaine de définition.
Propriété. Les applications lipschitziennes sont continues.
Il faut savoir le démontrer.
Propriété. Soient A une partie de Df et a ∈ A. Si f est continue en a, alors f |A est aussi continue
en a.
Corollaire. Soit A une partie incluse dans Df . Si f est continue, alors f |A est continue.
Définition. On suppose que E = R. Soit a ∈ Df . On dit que f est continue à droite en a si et
seulement si f |[a,+∞[∩Df est continue en a. On définit de même la notion de continuité à gauche.
Propriété. On suppose que E = R. Soit a ∈ Df .
f est continue en a si et seulement si f est continue à droite et à gauche en a.
Définition. On suppose que f est continue. Soit D ⊃ Df . On dit que f se prolonge par continuité
sur D si et seulement s’il existe une application f˜ : D −→ F continue et telle que f˜|Df = f .
Définition. Soit a ∈ Df \ Df . f admet un prolongement par continuité en a si et seulement si f
admet une limite finie en a. Dans ce cas, l’unique prolongement par continuité f˜ de f est donné par
f˜(a) = x→a
lim f (x).
x6=a
Notation. Dans ce paragraphe, on fixe un troisième espace métrique noté G et une seconde fonction
g : F −→ G, définie sur Dg .
Propriété. Soit B une partie de Dg telle que f (A) ⊂ B. Soit m ∈ G ∪ {∞, +∞, −∞}.
Pour que g(f (x)) −→
x→a
m, il suffit que f (x) −→
x→a
l (auquel cas B rencontre tout voisinage de l) et que
x∈A x∈A
g(y) −→ m.
y→l
y∈B
1
104
Semaine 22 : Résumé de cours 1 Continuité ponctuelle (suite et fin)
Notation.
Dans ce paragraphe, on fixe une seconde fonction g : E −→ F , définie sur Dg .
On suppose que A ⊂ Df ∩ Dg .
Propriété. Si f (x) −→
x→a
l et g(x) −→
x→a
l0 , alors (f + g)(x) −→
x→a
l + l0 .
x∈A x∈A x∈A
Remarque. C’est valable dans le cadre des limites infinies, à condition d’éviter la forme indéterminée
∞ − ∞, c’est-à-dire lorsque l et l0 sont les deux éléments distincts de {+∞, −∞}.
Propriété. Soit a ∈ Df ∩ Dg . Si f et g sont continues en a, f + g est continue en a.
Corollaire. La somme de deux applications continues est continue.
Notation. Dans ce paragraphe, on suppose que f est une application de E dans K et que g est une
application de E dans un K-espace vectoriel normé F . Ainsi f est une “application scalaire” et g est
une “application vectorielle”. On suppose que A ⊂ Df ∩ Dg .
Propriété. Si f (x) −→
x→a
l et g(x) −→
x→a
l0 , alors (f g)(x) −→
x→a
ll0 .
x∈A x∈A x∈A
Remarque. C’est valable dans le cadre des limites infinies, à condition d’éviter la forme indéterminée
0 × ∞.
Propriété. Soit a ∈ Df ∩ Dg . Si f et g sont continues en a, f g est aussi continue en a.
Corollaire. Le produit d’une application scalaire continue par une application vectorielle continue
est continue.
Propriété. Soit A une partie de E. L’ensemble C(A, F ) des applications continues de A dans F est
un K-espace vectoriel. C(A, K) est une K-algèbre.
Propriété. On suppose que f est une application de E dans K∗ .
1 1
Si f (x) −→ l ∈ K alors ( )(x) −→ .
x→a
x∈A
f x→a
x∈A
l
Remarque. Cette propriété est valable avec des limites infinies dans les cas suivants :
1
— Si l = ∞, en convenant que ∞ = 0.
— Si K = R et l = 0 (c’est-à-dire que l = 0 et que f est strictement positive au voisinage de a),
+
Corollaire. Si f (x) −→
x→a
` ∈ R alors f |A est bornée au voisinage de a.
x∈A
2 Continuité globale
2.1 Cas des fonctions de R dans R
Théorème.
Une fonction continue de I dans R est injective si et seulement si elle est strictement monotone.
Théorème de la bijection :
Soit f : I −→ R une application continue et strictement monotone.
f est une bijection de I dans f (I) et f −1 : f (I) −→ I est également continue et strictement
monotone (de même sens de variation que f ).
Remarque. Dans un tableau de variations, les flèches obliques signifient que l’application étudiée
est continue et strictement monotone. Le théorème de la bijection affirme en particulier que toutes les
valeurs intermédiaires sont atteintes exactement une fois.
Définition. Soit E et F deux espaces métriques. f : E −→ F est un homeomorphisme entre E et
F si et seulement si f est une bijection telle que f et f −1 sont continues.
Deux espaces métriques sont homéomorphes si et seulement si il existe un homéomorphisme entre ces
deux espaces.
Théorème. Soit E et F deux espaces métriques et soit f : E −→ F une application définie sur Df .
Les propriétés suivantes sont équivalentes.
i) f est continue.
ii) L’image réciproque par f de tout ouvert de F est un ouvert
pour la topologie induite sur Df .
iii) L’image réciproque par f de tout fermé de F est un fermé
pour la topologie induite sur Df .
Il faut savoir le démontrer.
1 La relation de domination
Définition. On dit que f est dominée par g au voisinage de a si et seulement si
(1) : ∃V ∈ V(a) ∃C ∈ R∗+ ∀x ∈ V ∩ A kf (x)k ≤ Ckg(x)k.
O (g(x)) (notation de Landau) ou bien f (x) g(x) (notation de Hardy).
On note alors f (x) = x→a
x∈A
2 La relation de prépondérance
Définition. On dit que f est négligeable devant g au voisinage de a si et seulement si
(1) : ∀ε ∈ R∗+ ∃V ∈ V(a) ∀x ∈ V ∩ A kf (x)k ≤ εkg(x)k.
o (g(x)) (notation de Landau) ou bien f (x) << g(x) (notation de Hardy).
On note alors f (x) = x→a
x∈A
1
109
Semaine 23 : Résumé de cours 3 La relation d’équivalence
3 La relation d’équivalence
3.1 Définition
Définition. On dit que f est équivalente à g au voisinage de a si et seulement si f − g = o(g). Ainsi,
∼ g(x) ⇐⇒ f = g + o(g) .
f (x) x→a
x∈A
Propriété. On suppose qu’il existe V voisinage de a tel que g(x) ne s’annule jamais sur V , que f et
f (x)
g sont à valeurs dans K. Alors f ∼ g ⇐⇒ −→ 1.
g(x) x→a
x∈A
n
X
Exemple. Si P (X) = ak X k est un polynôme à coefficients complexes, avec an 6= 0 et am 6= 0,
k=m
au voisinage de 0, P (t) ∼ am tm et au voisinage de +∞, P (t) ∼ an tn .
Propriété. La relation “∼” est une relation d’équivalence sur F(A, F ).
Propriété. Si f (x) −→
x→a
l ∈ K et si l 6= 0, alors f (x) ∼ l.
x∈A
Lorsque g(x) −→
x→a
1, alors ln(g(x)) ∼ g(x) − 1.
x∈A
Il faut savoir le démontrer.
Propriété. Changement de variable.
Soient F un second K-espace vectoriel normé, B ⊂ F et b ∈ F ∪ {+∞, −∞, ∞}. On suppose que tout
voisinage de b rencontre B. Soit ϕ : B −→ A une application telle que ϕ(t) −→
t→b
a .
t∈B
4.1 Définitions
Définition. Soient f : A −→ K une application et n ∈ N. On dit que f admet un développement
limité au voisinage de a à l’ordre n (ou en o(xn )) si et seulement s’il existe P ∈ Kn [X] tel que
f (a + x) = P (x) + o(xn ).
x→0
Xn
Si P (X) = ak X k avec am 6= 0, alors f (x) ∼ am xm : am xm est la partie principale de f (x) en 0.
k=m
Remarque. Pour toute la suite de ce paragraphe, on suppose que a = 0 (on peut toujours s’y
ramener par changement de variable) et que 0 est un point d’accumulation de A.
Définition. développements limités au sens fort.
Avec les notations précédentes, on dit que f admet un développement limité au sens fort au voisinage
de 0 à l’ordre n (ou en O(xn+1 )) si et seulement s’il existe P ∈ Kn [X] tel que f (x) = P (x) + O(xn+1 ).
Les propriétés qui suivent sont valables pour les développements limités au sens fort ou au sens faible,
mais nous ne les énoncerons que dans le cas du sens faible.
Propriété. unicité du développement limité. Avec les notations précédentes,
s’il existe (P, Q) ∈ Kn [X]2 tel que f (x) = P (x) + o(xn ) = Q(x) + o(xn ), alors P = Q.
Il faut savoir le démontrer.
Propriété. On suppose que f (x) admet un DLn (0) de la forme f (x) = P (x) + o(xn ).
Si f est paire, P est pair, donc P ne contient que des monômes de degrés pairs.
De même, si f est impaire, P est impair, donc P ne contient que des monômes de degrés impairs.
Propriété. Les règles de calcul établies pour les “o” et les “O” permettent d’additionner, de multiplier
et de composer des développements limités entre eux.
n
X
Remarque. Il est souvent pratique d’écrire un DL ak xk + o(xn ) sous sa forme normalisée
k=m
am xm (1 + · · · + o(xn−m )).
4.3 Applications
Position de la tangente : un calcul de développement limité permet de positionner le graphe d’une
application f par rapport à sa tangente en a, localement en a.
Détermination des asymptotes obliques : lorsque f (x) −→ ∞, s’il existe c0 , c1 , c2 ∈ R tels
x→+∞
qu’en +∞, f (x) = c0 x + c1 + c2 x1 + o( x1 ), alors la droite d’équation y = c0 x + c1 est asymtote au
graphe de f et le signe de c2 permet de positionner, au voisinage de +∞, le graphe de f par rapport
à son asymptote.
1 Dérivabilité
1.1 Interprétations d’une dérivée
f (t) − f (a)
Définition. f est dérivable au point a si et seulement si −→ ` ∈ E. Dans ce cas, ` est
t−a t→a
t6=a,t∈I
hd i f (t) − f (a)
appelée la dérivée de f au point a. On note f 0 (a) = (f (t)) = lim ∈ E.
dt t=a t→a
t6=a,t∈I
t−a
Remarque. Informellement, lorsque E = R, la corde du graphe de f entre les abscisses x0 et x1 ,
f (x1 ) − f (x0 )
d’équation y − f (x0 ) = × (x − x0 ), tend vers la tangente au graphe de f en le point de
x1 − x0
coordonnées (x0 , f (x0 )), d’équation y − f (x0 ) = f 0 (x0 ).(x − x0 ).
Parmi les droites non verticales du plan, la tangente est la meilleure approximation du graphe de f
au voisinage de x0 .
f (t) − f (a)
interprétation cinématique : est la vitesse moyenne du mobile ponctuel f (t) entre
t−a
0
les instants a et t, donc kf (a)k représente la vitesse instantanée du mobile à l’instant a.
Définition. On dit que f est dérivable à droite en a si et seulement si f/I∩[a,+∞[ est dérivable en a.
f (t) − f (a)
On note alors fd0 (a) = lim .
t→a
t>a,t∈I
t−a
◦
Théorème. Lorsque a ∈ I, f est dérivable en a si et seulement si f est dérivable à droite et à gauche
en a et si l’on a fd0 (a) = fg0 (a). Dans ce cas, f 0 (a) = fd0 (a) = fg0 (a).
1
114
Semaine 24 : Résumé de cours 3 Dérivées d’ordre supérieur
Cas particulier. Si f est une application de I dans C, f est dérivable en a si et seulement si Im(f )
et Re(f ) sont des applications dérivables en a. Dans ce cas f 0 (a) = Re(f )0 (a) + iIm(f )0 (a).
Propriété. Soient F un second K-espace vectoriel normé et u une application linéaire continue de
E dans F . Si f est dérivable en a, alors u ◦ f est dérivable en a et (u ◦ f )0 (a) = u(f 0 (a)).
0
Propriété. Lorsque K = C, si f est dérivable, alors f est dérivable et f = f 0 .
Propriété de linéarité. Soit (α, β) ∈ K2 . Si f et g sont dérivables en a, alors αf + βg est dérivable
en a et (αf + βg)0 (a) = αf 0 (a) + βg 0 (a).
Définition. Soient E, F et G trois K-espaces vectoriels et B : E × F −→ G une application.
On dit que B est bilinéaire si et seulement si, pour tout y ∈ F , x 7−→ B(x, y) est linéaire et si, pour
tout x ∈ E, y 7−→ B(x, y) est linéaire.
Théorème de dérivation d’un produit : Soient E, F et G trois K-espaces vectoriels normés et
B : E × F −→ G une application bilinéaire continue. Soient f une application de I dans E et g une
B(f, g) : I −→ G
application de I dans F . On dispose de l’application . Si f et g sont
t 7−→ B(f (t), g(t))
dérivables en a, B(f, g) est dérivable en a et B(f, g)0 (a) = B(f 0 (a), g(a)) + B(f (a), g 0 (a)).
Il faut savoir le démontrer.
!0 p h
Yp X Y i
Corollaire. fi (a) = fi0 (a) fj (a) .
i=1 i=1 1≤j≤p
j6=i
Définition. f admet un maximum local en a si et seulement s’il existe un voisinage V de a tel que
∀t ∈ V ∩ I f (t) ≤ f (a).
f présente en a un maximum local strict si et seulement s’il existe un voisinage V de a tel que
∀t ∈ V ∩ I \ {a} f (t) < f (a).
◦
Définition. Lorsque f est dérivable en a ∈ I, a est un point critique de f si et seulement si f 0 (a) = 0.
◦
Théorème. Les extremums locaux de f sur I sont des points critiques de f . Réciproque fausse.
Il faut savoir le démontrer.
Lemme de Rolle. Soient (a, b) ∈ R2 avec a < b et f : [a, b] −→ R une application continue sur [a, b]
et dérivable sur l’ouvert ]a, b[. Si f (a) = f (b), il existe c ∈]a, b[ tel que f 0 (c) = 0.
Il faut savoir le démontrer.
[0, 2π] −→ C
Remarque. C’est faux pour une application à valeur dans C : prendre .
θ 7−→ eiθ
Un exercice à connaı̂tre : On dit qu’un polynôme P de R[X] est simplement scindé dans R[X] si
n
Y
et seulement si il se décompose sous la forme P (x) = λ (x − αi ), où λ ∈ R∗ et α1 , . . . , αn ∈ R avec
i=1
i 6= j =⇒ αi 6= αj . Si P est simplement scindé dans R[X], alors P 0 l’est aussi.
Théorème de Rolle généralisé (Hors programme).
Soit (a, b) ∈ R ∪ {−∞, +∞} avec a < b. Si f est dérivable sur ]a, b[ et si
lim f (x) = lim f (x) ∈ R ∪ {−∞, +∞}, alors il existe c ∈]a, b[ tel que f 0 (c) = 0.
x→a x→b
Il faut savoir le démontrer.
Théorème des accroissements finis (TAF). Soit (a, b) ∈ R2 avec a = 6 b. Soit f : [a, b] −→ R
continue sur [a, b] et dérivable sur ]a, b[. Alors il existe c dans ]a, b[ tel que f (b) − f (a) = (b − a)f 0 (c).
Il faut savoir le démontrer.
Remarque. Ce théorème est encore valable pour une fonction à valeurs dans un K-espace vectoriel
de dimension finie.
TLD : Généralisation aux dérivées d’ordre supérieur. Soient k ∈ N ∪ {∞}. Si f est continue sur I, à
valeurs dans un K-espace vectoriel de dimension finie, si f est de classe C k sur I \ {a} et si, pour tout
h ∈ [1, k] ∩ N, il existe lh ∈ R tel que f (h) (x) −→
x→a
lh , alors f est de classe C k sur I.
x∈I\{a}
5 Formules de Taylor
5.1 L’égalité de Taylor-Lagrange (hors programme)
Théorème. Soient n ∈ N et f : [a, b] −→ R. Si f est C n sur [a, b] et n + 1 fois dérivable sur ]a, b[,
Xn
(b − a)k (k) (b − a)n+1 (n+1)
alors il existe c ∈]a, b[ tel que f (b) = f (a) + f (a) + f (c).
k! (n + 1)!
k=1
Il faut savoir le démontrer.
5.3.3 Formule de TY
Propriété. (Hors programme ?) Soit f : I −→ R une application deux fois dérivable en un point a
◦
de I. On suppose que f 0 (a) = 0 et que f 00 (a) > 0. Alors a est un minimum local strict : il existe un
voisinage V de a tel que pour tout t ∈ V ∩ I \ {a}, f (t) > f (a).
6 Monotonie et dérivabilité
Ici les applications utilisées sont à valeurs dans R.
6.2 Difféomorphismes
8 Fonctions convexes
8.1 Sous-espaces affines
Définition. Soit E un K-espace affine de direction E. Un repère de E est un couple R = (O, b), où
O est un point de E, appelé l’origine du repère et où b est une base de E. Si M ∈ E, les coordonnées
−−→
de M dans le repère R sont les coordonnées du vecteur OM dans la base b.
Définition. Si F est un sous-espace affine de direction F , dim(F) = dim(F ).
p
X
−−→ 1 −−−→ ∆ λ1 A1 + · · · λp Ap
On en déduit que, pour tout M ∈ E, M G = p λi M Ai . On note G = .
X λ1 + · · · + λp
i=1
λi
i=1
Notation. On fixe une application f : I −→ R, où I est un intervalle de R d’intérieur non vide.
Définition. f est convexe si et seulement si
∀(x, y) ∈ I 2 ∀α ∈ [0, 1] f (αx + (1 − α)y) ≤ αf (x) + (1 − α)f (y).
f est concave si et seulement si −f est convexe.
Interprétation géométrique. f est convexe si et seulement si, pour tout x, y ∈ I avec x < y, le
graphe de f |[x,y] est au dessous de la corde joignant les points (x, f (x)) et (y, f (y)).
Il faut savoir le démontrer.
Remarque. On peut également définir la stricte convexité et la stricte concavité, en remplaçant
l’inégalité large par une inégalité stricte lorsque α ∈]0, 1[.
Propriété. f est concave et convexe si et seulement si elle est affine, i.e de la forme x 7−→ αx + β.
Propriété. Une somme d’un nombre fini d’applications convexes est convexe.
◦
Définition. x0 ∈ I est un point d’inflexion de f si et seulement si il existe ε > 0 tel que f |I∩]x0 −ε,x0 ]
est convexe (resp : concave) et f |I∩[x0 ,x0 +ε[ est concave (resp : convexe).
Propriété. L’épigraphe de f est {(x, y) ∈ R2 /x ∈ I et y ≥ f (x)}.
f est convexe si et seulement si son épigraphe est une partie convexe de R2 .
Propriété. Inégalité de Jensen. f est convexe si et seulement si
n
X X
n Xn
∀n ∈ N∗ ∀(x1 , . . . , xn ) ∈ I n ∀(λ1 , . . . , λn ) ∈ Rn+ , λi = 1 =⇒ f λi xi ≤ λi f (xi ).
i=1 i=1 i=1
Il faut savoir le démontrer.
n
Y 1
Exercice. Si (x1 , . . . , xn ) ∈ Rn+ , la moyenne géométrique xin est inférieure à la moyenne
i=1
n
1X
arithmétique xi .
n i=1
Il faut savoir le démontrer.
Remarque. Par définition, deux polynômes sont égaux si et seulement si ils ont les mêmes coefficients.
X X X
Propriété. Si P (X) = ak X k et Q(X) = bk X k , alors P + Q = (ak + bk )X k .
k∈N k∈N k∈N
(A[X], +) est un sous-groupe commutatif de AN dont le neutre est le polynôme identiquement nul.
Définition. Si P (X) = (ak )k∈N ∈ A[X] \ {0}, deg(P ) = max({k ∈ N/ak 6= 0}).
On convient que deg(0) = −∞.
X
Définition. Soit P (X) = ak X k ∈ A[X] un polynôme de degré n ∈ N.
k∈N
—ak est le coefficient de P de degré k.
—a0 est aussi appelé le coefficient constant du polynôme P .
—an est appelé le coefficient de plus haut degré de P , ou bien son coefficient dominant.
—On dit que P est unitaire (ou normalisé) si et seulement si an = 1.
—Le polynôme ak X k est appelé un monôme.
[
Notation. Pour tout n ∈ N, on note An [X] = {P ∈ A[X]/deg(P ) ≤ n}. Ainsi, A[X] = An [X].
n∈N
1
123
Semaine 25 : Résumé de cours 1 L’algèbre des polynômes
i : A −→ A[X]
Propriété. L’application est un morphisme injectif d’anneaux. On identifie
a 7−→ (aδ0,k )k∈N
A avec une partie de A[X] en convenant que, pour tout a ∈ a, a = i(a). Alors A0 [X] = A.
X Lorsque b ∈ A et P ∈ A[X],
Remarque. X on dispose donc du produit bP .
k
Si P = ak X , on vérifie que bP = bak X k .
k∈N k∈N
0≤h≤m
0≤k≤n
ϕ : A[X] −→ F(A, A)
Propriété. L’application est un morphisme d’anneaux.
P 7−→ P̃
Notation. Im(ϕ) est un sous-anneau de F(A, A). C’est l’anneau des applications polynomiales.
Théorème. Lorsque A est un corps, ϕ est injectif si et seulement si A est de cardinal infini.
X
Algorithme d’Hörner : Soit P = ak X k ∈ A[X] et x ∈ A. On peut disposer le calcul de P̃ (x) de
k∈N
la manière suivante : P̃ (x) = (· · · ((an x + an−1 )x + an−2 x) + · · · + a1 )x + a0 . Cet algorithme permet
de calculer P̃ (x) avec n multiplications et n additions.
Théorème. Soit A, B ∈ K[X] avec B 6= 0. Alors il existe un unique couple (P, Q) ∈ K[X]2 tel que
A = BQ + R avec deg(R) < deg(B) : Q est le quotient de la division euclidienne du dividende A par
le diviseur B et que R en est le reste.
Il faut savoir le démontrer.
Définition. Soit A ∈ K[X] et a ∈ K. a est une racine de A si et seulement si Ã(a) = 0.
Propriété. Soit A ∈ K[X] et a ∈ K. Le reste de la division euclidienne de A par X − a est égal au
polynôme constant Ã(a).
2 Arithmétique
2.1 Divisibilité
1 Arithmétique
1.1 Divisibilité (suite)
1.2 PGCD
1
127
Semaine 26 : Résumé de cours 1 Arithmétique
1.3 PPCM
Par récurrence descendante, on peut donc calculer des entier s0 et t0 tels que 1 = s0 a0 + t0 a1 .
Corollaire. Supposons que L est un sous-corps de K et soit (A, B) ∈ L[X] × (L[X] \ {0}).
Les PGCD et PPCM de A et B sont les mêmes, que l’on regarde A et B comme des polynômes de
L[X] ou de K[X].
Exercice. Soit a, b, c ∈ A avec a et b non nuls.
Résoudre l’équation de Bézout (B) : au + bv = c en l’inconnue (u, v) ∈ A2 .
Il faut savoir le démontrer.
1
131
Semaine 27 : Résumé de cours 1 Racines d’un polynôme
Propriété. Soit P ∈ K[X] un polynôme non nul. Le nombre de racines de P , comptées avec multi-
plicité est inférieur ou égal au degré de P .
Hypothèse : Pour la suite de ce paragraphe, on suppose que car(K) = 0.
Théorème. Soit P ∈ K[X], a ∈ K et m ∈ N. a est racine de P de multiplicité au moins m si et
seulement si ∀i ∈ {0, . . . , m − 1}, P (i) (a) = 0.
Il faut savoir le démontrer.
Corollaire. Soit P ∈ K[X], a ∈ K et m ∈ N. a est racine de P de multiplicité m si et seulement si
∀i ∈ {0, . . . , m − 1}, P (i) (a) = 0 et P (m) (a) 6= 0.
Corollaire. Si a ∈ K est racine de P ∈ K[X] de multiplicité m ∈ N∗ , alors a est racine de P 0 de
multiplicité m − 1.
C[X] −→ C[X]
Propriété. L’application est un isomorphisme d’anneaux.
P 7−→ P
Propriété. Soit P ∈ C[X], α ∈ C et m ∈ N. α est racine de P de multiplicité m si et seulement si α
est racine de P de multiplicité m.
Il faut savoir le démontrer.
Corollaire. Si P ∈ R[X] et si α est racine de P (resp : racine de multiplicité m), alors α est aussi
une racine de P (resp : racine de multiplicité m).
Théorème de d’Alembert : Tout polynôme à coefficients complexes de degré supérieur ou égal à 1
possède au moins une racine complexe.
Corollaire. Les polynômes irréductibles de C[X] sont exactement les polynômes de degré 1.
Corollaire. Dans C[X], deux polynômes sont premiers entre eux si et seulement si ils n’ont aucune
racine complexe commune.
Corollaire. Dans C[X], tout polynôme non nul est scindé.
Dans C[X], le nombre de racines, comptées avec multiplicité, de tout polynôme non nul est égal à son
degré.
Propriété. Soit P, Q ∈ C[X] \ {0}. Alors P | Q si et seulement si toute racine de P est racine de Q
avec une multiplicité pour Q supérieure ou égale à celle pour P .
Propriété. Les polynômes irréductibles de R[X] sont exactement les polynômes de degré 1 et les
polynômes de degré 2 à discriminant strictement négatif.
Il faut savoir le démontrer.
Propriété. Soit P ∈ R[X] \ {0}. P est scindé dans R[X] si et seulement si toutes ses racines sont
réelles.
2.3 Degré
P
∆
Définition. deg = deg(P ) − deg(Q) ∈ Z ∪ {−∞}.
Q
Propriété. Soit F, G ∈ K(X).
— deg(F + G) ≤ max(deg(F ), deg(G)), avec égalité lorsque deg(F ) 6= deg(G).
— deg(F G) = deg(F ) + deg(G)).
— deg(F G−1 ) = deg(F ) − deg(G)).
A
Définition. Soit F ∈ K(X) une fraction rationnelle admettant pour représentant irréductible .
B
Notons P l’ensemble de ses pôles.
F̃ : K \ P −→ K
La fonction rationnelle associée à F est l’application Ã(x) .
x 7−→
B̃(x)
Propriété. Si deux fractions rationnelles coı̈ncident pour une infinité de valeurs de K, elles sont
égales.
Il faut savoir le démontrer.
2.5 Composition
X ∆
X
Définition. Si P = an X n ∈ K[X] et F ∈ K(X), P ◦ F = P (F ) = an F n .
n∈N n∈N
P
Définition. Un élément simple de K(X) est une fraction rationnelle de la forme , où m ∈ N∗ et
Qm
P, Q ∈ K[X], avec Q irréductible et deg(P ) < deg(Q).
A
Propriété de la partie entière : Soit F = ∈ K(X). Il existe un unique couple (E, B) ∈ K[X]2
S
B A B
tel que F = E + avec deg(B) < deg(S). De plus, si est irréductible alors l’est également.
S S S
E est la partie entière de F .
Il faut savoir le démontrer.
1
136
Semaine 28 : Résumé de cours 1 Les fractions rationnelles (fin)
1.2.3 Le théorème
il existe un unique E ∈ K[X] et une unique famille (Ti,j ) 1≤i≤n de polynômes de K[X] tels que
1≤j≤mi
n X
Ti,j
X mi
F =E+ avec pour tout i ∈ [[1; n]] et j ∈ [[1; mi ]], deg(Ti,j ) < deg(Si ).
i=1 j=1 i
Sj
Cette égalité s’appelle la décomposition en éléments simples de F sur K.
Le polynôme E est la partie entière de F .
mi
X Ti,j
Pour i ∈ [[1; n]], la somme s’appelle la partie polaire de F relative au polynôme Si .
Sj
j=1 i
Propriété. Soit P un polynôme scindé dans K[X]. Alors, en notant α1 , . . . , αn les racines de P et
Xn
P0 mi
m1 , . . . , mn leurs multiplicités respectives, = .
P i=1
X − αi
et A ∈ K[X]. Alors il existe un unique E ∈ K[X] et une unique famille (λi,j ) 1≤i≤n de complexes tels
1≤j≤mi
Xn X mi
λi,j
que F = E + .
i=1 j=1
(X − αi )j
mi
X λi,j
Pour i ∈ [[1; n]], la somme est la partie polaire de F relative au pôle αi .
j=1
(X − ai )j
A
F = n Yp ,
Y
mi 2 ki
(X − ai ) × (X + bi X + ci )
i=1 i=1
où a1 , . . . , an sont des poles réels de F , m1 , . . . , mn ∈ N∗ sont leurs multiplicités, où pour tout
i ∈ {1, . . . , p}, bi , ci ∈ R avec b2i − 4ci < 0 et où A ∈ K[X].
Alors il existe un unique E ∈ K[X] et trois uniques familles (λi,j ) 1≤i≤n , (fi,j ) 1≤i≤p et (gi,j ) 1≤i≤p
1≤j≤mi 1≤j≤ki 1≤j≤ki
n X X p X
fi,j X + gi,j
X mi ki
λi,j
de réels tels que F = E + + .
i=1 j=1
(X − αi )j i=1 j=1
(X 2 + bi X + ci )j
Méthode : En pratique, pour décomposer une fraction rationnelle F en éléments simples dans R(X)
ou dans C(X),
A
1. on commence par l’écrire sous forme irréductible unitaire, F = .
B
C
2. En effectuant la division euclidienne de A par B, on écrit F = E + , où E est la partie entière
B
de F . Lorsque deg(F ) < 0, il est évident que E = 0, donc on peut supprimer cette étape.
3. On scinde B en produit de polynômes irréductibles unitaires.
C
4. On écrit la DES de à l’aide de coefficients indéterminés.
B
5. On calcule ces coefficients indéterminés.
Remarque. La technique des divisions euclidiennes successives est adaptée à la DES de fractions de
P
la forme m , où Q est irréductible.
Q
Propriété. Soit F ∈ K(X) et soit α ∈ K un pôle de F de multiplicité m ∈ N∗ . Alors le coefficient λ
1
de l’élément simple dans la DES de F vérifie λ = [(X^
− α)m F ](α).
(X − α)m
Il faut savoir le démontrer.
Propriété. Soit F ∈ K(X) une fraction rationnelle admettant un pôle simple α.
A 1
Si est un représentant irréductible de F , alors le coefficient λ de l’élément simple dans la
S X −α
Ã(α)
DES de F vérifie λ = .
S̃ 0 (α)
Il faut savoir le démontrer.
Généralisation : (hors programme) On suppose que car(K) = 0.
A
Soit F ∈ K(X) dont a ∈ K est l’un des pôles,de multiplicité m. Si est un représentant irréductible
S
1 m!Ã(α)
de F , alors le coefficient λ de l’élément simple dans la DES de F vérifie λ = .
(X − α)m ]
S (m) (α)
On est ainsi ramené au problème du calcul des primitives des éléments simples de R(X)
Z :
aX + b
Lorsque F (X) = 2 + cX + d)α
, avec ∆ = c2 − 4d < 0, on décompose le calcul de F (t)dt en celui
Z 0 (X Z
u (t) 2 dt
de α
dt, où u(t) = t + ct + d, et celui de .
u(t) u(t)α
c 2 c2
Pour ce dernier, on écrit X 2 +Z cX + d = (X + 2 ) + d − 4 = (X − p) + q
2 2
dt
et on se ramène au calcul de , que l’on réalise en posant t = tan u.
(1 + t2 )α
2 Les matrices
2.1 Vocabulaire
Définition. Soit (n, p) ∈ N∗ 2 . On appelle matrice à n lignes et à p colonnes (à coefficients dans K)
toute famille de scalaires indexée par Nn × Np .
Si M = (mi,j )(i,j)∈Nn ×Np = (mi,j ) 1≤i≤n , on représente M sous la forme suivante :
1≤j≤p
m1,1 ··· m1,p
.. .. ,
M = . .
mn,1 ··· mn,p
où le (i, j)ème coefficient est situé à l’intersection de la ième ligne et de la j ème colonne.
Notation. L’ensemble des matrices à coefficients dans K, à n lignes et p colonnes est noté MK (n, p)
ou Mn,p (K). MK (n, n) est souvent noté MK (n) ou Mn (K).
Définitions :
— Une matrice ligne est une matrice ne possédant qu’une ligne.
— Une matrice colonne est une matrice ne possédant qu’une colonne.
— Une matrice carrée est une matrice possédant autant de lignes que de colonnes.
— M = (mi,j ) ∈ MK (n, p) est une matrice
triangulaire supérieure si et seulement si
∀(i, j) ∈ Nn × Np i > j =⇒ mi,j = 0 .
Propriété. (Mn (K), +, ., ×) est une K-algèbre, ni commutative ni intègre dès que n ≥ 2.
MK (n) −→ L(Kn )
Propriété. est un isomorphisme d’algèbres.
M 7−→ M̃
Il faut savoir le démontrer.
Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si à est inversible dans
]
L(Kn ) et dans ce cas, M −1 = M̃ −1 .
Corollaire. Soit A ∈ MK (n). A est inversible dans MK (n) si et seulement si, pour tout X ∈ Kn , il
existe un unique Y ∈ Kn tel que AX = Y .
a b ∆
Formule : Dans M2 (K), M = est inversible si et seulement si det(M ) = ad − cb 6= 0, et
c d
−1
a b 1 d −b
dans ce cas = .
c d det(M ) −c a
Il faut savoir le démontrer.
∆ a b
Formule de Cramer : Soit a, b, c, d, e, f ∈ K4 . Lorsque det = ad − cb = 6= 0,
c d
e b a e
ax + by = e f d c f
⇐⇒ x = ∧ y= .
cx + dy = f det det
Il faut savoir le démontrer.
Notation. GLn (K) = groupe des inversibles de Mn (K). On l’appelle le groupe linéaire de degré n.
Exemple. Un automorphisme intérieur de Mn (K) est un automorphisme sur Mn (K) de la forme
M 7−→ AM A−1 où A ∈ GLn (K).
Définition. Soit M ∈ Mn (K) et λ ∈ K. On dit que λ est une valeur propre de M si et seulement si
il existe X ∈ Cn avec X 6= 0 tel que M X = λX. Dans ce cas, on dit que X est un vecteur propre de
M pour la valeur propre λ.
Propriété. Les matrices diagonales de Mn (K) forment une sous-algèbre commutative de Mn (K).
Propriété. Pour tout i ∈ Nn , on pose ci = (δi,j )1≤j≤n ∈ Kn et Fi = Vect(ck )1≤k≤i .
Si M ∈ Mn (K), M est triangulaire supérieure ssi, pour tout j ∈ {1, . . . , n}, Fj est stable par M̃ .
Il faut savoir le démontrer.
Propriété. On suppose que n ≥ 2.
— L’ensemble des matrices triangulaires supérieures (respectivement : inférieures) de Mn (K) est
une sous-algèbre non commutative de Mn (K).
— Le produit d’une matrice triangulaire supérieure dont la diagonale est (a1 , . . . , an ) par une
matrice triangulaire supérieure dont la diagonale est (b1 , . . . , bn ) est une matrice triangulaire
supérieure dont la diagonale est (a1 b1 , . . . , an bn ).
Il faut savoir le démontrer.
1
142
Semaine 29 : Résumé de cours 1 Les matrices (suite)
Au niveau des lignes de la matrice de gauche : Soit A ∈ MK (n, p) et B ∈ MK (p, q). Notons
1A 1 AB
. .
1 A, . . . , n A les lignes de A. Alors AB = .. × B = .. .
nA n AB
Définition. Soit n, p ∈ N et soit I et J deux parties de N telles que |I| = n et |J| = p. Notons
0 ≤ i1 ≤ i2 ≤ · · · ≤ in les éléments de I et 0 ≤ j1 ≤ i2 ≤ · · · ≤ jp les éléments de J.
Alors on convient d’identifier toute famille (Mi,j )(i,j)∈I×J de scalaires indexée par I × J avec la
matrice (Mih ,jk ) 1≤h≤n ∈ MK (n, p).
1≤k≤p
Remarque. Lorsque I ou J est vide, I ×J = ∅ et KI×J possède un unique élément, que l’on appellera
la matrice vide.
Définition. Soit n, p ∈ N∗ et M ∈ MK (n, p). Une matrice extraite de M est une matrice de la forme
(Mi,j )(i,j)∈I×J , où I ⊂ Nn et J ⊂ Np .
En résumé, le produit de deux matrices par blocs se comporte comme le produit matriciel usuel.
Application : Produit de matrices triangulaires (resp : diagonales) par blocs, puissances de telles
matrices.
2 Familles de vecteurs
Notation. On fixe un K-espace vectoriel E et un ensemble quelconque I (éventuellement infini).
Définition. E est de dimension finie si et seulement si il possède une famille génératrice finie.
Lemme : Soit n ∈ N et e1 , . . . , en ∈ E.
Toute famille (x1 , . . . , xn+1 ) de n + 1 vecteurs de Vect(e1 , . . . , en ) est liée.
Il faut savoir le démontrer.
Corollaire. Si (e1 , . . . , en ) est une famille génératrice de E, alors toute famille libre de E est de
cardinal inférieur ou égal à n.
Théorème de la base incomplète : Soient E un K-espace vectoriel de dimension finie et (ei )i∈I
une famille génératrice de E. Soit J ⊂ I tel que (ei )i∈J est une famille libre.
Alors il existe un ensemble L avec J ⊂ L ⊂ I tel que (ei )i∈L est une base de E.
Il faut savoir le démontrer.
Propriété. Soit (ei )i∈I une famille libre de vecteurs de E. Soit ej ∈ E, où j ∈
/ I.
La famille (ei )i∈I∪{j} est libre si et seulement si ej ∈
/ Vect(ei )i∈I .
Propriété.
Soient E un K-espace vectoriel et g = (ei )i∈I une famille génératrice de E.
On dit qu’une sous-famille libre (ei )i∈J de g est maximale dans g si et seulement si pour tout i0 ∈ I \J,
la famille (ei )i∈J∪{i0 } est liée.
Si (ei )i∈J est libre maximale dans g, alors c’est une base de E.
Corollaire. Une famille libre de vecteurs de E est maximale si et seulement si en lui ajoutant un
vecteur elle devient liée.
Toute famille libre maximale de vecteurs de E est une base de E.
Corollaire. Soit E un K-espace vectoriel de dimension finie.
Toute famille libre de E peut être complétée en une base de E.
Définition. Soit E un K-espace vectoriel de dimension finie.
E admet au moins une base. Toutes les bases de E sont finies et ont même cardinal. Ce cardinal est
appelé la dimension de E et est noté dim(E) ou dimK (E).
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n et soit e une famille de E. e
est une base de E si et seulement si e est libre et de cardinal n, ou encore si et seulement si e est
génératrice et de cardinal n.
Il faut savoir le démontrer.
Propriété. Soit E un K-espace vectoriel de dimension finie égale à n. Toute famille libre de E a au
plus n éléments et toute famille génératrice de E a au moins n éléments.
Théorème. Soit E un K-espace vectoriel de dimension quelconque.
Soit F et G deux sous-espaces vectoriels de E avec G de dimension finie et F ⊂ G.
Alors F est de dimension finie avec dim(F ) ≤ dim(G).
De plus [F = G ⇐⇒ dim(F ) = dim(G)].
Il faut savoir le démontrer.
Propriété. Soit n ∈ N∗ . Kn est un K-espace vectoriel de dimension n dont une base est
c = (c1 , . . . , cn ), où pour tout i ∈ {1, . . . , n}, ci = (δi,j )1≤j≤n . c est la base canonique de Kn .
Les coordonnées de x ∈ Kn dans la base c sont les composantes de x.
Propriété. Soit I un ensemble quelconque. Pour tout i ∈ I, on note ci = (δi,j )j∈I . Ainsi c = (ci )i∈I
est une famille de K(I) . C’est une base de K(I) , appelée la base canonique de K(I) . De plus, pour tout
x = (αi )i∈I ∈ K(I) : les coordonnées de x sont ses composantes.
Corollaire. La base canonique de K[X] est la famille (X n )n∈N .
Soit n ∈ N. (1, X, . . . , X n ) est la base canonique de Kn [X] : dim(Kn [X]) = n + 1.
Corollaire. La base canonique de Mn,p (K) est la famille des matrices élémentaires (Ei,j ) 1≤i≤n
1≤j≤m
définie par : Pour tout i ∈ {1, . . . , n} et j ∈ {1, . . . , p}, Ei,j = (δa,i δb,j ) 1≤a≤n .
X 1≤b≤p
2.4 Exemples
u1 v1
Propriété. Dans K , deux vecteurs u =
2
et v = forment une base de K2 si et seulement
u2 v2
∆
si u1 v2 − u2 v1 = detc (u, v) 6= 0.
Exercice. Soit (Pn )n∈N une suite de polynômes de K[X]. On suppose que cette suite de
polynômes est étagée c’est-à-dire que, ∀n ∈ N deg(Pn ) = n.
Montrer que pour tout N ∈ N, (Pn )0≤n≤N est une base de KN [X].
En déduire que (Pn )n∈N est une base de K[X].
Il faut savoir le démontrer.
Exercice. Soit f un endomorphisme de E.
Montrer que f est une homothétie si et seulement si pour tout u ∈ E, (u, f (u)) est lié.
Il faut savoir le démontrer.
Propriété. Toute sur-famille d’une famille génératrice est génératrice.
Toute sous-famille d’une famille libre est libre.
Propriété. Une famille de vecteurs est libre si et seulement si toute sous-famille finie de cette famille
est libre.
Théorème. dim(E1 × · · · × En ) = dim(E1 ) + · · · + dim(En ).
Il faut savoir le démontrer.
Propriété. Si e = (ei )i∈I est une base de E, alors E est isomorphe à K(I) .
Définition. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0. Soient
e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F . Si u ∈ L(E, F ), on appelle matrice
de l’application linéaire u dans les bases e et f la matrice notée mat(u, e, f ) = (αi,j ) ∈ MK (n, p)
définie par l’une des conditions équivalentes suivantes :
— pour tout i ∈ Nn et j ∈ Np , αi,j est la ième coordonnée du vecteur u(ej ) dans la base f .
— pour tout i ∈ Nn et j ∈ Np , [mat(u, e, f )]i,j = fi∗ (u(ej )).
Xn
— mat(u, e, f ) est l’unique matrice (αi,j ) ∈ MK (n, p) vérifiant : ∀j ∈ Np u(ej ) = αi,j fi .
i=1
— mat(u, e, f ) est l’unique matrice dont la j-ème colonne, égale à Ψ−1
f (u(ej )), contient les coor-
données de u(ej ) dans la base f .
Interprétation tabulaire : Avec les notations précédentes,
Notation. Lorsque E = F et que l’on choisit e = f , on note mat(u, e) au lieu de mat(u, e, e).
Propriété. Pour tout n, p ∈ N∗ , pour tout M ∈ MK (n, p), mat(M̃ , c, c0 ) = M , en notant c et c0 les
bases canoniques de Kp et de Kn .
Remarque. Nous disposons maintenant de deux manières équivalentes de définir l’application linéaire
M̃ : Kp −→ Kn
canoniquement associée à une matrice M ∈ MK (n, p) : c’est l’application ,
X 7−→ M̃ (X) = M X
ou bien c’est l’unique application M̃ ∈ L(Kp , Kn ) telle que mat(M̃ , c, c0 ) = M .
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0. Soient
e = (e1 , . . . , ep ) une base de E et f = (f1 , . . . , fn ) une base de F .
L(E, F ) −→ MK (n, p)
L’application est un isomorphisme d’espaces vectoriels.
u 7−→ mat(u, e, f )
Théorème. Soient E, F et G trois K-espaces vectoriels de dimensions finies, munis de bases e, f et
g. Soient u ∈ L(E, F ) et v ∈ L(F, G). Alors, mat(v ◦ u, e, g) = mat(v, f, g) × mat(u, e, f ).
Il faut savoir le démontrer.
Propriété. Soient E et F deux K-espaces vectoriels de dimensions respectives p > 0 et n > 0, munis
des bases e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ), et soit u ∈ L(E, F ).
On note M la matrice de u dans les bases e et f .
Soit (x, y) ∈ E × F . On note X la matrice colonne des coordonnées de x dans la base e, et Y celle des
coordonnées de y dans la base f . Alors,
u(x) = y ⇐⇒ M X = Y.
Définition. Une équation linéaire à p inconnues scalaires est une équation de la forme
(E) : α1 x1 + α2 x2 + · · · + αp xp = b, où α1 , . . . , ap , b ∈ K sont des paramètres, et où x1 , . . . , xp ∈ K
sont les inconnues.
Notation. Fixons (n, p) ∈ N∗ 2 et considérons un système linéaire à n équations et p inconnues,
c’est-à-dire un système d’équations de la forme suivante :
α1,1 x1 + · · · + α1,p xp = b1
. ..
..
.
(S) : αi,1 x1 + · · · + αi,p xp = bi ,
.. ..
. .
αn,1 x1 + · · · + αn,p xp = bn
où, pour tout (i, j) ∈ {1, . . . , n} × {1, . . . , p}, αi,j ∈ K, pour tout i ∈ {1, . . . , n}, bi ∈ K, les p inconnues
étant x1 , . . . , xp , éléments de K.
b1
.
Le vecteur .. est appelé le second membre du système, ou bien le membre constant. Lorsqu’il est
bn
nul, on dit que le système est homogène.
Première interprétation.
Combinaison
linéaire
de vecteurs.
α1,1 α1,2 α1,p
b1
.. .. .. .
.
.
.
..
Notons C1 =
αi,1 , C2 = αi,2 , . . ., Cp = αi,p , et B = bi . Il s’agit de p + 1 vecteurs
. . . .
.. .. .. ..
αn,1 αn,2 αn,p bn
de Kn . Alors (S) ⇐⇒ x1 C1 + x2 C2 + · · · + xp Cp = B.
Définition. On dit que (S) est compatible si et seulement s’il admet au moins une solution.
Propriété. (S) est compatible si et seulement si B ∈ Vect(C1 , . . . , Cp ).
Deuxième interprétation. Matricielle. Notons M la matrice de Mn,p (K) dont les colonnes sont
x1
.
C1 , . . ., Cp , et X = .. . Alors (S) ⇐⇒ M X = B.
xp
Définition. On dit que (S) est un système de Cramer si et seulement si n = p et si M est
inversible. Dans ce cas, (S) admet une unique solution.
Troisième interprétation. A l’aide d’une application linéaire.
Soient E et F des K-espaces vectoriels de dimensions p et n munis de bases
e = (e1 , . . . , ep ) et f = (f1 , . . . , fn ). On note u l’unique application linéaire de L(E, F ) telle que
mat(u, e, f ) = M , x le vecteur de E dont les coordonnées dans e sont X et b le vecteur de F dont les
coordonnées dans f sont B. Alors (S) ⇐⇒ u(x) = b.
Définition. On dit que (S) est un système homogène si et seulement si b = 0.
Définition. Le système homogène associé à (S) est (SH ) : u(x) = 0.
Propriété. L’ensemble des solutions de (SH ) est Ker(u).
C’est un sous-espace vectoriel de dimension p − r, où r désigne le rang de u (ou de M ).
Définition. On appelle manipulations ou opérations élémentaires sur les lignes d’une matrice, les
applications de MK (n, p) dans MK (n, p) suivantes :
1) Ajouter à une ligne le multiple d’une autre, opération notée : Li ←− Li + λLj , où i 6= j
et λ ∈ K. C’est une transvection.
2) Multiplier une ligne par un scalaire non nul, notée : Li ←− αLi , où α ∈ K∗ . C’est une affinité.
3) Permuter deux lignes, notée : Li ←→ Lj , où i 6= j. C’est une transposition.
On définirait de même les opérations sur les colonnes.
Propriété. Si σ ∈ Sn , on note Pσ = (δi,σ(j) ) ∈ Mn (K). Alors Pσσ0 = Pσ Pσ0 .
Il faut savoir le démontrer.
Propriété.
En notant (Ei,j )(i,j)∈{1,...,n}2 la base canonique de Mn (K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , n}2 avec i 6= j,
Li ←→ Lj : MK (n, p) −→ MK (n, p)
M 7−→ P(i,j) M
De même, en notant (Ei,j )(i,j)∈{1,...,p}2 la base canonique de Mp (K), si λ ∈ K∗ et (i, j) ∈ {1, . . . , p}2
avec i 6= j, alors
Ci ←− Ci + λCj : MK (n, p) −→ MK (n, p)
M 7−→ M (Ip + λEj,i )
Ci ←→ Cj : MK (n, p) −→ MK (n, p)
M 7−→ M P(i,j)
Il faut savoir le démontrer.
Propriété. Si l’on effectue une série d’opérations élémentaires sur les lignes d’une matrice M , alors
on a multiplié M à gauche par une certaine matrice inversible.
Si l’on effectue une série d’opérations élémentaires sur les colonnes d’une matrice M , alors on a
multiplié M à droite par une certaine matrice inversible.
Notation. Soit (S) : M X = B un système linéaire de matrice M ∈ Mn,p (K) et de vecteur constant
B ∈ Kn . On appellera matrice globale de (S) la matrice à n lignes et p+1 colonnes dont les p premières
colonnes sont celles de M et dont la dernière colonne est égale à B.
Propriété. Soient (S) : M X = B et (S 0 ) : M 0 X = B 0 . On suppose que l’on peut passer de la matrice
globale de (S) à celle de (S 0 ) à l’aide d’une série d’opérations élémentaires portant uniquement sur
les lignes. Alors ces deux systèmes sont équivalents.
Propriété. Soit M ∈ Mn (K). On suppose que l’on peut transformer, par des opérations élémentaires
portant uniquement sur les lignes, la matrice blocs M In ∈ MK (n, 2n) en une matrice de la forme
In N ∈ MK (n, 2n). Alors M est inversible et M −1 = N .
Il faut savoir le démontrer.
méthode du pivot permet donc de déterminer une base de l’espace vectoriel engendré par les lignes
(ou les colonnes en opérant sur les colonnes) d’une matrice.
La méthode du pivot permet aussi de déterminer une base de l’image d’une application linéaire : On
considère sa matrice dans des bases données et on détermine une base de ses vecteurs colonnes en
appliquant la méthode du pivot au niveau des colonnes.
But : Transformer (ai,j ) de sorte qu’il existe s ∈ {0, min(n, p)} vérifiant
∀(i, j) ∈ N2s , i > j =⇒ ai,j = 0, ∀r ∈ Ns , ar,r 6= 0 et ∀(i, j) ∈ {s + 1, . . . , n} × {1, . . . , p}, ai,j = 0.
La seule différence par rapport à l’algorithme précédent est qu’on accepte de choisir le pivot de l’étape
r parmi les ai,j pour (i, j) ∈ {r, . . . , n} × {r, . . . , p}. Notons ai0 ,j0 6= 0 le pivot choisi. On échange Cr
et Cj0 puis on applique les mêmes opérations élémentaires que dans l’algorithme précédent.
À la fin de l’algorithme, le système est compatible si et seulement si ∀i ∈ {s+1, . . . , n} ai,p+1 = 0 :
c’est un système d’équations de l’espace vectoriel engendré par les colonnes de (S).
Si la matrice de (S) est celle d’une application linéaire u dans des bases e et f , ces conditions de
compatibilité constituent un système d’équations de Im(u) dans la base f .
Définition. Résoudre un système (S) : M X = B à n équations et p inconnues, c’est déterminer
une partie I de {1, . . . , p} et une famille (bi,j )(i,j)∈({1,...,p}\I)×I telles que :
X
∀i ∈ {1, . . . , p} \ I, xi = ci + bi,j xj . Les (xj )j∈I sont les inconnues principales et les (xi )i∈{1,...,p}\I
j∈I
sont les inconnues secondaires. En résumé, résoudre un système, c’est exprimer les inconnues secon-
daires en fonction des inconnues principales.
But : Transformer la matrice globale en une matrice dont les n premières colonnes correspondent à
la matrice In , en utilisant uniquement des opérations élémentaires sur les lignes.
Pour cela, comme pour le pivot partiel, à l’étape r, on choisit un pivot ai0 ,r 6= 0 où r ≤ i0 ≤ n, ce qui
est possible car le système est de Cramer, puis on effectue : Li0 ←→ Lr ,
ai,r 1
∀i ∈ {1, . . . , n} \ {r}, Li ←− Li − ar,r Lr et Lr ←− ar,r Lr .
Il faut être capable de présenter cet algorithme en détails.
Corollaire. Une matrice de Mn (K) est inversible si et seulement si elle est le produit de matrices
de transvections, d’affinités et de transpositions.
nX
k o
Propriété. E1 + · · · + Ek = xi / ∀i ∈ {1, . . . , k} xi ∈ E i .
i=1
k
X M
Définition. Ei est directe, et alors notée Ei , si et seulement si
i=1 1≤i≤k
k
!
X
∀(x1 , . . . , xk ) ∈ E1 × · · · × Ek xi = 0 =⇒ (∀i ∈ {1, . . . , k} xi = 0) ,
i=1
k
X k
X
ce qui est équivalent à : ∀x ∈ Ei , ∃!(x1 , . . . , xk ) ∈ E1 × · · · × Ek x = xi .
i=1 i=1
1
153
Semaine 30 : Résumé de cours 4 Propriétés des sommes directes
Propriété. Associativité d’une somme directe. Si (Ii )1≤i≤p est une partition de {1, . . . , k}, alors
E1 , . . . , Ekformentune somme directe si et seulement si ∀i ∈ {1, . . . , p}, (Ej )j∈Ii forment une somme
M
directe et Ej forment une somme directe.
i∈{1,...,p}
j∈Ii
Théorème. Soient k un entier supérieur ou égal à 2, et (Ei )1≤i≤k une famille de k sous-espaces
i−1
\X
vectoriels de E. E1 , . . . , Ek sont en somme directe si et seulement si ∀i ∈ {2, . . . , k} Ei Ej = {0}.
j=1
Il faut savoir le démontrer.
Théorème. Soit E un K-espace vectoriel muni d’une base (ei )i∈I . Soit (Ik )1≤k≤n une partition de
n
M
I. Pour tout k ∈ {1, . . . , n}, on pose Ek = Vect(ei )i∈Ik . Alors E = Ek .
k=1
Théorème réciproque. Soit (Ek )1≤k≤n une famille de sous-espaces vectoriels d’un K-espace vectoriel
Mn
E tels que E = Ek . Pour tout k ∈ {1, . . . , n}, on suppose que Ek admet une base bk . Alors la
k=1
concaténation des bases (bk )1≤k≤n , notée b, est une base de E. On dit que b est une base adaptée à
Mn
la décomposition en somme directe E = Ek .
k=1
5 Les projecteurs
Définition. p ∈ L(E) est un projecteur si et seulement si p2 = p.
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
Pour x ∈ E, on note (p(x), q(x)) l’unique couple de F × G tel que x = p(x) + q(x).
p et q sont des projecteurs.
p est appelé le projecteur sur F parallèlement à G, et q le projecteur associé à p.
On vérifie que p + q = IdE et pq = qp = 0.
Il faut savoir le démontrer.
Propriété réciproque. Soit p un projecteur de E. Alors p est le projecteur sur Im(p) parallèlement à
Ker(p). La décomposition de x ∈ E selon la somme directe E = Im(p)⊕Ker(p) est x = p(x)+(x−p(x)),
avec p(x) ∈ F = Im(p) et x − p(x) ∈ G = Ker(p).
Pour tout x ∈ E, x = p(x) ⇐⇒ x ∈ F : F = Ker(IdE − p).
Il faut savoir le démontrer.
Définition. s ∈ L(E) est une symétrie si et seulement si s2 = IdE .
Propriété. Soient F et G deux sous-espaces vectoriels supplémentaires de E.
L’unique application s de E dans E telle que, pour tout f, g ∈ F ×G, s(f +g) = f −g est une symétrie,
appelée symétrie par rapport à F parallèlement à G. Si l’on note p le projecteur sur F parallèlement
à G, et q le projecteur associé à p, alors s = p − q = 2p − IdE .
6 Sous-espaces propres
Notation. On fixe un K-espace vectoriel E et u ∈ L(E).
Définition. λ ∈ K est une valeur propre de u si et seulement s’il existe un vecteur x non nul de
E tel que u(x) = λx. Dans ce cas, tout vecteur y non nul tel que u(y) = λy est appelé un vecteur
propre de u associé à la valeur propre λ.
De plus, toujours lorsque λ est une valeur propre de u, Ker(λIdE − u) est appelé le sous-espace
propre de u associé à la valeur propre λ. Il est noté Eλ , ou Eλu en cas d’ambiguı̈té.
Remarque. Si λ est une valeur propre de u, l’ensemble des vecteurs propres de u pour la valeur
propre λ est Eλ \ {0}.
Remarque. Même lorsque λ n’est pas une valeur propre de u, on note parfois
Eλ = Ker(λIdE − u), mais dans ce cas, Eλ = {0}.
Définition. Soient n ∈ N∗ et M ∈ Mn (K) : Les éléments propres de M (c’est-à-dire les valeurs
propres, les vecteurs propres et les sous-espaces propres) sont les éléments propres de l’endomorphisme
canoniquement associé à M .
Propriété.
λ ∈ K est une valeur propre de u si et seulement si λIdE − u n’est pas injective.
En particulier, u est injectif si et seulement si 0 n’est pas une valeur propre de u.
Définition. On appelle spectre de u l’ensemble des valeurs propres de u. Il est noté Sp(u).
Théorème.
La somme d’un nombre fini de sous-espaces propres de u est toujours directe.
Il faut savoir le démontrer.
Corollaire. Si (xi )i∈I est une famille de vecteurs propres de u associés à des valeurs propres deux à
deux distinctes, alors cette famille est libre.
Exemple. Supposons que E 6= {0}.
Soient F et G deux sous-espaces vectoriels supplémentaires non nuls dans E.
• Si u est une homothétie de rapport λ, où λ ∈ K, Sp(u) = {λ} et Eλ = E.
• Si u est le projecteur sur F parallèlement à G, Sp(u) = {0, 1}, E1 = F et E0 = G.
• Si u est la symétrie par rapport à F parallèlement à G, Sp(u) = {1, −1}, E1 = F et E−1 = G.
Propriété.
Si v ∈ L(E) commute avec u, les sous-espaces propres de u sont stables par v.
Il faut savoir le démontrer.
7 Changement de base
Notation. On fixe un K-espace vectoriel E de dimension finie égale à n ∈ N∗ .
Propriété. Soit e = (e1 , . . . , en ) une base de E et f = (fj )1≤j≤n ∈ E n une famille de n vecteurs de
E. Pour tout j ∈ Nn , on pose pi,j = e∗i (fj ) : c’est la ième coordonnée dans la base e du j ème vecteur
de la famille f . Alors f est une base si et seulement si la matrice P = (pi,j ) est inversible. Dans ce
cas, P est noté Pef (ou bien Pe→f ) et on dit que Pef = (pi,j ) est la matrice de passage de la base e
vers la base f .
f1 ··· fn
p1,1 ··· p1,n e1
Pef = . .. .. .
.. . .
pn,1 ··· pn,n en
1 Diagonalisation et trigonalisation
Définition. Soit E un K-espace vectoriel de dimension n ∈ N∗ et u ∈ L(E).
On dit que u est diagonalisable si et seulement si il vérifie l’une des propriétés suivantes :
i) Il existe une base e de E telle que mat(u, e) est diagonale.
ii) Il existeMune base de E constituée de vecteurs propres de u.
iii) E = Eλu .
λ∈SpK (u)
X
iv) n = dim(Eλu ).
λ∈SpK (u)
Il faut savoir le démontrer.
Propriété. les homothéties, les projecteurs et les symétries sont diagonalisables.
Définition. Soit M ∈ Mn (K). On dit que M est diagonalisable si et seulement si son endomorphisme
canoniquement associé est diagonalisable.
Propriété. M ∈ Mn (K) est diagonalisable si et seulement si il existe P ∈ GLn (K) telle que P −1 M P
est une matrice diagonale.
Il faut savoir le démontrer.
Définition. Soit M ∈ Mn (K) une matrice diagonalisable. “diagonaliser” M , c’est déterminer une
matrice diagonale D et une matrice inversible P telles que M = P DP −1 .
Définition. Un endomorphisme u est trigonalisable si et seulement s’il existe une base dans laquelle
la matrice de u est triangulaire supérieure.
Définition. M ∈ Mn (K) est trigonalisable si et seulement si l’endomorphisme canoniquement associé
à M est trigonalisable, c’est-à-dire si et seulement si il existe P ∈ GLn (K) telle que P −1 M P est
triangulaire supérieure.
Définition. Soit M ∈ Mn (K). “Trigonaliser ” M , c’est déterminer si M est trigonalisable, et dans
ce cas, c’est calculer P ∈ GLn (K) et T triangulaire supérieure telles que M = P T P −1 .
1
158
Semaine 31 : Résumé de cours 3 Matrices équivalentes et matrices semblables
4 Les hyperplans
Dans tout ce chapitre, on fixe un K-espace vectoriel E, où K est un corps.
Exemple. Dans un plan vectoriel rapporté à une base (~ı, ~), une droite vectorielle D a une équation
cartésienne de la forme : →
−
v = x~ı + y~ ∈ D ⇐⇒ ax + by = 0, où (a, b) ∈ R2 \ {0}.
Exemple. Dans un espace vectoriel de dimension 3 rapporté à une base (~ı, ~, ~k), un plan vectoriel P a
une équation cartésienne de la forme : →
−
v = x~ı+y~+z~k ∈ P ⇐⇒ ax+by+cz = 0, où (a, b, c) ∈ R3 \{0}.
5 Déterminants
Notation. K désigne un corps quelconque.
σ(f ) : E p −→ F
Définition. Soient σ ∈ Sp et f ∈ Lp (E, F ). On note .
(x1 , . . . , xp ) 7−→ f (xσ(1) , . . . , xσ(p) )
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire symétrique (resp : antisymétrique) si
et seulement si pour tout σ ∈ Sp , σ(f ) = f (resp : σ(f ) = ε(σ)f , où ε(σ) désigne la signature de la
permutation σ).
Propriété. Soit f ∈ Lp (E, F ).
f est symétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = f .
f est antisymétrique si et seulement si pour toute transposition τ de Sp , τ (f ) = −f .
Il faut savoir le démontrer.
Définition. Soit f ∈ Lp (E, F ). f est une application p-linéaire alternée si et seulement si elle
annule tout p-uplet de vecteurs de E contenant au moins deux vecteurs égaux.
Propriété. Soit f ∈ Lp (E, F ).
Si f est alternée, alors elle est antisymétrique.
Lorsque car(K) 6= 2, alternée ⇐⇒ antisymétrique.
Il faut savoir le démontrer.
Propriété. f ∈ Lp (E, F ) est alternée si et seulement si pour tout (x1 , . . . , xp ) ∈ E p , f (x1 , . . . , xp )
ne varie pas lorsque l’on ajoute à l’un des xi une combinaison linéaire des autres xj , ou encore si et
seulement si l’image par f de toute famille liée de vecteurs est nulle.
Corollaire. Si E est de dimension n ∈ N∗ et si p > n, toute forme p-linéaire alternée sur E est nulle.
5.2.1 Volume
Supposons temporairement que K = R. Pour tout x = (x1 , . . . , xn ) ∈ E n , on note Hx l’hyperpa-
n
X
rallélépipède Hx = { ti xi / t1 , . . . , tn ∈ [0, 1]}.
i=1
Si vol est une application de E n dans R telle que, pour tout x ∈ E n , |vol(x)| représente le volume
de Hx et le signe de vol(x) représente l’orientation du n-uplet x, alors en imposant des contraintes
raisonnables aux notions de volume et d’orientation, l’application vol est nécessairement une forme
n-linéaire alternée.
Théorème. Soit e une base de E. Si f est une forme n-linéaire alternée sur E, alors f = f (e)dete .
Il faut savoir le démontrer.
X n
Y X n
Y
∗
Propriété. dete (x1 , . . . , xn ) = ε(σ) eσ(j) (ej ) = ε(σ) e∗j (xσ(j) ).
σ∈Sn j=1 σ∈Sn j=1
Il faut savoir le démontrer.
Propriété. dete est une forme n-linéaire alternée telle que dete (e) = 1.
Il faut savoir le démontrer.
Propriété. An (E) est une droite vectorielle dirigée par dete .
Remarque. dete (x) est donc la seule définition raisonnable du volume algébrique de Hx , si l’on
choisit l’unité de volume de sorte que le volume de He soit égal à 1.
1
165
Semaine 32 : Résumé de cours 1 Déterminants (suite et fin)
Définition. Soit M = (mi,j ) ∈ Mn (K). Pour tout (i, j) ∈ N2n , notons i,j M la matrice extraite de M
en ôtant la ième ligne et la j ème colonne. La quantité det(i,j M ) s’appelle le (i, j)ème mineur de M
La quantité Ci,j = (−1)i+j det(i,j M ) s’appelle le (i, j)ème cofacteur de M .
Théorème. Pour tout j ∈ Nn ,
n
X
det(M ) = mi,j Ci,j : c’est le développement de det(M ) selon sa j ème colonne.
i=1
n
X
Pour tout i ∈ Nn , det(M ) = mi,j Ci,j : c’est le développement de det(M ) selon sa ième ligne.
j=1
Il faut savoir le démontrer.
Définition. On appelle comatrice de M la matrice (Ci,j ) 1≤i≤n des cofacteurs de M .
1≤j≤n
On la notera Com(M ) ou bien Cof (M ).
La transposée de la comatrice s’appelle la matrice complémentaire de M .
Théorème. ∀M ∈ Mn (K) M t Cof (M ) = t Cof (M )M = det(M )In .
Il faut savoir le démontrer.
1 t
Corollaire. Lorsque M est inversible, M −1 = Cof (M ).
det(M )
Théorème. Soit M = (Mi,j ) 1≤i≤a une matrice décomposée en blocs, où, pour tout i, j ∈ Na ,
1≤j≤a
a
Y
Mi,j ∈ Mni ,nj (K). Si M est triangulaire supérieure (ou inférieure) par blocs, det(M ) = det(Mi,i ).
i=1
Il faut savoir le démontrer.
Corollaire. Le déterminant d’une matrice triangulaire supérieure ou inférieure est égal au produit
de ses éléments diagonaux.
Définition. Une matrice M ∈ Mn (K) est circulante si et seulement si on passe de l’une de ses lignes
à la suivante selon une permutation circulaire des coefficients vers la droite.
Méthode : Pour des matrices circulantes simples, on peut commencer par remplacer la première ligne
par la somme de toutes les lignes. La première ligne devient alors colinéaire à (1, 1, . . . , 1). On peut
ensuite effectuer des différences de colonnes pour placer des 0 sur la première ligne.
2 Produits scalaires
2.1 Définition d’un produit scalaire
2.2 Exemples
E!2 −→ R
X X X
Si e = (ei )i∈I est une base de E, xi ei , yi ei 7−→ xi yi est un p.s sur E.
i∈I i∈I i∈I
ϕ: Rn × R n −→ R
Xn
est le produit scalaire canonique de Rn .
((α1 , . . . , αn ), (β1 , . . . , βn )) 7−→ αi βi
i=1
Alors, pour tout X, Y ∈ Rn , ϕ(X, Y ) = t XY .
Z b
En posant ϕ(f, g) = f (t)g(t)dt, ϕ est un produit scalaire sur C([a, b], R).
a
Il faut savoir le démontrer.
Exercice. Montrer que (M, N ) 7−→ Tr(t M N ) est un produit scalaire sur Mn (R).
Il faut savoir le démontrer.
P
Notation. Pour p ∈ R∗+ , lp = {(un ) ∈ RN / |un |p CV}.
∞
Notons l l’ensemble des suites bornées de réels.
Notation. E est un espace préhilbertien réel. Son produit scalaire sera noté (.|.).
p
Définition. Pour tout x ∈ E, la norme de x est kxk = (x|x).
Formule. Pour tout ((x, y), α) ∈ E 2 × R,
kαxk = |α|kxk,
kx + yk2 = kxk2 + kyk2 + 2(x|y),
kx − yk2 = kxk2 + kyk2 − 2(x|y),
kx + yk2 − kx − yk2 = 4(x|y),
kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ).
Propriété. Limite d’une application à valeurs dans un espace de dimension finie. Sup-
posons que F est un K-espace vectoriel de dimension finie dont une base est (e1 , . . . , eq ) et notons
f : E −→ F q
q X
X . Soient A une partie de Df , a ∈ A et l = li e i ∈ F .
x 7−→ f (x) = fi (x)ei
i=1
i=1
Alors, f (x) −→
x→a
l si et seulement si pour tout i ∈ Nq , fi (x) −→ l.
x→a i
x∈A x∈A
4 Orthogonalité
Notation. E est un espace préhilbertien. Son produit scalaire est noté < ., . >.
Espaces préhilbertiens
1 Orthogonalité
1.1 Orthogonalité en dimension quelconque (suite)
1
170
Semaine 33 : Résumé de cours 1 Orthogonalité
Xk−1
Ek
De plus, la famille (ek )k∈N∗ est définie par : ek = , où Ek = xk − < ei , xk > ei .
kEk k i=1
Définition. u ∈ L(E) est symétrique ssi ∀(x, y) ∈ E 2 , < u(x), y >=< x, u(y) >.
Propriété. Soient e une base orthonormée de E et u ∈ L(E).
Alors u est symétrique si et seulement si mat(u, e) est symétrique.
Il faut savoir le démontrer.
Notation. S(E) est l’ensemble des endomorphismes symétriques de E.
C’est un sous-espace vectoriel de L(E).
Propriété. Une projection est un endomorphisme symétrique ssi c’est une projection orthogonale.
Il faut savoir le démontrer.
Propriété. Une symétrie est un endomorphisme symétrique ssi c’est une symétrie orthogonale.
Propriété. Si u ∈ S(E) et si F est un sous-espace vectoriel stable par u, alors F ⊥ est stable par u.
Vous verrez en seconde année le
Théorème spectral : Si u ∈ S(E), il existe au moins une base orthonormée de vecteurs propres de
u. On dit que u est diagonalisable en base orthonormée.
Définition. Soit u ∈ L(E). On dit que u est un automorphisme orthogonal ou une isométrie
vectorielle si et seulement si l’une des propriétés suivantes est vérifiée.
— conservation du produit scalaire : ∀x, y ∈ E, < u(x), u(y) >=< x, y > ;
— conservation de la norme : ∀x ∈ E, ku(x)k = kxk.
— si e est une base orthonormée de E, en posant M = mat(u, e),
M inversible et M −1 = t M .
Il faut savoir le démontrer.
Notation. On note O(E) l’ensemble des automorphismes orthogonaux de E.
Propriété. O(E) est un sous-groupe de (GL(E), ◦). On l’appelle le groupe orthogonal de E.
Propriété. Si u ∈ O(E), SpR (u) ⊂ {1, −1}.
Propriété. Soit u ∈ O(E). Si F est un sous-espace vectoriel stable par u, F ⊥ est stable par u.
Propriété. Si u ∈ O(E), alors det(u) ∈ {−1, 1}, mais la réciproque est fausse.
Définition. Soit u ∈ O(E). On dit que u est une rotation si et seulement si det(u) = 1.
u est une isométrie vectorielle indirecte ou négative si et seulement si det(u) = −1.
Propriété. L’ensemble des rotations de E, noté SO(E), est un sous-groupe de O(E), appelé groupe
spécial orthogonal . L’ensemble des isométries indirectes de E est noté O− (E) = O(E) \ SO(E). Il
n’a pas de structure particulière.
Propriété. Soit M ∈ Mn (R). C’est une matrice orthogonale si et seulement si l’une des propriétés
suivantes est vérifiée.
— t M M = In ;
— M t M = In ;
— M est inversible et M −1 =t M .
Propriété. L’ensemble des matrices orthogonales est un sous-groupe de GLn (R) appelé le groupe
orthogonal de degré n et noté O(n).
Propriété. Pour tout M ∈ O(n), det(M ) ∈ {−1, 1}.
Définition. Les matrices orthogonales de déterminant égal à 1 sont appelées les matrices de
rotations. Les matrices orthogonales de déterminant égal à -1 sont appelées les matrices orthogonales
gauches ou indirectes. L’ensemble des matrices de rotations est un sous-groupe de O(n), appelé groupe
spécial orthogonal de degré n et noté SO(n). L’ensemble des matrices orthogonales indirectes est
noté O− (n) = O(n) \ SO(n). Il n’a pas de structure particulière.
Propriété. M ∈ O(n) si et seulement si la famille de ses vecteurs colonnes (ou de ses vecteurs lignes)
est orthonormale dans Rn muni de son produit scalaire canonique.
Il faut savoir le démontrer.
Propriété. Soient e une base orthonormée de E et e0 une base quelconque de E.
e0 est orthonormée si et seulement si la matrice de passage de e à e0 est orthogonale.
Propriété. Soient u ∈ L(E) et e une base orthonormée de E.
Les propriétés suivantes sont équivalentes.
— u ∈ O(E) ;
— mat(u, e) ∈ O(n) ;
— u(e) est une base orthonormée.
Propriété. (Hors programme) Dans une matrice orthogonale droite, chaque coefficient est égal à son
cofacteur. Dans une matrice orthogonale gauche, chaque coefficient est l’opposé de son cofacteur.
Propriété. Si M ∈ Sn (R), il existe P ∈ O(n) et D diagonale telles que M = P DP −1 = P Dt P .
B/R est formé de deux éléments qui sont appelés les orientations de E.
“Orienter E”, c’est choisir l’une de ces deux orientations qui devient l’ensemble des bases directes.
Hypothèse : jusqu’à la fin de ce chapitre, on suppose que E est un espace euclidien orienté de
dimension n > 0.
Définition. Soit D une droite vectorielle incluse dans E que l’on oriente en choisissant un vecteur
→
−
unitaire k ∈ D. “Orienter l’hyperplan D⊥ par le vecteur ~k de D”, c’est choisir comme orientation de
D⊥ l’ensemble des bases (e1 , . . . , en−1 ) de D⊥ telles que (e1 , . . . , en−1 , ~k) est une base directe de E.
Propriété. Soient e et e0 deux bases orthonormées de E. On suppose que e est directe.
0
Alors e0 est directe si et seulement si Pee ∈ SO(n).
Propriété. Soient u ∈ L(E) et e une base orthonormée directe de E.
Les propriétés suivantes sont équivalentes.
— u ∈ SO(E) ;
— mat(u, e) ∈ SO(n) ;
— u(e) est une base orthonormée directe.
3 Géométrie plane
Notation. E est un plan euclidien orienté dont (~ı, ~) est une base orthonormée.
Pour tout α ∈ R, on notera uα = cos(α)~ı + sin(α)~.
Propriété.
cos θ − sin θ cos θ sin θ
SO(2) = Rθ = / θ ∈ R . O (2) = Sθ =
−
/θ∈R .
sin θ cos θ sin θ − cos θ
Il faut savoir le démontrer.
Propriété. En identifiant R2 avec le plan complexe C,
— l’endomorphisme rθ canoniquement associé à Rθ est la similitude directe
z 7−→ eiθ z, c’est-à-dire la rotation de centre 0 et d’angle θ ;
— l’endomorphisme sθ canoniquement associé à Sθ est la similitude indirecte
θ
z 7−→ eiθ z, c’est-à-dire la réflexion par rapport à la droite Rei 2 .
Propriété. Soient s ∈ O− (E). Il existe θ ∈ R tel que mat(s, e) = Sθ . s est la réflexion par rapport à
la droite vectorielle Ru θ . Ainsi, les éléments de O− (E) sont les réflexions de E.
2
Définition. On suppose que E est orienté. Soit r ∈ SO(E). La matrice Rθ de r dans une base
orthonormée directe de E ne dépend pas du choix de cette base. θ est appelé l’angle de la rotation r,
déterminé à 2π près. Si on change d’orientation, cette mesure est changée en son opposé.
Propriété. Soit E un espace euclidien et f : E −→ E une application telle que f (0) = 0 et pour
tout x, y ∈ E, kf (x) − f (y)k = kx − yk. Alors f est un automorphisme orthogonal.
Il faut savoir le démontrer.
Corollaire. Une application f : C −→ C est une similitude si et seulement si il existe λ ∈ R∗+ tel
que : ∀z, z 0 ∈ C, |f (z) − f (z 0 )| = λ|z − z 0 |.
1
177
Semaine 34 : Résumé de cours 2 Géométrie dans l’espace
Propriété. La droite passant par le point de coordonnées (x0 , y0 ) et dirigée par le vecteur (u, v) a
u x − x0
pour équation −v(x − x0 ) + u(y − y0 ) = 0 = .
v y − y0
Propriété. La droite passant par les points (supposés distincts) de coordonnées (x0 , y0 ) et (x1 , y1 )
x − x0 x1 − x0
a pour équation = 0.
y − y0 y1 − y0
E est un espace euclidien orienté de dimension 3 et E est un espace affine de direction E. On dit que
E est l’espace usuel. On fixe un repère de E, noté R = (O, e), où e une base orthonormée directe de
E, notée e = (~ı, ~, ~k) ou e = (e1 , e2 , e3 ) selon les cas.
Propriété. Le plan passant par le point de coordonnées (x0 , y0 , z0 ) et orthogonal au vecteur (u, v, w)
a pour équation u(x − x0 ) + v(y − y0 ) + w(z − z0 ) = 0.
Propriété. Le plan passant par le point de coordonnées (x0 , y0 , z0 ) et dirigé par deux vecteurs
x − x0 u u 0
indépendants de coordonnées (u, v, w) et (u0 , v 0 , w0 ) a pour équation cartésienne y − y0 v v 0 = 0.
z − z0 w w0
Propriété.
Une droite affine de E admet un système d’équations de la forme :
ux + vy + wz + t =0
0 0 0 0 , où ux + vy + wz + t = 0 et u0 x + v 0 y + w0 z + t0 = 0 sont les équations
ux+v y+w z+t =0
u u0
de deux plans affines non parallèles. Cette droite est dirigée par le vecteur v ∧ v0 .
0
e w e w
Propriété. Si (ui )i∈I est sommable, alors {i ∈ I/ui 6= 0} est au plus dénombrable.
Remarque. Pour toute la suite, I est supposé au plus dénombrable.
Propriété. Soient v = (vi )i∈I et w = (wi )i∈I deux familles de réelsXpositifsX
telles que, pour tout
i ∈ I, vi ≤ wi . Si w est sommable, alors v est également sommable et vi ≤ wi
i∈I i∈I
Propriété. Soit (Jn )n∈N une suite adaptée à I. Les propriétés suivantes sont équivalentes :
−
Propriété. Supposons que tous les ui sont réels. On pose u+
i = max(ui , 0) et ui = max(−ui , 0). :
+ − + − + −
ui = ui − ui et |ui | = ui + ui .X(ui )i∈I X
est sommable
X si et seulement si (ui )i∈I et (ui )i∈I sont
sommables. Dans ce cas, on pose ui = u+i − u−
i .
i∈I i∈I i∈I
Propriété. Supposons que les ui sont complexes. Alors Re(u) = (Re(uk ))k∈I et Im(u) = (Im(uk ))k∈I
sont à valeurs dans R.
Xu est sommable
X si et X
seulement si Re(u) et Im(u) sont sommables et dans ce
cas, on convient que uk = Re(uk ) + i Im(uk ),
k∈I k∈I k∈I
X X
Propriété. ∀(ui )i∈I ∈ CI , ui = lim uj .
n→+∞
i∈I j∈Jn
6.1 Linéarité
De plus si (ai ) et (bi ) sont dans l2 (I, K), alors (ai bi ) est un élément de l1 (I, K).
X
Propriété. Pour tout (ui ), (vi ) ∈ l2 (I, R), on pose ((ui )|(vi )) = ui vi .
i∈I
l2 (I, R) muni de (.|.) est un espace préhilbertien.
Propriété.
— En posant k(ui )i∈I k∞ = sup |ui |, (l∞ (I), K) est un espace vectoriel normé ;
i∈I
X
— En posant k(ui )i∈I k1 = |ui |, (l1 (I), K) est un espace vectoriel normé ;
i∈I
s X
— En posant k(ui )i∈I k2 = |ui |2 , (l2 (I), K) est un espace vectoriel normé.
i∈I
6.2 Commutativité
Corollaire. Interversion de sommations pour des suites doubles de réels positifs (Fubini).
Soit (up,q )(p,q)∈N2 ∈ RN
2
+ . Les propriétés suivantes sont équivalentes.
La famille (up,q )(p,q)∈N2 est sommable.
X
Pour tout q ∈ N, (up,q )p∈N est sommable et la suite up,q est sommable.
p∈N
q∈N
X
Pour tout p ∈ N, (up,q )q∈N est sommable et la suite up,q est sommable.
q∈N
p∈N
Dans ce cas, on dit que (up,q )(p,q)∈N2 est une suite double sommable et on dispose des égalités suivantes.
+∞ X
+∞
! +∞ X
+∞
!
X X X
up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0
Remarque. Comme précédemment, si l’on accepte de travailler dans R+ ∪ {+∞}, on peut énoncer
ce théorème sous la forme suivante : ! +∞ +∞ !
X +∞ X
X +∞ X X
N 2
Pour tout (up,q )(p,q)∈N2 ∈ R+ , up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0
Pour q0 ∈ N, (u
tout p,q0 ) est
X X
sommable, pour tout p0 ∈ N, (up0 ,q ) est sommable, et les suites up,q et up,q sont
p∈N q∈N
! ! q∈N p∈N
X +∞ X
X +∞ +∞ X
X +∞
sommables. De plus up,q = up,q = up,q .
(p,q)∈N2 q=0 p=0 p=0 q=0
X X
Exemple. Soient an et bn deux séries absolument convergentes de complexes. Alors la famille
X X X
(ap bq )(p,q)∈N2 est une suite double sommable et ap bq = ap bq .
(p,q)∈N2 p∈N q∈N
Il faut savoir le démontrer.
P P
Définition. Produit de Cauchy de deux séries. Soient un et vn deux séries de complexes.
X n
X
Pour tout n ∈ N, on pose wn = up vq = up vn−p .
p+q=n p=0
P P P
La série wn est appelée le produit de Cauchy des deux séries un et vn .
Propriété. Le produit de Cauchy de deux séries absolument convergentes
! est absolument
! convergent.
+∞
X +∞
X +∞
X
P P
Si un et vn sont absolument convergentes, alors wn = un vn .
n=0 n=0 n=0
Il faut savoir le démontrer.
1
185
Semaine 35 : Résumé de cours 2 Probabilité conditionnelle et indépendance
Définition. Supposons que Ω est de cardinal fini. On dit que P est la probabilité uniforme lorsque
tous les événements élémentaires sont équiprobables. Dans ce cas, avec les notations de la propriété
1 Card(F )
précédente, pour tout ω ∈ Ω, pω = , et pour tout F ∈ F, P (F ) = .
Card(Ω) Card(Ω)
Propriété de continuité : dans un espace probabilisé (Ω,
∞
! F, P ),
[
si (Fn ) est une suite croissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0
∞
!
\
Si (Fn ) est une suite décroissante d’événements, P Fn = lim P (Fn ).
n→+∞
n=0
Il faut savoir le démontrer.
Définition. On dit que l’événement F est négligeable si et seulement si P (F ) = 0.
On dit que l’événement F est presque sûr si et seulement si P (F ) = 1.
Si Q est une propriété dépendant de ω ∈ Ω, lorsque {ω ∈ Ω/Q(ω)} est un événement presque sûr, on
dit que “Q(ω) presque sûrement”.
Propriété. Une réunion finie ou dénombrable d’événements négligeables est négligeable.
Une intersection finie ou dénombrable d’événements presque sûrs est presque sûre.
∆ P (H ∩ G)
Définition. Si P (G) > 0, P (H|G) = : c’est la probabilité conditionnelle de H sachant
P (G)
que G est réalisé. L’application H 7−→ P (H|G) est une probabilité sur Ω, notée PG .
P (H ∩ G)
Ainsi, P (H|G) = PG (H) = .
P (G)
Formule des probabilités composées :
si G1 , . . . , Gk sont k événements tels que P (G1 ∩ · · · ∩ Gk−1 ) > 0, alors
\k
P ( Gi ) = P (G1 ) × P (G2 |G1 ) × P (G3 |G1 ∩ G2 ) × · · · × P (Gk |G1 ∩ · · · ∩ Gk−1 ).
i=1
Formule des probabilités totales : si (Gi )i∈I est un systèmeX complet d’événements, où I est fini
ou dénombrable, et si pour tout i ∈ I, P (Gi ) > 0, alors P (G) = P (G|Gi )P (Gi ).
i∈I
P (H|G)P (G)
Formule de Bayes : Si P (G) ∈]0, 1[ et P (H) > 0, alors P (G|H) =
P (H|G)P (G) + P (H|G)P (G)
Si (Gi )i∈I est un système complet d’événements avec pour tout i ∈ I, P (Gi ) > 0, et si P (H) > 0,
P (H|Gi )P (Gi )
P (Gi |H) = X
alors P (H|Gj )P (Gj ) .
j∈I
Propriété. Soit (Xk )k∈N une suite de variables aléatoires entières et X une autre variable aléatoire
L
entière. Xk −→ X ⇐⇒ [∀n ∈ N, P (Xk = n) −→ P (X = n)].
k→+∞ k→+∞
Propriété. Pour les variables aléatoires entières, les lois géométriques sont les seules lois sans
mémoire. Plus précisément, si X est une variable aléatoire à valeurs dans N∗ , elle est sans mémoire,
c’est-à-dire qu’elle vérifie pour tout (n, k) ∈ N2 P (X > n + k|X > n) = P (X > k), si et seulement si
il existe p ∈]0, 1[ tel que X ∼ G(p).
Il faut savoir le démontrer.
Définition. Soit n ∈ N∗ . Si X1 , . . . , Xn est une suite de n variables aléatoires discrète de Ω dans des
ensemble Ei , alors, en posant pour tout ω ∈ Ω, X(ω) = (X1 (ω), . . . , Xn (ω)), on définit une variable
∆
aléatoire discrète X = (X1 , . . . , Xn ) de Ω dans E1 × · · · × En .
On dit que la loi de X est la loi conjointe des variables aléatoires X1 , . . . , Xn .
Pour tout i ∈ {1, . . . , n}, la loi de Xi est appelée la ième loi marginale de X.
Exemple. Soit X = (X1 , X2 ) un couple de variables aléatoires entières. On note (p1,k ) = (P (X1 = k))
la première loi marginale de X et (p2,k ) = (P (X2 = k)) la seconde loi marginale.
X X
On note également ch,k = P (X = (h, k)) la loi conjointe. Alors p1,k = ck,h et p2,k = ch,k .
h∈N h∈N
Définition. Soit X = (X1 , X2 ) un couple de variables aléatoires discrètes. Pour tout h ∈ X2 (Ω)
tel que P (X2 = h) > 0, la loi conditionnelle de X1 sachant que X2 = h désigne la probabilité
A 7−→ P (X1 ∈ A|X2 = h) (définie sur P(X1 (Ω))). Elle est caractérisée par la suite des
1
189
Semaine 36 : Résumé de cours 2 Variables aléatoires indépendantes
2.2 Indépendance
Remarque. Si X1 , . . . , Xn sont des variables aléatoires mutuellement indépendantes, alors elles sont
2 à 2 indépendantes, mais la réciproque est fausse.
Définition. Si (Xi )i∈I est une famille de variables aléatoires discrètes, avec I de cardinal infini, on
dit que ces variables aléatoires sont mutuellement indépendantes si et seulement si pour toute partie
finie J incluse dans I, les variables aléatoires Xj pour j ∈ J sont mutuellement indépendantes.
Propriété. Soit X et Y deux variables aléatoires discrètes indépendantes de Ω dans E et F respec-
tivement. Soit f : E 7−→ E 0 et g : F 7−→ F 0 deux fonctions. Alors f (X) et g(Y ) sont encore deux
variables aléatoires discrètes indépendantes.
Il faut savoir le démontrer.
Remarque. On peut généraliser l’énoncé et la démonstration au cas suivant : Si (Xi )i∈I est une
famille de variables aléatoires mutuellement indépendantes, alors pour toute famille de fonctions
(fi )i∈I correctement définies, (fi (Xi ))i∈I est encore une famille de variables aléatoires mutuellement
indépendantes.
Corollaire. Soit X1 , . . . , Xm , Y1 , . . . , Yn des variables aléatoires discrètes mutuellement indépendantes.
Alors pour toutes fonctions f et g correctement définies, les variables aléatoires f (X1 , . . . , Xm ) et
g(Y1 , . . . , Yn ) sont indépendantes.
Remarque. Là encore, on peut généraliser . . .
Propriété. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes. On sup-
pose qu’il existe p ∈ [0, 1] tel que, pour tout i ∈ {1, . . . , m}, Xi ∼ B(ni , p), où ni ∈ N∗ (p ne dépend
pas de i). Alors X1 + · · · + Xm ∼ B(n1 + · · · + nm , p).
Il faut savoir le démontrer.
Remarque. On en déduit que le nombre de succès parmi une suite de m épreuves indépendantes de
loi de Bernoulli de paramètre p suit une loi binomiale de paramètres m et p.
Exercice. Soit X1 , . . . , Xm des variables aléatoires entières mutuellement indépendantes telles
que chaque Xi suit une loi de Poisson de paramètre λi > 0. Montrer que X = X1 + · · · + Xn
suit une loi de Poisson de paramètre λ = λ1 + · · · + λm .
Il faut savoir le démontrer.
Propriété. Soit (pn ) ∈]0, 1[N telle que npn −→ λ ∈ R∗+ . Soit (Xn ) une suite de variables aléatoires
n→+∞
telle que Xn ∼ B(n, pn ). Alors Xn converge en loi vers la loi de Poisson de paramètre λ.
Il faut savoir le démontrer.
Remarque. Vue la démonstration, l’approximation de la loi de Xn par une loi de Poisson est d’autant
plus valable que k << n et λ << n.
Application : Dans une file d’attente, supposons que le nombre moyen d’individus arrivant entre
les temps 0 et 1 vaut λ > 0. On note N la variable aléatoire égale au nombre d’individus arrivant
dans la file d’attente entre les temps 0 et 1. On suppose que, pour n suffisamment grand, au plus un
individu arrive entre les temps i−1 i
n et n (c’est l’hypothèse des événements rares). Alors N suit une loi
de Poisson de paramètre λ.
Définition. Une loi discrète sur un ensemble E est la donnée d’une probabilité sur EXmuni de sa
tribu pleine P(E) telle que A = {x ∈ E/P (x) > 0} est fini ou dénombrable et telle que P (x) = 1.
x∈A
Théorème. Soit (En )n∈N une suite d’ensembles et pour tout n ∈ N, soit Ln une loi discrète sur En .
Alors il existe un espace probabilisé (Ω, F, P ) et une suite (Xn ) de variables aléatoires mutuellement
indépendantes telle que, pour tout n ∈ N, Xn ∼ Ln .
Remarque. Ce théorème prouve l’existence d’une suite (Xn )n≥1 de variables aléatoires indépendantes
telles que pour tout n ∈ N∗ , Xn ∼ B(p), où p ∈]0, 1[ ne dépend pas de n. Cette suite modélise une
succession infinie d’épreuves indépendantes qui ont toutes la même probabilité de succès, égale à p.
Notons X la variable aléatoire égale à l’instant du premier succès : X(ω) = min{k ∈ N∗ /Xk (ω) = 1}.
Alors X ∼ G(p).
3 Espérance et variance
3.1 L’espérance
3.2 La variance
Définition. Soit k ∈ N∗ et X une variable aléatoire réelle. Si X k est d’espérance finie, on dit que
E(X k ) est le moment d’ordre k de X.
Notation. On note L2 (Ω, P ) l’ensemble des variables aléatoires X discrètes à valeurs réelles possédant
un moment d’ordre 2, définies sur l’espace probabilisé (Ω, F, P ).
Lemme : Si X1 , X2 ∈ L2 (Ω, P ), alors X1 X2 ∈ L1 (Ω, P ).
Corollaire. L2 (Ω, P ) est un sous-espace vectoriel de L1 (Ω, P ).
Définition. Si X1 , X2 ∈ L2 (Ω, P ), la covariance est Cov(X1 , X2 ) = E[(X1 − E(X1 ))(X2 − E(X2 ))].
Propriété. Cov est une forme bilinéaire symétrique positive sur L2 (Ω, P ), mais ce n’est pas un
produit scalaire.
Définition. Si X ∈ L2 (Ω, P ),p
la variance de X est V ar(X) = E[(X − E(X))2 ].
L’écart type de X est σ(X) = V ar(X).
Remarque. V ar(X) = 0 si et seulement si X est presque sûrement constante.
Définition. X est réduite si et seulement si X ∈ L2 (Ω, P ) et V ar(X) = 1.
Propriété. Formule de Koenig-Huygens : Si X ∈ L2 (Ω, P ), V ar(X) = E(X 2 ) − E(X)2 .
Si X1 , X2 ∈ L2 (Ω, P ), alors Cov(X1 , X2 ) = E(X1 X2 )−E(X1 )E(X2 ) : donc, si deux variables aléatoires
de L2 (Ω, P ) sont indépendantes, elles sont orthogonales au sens de Cov (la réciproque est fausse).
Propriété. Pour a, b ∈ R et X ∈ L2 (Ω, P ), V ar(aX + b) = a2 V ar(X).
X − E(X)
Propriété. Si X ∈ L2 (Ω, P ) avec σ(X) 6= 0, alors est centrée et réduite.
σ(X)
Propriété.
Si X1 , X2 ∈ L2 (Ω, P ), V ar(X1 + X2 ) = V ar(X1 ) + V ar(X2 ) + 2Cov(X1 , X2 ).
k
X X
2
Si X1 , . . . , Xk ∈ L (Ω, P ), V ar(X1 + · · · + Xk ) = V ar(Xi ) + 2 Cov(Xi , Xj ).
i=1 1≤i<j≤k
Si X1 , . . . , Xk sont k variables aléatoires de L2 (Ω, P ) que l’on suppose deux à deux indépendantes,
alors V ar(X1 + · · · + Xk ) = V ar(X1 ) + · · · + V ar(Xk ).
Il faut savoir le démontrer.
Propriété. Inégalité de Cauchy-Schwarz : pour tout X, Y ∈ L2 (Ω, P ), E(XY )2 ≤ E(X 2 )E(Y 2 ),
avec égalité ssi il existe α, β ∈ R tel que (α, β) 6= (0, 0) et αX + βY est presque sûrement nulle.
pour tout X, Y ∈ L2 (Ω, P ), Cov(X, Y )2 ≤ V ar(X)V ar(Y ), avec égalité ssi il existe α, β ∈ R tel que
(α, β) 6= (0, 0) et αX + βY est presque sûrement constante.
Définition. (hors programme) : Soient X, Y ∈ L2 (Ω, P ) telles que V ar(X)V ar(Y ) > 0. Le coefficient
∆ Cov(X, Y )
de corrélation linéaire entre X et Y est Corr(X, Y ) = .
σ(X)σ(Y )
Propriété. Corr(X, Y ) ∈ [−1, 1].
Propriété. |Corr(X, Y )| = 1 si et seulement si il existe (a, b) ∈ R2 tel que P (Y = aX + b) = 1.
Remarque. Corr(X, Y ) indique dans quelle mesure Y dépend linéairement de X, mais Corr(X, Y )
ne mesure pas les dépendances non linéaires (on peut avoir par exemple Corr(X, X 2 ) = 0).
Formule. Espérance et variance pour les lois au programme.
Loi de Bernoulli de paramètre p ∈ [0, 1] : P (X = 1) = p et P (X = 0) = 1 − p.
E(X) = p et V ar(X) = p(1 − p) .
Loi binomiale k de paramètres n ∈ N∗ et p ∈ [0, 1] : Pour tout k ∈ {0, . . . , n},
n n−k
P (X = k) = k p (1 − p) (et P (X = m) = 0 pour m ∈ / {0, . . . , n}).
E(X) = np et V ar(X) = np(1 − p) .
Loi géométrique de paramètre p ∈]0, 1[ : Pour tout n ∈ N∗ , P (X = n) = (1 − p)n−1 p (et
1 1−p
P (X = 0) = 0). E(X) = et V ar(X) = .
p p2
Loi de Poisson de paramètre λ ∈ R∗+ :
λn
pour tout n ∈ N, P (X = n) = e−λ . E(X) = λ = V ar(X).
n!
Il faut savoir le démontrer.
4 Propriétés de convergence
Formule. Inégalité de Bienaymé-Tchebychev : Soit X une variable aléatoire réelle. Alors, pour
V ar(X)
tout ε > 0, P (|X − E(X)| ≥ ε) ≤ .
ε2
Il faut savoir le démontrer.
Définition. (hors programme) Soit (Xn )n∈N une suite de variables aléatoires et soit X une variable
aléatoire. Xn converge vers X en probabilité ssi pour tout ε > 0, P (|Xn − X| ≥ ε) −→ 0.
n→+∞
Théorie de l’intégration
Notation. K ∈ {R, C}, a, b ∈ R avec a < b, E est un Banach, i.e un K-espace vectoriel normé
complet, f est une application de [a, b] dans E.
Définition. On appelle subdivision de [a, b] toute famille finie (ai )0≤i≤n de réels
telle que a = a0 < a1 < · · · < an = b.
Notation. On notera S l’ensemble des subdivisions de [a, b].
b−a
Exemple. a + i ∈ S. On dit que c’est une subdivision uniforme.
n 0≤i≤n
Propriété. Notons Pf ([a, b]) l’ensemble des parties finies de [a, b] contenant a et b.
Définition. σ ∈ S est plus fine que σ 0 ∈ S ssi A(σ) ⊇ A(σ 0 ). Dans ce cas, on note σ 0 σ.
Propriété. est une relation d’ordre partiel.
∆
Définition. Si σ, σ 0 ∈ S, on pose σ ∪ σ 0 = A−1 (A(σ) ∪ A(σ 0 )) : c’est l’unique subdivision de [a, b]
dont le support est la réunion des supports de σ et de σ 0 . C’est sup{σ, σ 0 }.
Définition. f est une application en escalier sur [a, b] si et seulement s’il existe une subdivision
(ai )0≤i≤n de [a, b] telle que, pour tout i ∈ Nn , f est constante sur l’intervalle ]ai−1 , ai [.
Définition. Si f est en escalier et σ = (ai )0≤i≤n ∈ S, σ est une subdivision adaptée à f si et
seulement si, pour tout i ∈ Nn , f est constante sur l’intervalle ]ai−1 , ai [.
Propriété. Les applications en escalier de [a, b] sont bornées.
Propriété. Soit f une application en escalier et σ une subdivision de [a, b] adaptée à f . Alors toute
subdivision plus fine que σ est aussi adaptée à f .
Définition. Soit f une application en escalier et σ = (ai )0≤i≤n une subdivision adaptée à f . Pour
tout i ∈ Nn , notons λi la valeur constante de f sur ]ai−1 , ai [. On pose
Z b n
X
f (t)dt = (ai − ai−1 )λi .
a i=1
Z b
Remarque. Lorsque E = R, f représente une somme d’aires de rectangles, affectées d’un signe
Z b a
négatif lorsque λi < 0, donc f est l’aire algébrique de la surface située entre le graphe de f et l’axe
a
des abscisses.
Propriété. Supposons que f est en escalier et soit g une application de [a, b] dans E qui ne diffère
Rb Rb
de f qu’en un nombre fini de points de [a, b]. Alors g en escalier et a g = a f .
Théorème. Notons E([a, b], E) l’ensemble des applications en escalier de [a, b] dans E. C’est un
E([a, b], E) −→ E
K-espace vectoriel et l’application R b est linéaire.
f 7−→ a f
Il faut savoir le démontrer.
Propriété. Soient F un second K-espace vectoriel de dimension
R finie et u ∈ L(E, F ).
Rb b
Si f est en escalier, u ◦ f est en escalier et a u ◦ f = u a f .
Rb
Propriété. Si f est une application en escalier à valeurs dans R+ , f ≥ 0. a
Rb Rb
Corollaire. Si f, g ∈ E([a, b], E), alors [∀t ∈ [a, b], f (t) ≤ g(t)] =⇒ a f ≤ a g .
Z b Z b
Inégalité triangulaire : Pour tout f ∈ E([a, b], E), f (t)dt ≤ kf (t)kdt.
a a
Propriété. R([a, b], E) est l’adhérence de E([a, b], E) dans (B([a, b], E), k.k∞ ).
7.2 Propriétés
R([a, b], E) −→ E
Théorème. R([a, b], E) est un K-espace vectoriel et R b est linéaire.
f 7−→ a
f
Il faut savoir le démontrer.
Propriété. Soit F un second K-espace vectoriel de Banach et u ∈ L(E, F ) que l’on suppose continue.
Z b Z b !
Si f ∈ R([a, b], E), alors u ◦ f ∈ R([a, b], F ) et u◦f =u f .
a a
Il faut savoir le démontrer.
Propriété. On suppose que E est de dimension finie et que e = (e1 , . . . , ep ) est une base de E. Soit
f ∈ R([a, b], E). Notons f1 , . . . , fp les applications coordonnées de f , de sorte que, ! pour tout t ∈ [a, b],
n
X Z b n
X Z b
f (t) = fj (t)ej . Alors f1 , . . . , fp sont réglées et f (t) dt = fj (t) dt ej .
j=1 a j=1 a
Propriété. Soit f une application réglée (resp : continue par morceaux) de [a, b] dans E. Si g est
une application de [a, b] dans E qui ne diffère de f qu’en un nombre fini de points de [a, b], alors g est
Rb Rb
réglée (resp : continue par morceaux) et a f = a g.
Relation de Chasles : soit f ∈ R([a, b], E) et c ∈]a, b[.
Z b Z c Z b
Alors f |[a,c] et f |[c,b] sont réglées et f= f+ f.
a a c
Z α
Convention : Si f est une application définie en α ∈ R, on convient f = 0.
α
Z a Z b
Convention : Si f : [a, b] −→ E est réglée, on convient que f =− f.
b a
Propriété. La relation de Chasles se généralise au cas d’une application f réglée sur l’intervalle
[min(a, b, c), max(a, b, c)], les réels (a, b, c) étant quelconques.
Remarque. Avec ces conventions, les égalités établies dans ce paragraphe restent valables, mais ce
n’est pas le cas des inégalités.
8 Sommes de Riemann
Notation. On fixe une application f de [a, b] dans E.
Définition. On appelle subdivision pointée de [a, b] tout couple (σ, ξ), où σ = (ai )0≤i≤n est une
subdivision de [a, b] et où ξ = (ξi )1≤i≤n vérifie ∀i ∈ Nn ξi ∈ [ai−1 , ai ].
Notation. Notons S 0 l’ensemble des subdivisions pointées de [a, b]. Si (σ, ξ) = ((ai ), (ξi )) ∈ S 0 , on
notera fσ,ξ l’application en escalier définie par ∀i ∈ Nn ∀x ∈]ai−1 , ai [ f (x) = f (ξi ),
Définition. Soit (σ, ξ) = ((ai )0≤i≤n , (ξi )1≤i≤n ) ∈ S 0 . On appelle somme de Riemann associée à f et
Z b n
X
à (σ, ξ) la quantité S(f, σ, ξ) = fσ,ξ = (ai − ai−1 )f (ξi ).
a i=1
9 Primitives
Notation. Conformément au programme officiel, on se limite au cas où E est un K-espace vectoriel
de dimension finie. On sait alors qu’il est complet, donc c’est bien un espace de Banach.
On fixe un intervalle I de R d’intérieur non vide et une application f : I −→ E.
Définition. g : I −→ E est une primitive de f si et seulement si g est dérivable sur I et g 0 = f .
Propriété. Si f admet une primitive g0 sur I, alors g est une primitive de f si et seulement si il
existe k ∈ E tel que ∀x ∈ I g(x) = g0 (x) + k.
Propriété. On suppose que f est réglée sur I (c’est-à-dire Z
que les restrictions de f aux intervalles
x
compacts inclus dans I sont réglées). Soit a ∈ I. Alors x 7−→ f (t) dt est continue sur I.
a
Théorème fondamental de l’analyse : On suppose que f est continue sur I. Soit a ∈ I.
F : I −→ E Z x
Alors x 7−→ f (t)dt est l’unique primitive de f s’annulant en a.
a
Il faut savoir le démontrer.
Corollaire. Soient (a, b) ∈ R2 avec a 6= b et f une application continue de [a, b] dans E. Si F est une
Z b
notation
primitive de f , alors f (t)dt = F (b) − F (a) = [F (t)]ba .
a
Z b
Corollaire. Si f est une application de classe C 1 sur [a, b], f 0 (t)dt = f (b) − f (a).
a