Vous êtes sur la page 1sur 239

i

EDITEUR

Immeuble ACCET
4, place de la Pergola
95021 Cergy-Pontoise

Ce livre est publié sous la licence Art libre.


Copyleft : cette œuvre est libre, vous pouvez la copier, la diffuser et la
modifier selon les termes de la Licence Art Libre
http ://www.artlibre.org

Exception : Les petites annotations historiques, en bas de page, sont


extraites, en grande partie, de Wikipédia. Elles sont donc soumises à
la licence de Wikipédia. Pour plus d’informations, consulter la page du
mathématicien concerné sur Wikipédia.

In Libro Veritas, 2009, ISBN : 978-2-35922-013-1


Dépôt légal : deuxième semestre 2009
ii
Avant-propos

Plus fournis qu’un formulaire, moins dense qu’un cours, c’est ce que
j’ai cherché à faire avec mes fiches de révisions. Ces fiches de révisions
m’ont suivit tout au long de mes années de prépa. Et elles m’ont été
grandement bénéfiques. J’espère qu’il en sera de même pour vous. Tra-
vailler sur ces fiches, détachées de mon cours, et donc coupées des dé-
monstrations et des exemples, a été une très bonne chose. Je pense que
ces fiches sont utiles pour réviser avant un contrôle, avant une colle ou
avant un concours. C’est à ce moment là qu’elles m’ont été bénéfiques.
Ces fiches sont à vous maintenant. N’hésitez pas à écrire dessusA , à ra-
jouter vos annotations et vos remarques. Bon courage et bonne réussite.

Jean-Baptiste Théou

A J’ai ajouté à cet effet un chapitre Vos annexes, dans les annexes, pour vous

permettre d’insérer facilement dans cet ouvrage vos trucs, astuces, méthodes.

iii
iv AVANT-PROPOS
Remerciements

Je remercie Paul Maheu, professeur de mathématiques en MPSI au


Lycée Lesage, qui m’a permis d’acquérir de solides connaissances en
mathématiques. Je tient aussi à remercier mon frère François, pour ses
relectures et conseils attentifs. Enfin, je remercie mon père, pour ces
courtes mais importantes relectures et mon éditeur, Mathieu Pasquini,
fondateur de la maison d’édition In Libro Veritas, qui m’a permis de
mener ce projet à son terme. Quoi qu’il en soit, toutes erreurs ou in-
exactitudes sont entièrement à ma charge. Pour finir, je me dois d’in-
sérer cette citationB dans mon ouvrage, citation que nous a donné Mr
Guillou, mon professeur de physique en MPSI, pour nos premiers coups
de crayon en Prépa.
Je suis convaincu qu’il est plus
bénéfique pour un étudiant de
retrouver des démonstrations à partir
de quelques indications que de les lire
et de les relire ....
Qu’il les lisent une fois, qu’il les
retrouvent souvent

Srinivâsa Aiyangâr
Râmânujan(1886-1920)

B Pour ce coté historique des choses, que j’affectionne particulièrement, j’ai inseré,

tout au long de l’oeuvre, des petites informations historiques sur les différents mathé-
maticiens rencontrés au cours du programme de MPSI. Je vous invite à utiliser ces
petites informations pour poursuivre vos recherches sur l’histoire des mathématiques,
et plus généralement sur l’histoire des sciences.

v
vi REMERCIEMENTS
Table des matières

Avant-propos iii

Remerciements v

I Fonctions de R dans R 13
1 R 15
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.1 Structure . . . . . . . . . . . . . . . . . . . . . . 15
1.1.2 Majorant - Minorant . . . . . . . . . . . . . . . . 16
1.1.3 Borne supérieure - Borne inférieure . . . . . . . . 16
1.2 Partie de R . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.1 Partie bornée de R . . . . . . . . . . . . . . . . . 17
1.2.2 Partie entière . . . . . . . . . . . . . . . . . . . . 17
1.2.3 Densité . . . . . . . . . . . . . . . . . . . . . . . 17
1.2.4 Segment et intervalle de R . . . . . . . . . . . . . 18
1.2.5 Sous-groupes de (R,+) . . . . . . . . . . . . . . . 18

2 Fonctions de R et R 19
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Domaine de définition . . . . . . . . . . . . . . . 19
2.1.2 Majoration et croissance . . . . . . . . . . . . . . 19
2.1.3 Fonction k-lipschitzienne . . . . . . . . . . . . . . 20
2.1.4 Limite et continuité . . . . . . . . . . . . . . . . 20

1
2 TABLE DES MATIÈRES

2.1.5 Continuité sur un intervalle . . . . . . . . . . . . 22


2.2 Image continue . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.1 D’un intervalle . . . . . . . . . . . . . . . . . . . 22
2.2.2 D’un segment . . . . . . . . . . . . . . . . . . . . 23
2.3 Continuité uniforme sur un intervalle . . . . . . . . . . . 23
2.4 Fonction monotone . . . . . . . . . . . . . . . . . . . . . 24
2.4.1 Théorème dit de la limite monotone . . . . . . . 24
2.4.2 Monotonie et continuité . . . . . . . . . . . . . . 24

3 Étude des fonctions de R dans R 25


3.1 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Dérivabilité . . . . . . . . . . . . . . . . . . . . . 25
3.1.2 Lien entre tangente et dérivabilité . . . . . . . . 25
3.1.3 Continuité et dérivabilité . . . . . . . . . . . . . 26
3.1.4 Théorème de Rolle . . . . . . . . . . . . . . . . . 27
3.1.5 Théorème des accroissements finies . . . . . . . . 27
3.1.6 Inégalité des accroissements finies . . . . . . . . . 28
3.1.7 Classe d’une fonction . . . . . . . . . . . . . . . . 28
3.1.8 Formulaire . . . . . . . . . . . . . . . . . . . . . 28
3.1.9 Formule de Leibniz . . . . . . . . . . . . . . . . . 29
3.2 Injectivité, surjectivité et bijectivité . . . . . . . . . . . 29
3.2.1 Injectivité . . . . . . . . . . . . . . . . . . . . . . 29
3.2.2 Surjectivité . . . . . . . . . . . . . . . . . . . . . 29
3.2.3 Bijectivité . . . . . . . . . . . . . . . . . . . . . . 29
3.3 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . 30
3.3.1 Cosinus hyperbolique . . . . . . . . . . . . . . . 30
3.3.2 Sinus hyperbolique . . . . . . . . . . . . . . . . . 30
3.3.3 Tangente hyperbolique . . . . . . . . . . . . . . . 31
3.4 Fonctions hyperboliques inverses . . . . . . . . . . . . . 31
3.4.1 Argument cosinus hyperbolique . . . . . . . . . . 31
3.4.2 Argument sinus hyperbolique . . . . . . . . . . . 32
3.4.3 Argument tangente hyperbolique . . . . . . . . . 32
3.5 Fonctions trigonométriques inverses . . . . . . . . . . . . 32
3.5.1 Arc sinus . . . . . . . . . . . . . . . . . . . . . . 32
3.5.2 Arc cosinus . . . . . . . . . . . . . . . . . . . . . 32
3.5.3 Arc tangente . . . . . . . . . . . . . . . . . . . . 33
TABLE DES MATIÈRES 3

4 Étude locale d’une fonction 35


4.1 Étude locale . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.1.1 Domination - Équivalence - Négligeabilité . . . . 35
4.1.2 Comparaisons successives . . . . . . . . . . . . . 36
4.1.3 Échelle de comparaison . . . . . . . . . . . . . . 37
4.1.4 Règles de Manipulation . . . . . . . . . . . . . . 37
4.2 Développement limité . . . . . . . . . . . . . . . . . . . 38
4.2.1 Développement limité au voisinage de a . . . . . 38
4.2.2 Développement limité au voisinage 0 . . . . . . . 39
4.2.3 Équivalent et développement limité . . . . . . . . 39
4.2.4 Formule de Taylor avec reste de Young . . . . . . 39
4.2.5 Régularité au voisinage de 0 et développement limité 40
4.2.6 Développements limités usuels . . . . . . . . . . 40
4.2.7 Dérivation et Intégration . . . . . . . . . . . . . 41
4.2.8 Tangente . . . . . . . . . . . . . . . . . . . . . . 41

II Nombres complexes 43

5 Nombres complexes 45
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.1.1 Conjugué . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Vision géométrique . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Forme trigonométrique . . . . . . . . . . . . . . . 47
5.3 Racine n-ème d’un complexe . . . . . . . . . . . . . . . 49
5.3.1 Racine n-ème de l’unité . . . . . . . . . . . . . . 49

6 Nombres complexes - Géométrie 51


6.1 Alignement, Orthogonalité, Cocyclicité . . . . . . . . . . 51
6.1.1 Alignement . . . . . . . . . . . . . . . . . . . . . 51
6.1.2 Orthogonalité . . . . . . . . . . . . . . . . . . . . 52
6.1.3 Cocyclicité . . . . . . . . . . . . . . . . . . . . . 52
6.2 Transformations . . . . . . . . . . . . . . . . . . . . . . 52
6.2.1 Translation . . . . . . . . . . . . . . . . . . . . . 52
6.2.2 Homothétie . . . . . . . . . . . . . . . . . . . . . 53
6.2.3 Rotation . . . . . . . . . . . . . . . . . . . . . . . 54
6.2.4 Similitude . . . . . . . . . . . . . . . . . . . . . . 55
4 TABLE DES MATIÈRES

III Les suites 57


7 Suite numérique - Généralité 59
7.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 59
7.1.1 Opérations . . . . . . . . . . . . . . . . . . . . . 59
7.1.2 Structures . . . . . . . . . . . . . . . . . . . . . . 60
7.2 Suites particulières . . . . . . . . . . . . . . . . . . . . . 60
7.2.1 Suites arithmétiques . . . . . . . . . . . . . . . . 60
7.2.2 Suites géométriques . . . . . . . . . . . . . . . . 60
7.2.3 Suites vérifiant une relation de récurrence linéaire
à coefficients constants . . . . . . . . . . . . . . . 60

8 Convergence des suites réelles 63


8.1 Suites convergentes . . . . . . . . . . . . . . . . . . . . . 63
8.1.1 Propriétés générales . . . . . . . . . . . . . . . . 63
8.1.2 Caractérisation séquentielle . . . . . . . . . . . . 64
8.1.3 Opérations sur les suites convergentes . . . . . . 64
8.1.4 Lien entre le signe de la limite et le signe des
termes de la suite . . . . . . . . . . . . . . . . . . 65
8.1.5 Théorème d’encadrement . . . . . . . . . . . . . 65
8.1.6 Suites extraites . . . . . . . . . . . . . . . . . . . 65
8.2 Suites divergentes . . . . . . . . . . . . . . . . . . . . . . 66
8.2.1 Suites qui diverge vers ±∞ . . . . . . . . . . . . 66
8.2.2 Caractérisation des suites divergentes . . . . . . 66
8.2.3 Théorème de minoration . . . . . . . . . . . . . . 66
8.3 Suite monotone et convergente . . . . . . . . . . . . . . 67
8.3.1 Suites adjacentes . . . . . . . . . . . . . . . . . . 67
8.3.2 Segments emboités . . . . . . . . . . . . . . . . . 67
8.3.3 Théorème de Bolzano-Weierstrass . . . . . . . . 67

9 Étude des suites 69


9.1 Fonction exponentielle complexe . . . . . . . . . . . . . 69
9.2 Suite complexe . . . . . . . . . . . . . . . . . . . . . . . 69
9.3 Suites définies par récurrence . . . . . . . . . . . . . . . 71
9.3.1 Existence de la suite . . . . . . . . . . . . . . . . 71
9.3.2 Sens de variation . . . . . . . . . . . . . . . . . . 71
9.3.3 Limite éventuelle . . . . . . . . . . . . . . . . . . 71
9.4 Règle de D’Alembert . . . . . . . . . . . . . . . . . . . . 72
9.5 Comparaisons des suites . . . . . . . . . . . . . . . . . . 72
9.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . 72
TABLE DES MATIÈRES 5

9.5.2 Comparaisons des suites de références . . . . . . 73


9.6 Équivalents et négligeabilité . . . . . . . . . . . . . . . . 73

IV Arcs Paramétrés 75
10 Arcs Paramétrés et Arcs Polaires 77
10.1 Arcs Paramétrés . . . . . . . . . . . . . . . . . . . . . . 77
10.1.1 Tangente en un point de l’arc . . . . . . . . . . . 77
10.2 Étude métrique des arcs paramétrés . . . . . . . . . . . 79
10.2.1 Longueur d’un arc . . . . . . . . . . . . . . . . . 79
10.2.2 Abscisse curviligne . . . . . . . . . . . . . . . . . 79
10.2.3 Courbure d’un arc en un point . . . . . . . . . . 80
10.2.4 Formules de Frenet . . . . . . . . . . . . . . . . . 80
10.3 Arcs polaires . . . . . . . . . . . . . . . . . . . . . . . . 81
10.3.1 Lien polaire-cartésien . . . . . . . . . . . . . . . 82
10.3.2 Équivalence et symétrie . . . . . . . . . . . . . . 82
10.3.3 Étude des tangentes . . . . . . . . . . . . . . . . 82
10.3.4 Étude d’une branche infinie . . . . . . . . . . . . 83

11 Les coniques 85
11.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 85
11.1.1 Définition bifocale d’une ellipse . . . . . . . . . . 85
11.1.2 Définition bifocale d’une hyperbole . . . . . . . . 86
11.2 Les différentes coniques . . . . . . . . . . . . . . . . . . 86
11.2.1 L’ellipse . . . . . . . . . . . . . . . . . . . . . . . 86
11.2.2 L’hyperbole . . . . . . . . . . . . . . . . . . . . . 86
11.2.3 Parabole . . . . . . . . . . . . . . . . . . . . . . . 87
11.3 Équation polaire dans un repère . . . . . . . . . . . . . . 87

V Fonctions de R2 dans R 89
12 Fonctions de R2 dans R 91
12.1 Norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
12.1.1 Cas particuliers de normes . . . . . . . . . . . . . 92
12.2 Boules . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
12.2.1 Boules ouvertes . . . . . . . . . . . . . . . . . . . 92
12.2.2 Boules fermées . . . . . . . . . . . . . . . . . . . 92
12.2.3 Normes équivalentes . . . . . . . . . . . . . . . . 92
12.2.4 Convergence d’une suite . . . . . . . . . . . . . . 93
6 TABLE DES MATIÈRES

12.3 Limite d’une fonction de R2 dans R . . . . . . . . . . . 93


12.3.1 Théorème d’encadrement . . . . . . . . . . . . . 94
12.3.2 Caractérisation de la divergence . . . . . . . . . 94
12.3.3 Continuité . . . . . . . . . . . . . . . . . . . . . . 94
12.4 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . 95
12.4.1 Dérivation suivant un vecteur . . . . . . . . . . . 95
12.4.2 Dérivées partielles . . . . . . . . . . . . . . . . . 95
12.4.3 Fonction de classe C 1 . . . . . . . . . . . . . . . 96
12.4.4 Développement limité d’ordre 1 . . . . . . . . . . 96
12.4.5 Plan tangent . . . . . . . . . . . . . . . . . . . . 96
12.4.6 Dérivées partielles d’ordre 2 . . . . . . . . . . . . 97
12.4.7 Dérivée des composées . . . . . . . . . . . . . . . 97

VI Equations différentielles 99
13 Équations différentielles linéaires 101
13.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . 101
13.2 Équations différentielles linéaire d’ordre 1 . . . . . . . . 102
13.2.1 Cas particulier . . . . . . . . . . . . . . . . . . . 102

14 Équation différentielle 103


14.1 Équation différentielle du première ordre homogène . . . 103
14.2 Équation différentielle du second ordre homogène . . . . 104
14.3 Équation différentielle avec second membre . . . . . . . 104
14.3.1 Recherche d’une solution particulière . . . . . . . 105
14.3.2 Méthode de variation de la constante . . . . . . . 105
14.3.3 Principe de superposition . . . . . . . . . . . . . 106

VII Intégration 107


15 Intégration de Riemann 109
15.1 Fonctions continues par morceaux . . . . . . . . . . . . 109
15.1.1 Subdivision . . . . . . . . . . . . . . . . . . . . . 109
15.1.2 Fonctions en escalier sur [a,b] . . . . . . . . . . . 110
15.1.3 Fonctions continues par morceaux . . . . . . . . 110
15.1.4 Approximation d’une fonction continue par mor-
ceaux par des fonctions en escalier . . . . . . . . 110
15.2 Intégrale de Riemann . . . . . . . . . . . . . . . . . . . . 111
15.2.1 Intégrale d’une fonction en escalier . . . . . . . . 111
TABLE DES MATIÈRES 7

15.3 Intégrale - Fonction continue par morceaux . . . . . . . 112


15.3.1 Somme de Riemann . . . . . . . . . . . . . . . . 112
15.3.2 Linéarité . . . . . . . . . . . . . . . . . . . . . . 113
15.3.3 Transmission de l’ordre . . . . . . . . . . . . . . 113
15.3.4 Intégrale et valeur absolue . . . . . . . . . . . . . 113
15.3.5 Relation de Chasles . . . . . . . . . . . . . . . . 113
15.3.6 Inégalité de la moyenne . . . . . . . . . . . . . . 114
15.4 Intégrale - Fonction continue . . . . . . . . . . . . . . . 114
15.4.1 Utilisation des primitives d’une fonction continue 114
15.4.2 Technique de calcul d’une intégrale . . . . . . . . 115
15.4.3 Intégrale d’une fonction paire, impaire, périodique 115
15.5 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . 116
15.6 Formule de Taylor avec reste intégrale . . . . . . . . . . 116
15.7 Inégalité de Taylor-Lagrange . . . . . . . . . . . . . . . 117

VIII Polynômes 119


16 Les polynômes 121
16.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 121
16.1.1 Opérations . . . . . . . . . . . . . . . . . . . . . 122
16.1.2 Structure de K[X] . . . . . . . . . . . . . . . . . 122
16.1.3 Polynôme constante . . . . . . . . . . . . . . . . 122
16.1.4 Fonction polynôme associée . . . . . . . . . . . . 122
16.1.5 Degré . . . . . . . . . . . . . . . . . . . . . . . . 123
16.1.6 Valuation . . . . . . . . . . . . . . . . . . . . . . 123
16.1.7 Division euclidienne dans K[X] . . . . . . . . . . 124
16.1.8 Formule de Taylor . . . . . . . . . . . . . . . . . 124
16.2 Racine d’un polynôme . . . . . . . . . . . . . . . . . . . 124
16.2.1 Racine simple . . . . . . . . . . . . . . . . . . . . 125
16.2.2 Racine multiple et ordre de multiplicité . . . . . 125
16.2.3 Polynôme scindé . . . . . . . . . . . . . . . . . . 125
16.2.4 Factorisation . . . . . . . . . . . . . . . . . . . . 126

IX Espace vectoriel 127


17 Espace vectoriel 129
17.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 129
17.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . 130
17.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . 130
8 TABLE DES MATIÈRES

17.2.2 Critère de reconnaissance . . . . . . . . . . . . . 130


17.2.3 Sous espaces vectoriels supplémentaires . . . . . 130
17.2.4 Famille génératrice d’un sous-espace vectoriel . . 131
17.2.5 Produit de deux espaces vectoriels . . . . . . . . 131
17.3 Application linéaire . . . . . . . . . . . . . . . . . . . . . 132
17.3.1 Vocabulaire . . . . . . . . . . . . . . . . . . . . . 132
17.3.2 Noyau et image d’une application linéaire . . . . 132
17.3.3 Structures . . . . . . . . . . . . . . . . . . . . . . 133
17.3.4 Projecteur . . . . . . . . . . . . . . . . . . . . . . 133
17.3.5 Symétrie . . . . . . . . . . . . . . . . . . . . . . . 134

18 Espace vectoriel - Dimension finie 135


18.1 Famille libre - Famille liée - Famille génératrice . . . . . 135
18.1.1 Famille finie liée . . . . . . . . . . . . . . . . . . 135
18.1.2 Famille finie libre . . . . . . . . . . . . . . . . . . 136
18.1.3 Famille génératrice . . . . . . . . . . . . . . . . . 136
18.1.4 Base . . . . . . . . . . . . . . . . . . . . . . . . . 136
18.2 Dimension d’un espace de dimension finie . . . . . . . . 137
18.2.1 Caractérisation des bases . . . . . . . . . . . . . 138
18.3 Sous-espace vectoriel d’un espace de dimension finie . . 138
18.3.1 Égalité de deux sous-espaces . . . . . . . . . . . 138
18.3.2 Somme et intersection de sous-espace . . . . . . 139
18.3.3 Sous-espaces vectoriels supplémentaires . . . . . 139
18.3.4 Rang d’une famille . . . . . . . . . . . . . . . . . 139
18.3.5 Sous-espaces supplémentaires et bases . . . . . . 140
18.4 Application linéaires entre deux espaces de dimension finies140
18.4.1 Caractérisation par l’image d’une base de E . . . 140
18.4.2 Image d’une famille libre, liée ou génératrice de E 141
18.4.3 Rang d’une application linéaire . . . . . . . . . . 141
18.4.4 Théorème du rang . . . . . . . . . . . . . . . . . 141
18.4.5 Forme linéaire . . . . . . . . . . . . . . . . . . . 142
18.4.6 Isomorphisme . . . . . . . . . . . . . . . . . . . . 142

X Espace Affine 143


19 Espace Affine 145
19.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 145
19.2 Applications affines . . . . . . . . . . . . . . . . . . . . . 146
19.2.1 Homothétie affine . . . . . . . . . . . . . . . . . . 146
TABLE DES MATIÈRES 9

19.2.2 Conservation du barycentre . . . . . . . . . . . . 147


19.2.3 Expression analytique dans un repère . . . . . . 147
19.3 Isométries affines . . . . . . . . . . . . . . . . . . . . . . 147
19.3.1 Généralités . . . . . . . . . . . . . . . . . . . . . 147
19.3.2 Déplacement du plan . . . . . . . . . . . . . . . . 147
19.3.3 Déplacement de l’espace de dimension 3 . . . . . 148

20 Équation linéaire 149


20.1 Équation linéaire . . . . . . . . . . . . . . . . . . . . . . 149
20.2 Structure de l’ensemble des solutions . . . . . . . . . . . 149
20.3 Système linéaire . . . . . . . . . . . . . . . . . . . . . . 150
20.4 Système de Cramer . . . . . . . . . . . . . . . . . . . . . 150

XI Matrice 151
21 Matrices 153
21.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . 153
21.1.1 Vecteur ligne . . . . . . . . . . . . . . . . . . . . 153
21.1.2 Vecteur colonne . . . . . . . . . . . . . . . . . . . 154
21.1.3 Matrice carrée . . . . . . . . . . . . . . . . . . . 154
21.2 Espace vectoriel des matrices . . . . . . . . . . . . . . . 155
21.2.1 Opération . . . . . . . . . . . . . . . . . . . . . . 155
21.2.2 Structure . . . . . . . . . . . . . . . . . . . . . . 156
21.3 Transposition et trace . . . . . . . . . . . . . . . . . . . 156
21.3.1 Transposition . . . . . . . . . . . . . . . . . . . . 156
21.3.2 Trace . . . . . . . . . . . . . . . . . . . . . . . . 157
21.3.3 Transposition et trace du produit . . . . . . . . . 157
21.4 Produits particuliers . . . . . . . . . . . . . . . . . . . . 158
21.5 Matrice Carrée inversible . . . . . . . . . . . . . . . . . 158
21.6 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . 159
21.6.1 Rang de matrices particulières . . . . . . . . . . 159
21.6.2 Opération élémentaire . . . . . . . . . . . . . . . 159

22 Matrice - Espace de dimension finie 161


22.1 Matrice de coordonnées d’un vecteur dans une base . . . 161
22.2 Matrice d’une famille finie de vecteurs . . . . . . . . . . 162
22.3 Coordonnées de l’image d’un vecteur . . . . . . . . . . . 162
22.4 Matrice de passage entre deux bases . . . . . . . . . . . 163
22.5 Coordonnées d’un vecteur dans deux bases . . . . . . . . 163
22.6 Changement de bases . . . . . . . . . . . . . . . . . . . 163
10 TABLE DES MATIÈRES

22.7 Matrice d’une application linéaire . . . . . . . . . . . . . 164


22.7.1 Cas Particuliers . . . . . . . . . . . . . . . . . . . 164
22.8 Unicité de la matrice, pour des bases fixées . . . . . . . 164
22.9 Matrices et opérations . . . . . . . . . . . . . . . . . . . 165
22.9.1 Composée d’application linéaire . . . . . . . . . . 165
22.9.2 Matrice inversible et isomorphisme - Endomor-
phisme . . . . . . . . . . . . . . . . . . . . . . . . 165
22.10Trace d’un endomorphisme . . . . . . . . . . . . . . . . 165
22.11Matrice semblable . . . . . . . . . . . . . . . . . . . . . 166
22.12Rang d’une application linéaire . . . . . . . . . . . . . . 166

23 Déterminants 167
23.1 Forme n-linéaire . . . . . . . . . . . . . . . . . . . . . . 167
23.1.1 Forme n-linéaire alternée . . . . . . . . . . . . . 168
23.2 Déterminant dans deux bases différentes . . . . . . . . . 169
23.3 Déterminant d’un endomorphisme . . . . . . . . . . . . 170
23.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . 170
23.4.1 Déterminant singulier . . . . . . . . . . . . . . . 171
23.4.2 Opérations élémentaires et déterminant . . . . . 171
23.4.3 Déterminants remarquables . . . . . . . . . . . . 171
23.5 Développement du déterminant d’une matrice . . . . . . 171
23.5.1 Calcul des cofacteurs . . . . . . . . . . . . . . . . 172
23.5.2 Inverse d’une matrice inversible . . . . . . . . . . 172

XII Espace vectoriel euclidien 173


24 Espaces vectoriels euclidiens 175
24.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . 175
24.1.1 Notation et Vocabulaire . . . . . . . . . . . . . . 175
24.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . 176
24.3 Base orthonormée . . . . . . . . . . . . . . . . . . . . . 177
24.3.1 Matrice orthogonale . . . . . . . . . . . . . . . . 177
24.3.2 Orientation de l’espace vectoriel . . . . . . . . . 178
24.3.3 Orthogonalité et sous-espace vectoriel . . . . . . 178
24.3.4 Projection orthogonale . . . . . . . . . . . . . . . 179

25 Espace euclidien de dimension 3 183


25.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . 183
25.1.1 Angle de deux vecteurs non nuls . . . . . . . . . 183
25.1.2 Produit vectoriel . . . . . . . . . . . . . . . . . . 183
TABLE DES MATIÈRES 11

25.1.3 Double produit vectoriel . . . . . . . . . . . . . . 184


25.1.4 Produit mixte . . . . . . . . . . . . . . . . . . . . 184

26 Isométrie Vectorielle 185


26.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . 185
26.2 Isométrie vectorielle plane . . . . . . . . . . . . . . . . . 186
26.2.1 Classification . . . . . . . . . . . . . . . . . . . . 186
26.2.2 Cas particulier des rotations . . . . . . . . . . . . 186
26.2.3 Symétries orthogonales . . . . . . . . . . . . . . . 186
26.3 Isométrie vectorielle de dimension 3 . . . . . . . . . . . 187
26.3.1 Symétrie orthogonale . . . . . . . . . . . . . . . . 187
26.3.2 Rotation . . . . . . . . . . . . . . . . . . . . . . . 187
26.3.3 Classification . . . . . . . . . . . . . . . . . . . . 188

XIII Les Annexes 191


A Matrices 193
A.1 Inversibilité et inverse . . . . . . . . . . . . . . . . . . . 193
A.1.1 Interprétation . . . . . . . . . . . . . . . . . . . . 193
A.1.2 Opérations élémentaires . . . . . . . . . . . . . . 193
A.1.3 Astuce . . . . . . . . . . . . . . . . . . . . . . . . 194
A.2 Opérations sur les matrices . . . . . . . . . . . . . . . . 194
A.2.1 Changement de base . . . . . . . . . . . . . . . . 194
A.2.2 Calcul des coordonnées d’un vecteur dans une autre
base . . . . . . . . . . . . . . . . . . . . . . . . . 194
A.3 Base du noyau . . . . . . . . . . . . . . . . . . . . . . . 195

B Fraction Rationnelle 197


B.1 Partie entière . . . . . . . . . . . . . . . . . . . . . . . . 197
B.2 Décomposition en éléments simples . . . . . . . . . . . . 197
B.2.1 Dans C . . . . . . . . . . . . . . . . . . . . . . . 198
B.2.2 Dans R . . . . . . . . . . . . . . . . . . . . . . . 198

C Intégrale 201
C.1 Étude de la fonction . . . . . . . . . . . . . . . . . . . . 201
C.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . 201
C.2 Primitive . . . . . . . . . . . . . . . . . . . . . . . . . . 201
C.2.1 Dérivabilité . . . . . . . . . . . . . . . . . . . . . 202

D Procédé d’orthonormalisation de Gram-Schmidt 203


12 TABLE DES MATIÈRES

E Fonctions de R2 dans R 205


E.1 Caractérisation de l’existence d’une limite . . . . . . . . 205
E.2 Caractérisation de la non-existence de limite . . . . . . . 205

F Plan d’étude des fonctions de R dans R 207


F.1 Branches infinies . . . . . . . . . . . . . . . . . . . . . . 208

G Plan d’étude d’un arc paramétré 209

H Les structures d’algèbre 211


H.1 Groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
H.1.1 Groupe commutatif . . . . . . . . . . . . . . . . 212
H.2 Anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
H.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
H.4 K algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . 212

I Trigonométrie 215
I.1 Formules . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
I.1.1 Décomposition . . . . . . . . . . . . . . . . . . . 215
I.1.2 Angle double . . . . . . . . . . . . . . . . . . . . 215
I.1.3 Linéarisation . . . . . . . . . . . . . . . . . . . . 216
I.1.4 Somme . . . . . . . . . . . . . . . . . . . . . . . 216
I.2 Fonctions inverses . . . . . . . . . . . . . . . . . . . . . 216
I.2.1 Fonctions Hyperboliques . . . . . . . . . . . . . . 216
I.2.2 Fonctions Trigonométriques . . . . . . . . . . . . 217

J Limites classiques 219

K Vos annexes 221


Première partie

Fonctions de R dans R

13
Chapitre 1
R

1.1 Définitions
1.1.1 Structure
Définition 1. Soit E un ensemble. La relation R est une relation d’ordre
sur E si elle est
→ Réflexive :
∀x ∈ E, xRx
→ Anti-symétrique :

∀(x, y) ∈ E2 si xRy et yRx, alors x = y

→ Transitive :

∀(x, y, z) ∈ E3 si xRy et yRz, alors xRz

Propriété 1. La relation ≤A est une relation d’ordre sur R.

Définition 2. Un ensemble E est dit totalement ordonné si, en mu-


nissant cet ensemble de la relation d’ordre ≤, tous les éléments de cet
ensemble sont comparables par cette relation.

Propriété 2. (R, +, ×, ≤) est un corps totalement ordonné.


A Soit (x, y) ∈ R2 . x ≤ y si et seulement si x − y ∈ R− .

15
16 CHAPITRE 1. R

1.1.2 Majorant - Minorant


Soit A un ensemble inclus dans R.

Majorant
Définition 3. Si M est un majorant de A, avec M ∈ A, alors
M = max(A)
Définition 4. Lorsqu’elle existe, la borne sup est le plus petit des ma-
jorants.
Propriété 3. Si A ⊂ R, si max(A) existe, alors sup(A) existe et
sup(A) = max(A)

Minorant
Définition 5. Si M est un minorant de A, avec M ∈ A, alors
M = min(A)
Définition 6. Lorsqu’elle existe, la borne inf est le plus grand des
minorants.
Propriété 4. Si A ⊂ R, si min(A) existe, alors inf(A) existe et
min(A) = inf(A)

1.1.3 Borne supérieure - Borne inférieure


Propriété 5. Toute partie de R non vide et minorée possède une borne
inférieure.
Propriété 6. Toute partie de R non vide et majorée possède une borne
supérieure.
Propriété 7. Toute partie de Z non vide et majorée possède un plus
grand élément, un max.

1.2 Partie de R
Soit A une partie de RB .
B L’ensemble des parties de R est noté P(R)
1.2. PARTIE DE R 17

1.2.1 Partie bornée de R


Définition 7. A est bornée si et seulement si

∃M ∈ R tel que ∀a ∈ A, |a| ≤ M

Propriété 8. Propriété d’Archimède : Soit (x, y) ∈ R2 et x > 0, alors

∃p ∈ Z tel que y < px

1.2.2 Partie entière


Propriété 9. Soit x ∈ R. Il existe un unique entier p tel que p ≤ x <
p + 1. Cet entier p est appelé partie entière de x. On le note E(x).
Propriété 10. La propriété caractéristique de la partie entière est que

E(x) ≤ x < E(x) + 1

Donc
x − 1 < E(x) ≤ x
Définition 8. En complément, on définit la partie décimale de x, notée
D(x).
D(x) = x − E(x)
Propriété 11. Soit x ∈ R et n ∈ N.

E(x + n) = E(x) + n

1.2.3 Densité
Définition 9. Soit A une partie de R. A est dense dans R si et seulement
si
∀(x, y) ∈ R2 , avec x 6= y, ∃a ∈ A tel que a ∈]x, y[
Propriété 12. L’espace des nombres rationnels, noté Q, défini par
 
p
Q= / (p, q) ∈ Z × N − {0}
q
est dense dans R.
Propriété 13. Soit x ∈ R. Soit E un ensemble dans R. Si E est dense
dans R, alors il existe une suite d’éléments de E qui converge vers x.
18 CHAPITRE 1. R

1.2.4 Segment et intervalle de R


Définition 10. Soit (a, b) ∈ R2 . On appelle segment d’extrémité a, b,
noté [a, b]
[a, b] = {x ∈ R / a ≤ x ≤ b}

Définition 11. Soit I une partie de R. I est un intervalle de R si et


seulement si
∀(x, y) ∈ I2 , [x, y] ⊂ I
Définition 12. Soit a ∈ R, et I un intervalle. On dit que a est intérieur
à I si
∃α > 0 tel que ]a − α, a + α[ ⊂ I
o
L’intérieur de I, noté I, est l’ensemble des points intérieurs à I.

Définition 13. Soit (a, b) ∈ Z2 . L’ensemble des entiers compris entre


a et b est noté [|a, b|].

[|a, b|] = {n ∈ Z / a ≤ n ≤ b

Définition 14. Soit (a, b) ∈ R2 . Soit I =]a, b[ un intervalle. On appelle


adhérenceC de I, noté I, l’intervalle définie par :

I = [a, b]

Autrement dit, l’adhérence de I est I plus ces bornes.

1.2.5 Sous-groupes de (R,+)


Définition 15. Soit H une partie de R. On dit de H est un sous-groupe
de (R, +) si (H,+) est un groupe.

Propriété 14. H est un sous-groupe de R si et seulement si :


1- H ⊂ R et H non vide
2- ∀(x, y) ∈ H2 , x − y ∈ H

C Cette notion est généralisée en MP.


Chapitre 2
Fonctions de R et R

Définition 16. Une fonction de R dans R est une fonction du type :

f :R→R
x 7→ f (x)

On note RR l’ensemble de ces fonctions.


Définition 17. Soit f une fonction dont l’espace de départ est réduit
à un intervalle I. On note RI l’ensemble de ces fonctions.

2.1 Définitions
2.1.1 Domaine de définition
Soit a ∈ R. Soit f une fonction de R dans R.
Définition 18. On dit que f est définie en a si f (a) existe. On note
l’ensemble de ces réels Df :

Df = {a ∈ R / f (a) existe }

2.1.2 Majoration et croissance


Définition 19. Soit f une fonction, I un intervalle. f est majorée sur
I s’il existe M ∈ R tel que ∀x ∈ I, f (x) < M

19
20 CHAPITRE 2. FONCTIONS DE R ET R

Définition 20. On dit que f est croissante sur I si ∀(x, x0 ) ∈ I2 , si x <


x, alors f (x) ≤ f (x0 )

2.1.3 Fonction k-lipschitzienne


Définition 21. Soit f ∈ RI . On dit que f est k-lipschitzienne sur I si :

∀(x, y) ∈ I2 , |f (x) − f (y)| ≤ k|x − y|

Propriété 15. Soient f et g deux fonctions k-lipschitziennes sur I. Alors


f + g est k-lipschitzienne sur I.

2.1.4 Limite et continuité


Limite
Soit f une fonction de R dans R.

Définition 22. Soit (a, b) ∈ R2 . La limite de f quand x tend vers a est


égale à b si et seulement si :

∀ε > 0 ∃α > 0 tel que ∀x ∈ Df |x − a| ≤ α ⇒ |f (x) − b| < ε

Limite à droite
Soit a ∈ I. Soit f une fonction définie sur un intervalle I, sauf peut
être en a.

Définition 23. La limite à droite de f en a est, si elle existe, la limite


en a de la restriction de f à I ∩ ]a, +∞[. On la note :

lim f (x) = lim f (x)


x→a x→a+
x>a

Limite à gauche
Définition 24. La limite à gauche, de f en a est, si elle existe, la limite
en a de la restriction de f à I ∩ ]−∞, a[. On la note :

lim f (x) = lim− f (x)


x→a x→a
x<a
2.1. DÉFINITIONS 21

Propriété 16. Soit f une fonction définie au voisinage de a. Soit b ∈ R.


Si a ∈ Df :

 lim+ f (x) = b
x→a

lim f (x) = b ⇔ lim f (x) = b
x→a  x→a−

f (a) = b

Si a ∈
/ Df : 
 lim f (x) = b
x→a+
lim f (x) = b ⇔
x→a  lim f (x) = b
x→a−

Caractérisation à l’aide de suite


Soit f ∈ RR , (a, b) ∈ R2 .
Propriété 17. Nous avons une caractérisation séquentielle pour la li-
mite. lim f (x) = b si et seulement si
x→a

∀(xn ) suite convergente de limite a, f (xn ) converge vers b

Cette caractérisation séquentielle nous permet principalement de mon-


trer la non-existence d’une limite.
Propriété 18. Soit (un ), (vn ) deux suites de réels. Soit (a, b, c) ∈ R3 ,
avec b 6= c. Soit f une fonction. Si :
 
 lim (un ) = a  lim (f (un )) = b
n→+∞
et n→+∞
 lim (vn ) = a  lim (f (vn )) = c
n→+∞ n→+∞

alors lim f (x) n’existe pas.


x→a

Propriété 19. Soit :

f : I → f (I)
g:J→R

avec f (I) ⊂ J.

 lim f (x) = b
x→a
⇒ lim (gof )(x) = c
 lim g(x) = c x→a
x→b
22 CHAPITRE 2. FONCTIONS DE R ET R

Continuité
Soit f une fonction de R dans R, soit a ∈ R.

Propriété 20. Si f est définie en a, la limite éventuelle en a de f est


nécessairement b = f (a).

Propriété 21. Si f n’est pas définie en aA , et si lim f (x) existe (dans


x→a
R), alors f est prolongeable par continuité et on pose f (a) = lim f (x).
x→a

Propriété 22. La somme, le produit, le rapport, la composée de fonc-


tions continues est continue sur son domaine de définitionB .

Propriété 23. Si f est continue en a et si (un ) converge vers a, alors


(f (un )) converge vers f (a). Cette propriété s’écrit aussi de la façon
suivante :
lim f (un ) = f ( lim un )
n→∞ n→∞

C’est un théorème d’interversion limite-fonction sous hypothèse de conti-


nuité.

2.1.5 Continuité sur un intervalle


Propriété 24. Soit a ∈ Df .

lim f (x) existe ⇔ f est continue en a


x→a

Propriété 25. Soit I un intervalle.

f est continue sur I ⇔ ∀a ∈ I, f est continue en a

2.2 Image continue d’un intervalle, d’un seg-


ment
2.2.1 D’un intervalle
Soit I un intervalle, (a, b) ∈ I2 .
A Mais a appartient à l’adhérence de Df , noté Df .
B Ce domaine n’est pas immédiat dans le cas de la composée ou du rapport par
exemple.
2.3. CONTINUITÉ UNIFORME SUR UN INTERVALLE 23

Théorème des valeurs intermédiaires


Propriété 26. Soit f une fonction continue sur I et y0 ∈ [f (a), f (b)].
Alors
∃c ∈ [a, b] tel que y0 = f (c)
Propriété 27. Soit f une fonction continue sur I telle que f (a) et f (b)
soient de signe contraire, alors :
∃c ∈ [a, b] tel que f (c) = 0
Propriété 28. Soit I un intervalle et f une fonction continue sur I.
Alors f (I) est un intervalle.

2.2.2 D’un segment


Propriété 29. Soit (a, b) ∈ R2 . Soit f une fonction continue sur [a, b].
Alors f est bornée sur [a, b]. Ceci se résume à la propriété suivante :
Toute fonction continue sur un segment est bornée.
Propriété 30. Soit f une fonction continue sur [a, b], avec (a, b) ∈ R2 .
Alors le min f (x) et le max f (x) existent.
x∈[a,b] x∈[a,b]

Propriété 31. Soit f une fonction continue sur [a, b]. Alors :
∃(m, M ) ∈ R2 , tels que f ([a, b]) = [m, M ]
Ici, m = min f (x) et M = max f (x).
x∈[a,b] x∈[a,b]

2.3 Continuité uniforme sur un intervalle


Définition 25. Soit f une fonction définie sur un intervalle I. On dit
que f est uniformément continue sur I si :
∀ε > 0, ∃α > 0 tel que ∀(x, y) ∈ I2 , |x − y| < α ⇒ |f (x) − f (y)| < ε
Propriété 32. Si f est uniformément continue sur I, alors f est continue
sur I.
Propriété 33. Une fonction k-lipschitzienne sur I est uniformément
continue sur I.
Théorème 1. Théorème de HeineC : Toute fonction continue sur un
segments [a, b] est uniformément continue sur ce segment.
C Eduard Heine, Mathématicien Allemand (15 mars 1821 à Berlin - 21 octobre

1881 à Halle)
24 CHAPITRE 2. FONCTIONS DE R ET R

2.4 Fonction monotone


2.4.1 Théorème dit de la limite monotone
o
Propriété 34. Soit f une fonction croissante sur I, et a ∈ I. Alors les
limites lim− f (x) et lim+ f (x) existent ( mais peuvent être différentes
x→a x→a
).

2.4.2 Monotonie et continuité


Propriété 35. Soit f une fonction définie et monotone sur I.

f est continue sur I ⇔ f (I) est un intervalle


Chapitre 3
Étude des fonctions de R dans
R

3.1 Dérivation
3.1.1 Dérivabilité
Soit a ∈ R.
Définition 26. Soit f une fonction définie sur un voisinage du réel a.
On dit que f est dérivable en a si :
f (x) − f (a)
lim existe dans R
x→a
x6=a
x−a

Si f est dérivable, cette limite est le nombre dérivé de f en a, noté f 0 (a)


Propriété 36. Le nombre dérivé est la pente d’une droite passant par
a. Cette droite est appelée tangente à la courbe représentative de f au
point d’abscisse a. L’équation de cette tangente est :

y(x) = f (a) + f 0 (a)(x − a)

3.1.2 Lien entre tangente et dérivabilité


Soit a ∈ R. Soit f une fonction définie au voisinage de a. Soit x ∈ Df .

25
26 CHAPITRE 3. ÉTUDE DES FONCTIONS DE R DANS R

Propriété 37. f est dérivable en a si et seulement si on peut écrire f


sous la forme :
∀x ∈ Df f (x) = f (a) + A(x − a) + ε(x)(x − a)
avec :
lim ε(x) = 0
x→a
Dans ce cas, A = f 0 (a).

3.1.3 Continuité et dérivabilité


Propriété 38. Soit a ∈ Df . Si f est dérivable en a, alors f est continue
en a.

Dérivabilité à gauche, à droite


Soit a ∈ R. Soit f une fonction définie sur un voisinage de a, sauf
peut-être en a.

À gauche
Définition 27. On dit que f est dérivable à gauche en a si
f (x) − f (a)
lim existe
x→a− x−a
On appelle cette limite nombre dérivé de f à gauche en a, et on le note
fg0 (a).

À droite
Définition 28. On dit que f est dérivable à droite en a si
f (x) − f (a)
lim existe
x→a+ x−a
On appelle cette limite nombre dérivé de f à droite en a, et on le note
fd0 (a).
Propriété 39. f est dérivable en a si et seulement si :

f est dérivable à droite en a

f est dérivable à gauche en a
 0
fd (a) = fg0 (a)

3.1. DÉRIVATION 27

Règles de calculs des dérivées


Produit, somme, composée Soient f et g deux fonctions dérivables
en a telles que f og existe. Alors f g, f + g, f og sont dérivable en a et
nous avons : 
0 0 0
(f g) (a) = f (a)g(a) + f (a)g (a)

(f + g)0 (a) = f 0 (a) + g 0 (a)
(f og)0 (a) = f 0 (a)g 0 (f (a))

3.1.4 Théorème de RolleA


Soit f une fonction. Soit (a, b) ∈ D2f .

Théorème 2. Si :

 f est continue sur [a, b]
f est dérivable sur ]a, b[
f (a) = f (b)

alors :
∃c ∈]a, b[ tel que f 0 (c) = 0
Ceci montre l’existence d’une tangente horizontale en cas de changement
de pente.

3.1.5 Théorème des accroissements finies


Soit f une fonction. Soit (a, b) ∈ D2f .

Théorème 3. Si :

f est continue sur [a, b]
f est dérivable sur]a, b[

alors :
f (b) − f (a)
∃c ∈]a, b[ tel que = f 0 (c)
b−a
Ceci montre l’existence d’une tangente parallèle à la droite liant f (a) et
f (b).
A Michel Rolle (Ambert le 21 avril 1652 - Paris le 8 novembre 1719) était un

mathématicien français.
28 CHAPITRE 3. ÉTUDE DES FONCTIONS DE R DANS R

3.1.6 Inégalité des accroissements finies


Soit f une fonction. Soit (a, b) ∈ D2f .

Théorème 4. Si :

 f est continue sur [a, b]
f est dérivable sur ]a, b[
 0
f est bornée sur ]a, b[

alors :
|f (b) − f (a)| ≤ sup(|f 0 |)|b − a|
]a,b[

Conséquences
→ Si ∀x ∈ I, f (x) ≥ 0, alors f est croissante sur I.
→ Si f et g sont dérivables sur [a,b], avec : ∀x ∈ [a, b] f 0 (x) ≤ g 0 (x),
alors :
f (b) − f (a) ≤ g(b) − g(a)

3.1.7 Classe d’une fonction


Soit I un intervalle de R. Soit f une fonction.

Définition 29. f est de classe C n sur I si f (n) est définie et continue


sur I.

Opérations
Propriété 40. Soit n ∈ N. La somme, le produit, la composé de fonc-
tion C n sont des fonctions C n sur leur domaine de définition.

3.1.8 Formulaire
∀n ∈ NB , ∀x ∈ R :
 nπ 
cos(n) (x) = cos x +
2
 nπ 
sin(n) (x) = sin x +
2
B Ces formules sont obtenue par récurrence.
3.2. INJECTIVITÉ, SURJECTIVITÉ ET BIJECTIVITÉ 29

3.1.9 Formule de LeibnizC


Soient f et g deux fonctions de R dans R n fois dérivables sur I :
n  
X n
(f g)(n) = f (k) g (n−k)
k
k=0

avec :  
n n!
=
k k!(n − k)!

3.2 Injectivité, surjectivité et bijectivité


Soient I et J deux intervalles de R et f une fonction de I dans J.

3.2.1 Injectivité
Définition 30. f est injective si tout élément de J possède au plus un
antécédent par f dans I.

Propriété 41. Soit (x1 , x2 ) ∈ R2 . Si f est injective, alors :

f (x1 ) = f (x2 ) ⇒ x1 = x2

3.2.2 Surjectivité
Définition 31. f est surjective si tout élément de J possède au moins
un antécédent par f dans I.

3.2.3 Bijectivité
Définition 32. f est bijective de I sur J si elle est injective et surjective.
Ce qui s’exprime aussi en disant que f est bijective de I sur J si tout
élément de J possède par f un unique antécédent.

Propriété 42. Si f est une bijection de I sur J, on appelle inverseD de


f , notée f −1 , l’application de J dans I qui associe à chaque élément de
J son antécédent par f dans I.
C Gottfried Wilhelm Leibniz (Leipzig le 1er juillet 1646 - Hanovre le 14 novembre

1716) était un philosophe, scientifique, mathématicien, diplomate, bibliothécaire et


homme de loi allemand qui a écrit en latin, français et allemand.
D Ou réciproque.
30 CHAPITRE 3. ÉTUDE DES FONCTIONS DE R DANS R

Théorème de la bijection
Propriété 43. Soit I un intervalle et f une fonction. Si f est continue,
strictement monotoneE sur I, alors f est une bijection de I sur l’intervalle
f (I), et f −1 est continue sur f (I).

Dérivation d’une fonction inverse


Soient I et J deux intervalles et f une bijection de I dans J. Soit
a ∈ Df tel que f soit dérivable en a. Notons x l’image de a par f . Si f 0
ne s’annule pas en a, on obtient que :
1
f −1 (x) =
f 0 (f −1 (x))

3.3 Fonctions hyperboliques


3.3.1 Cosinus hyperbolique
Définition 33. Le cosinus hyperbolique, noté ch, est une fonction paire
définie sur R par :
ex + e−x
∀x ∈ R ch(x) =
2
C’est une fonction dérivable sur R et sa dérivée est donnée par :
ex − e−x
∀x ∈ R ch0 (x) =
2
= sh(x)

3.3.2 Sinus hyperbolique


Définition 34. Le sinus hyperbolique, noté sh, est une fonction impaire
définie sur R par :
ex − e−x
∀x ∈ R sh(x) =
2
C’est une fonction dérivable sur R et sa dérivée est donnée par :
ex + e−x
∀x ∈ R sh0 (x) =
2
= ch(x)
E Strictement croissante ou strictement décroissante.
3.4. FONCTIONS HYPERBOLIQUES INVERSES 31

Propriété 44. De façon analogue au cosinus et au sinus trigonomé-


trique, nous avons une relation entre le cosinus hyperbolique et le sinus
hyperbolique.
ch2 (x) − sh2 (x) = 1

3.3.3 Tangente hyperbolique


Définition 35. La tangente hyperbolique, notée th est une fonction
impaire définie sur RF par :

sh(x)
∀x ∈ R th(x) =
ch(x)

C’est une fonction dérivable sur R et sa dérivée est donnée par :

∀x ∈ R th0 (x) = 1 − th2 (x)


1
= 2
ch (x)

La dernière égalité est une conséquence de la formule liant le cosinus


hyperbolique et le sinus hyperbolique.

3.4 Fonctions hyperboliques inverses


3.4.1 Argument cosinus hyperbolique
La fonction cosinus hyperbolique ne réalise pas une bijection sur R
mais sa restriction sur R+ en réalise uneG .

Définition 36. On appelle argument cosinus hyperbolique, noté argch,


la fonction inverse de ch sur R+ . Elle est définie sur [1, +∞[. C’est une
fonction dérivable sur ]1, +∞[H , et sa dérivée est donnée par :

1
∀x ∈]1, +∞[ argch0 (x) = √
x2 −1
F Car ∀x ∈ R ch(x) 6= 0.
G Même argument que pour sh
H Car argch(1)=0.
32 CHAPITRE 3. ÉTUDE DES FONCTIONS DE R DANS R

3.4.2 Argument sinus hyperbolique


Définition 37. On appelle argument sinus hyperbolique, noté argsh, la
fonction inverse de shI . C’est une fonction dérivable sur R, et sa dérivée
est donnée parJ :

1
∀x ∈ R argsh0 (x) = √
1 + x2

3.4.3 Argument tangente hyperbolique


Définition 38. On appelle argument tangente hyperbolique, noté argth,
la fonction inverse de th. C’est une fonction dérivable, est sa dérivée est
donnée par :
1
∀x ∈] − 1, 1[ argth0 (x) =
1 − x2

3.5 Fonctions trigonométriques inverses


3.5.1 Arc sinus
h π πi
La restriction de sin à − , réalise une bijection.
2 2
Définition
h π 39. On appelle arc sinus, noté arcsin, la fonction inverse de
πi
sin sur − , . Cette fonction est définie sur [−1, 1] et dérivable sur
2 2
] − 1, 1[K . Sa dérivée est donnée par :

1
∀x ∈] − 1, 1[ arcsin0 (x) = √
1 − x2

3.5.2 Arc cosinus


La restriction de cos à [0, π] réalise une bijection.
I Cette fonction existe car sh est continue et strictement croissante, elle réalise

donc une bijection.


J Soit f une fonction bijective dont la dérivé ne s’annule pas sur l’intervalle de
1
définition de f −1 : (f −1 )0 (x) = 0 −1 .
f (f (x))
K car sin0 s’annule en π et − π
2 2
3.5. FONCTIONS TRIGONOMÉTRIQUES INVERSES 33

Définition 40. On appelle arc cosinus, noté arccos, la fonction inverse


de cos sur [0, π]. Cette fonction est définie sur [−1, 1] et dérivable sur
] − 1, 1[L . Sa dérivée est donnée par :
1
∀x ∈] − 1, 1[ arccos0 (x) = √
x2 −1

3.5.3 Arc tangente


i π πh
La restriction de tan à − , réalise une bijection.
2 2
Définitioni41. Onhappelle arc tangente, noté arctan, la fonction inverse
π π
de tan sur − , . Cette fonction est dérivable sur R. Sa dérivée est
2 2
donnée par :
1
∀x ∈ R arctan0 (x) =
1 + x2

L car cos0 s’annule en 0 et π


34 CHAPITRE 3. ÉTUDE DES FONCTIONS DE R DANS R
Chapitre 4
Développements limités et
étude locale d’une fonction

4.1 Étude locale


4.1.1 Domination - Équivalence - Négligeabilité
Soit a ∈ R ∪ {+∞, −∞}. Soient f et g deux fonctions définies au
voisinage de a sauf peut être en a.

Définition 42. On dit que f est dominée par g au voisinage de a si :

∀ε > 0 ∃α > 0 tel que ∀x ∈ ]a − α, a + α[, |f (x)| ≤ M |g(x)|

On le note : f (x)  g(x) (notation de HardyA ) ou f (x) = O(g(x)


a a
(notation de LandauB )

Définition 43. On dit que f est négligeable devant g au voisinage de


a si :

∀ε > 0 ∃α > 0 tel que ∀x ∈ ]a − α, a + α[, |f (x)| ≤ ε|g(x)|


A Godfrey Harold Hardy (Granleigh le 7 février 1877 – Cambridge le 1er décem

bre 1947) était un mathématicien britannique


B Edmund Georg Hermann Landau (Berlin le 14 février 1877 - Berlin le 19 février

1938) était un mathématicien allemand

35
36 CHAPITRE 4. ÉTUDE LOCALE D’UNE FONCTION

On le note f (x)  g(x) (notation de Hardy) et f (x) = o(g(x)) (notation


a a
de Landau). On a, si g ne s’annule pas sur un voisinage de a :
 
f (x)
(f (x)  g(x)) ⇔ lim =0
a x→a g(x)

Définition 44. On dit que f est équivalente à g au voisinage de a si :

f (x) − g(x)  g(x)


a

On note f (x) ∼ g(x). Et on as, si g ne s’annule pas sur un voisinage de


a
a:  
f (x)
(f (x) ∼ g(x)) ⇔ lim =1
a x→a g(x)

4.1.2 Comparaisons successives


Soit f, g, h trois fonctions définies au voisinage de a, sauf peut être
en a.
→ Si f (x)  g(x), g(x)  h(x) alors :
a a

f (x)  h(x)
a

→ Si f (x)  g(x), g(x) ∼ h(x) alors :


a a

f (x)  h(x)
a

→ Si f (x) ∼ g(x), g(x)  h(x) alors :


a a

f (x)  h(x)
a

→ Si f (x) ∼ g(x), g(x) ∼ h(x) alors


a a

f (x) ∼ h(x)
a

La première et la dernière de ces propriétés sont des conséquences du


caractère transitif des relations ∼ et .
4.1. ÉTUDE LOCALE 37

4.1.3 Échelle de comparaison


Au voisinage de 0 :
1
0  . . .  x2  x  1  ln(x) 
0 0 0 0 0 0 x
Au voisinage de ∞ :
1 1 √
0 2
  1  ln(x)  x  x2  ex
∞ x ∞ x ∞ ∞ ∞ ∞ ∞

4.1.4 Règles de Manipulation


Soit (α, β) ∈ R2 . Soient f, g, u, v quatres fonctions définies au voisi-
nage de a, sauf peut-être en a.

Somme de deux fonctions


Si :

f (x) ∼ αu(x) 
a 
g(x) ∼ βu(x) alors f (x) + g(x) ∼ (α + β)u(x)
a  a
α + β 6= 0

Produit, rapport, valeur absolue


Si : )
f (x) ∼ u(x)
a alors f (x)g(x) ∼ u(x)v(x)
g(x) ∼ v(x) a
a

De plus, si g (et donc v)C ne s’annulent pas sur un voisinage de a,

f (x) u(x)

g(x) a v(x)

Nous avons aussi :


(f (x))α ∼ (u(x))α
a

|f (x)| ∼ |u(x)|
a

C Car un équivalent contrôle localement le signe.


38 CHAPITRE 4. ÉTUDE LOCALE D’UNE FONCTION

Changement de variable
Le changement de variable dans un équivalent est autorisé, mais la
composé ne l’est pasD .

Propriété 45. Si f (x) ∼ g(x), alors lim f (x) et lim g(x) ont même
a x→a x→a
natureE .

4.2 Développement limité


Propriété 46. Soit (n, p) ∈ N2 :
→ xn o(xp ) = o(xn+p )
a
→ o(xn )o(xp ) = o(xn+p )
a
→ o(xn ) + o(xp ) = o(xinf (n,p) )
a
→ Soit A ∈ R :Ao(xn ) = o(xn )
a

4.2.1 Développement limité au voisinage de a


Soit a ∈ R. Soit n ∈ R.

Définition 45. Soit f une fonction définie au voisinage de a. On dit


que f possède, au voisinage de a, un développement limité d’ordre n s’il
existe (λ0 , . . . , λn ) ∈ Rn tels que :

f (x) = λ0 + λ1 (x − a) + · · · + λn (x − a)n + o(xn )


a

En pratique, on considère toujours les développement limité au voisinage


d’un réel particulier, 0 F .

Propriété 47. Soit f une fonction définie au voisinage de a. f est


dérivable en a si et seulement si f est définie en a et possède au voisinage
de a un développement limité d’ordre 1.
D Pour la composé, on utilise un développement limité.
8
> lim f (x) = +∞ ⇔ lim g(x) = +∞
>
>
>x→a x→a
< lim f (x) = −∞ ⇔ lim g(x) = −∞
>
E x→a x→a
> lim f (x) = l ∈ R ⇔ lim g(x) = l ∈ R
x→a x→a
>
>
>
: lim f (x) n’existe pas ⇔ lim g(x) n’existe pas
>
x→a x→a
F On passe
d’un développement limité au voisinage de a à un développement limité
au voisinage de 0 par un changement de variable.
4.2. DÉVELOPPEMENT LIMITÉ 39

Propriété 48. Il y a unicité d’un développement limité. On peut faire


une combinaisons linéaire de développement limité.

4.2.2 Développement limité au voisinage 0


Définition 46. Soit f une fonction définie au voisinage de 0. On dit
que f possède un développement limité d’ordre n au voisinage de 0 si il
existe (a0 , . . . , an ) ∈ Rn tels que :

f (x) − (a0 + a1 x + · · · + an xn )  xn
0

donc, au voisinage de 0, f (x) = a0 + a1 x + · · · + an xn + o(xn ).


0

Définition 47. On appelle partie principale du développement limité


au voisinage de 0 la fonction polynomiale suivant :

g : x 7→ a0 + a1 x + · · · + an xn

4.2.3 Équivalent et développement limité


Définition 48. Si f possède un développement limité d’ordre n au
voisinage de 0, et si il existe k ∈ N tel que ak 6= 0, notons p l’indice du
premier terme non nul, alors au voisinage de 0 :

f (x) ∼ ap xp
0

4.2.4 Formule de TaylorG avec reste de YoungH


Soit V0 un voisinage de 0.

Préliminaire
Théorème 5. Si ϕ est une fonction dérivable sur V0 , et si
)
ϕ(0) = 0
∃n ∈ N tel que, ϕ0 (x) = O(xn ) alors ϕ(x) = O(xn+1 )
0
0

G Brook Taylor était un homme de sciences anglais, (Edmonton le 18 août 1685

- Londres le 29 décembre 1731). Il s’intéressa aux mathématiques, à la musique, la


peinture et la philosophie
H William Henry Young (Londres le 20 octobre 1863 - Lausanne le 7 juillet 1942)

était un mathématicien anglais issu de l’université de Cambridge.


40 CHAPITRE 4. ÉTUDE LOCALE D’UNE FONCTION

Si ϕ est dérivable sur V0 et si :


)
ϕ(0) = 0
∃n ∈ N tel que, ϕ0 (x) = o(xn ) alors ϕ(x) = o(xn+1 )
0
0

Cela revient à dire que l’on peut ”intégrer” un o ou un O.

Formule de Taylor
Définition 49. Si f est de classe C n sur V0 , alors :
xn (n)
f (x) = f (0) + f 0 (0)x + · · · + f (0) + o(xn )
n!

4.2.5 Régularité au voisinage de 0 et développement


limité
Propriété 49. Nous avons les propriétés suivantes
→ f est de continue au voisinage de 0 ⇔ Il existe un développement
limité d’ordre 0 de f en 0.
→ f est dérivable au voisinage de 0 ⇔ Il existe un développement
limité d’ordre 1 de f en 0.
→ f est de classe C 1 au voisinage de 0 ⇒ Il existe un développement
limité d’ordre 1 de f en 0.
→ f est de classe C 2 au voisinage de 0 ⇒ Il existe un développement
limité d’ordre 2 de f en 0.
Les deux dernières propriétés sont des conséquences de la formule de
Taylor-Young. On note qu’il n’y a plus équivalence. Une fonction peut
posséder un développement limité d’ordre n au voisinage de 0 sans être
de classe C n au voisinage de 0I .

4.2.6 Développements limités usuels


Soit α ∈ R
α(α − 1) 2 α(α − 1) . . . (α − n) n
→ (1 + x)α = 1 + αx + x +···+ x +
0 2! n!
o(xn )
1
→ = 1 + x + x2 + · · · + xn + o(xn )
1−x 0
x2 x2n
→ cos(x) = 1 − + · · · + (−1)n + o(x2n+1 )
0 2! 2n!
I Mais elle doit être C n−1 .
4.2. DÉVELOPPEMENT LIMITÉ 41

x3 x2n+1
→ sin(x) = x − + · · · + (−1)n + o(x2n+1 )
0 3! (2n + 1)!
x2 xn
→ ex = 1 + x + + ··· + + o(xn )
0 2! n!
x2 x4 x2n
→ ch(x) = 1 + + + ... + + o(x2n+1 )
0 2! 4! 2n!
x3 x5 x2n+1
→ sh(x) = x + + + ... + + o(x2n+2 )
0 3! 5! (2n + 1)!
x2 xn
→ ln(1 + x) = x − + · · · + (−1)n+1 + o(xn )
0 2 n

4.2.7 Dérivation et Intégration


Théorème 6. Pour obtenir le développement limité de f 0 , on dérive
terme à terme le développement limité de f . Pour obtenir le dévelop-
pement limité de F , une primitive de f , on intègre terme à terme : Si
f (x) = a0 + ... + an xn + o(xn ), alors :
0

an n+1
F (x) = F (0) + a0 x + ... + x + o(xn+1 )
0 n+1

4.2.8 Tangente
Propriété 50. Si, au voisinage de a, f (x) = λ0 + λ1 (x − a) + o((x − a)),
alors
y = λ0 + λ1 (x − a)
est l’équation de la tangent à la courbe en a. Le terme suivant non nul,
dans le développement de f à un ordre supérieur, détermine la position
relative de la tangente par rapport à la courbe.
42 CHAPITRE 4. ÉTUDE LOCALE D’UNE FONCTION
Deuxième partie

Nombres complexes

43
Chapitre 5
Nombres complexes

5.1 Généralités
Définition 50. L’ensemble des nombres complexes, noté C, est défini
par :
C = {z / z = a + ib, (a, b) ∈ R2 }

Avec i le nombre imaginaire défini par i2 = −1. a est appelé partie réelle
de z et b est appelé partie imaginaire de z.

Propriété 51. (C, +, ×) est un corps.A

Propriété 52. Il y a unicité de la partie imaginaire et de la partie réelle


d’un complexe.

Propriété 53. Soit z ∈ C. La partie imaginaire de z est donnée par :

z−z
Im(z) =
2i
La partie réelle de z est donnée par :

z+z
Re(z) =
2
A Voir la fiche d’annexe sur les propriétés vérifiées par un corps.

45
46 CHAPITRE 5. NOMBRES COMPLEXES

Définition 51. Soit b ∈ R. Les complexes z de la forme z = ib sont


appelés des imaginaires purs. L’ensemble de ces imaginaires purs est
noté iR. Nous avons les inclusions suivantes :
(
R⊂C
iR ⊂ C

5.1.1 Conjugué
Définition 52. Soit z ∈ C. On appelle conjugué de z, noté z, le nombre
complexe possédant la même partie réelle que z et une partie imaginaire
opposée par rapport à celle de z. Soit (a, b) ∈ R2 . Si z = a + ib, alors
z = a − ib
Propriété 54. Soit (z, z 0 ) ∈ C2 .
z + z0 = z + z0
zz 0 = zz 0
1 1
=
z z

5.2 Vision géométrique



− → −
Soit P un plan muni du repère R, repère orthonormé (O, i , j ).
Définition 53. Soit M un point du plan, de coordonnée (a, b) dans R.
On associe à ce point M le complexe z = a + ib. z est appelé affixe du
point M . On dit aussi que M est l’image du complexe z. Réciproque-
ment, à tout complexe z = a + ib on associe le point M de coordonnées
(a, b) dans R. Ce plan P est appelé plan complexe.
Définition 54. Soit → −
u un vecteur de coordonnées (a, b) dans R. On
associe à ce vecteur le complexe z = a + ib.
Propriété 55. Soit (M, M 0 ) ∈ P d’affixes respectives zM et zM 0 . L’af-
−−−→
fixe du vecteur M M 0 est donnée par :
z−−−→0 = zM 0 − zM
MM
−−−→
Soit λ ∈ R. L’affixe de λM M 0 est donnée par :
z −−−→ = λz−−−→0
λM M 0 MM
5.2. VISION GÉOMÉTRIQUE 47

5.2.1 Forme trigonométrique



− → −
Soit P le plan complexe munie du repère R = (O, i , j ).

Module

Définition 55. Soit z ∈ C et M son image dans P, avec z = a + ib,


(a, b) ∈ R. On appelle module de z, noté |z| :

|z| = OM
p
= a2 + b2

Propriété 56. Nous avons les propriétés suivantes concernant le mo-


dule :
→ |z|2 = zz
→ | − z| = |z| = |z|
→ |Im(z)| ≤ |z|
→ |Re(z)| ≤ |z|
→ |zz 0 | = |z||z 0 |
→ |z + z 0 | ≤ |z| + |z 0 |

Complexe de module 1

Propriété 57. Soit z ∈ C tel que |z| = 1. Soit M son point image dans
P. M appartient donc, dans le plan complexe, au cercle trigonométrique.

− −−→
Soit θ l’angle entre i et OM . On obtient que :

z = cos(θ) + i sin(θ)

On peut aussi utiliser la notation exponentielle. On pose :

z = eiθ
= cos(θ) + i sin(θ)

Cette notation est bien plus pratique à l’utilisation. θ est appelé argu-
ment de z.

Propriété 58. Soit z ∈ C. Nous avons les relations suivantes, dites


48 CHAPITRE 5. NOMBRES COMPLEXES

relations d’EulerB :
z−z
Im(z) =
2i
eiθ − e−iθ
=
2i
= sin(θ)

z+z
Re(z) =
2
eiθ + e−iθ
=
2
= cos(θ)

Propriété 59. Soit (θ, θ0 ) ∈ R2 , n ∈ N. Nous avons les mêmes proprié-


tés que les propriétés classiques sur l’exponentielle réelle :
0 0
→ eiθ eiθ = ei(θ+θ )
→ (eiθ )n = einθ (Formule de De MoivreC )
1
→ (e−iθ ) = iθ
e
→ (eiθ ) = e−iθ

Écriture exponentielle des nombres complexe


Propriété 60. Soit z ∈ C − {0}. On peut écrire z sous la forme :

z = |z|eiθ

Avec |z| le module de z et θ son argument. z possède un nombre infini


d’argumentsD .
Propriété 61. Deux complexes sont égaux si ils ont même modules et
même arguments, modulo 2π.
B Leonhard Paul Euler (Bâle le 15 avril 1707 - Saint-Pétersbourg le 18 septembre

1783) était un mathématicien et physicien suisse, qui a passé la plupart de sa vie en


Russie et en Allemagne.
C Abraham de Moivre (Vitry-le-François le 26 mai 1667 - Londres le 27 novembre

1754) est un mathématicien français. En réalité, la formule de De Moivre ne s’ex-


prime pas à l’aide des exponentielles, mais à l’aide des fonctions trigonométriques.
Elle est (cos(x) + i sin(x))n = cos(nx) + i sin(nx). Elle s’obtient facilement à l’aide
des formules d’Euler, mais De Moivre ne possédait pas cette notation quand il a
découvert cette formule.
D θ est défini modulo 2π
5.3. RACINE N-ÈME D’UN COMPLEXE 49

5.3 Racine n-ème d’un complexe


Définition 56. Soit z ∈ C et z0 ∈ C − {0}. Soit n ∈ N − {0}. Une
racine n-ème de z0 est une racine de l’équation :

z n = z0

Il y a n racines. Notons θ = arg(z0 ). Les racines sont données par :


p i
∀k ∈ [|0, n − 1|], zk = n |z0 |e n (k2π+θ)

5.3.1 Racine n-ème de l’unité


Définition 57. Soit z ∈ C. Les racines n-ème de l’unité sont les racines
de l’équation
zn = 1
Elles sont données par

∀k ∈ [|0, n − 1|], zk = eik n

Propriété 62. Si z est une racine n-ème de l’unité, alors z l’est aussi.
Propriété 63. La somme des racines n-ème, pour n ≥ 2, de l’unité est
nulle.
50 CHAPITRE 5. NOMBRES COMPLEXES
Chapitre 6
Nombres complexes et
géométrie dans le plan

6.1 Alignement, Orthogonalité, Cocyclicité


Soit P le plan complexe. Soit A, B, C trois points de P, d’affixes
respectives a, b, c.
−−→ −→
Propriété 64. Soit (AB, AC) l’angle formé par ces deux vecteurs. On
obtient que  
−−→ −→ c−a
(AB, AC) = arg [2π]
b−a
avec arg(z) l’argument de z.

6.1.1 Alignement
Pour savoir si A, B, C sont alignés, nous avons la caractérisation
suivante
−−→ −→
A, B, C alignés ⇔ (AB, AC) = 0 [π]
 
c−a
⇔ arg = 0 [π]
b−a
 
c−a
⇔ ∈R
b−a

51
52 CHAPITRE 6. NOMBRES COMPLEXES - GÉOMÉTRIE

6.1.2 Orthogonalité
−−→ −→
Pour savoir si AB et AC sont orthogonaux, nous avons la caractéri-
sation suivante
−−→ −→ −−→ −→ π
AB et AC orthogonaux ⇔ (AB, AC) = [π]
 2
c−a π
⇔ arg = [π]
b−a 2
 
c−a
⇔ ∈ iR
b−a

6.1.3 Cocyclicité
Soit A, B, C trois points distincts d’un cercle C de centre O.
Propriété 65. Nous avons la propriété suivante
−−→ −−→ −−→ −→
(OB, OC) = 2(AB, AC) [2π]

Condition de cocyclicité
Soit A, B, C, D quatre points de P.
−−→ −→ −−→ −−→
Propriété 66. Si (AB, AC) = (DB, DC) [π] alors A, B, C, D sont soit
cocycliquesA , soit alignés.

6.2 Transformations
Soit M et M 0 deux points de P, d’affixes respectives z et z 0 .

6.2.1 Translation
Définition 58. Soit →−u un vecteur de P. On appelle translation de


vecteur u l’application

u :P→P
t→

M 7→ M 0
−−−→ −
telle que : M M 0 = →
u
A Ils sont sur un même cercle.
6.2. TRANSFORMATIONS 53

Expression analytique complexe


Soit α l’affixe du vecteur →

u . Soit z et z 0 les affixes respectives de M
0
et M . Alors
z0 = α + z
Réciproquement, si
f :P→P
M 7→ M 0
Avec z 0 = α + z, alors f est la translation de vecteur →

u , vecteur d’affixe
α.

Bijectivité
t→
u est bijective. Son inverse est t−→
− u.

6.2.2 Homothétie
Définition 59. Soit Ω un point d’affixe ω. Soit k ∈ R. On appelle
homothétie de centre Ω et de rapport k l’application
h:P→P
M 7→ M 0
−−→ −−→
telle que ΩM 0 = k ΩM

Cas particuliers
Selon les valeurs de k, nous avons les cas particuliers suivant :
→ Si k = 1 : L’homothétie est en réalité l’identité.
→ Si k = 0 : L’homothétie ramène l’ensemble du plan au point Ω.
→ Si k = −1 : L’homothétie est une symétrie centrale de centre Ω.

Expression analytique complexe


Soit z et z 0 les affixes respectives de M et M 0 . Alors
z 0 − ω = k(z − ω)
On détermine le centre d’une homothétie, Ω, en déterminant son point
fixe, donc en résolvant
z = z0
54 CHAPITRE 6. NOMBRES COMPLEXES - GÉOMÉTRIE

Réciproquement, soit
f :P→P
M 7→ M 0
Avec z 0 = kz + b, b ∈ C.
→ Si k = 1, f est un translation.
→ Sinon f est une homothétie.

Bijectivité
h est une application bijective. Son inverse est défini par
h−1 : P → P
M 7→ M 0
1
telle que : z 0 − ω = (z − ω)
k

6.2.3 Rotation
Définition 60. Soit Ω un point d’affixe ω et θ ∈ R. On appelle rotation
de centre Ω et d’angle θ l’application
r:P→P
M 7→ M 0
−−→ −−→
telle que ΩM 0 =ΩM et (ΩM , ΩM 0 ) = θ [2π]

Expression analytique complexe


Soit z et z 0 les affixes respectives de M et M 0 .
z 0 − ω = eiθ (z − ω)
On détermine le centre d’une rotation en déterminant son point fixe,
donc en résolvant
z = z0
Réciproquement, soit
f :P→P
M 7→ M 0

telle que z 0 = eiθ z + b, avec θ ∈ R et b ∈ C.


6.2. TRANSFORMATIONS 55

→ Si eiθ = 1, c’est à dire si θ = 0 [2π], f est une translation.


→ Sinon, f est un rotation d’angle θ et de centre ΩB .

Bijectivité
r est une application bijective. Son inverse est défini par :

r−1 : P → P
M 7→ M 0

telle que : z 0 − ω = e−iθ (z − ω)

6.2.4 Similitude
Définition 61. Soit Ω un point d’affixe ω et (θ, k) ∈ R2 . On appelle
similitude direct de centre Ω, d’angle θ, et de rapport k l’application

S:P→P
M 7→ M 0
−−→ −−→
telle que ΩM 0 =kΩM et (ΩM , ΩM 0 ) = θ [2π]C .

Expression analytique complexe


Soit z et z 0 les affixes respectives de M et M 0 . On obtient

z 0 − ω = keiθ (z − ω)

On détermine le centre d’une similitude en déterminant son point fixe,


donc en résolvant
z = z0
Réciproquement, soit

f :P→P
M 7→ M 0

telle que z 0 = az + b, (a, b) ∈ C2 . f est une similitude de rapport |a| et


d’angle arg(a).
BΩ est déterminé par le point fixe
CS est la composée dans un ordre quelconque d’une rotation et d’une homothétie
56 CHAPITRE 6. NOMBRES COMPLEXES - GÉOMÉTRIE

Bijectivité
S est une application bijective. On défini son inverse par

S −1 : P → P
M 7→ M 0

1 −iθ
telle que z 0 − ω = e (z − ω)
k
Troisième partie

Les suites

57
Chapitre 7
Suite numérique - Généralité

Définition 62. Une suite numérique, notée (un ), est une application
définie par

un : N → R
n 7→ un

On note aussi cette application (un )n≥0 A .


Définition 63. L’ensemble des suites à valeurs dans R est noté RN .

7.1 Propriétés
7.1.1 Opérations
Soit (an ), (bn ), (cn ) trois suites. On peut effectuer trois types d’opé-
rations sur les suites :
→ Une somme :

(an ) + (bn ) = (cn ) ⇔ ∀n ∈ N an + bn = cn

→ Un produit :

(an ) × (bn ) = (cn ) ⇔ ∀n ∈ N an × bn = cn


A Cette dernière notation est surtout utilisée quand les u ne sont définis qu’à
n
partir d’un certain rang.

59
60 CHAPITRE 7. SUITE NUMÉRIQUE - GÉNÉRALITÉ

→ Un produit par un scalaire λ :

(an ) = λ · (cn ) ⇔ ∀n ∈ N an = λ · cn

7.1.2 Structures
Propriété 67. (RN , +, ·) est un R espace vectoriel.
Propriété 68. (RN , +, ·, ×) est une algèbre commutative.

7.2 Suites particulières


7.2.1 Suites arithmétiques
Définition 64. Soit (un ) une suite. Soit q ∈ R. On dit que (un ) est une
suite arithmétique de raison q si

∀n ∈ N, un+1 = q + un

Propriété 69. Soit (un ) une suite arithmétiques :


n
X u0 + un
uk = (n + 1)
2
k=0

7.2.2 Suites géométriques


Définition 65. Soit (un ) une suite. Soit q ∈ R. On dit que (un ) est une
suite géométrique de raison q si

∀n ∈ N, un+1 = q · un

Propriété 70. Soit (un ) une suite géométrique, de raison q :


n
X 1 − q n+1
uk = u0
1−q
k=0

7.2.3 Suites vérifiant une relation de récurrence li-


néaire à coefficients constants
Soit (un ) une suite vérifiant la récurrence

∀n ∈ N, un+2 = aun+1 + bun


7.2. SUITES PARTICULIÈRES 61

Propriété 71. L’ensemble des solutions de ce type d’équation est un


espace vectoriel de dimension 2.
En recherchant les vecteurs de bases de l’espace des solutions, de la
forme un = rn , on obtient l’équation caractéristique, en simplifiant par
rn :
r2 = ar + b
Si cette équations admet deux racines réelles distinctes, notées r1 et r2 ,
on obtient qu’il existe (A, B) ∈ R2 tel que

∀n ∈ N un = Ar1n + Br2n

Si cette équation admet une racine double, notée r0 , on obtient qu’il


existe (A, B) ∈ R tel que :

∀n ∈ N un = (An + B)r0n

Si cette équation n’admet pas de racines réelles, mais deux racines com-
plexes, r1 et r1 , on obtient qu’il existe (A, B) ∈ R tel que

∀n ∈ N un = Ar1n + Br1 n
62 CHAPITRE 7. SUITE NUMÉRIQUE - GÉNÉRALITÉ
Chapitre 8
Convergence des suites
numériques réelles

8.1 Suites convergentes


Définition 66. Soit (un ) une suite de nombre réels. Soit l ∈ R. La suite
(un ) converge vers l si et seulement si

∀ε > 0, ∃n0 ∈ N tel que ∀n ≥ n0 , |un − l| < ε

On le note
lim un = l
n→∞

8.1.1 Propriétés générales


 
1
Propriété 72. La suite converge vers 0 .
n n≥1

Propriété 73. Si la suite (un ) converge, elle converge vers une limite
qui est unique.

Propriété 74. La suite (un ) converge vers 0 si et seulement si la suite


(|un |) converge vers 0.

Propriété 75. Une suite convergente est bornée.

63
64 CHAPITRE 8. CONVERGENCE DES SUITES RÉELLES

Propriété 76. Soient (an ) et (un ) deux suites réelles. Si


(
(an ) converge vers 0
∃n0 ∈ N tel que ∀n ≥ n0 , |un | ≤ |an |

alors (un ) converge vers 0.

8.1.2 Caractérisation séquentielle


De la borne supérieur
Propriété 77. Soit A une partie de R non vide et majorée. Soit M ∈ R.
M est la borne sup de A si et seulement si
(
M est un majorant de A
∃(an ) ∈ RN tel que ∀n ∈ N, an ∈ A et (an ) converge vers M

D’une partie dense


Propriété 78. Soit A une partie de R. A est dense dans R si et seule-
ment si

∀x ∈ R, ∃(un ) ∈ RN , ∀n ∈ N un ∈ A et (un ) converge vers x

8.1.3 Opérations sur les suites convergentes


Soit (un ) une suite de réels et l ∈ R.

Propriété 79. La somme de deux suites convergentes est convergente,


et la limite de la somme est la somme des limitesA .

Propriété 80. Le produit par une constante d’une suite convergente


est convergente.

Propriété 81. Le produit de deux suites convergentes est une suite


convergente de limite le produit des limites.

Propriété 82. Le produit d’une suite bornée par une suite convergente
de limite nulle est une suite convergente de limite nulle.
A Mais lim un + vn existe 6⇒ lim un existe et lim vn existe.
n→∞ n→∞ n→∞
8.1. SUITES CONVERGENTES 65

Propriété 83. Si  (un ) est une suite convergente de terme tous non
1 1
nuls, si l 6= 0, alors converge vers
un l
Propriété 84. Si (un ) est une suite convergente de limite l, alors (|un |)
converge vers |l|

8.1.4 Lien entre le signe de la limite et le signe des


termes de la suite
Soit (un ) une suite de réels convergentes de limite l.
→ Si l > 0, alors ∃n0 ∈ N tel que ∀n ≥ n0 , un > 0.
→ Si l < 0, alors ∃n0 ∈ N, tel que ∀n ≥ n0 , un < 0.
→ Si ∃n0 ∈ N tel que ∀n ≥ n0 , un < 0, alors l ≤ 0.
→ Si ∃n0 ∈ N tel que ∀n ≥ n0 , un > 0, alors l ≥ 0.

8.1.5 Théorème d’encadrement


Soit (un ), (vn ), (xn ) trois suites. Soit l ∈ R. Si :

(un ) converge vers l

(vn ) converge vers l

∃n0 ∈ N tel que ∀n ≥ n0 , un ≤ xn ≤ vn

Alors (xn ) converge vers l.

8.1.6 Suites extraites


Soit (un ) une suite de réels.
Définition 67. Soit ϕ : N → N une fonction strictement croissante. On
dit que (uϕ(n) ) est une suite extraite de (un ).
Propriété 85. Soit (un ) une suite numérique. Soit l ∈ R. (un ) converge
vers l si et seulement si toutes suites extraites de (un ) converge vers l.
Propriété 86. Soit l ∈ R. Soit (un ) une suite de réels. Soit (uϕ(n) ) et
(uψ(n) ) deux suites extraites de (un ). Si :
(
(uϕ(n) ) et (uψ(n) ) converge vers la même limite l
{ϕ(n) / n ∈ N} ∪ {ψ(n) / n ∈ N} = N

Alors la suite (un ) converge vers l.


66 CHAPITRE 8. CONVERGENCE DES SUITES RÉELLES

8.2 Suites divergentes


8.2.1 Suites qui diverge vers ±∞
Soit (un ) une suite de nombre réels.
Définition 68. On dit qu’une suite diverge si et seulement si elle ne
converge pasB .
Définition 69. On dit que (un ) diverge vers +∞ si :
∀A ∈ R, ∃n0 ∈ N tel que ∀n ≥ n0 , un > A
On le note lim un = +∞.
n→+∞

Définition 70. On dit que (un ) diverge vers −∞ si :


∀B ∈ R, ∃n0 ∈ N tel que ∀n ≥ n0 , un < B
On le note lim un = −∞.
n→+∞

8.2.2 Caractérisation des suites divergentes


Soit (un ) une suite de réels. Soit (uϕ(n) ) et (uψ(n) ) deux suites ex-
traites de (un ). Si (uϕ(n) ) et (uψ(n) ) converge vers des limites différentes,
alors la suite (un ) diverge.

Propriétés
Propriété 87. La somme d’une suite bornée et d’une suite qui diverge
vers +∞ diverge vers +∞.
Propriété 88. L’inverse d’une suite qui diverge vers +∞ converge vers
0.

8.2.3 Théorème de minoration


Théorème 7. Soit (un ) et (vn ) deux suites telles que :
(
(un ) diverge vers + ∞
∃n0 tel que ∀n ≥ n0 vn ≥ un

Alors (vn ) diverge vers +∞.


B Cette définition de la divergence englobe donc le cas où la suite n’admet pas de

limite, comme la suite des (−1)n par exemple.


8.3. SUITE MONOTONE ET CONVERGENTE 67

8.3 Suite monotone et convergente


Théorème 8. Soit (un ) une suite croissante. Si elle est majorée, alors
elle converge. Sinon, elle diverge vers +∞
Théorème 9. Soit (un ) une suite décroissante. Si elle est minorée, alors
elle converge. Sinon, elle diverge vers −∞

8.3.1 Suites adjacentes


Soit (un ) et (vn ) deux suites.
Définition 71. On dit de (un ) et de (vn ) qu’elles sont adjacentes si

(un ) est une suite croissante

(vn ) est une suite décroissante

(un − vn ) converge vers 0

Propriété 89. Soit l ∈ R. Si (un ) et (vn ) sont adjacentes, alors elles


convergent vers la même limite, notée l et :
∀n ∈ N, un ≤ l ≤ vn

8.3.2 Segments emboités


Définition 72. On considère une suite de segments. On dit que la suite
est emboitée si :
∀n ∈ N [an+1 , bn+1 ] ⊂ [an , bn ]
Propriété 90. L’intersection de tous les intervalles d’une suites d’in-
tervalle emboitée est non vide
Propriété 91. Si la longueur de l’intervalle tend vers 0, alors l’inter-
section est un singleton

8.3.3 Théorème de Bolzano-WeierstrassCD


Théorème 10. De toute suite réelle bornée, on peut extraire une suite
convergente.
C Bernard Placidus Johann Nepomuk Bolzano (Prague le 5 octobre 1781 – Prague

le 18 décembre 1848) était un mathématicien bohémien de langue allemande.


D Karl Theodor Wilhelm Weierstrass (Ostenfelde le 31 octobre 1815 - Berlin le 19

février 1897) était un mathématicien allemand.


68 CHAPITRE 8. CONVERGENCE DES SUITES RÉELLES
Chapitre 9
Étude des suites

9.1 Fonction exponentielle complexe


Propriété 92. Soit (a, b) ∈ R2 . Soit f la fonction définie par :
f :R→C
t 7→ ert
Avec r = a + ib. f est dérivable et on obtient :
∀t ∈ R f 0 (t) = rert
Propriété 93. L’exponentielle complexe se comporte comme l’expo-
nentielle réelle.

9.2 Suite complexe


Soit (zn ) une suite de complexe.
Définition 73. Soit λ ∈ C.
(zn ) converge vers λ ⇔ (|zn − λ|) converge vers 0
Propriété 94.
(
Re(zn ) converge vers Re(λ)
(zn ) converge vers λ ⇔
Im(zn ) converge vers Im(λ)

69
70 CHAPITRE 9. ÉTUDE DES SUITES

Propriété 95. Soit (zn ) et (zn0 ) deux suites convergentes de limite λ et


λ0 . La suite (zn + zn0 ) converge vers λ + λ0 .

Propriété 96. Soit (zn ) et (zn0 ) deux suites convergentes de limite λ et


λ0 . La suite (zn · zn0 ) converge vers λ · λ0 .

Propriété
  97. Soit (zn ) une suite convergente de limite λ 6= 0. La suite
1 1
converge vers .
zn λ

Propriété 98. Si (zn ) converge vers λ, alors (|zn |) converge vers |λ|.
Mais nous n’avons aucune information sur le comportement de l’argu-
ment.

Propriété 99. Soit (zn ) la suite défini par :

∀n ∈ N zn = ρn eiθn

Si : (
(ρn ) converge vers a
(θn ) converge vers b

alors (zn ) converge versA aeib .

Cependant, si la suite des argumentsB ne converge pas, la suite (zn )


peut converger.

Propriété 100. Soit (zn ) une suite de complexe définie par :

∀n ∈ N, zn = an

Avec a ∈ C. Si :
→ |a| = 0, (zn ) est la suite constante nulle.
→ |a| ∈]0, 1[, (zn ) converge vers 0.
→ |a| > 1, (zn ) diverge vers +∞.
→ |a| = 1.
→ Si a 6= 1, alors la suite diverge.
→ Si a = 1, (zn ) est la suite constante égale à 1.
A Par continuité de l’exponentielle complexe.
B La suite (θn )
9.3. SUITES DÉFINIES PAR RÉCURRENCE 71

9.3 Suites définies par récurrence


Définition 74. Soit f une fonction de R dans R, définie sur Df , et (un )
une suite telle que :
(
u0 ∈ R
∀n ∈ N, un+1 = f (un )

9.3.1 Existence de la suite


Propriété 101. Soit (un ) une suite de réels, définie par récurrence à
l’aide de la fonction f .

u0 ∈ Df et Df est stable par f ⇒ ∀n ∈ N, un existe

Ce qui peut aussi s’écrire sous la forme :

u0 ∈ Df et f (Df ) ⊂ Df ⇒ ∀n ∈ N, un existe

9.3.2 Sens de variation


Soit f une fonction de R dans R. Soit I un intervalle inclus dans Df .

Propriété 102. Soit (un ) une suite de réels, définie par récurrence à
l’aide de la fonction f .

(un ) est croissante ⇔ ∀n ∈ N, un+1 ≥ un


⇔ ∀n ∈ N, f (un ) ≥ un

En pratique, si (
∀x ∈ I, f (x) ≥ x
∀n ∈ N, un ∈ I

alors (un ) est croissante.

9.3.3 Limite éventuelle


Si (un ) converge vers l et que f est continue en l, alors l = f (l). En
d’autres termes, la limite éventuelle d’une suite définie par récurrence à
l’aide d’une fonction f est un point fixe de cette fonction.
72 CHAPITRE 9. ÉTUDE DES SUITES

9.4 Règle de D’AlembertC


Soit (un ) une suite de réels strictement positives. Supposons que :
un+1
lim =a
n→∞ un

→ Si a ∈ [0, 1[, (un ) converge vers 0.


→ Si a>1, (un ) diverge vers +∞.
→ Si a=1, la règle ne nous dit rien.

9.5 Comparaisons des suites


9.5.1 Définitions
On considère la comparaison entre les suites quand n tend vers ∞.
Soit (un ) et (vn ) deux suites réels.

Définition 75. On dit que (vn ) domine (un ) si :

∃A ∈ R+ tel que ∀n ∈ N, |un | ≤ A|vn |

On le note un  vn (Notation de HardyD ) ou un = O(vn ) (Notation de


∞ ∞
LandauE ).

Définition 76. On dit que (un ) est négligeable devant (vn ) ou que (vn )
est prépondérant devant (un ) si :

∀ε > 0 ∃n0 ∈ N tel que ∀n ≥ n0 , |un | ≤ ε|vn |

On note un  vn (Notation de Hardy) ou un = o(vn ) (Notation de


∞ ∞
Laudau). Dans le cas particulier où ∀n ∈ N, vn 6= 0
un
un est négligeable devant vn ⇔ lim =0
n→∞ vn
C Jean le Rond D’Alembert (Paris le 16 novembre 1717 - Paris le 29 octobre 1783)
était un mathématicien et philosophe français.
D Godfrey Harold Hardy (Granleigh le 7 février 1877 – Cambridge le 1er décembre

1947) était un mathématicien britannique


E Edmund Georg Hermann Landau (Berlin le 14 février 1877 - Berlin le 19 février

1938) était un mathématicien allemand


9.6. ÉQUIVALENTS ET NÉGLIGEABILITÉ 73

Définition 77. On dit que (un ) est équivalent à (vn ) si (un − vn ) est
négligeable devant (vn ). On le note un ∼ vn . Dans le cas particulier où

∀n ∈ N, vn 6= 0
un
un est équivalent à vn ⇔ lim =1
n→∞ vn

9.5.2 Comparaisons des suites de références


Propriété 103. Soit (cn ) une suite telle que :
lim |cn | = +∞
n→+∞

Si (an ) converge vers 0, (bn ) vers l, avec l6= 0, alors :


an  bn  cn
∞ ∞

Comparaison des suites qui divergent vers +∞


Soit A > 1, α > 0 :
ln(n)  nα  An  n!  nn
∞ ∞ ∞ ∞

Comparaison des suites qui convergent vers 0


Soit B < 1, β < 0, alors :
1
0  B n  nβ 
∞ ∞ ∞ ln(n)

Comparaison des suites convergentes de limite non nulle


Soit l, l0 deux réels non nuls. Soit (un ) et (vn ) deux suites qui convergent
respectivement vers l et l0 . Alors :
l
un ∼ vn
∞ l0

9.6 Règles d’utilisation des équivalents et


négligeabilité
Propriété 104. Soit (un ), (vn ) et (wn ) trois suites :
un  vn et vn  wn ⇒ un  wn
∞ ∞ ∞
74 CHAPITRE 9. ÉTUDE DES SUITES

un ∼ vn et vn ∼ wn ⇒ un ∼ wn
∞ ∞ ∞

un ∼ vn et vn  wn ⇒ un  wn
∞ ∞ ∞

un  vn et vn ∼ wn ⇒ un  wn
∞ ∞ ∞

Les deux première propriétés exprime le caractère transitif des relations


 et ∼.
Propriété 105. Soit (un ), (vn ), (an ), (bn ) quatre suites. Si :

(un ) ∼ (vn ) et (an ) ∼ (bn )


∞ ∞

alors :
(un )(an ) ∼ (vn )(bn )

Propriété 106. Soit (un ), (vn ) et (an ) trois suites et λ, µ deux réels
de somme non nulle. Si :

(un ) ∼ λ(an ) et (vn ) ∼ λ(an )


∞ ∞

Alors :
un + vn ∼ (λ + µ)an

Si la somme des deux réels est nulle, nous n’avons aucun résultats. On
doit dans ce cas utiliser des développements limités.
Propriété 107. Si un ∼ vn , alors uα α
n ∼ vn
∞ ∞

Propriété des équivalents


Propriété 108. Soit un et vn deux suites tel que un ∼ vn . Alors, (un )

et (vn ) ont même nature, c’est à dire que
→ Si un diverge, alors vn diverge
→ Si un converge, alors vn converge vers la même limite
→ Si lim un = ∞, alors lim vn = ∞
n→∞ n→∞
Quatrième partie

Arcs Paramétrés

75
Chapitre 10
Arcs Paramétrés et Arcs
Polaires

10.1 Arcs Paramétrés


Définition 78. Un arc paramétré est défini par le couple (F, I), avec I
un intervalle et F une fonction définie par

F : I → R2
 
x(t)
t 7→ M (t) =
y(t)

Définition 79. Soit τ un arc paramétré. Le support de l’arc τ est défini


par :
Supp(τ ) = {M (t) / t ∈ I}

Propriété 109. Supposons que x et y soient des fonctions de classe C n


sur I. On dit alors que τ est un arc de classe C n sur I.

10.1.1 Tangente en un point de l’arc


Soit τ un arc C ∞ . Soit M (t0 ) un point du support de cet arc.

77
78 CHAPITRE 10. ARCS PARAMÉTRÉS ET ARCS POLAIRES

Point Régulier


dM →

Si (t0 ) 6= 0 , on dit alors que M (t0 ) est un point régulier de
dt −

dM
l’arc. Dans ce cas, (t0 ) est un vecteur directeur de la tangente au
dt
support de l’arc en M (t0 ).

Point Singulier


dM →

Si (t0 ) = 0 , alors M (t0 ) est un point singulier. Par application
dt
de la formule de Taylor, on obtient les deux entiers caractéristiques
suivants.

Premier entier caractéristique de τ en M (t0 )


Définition 80. Notons p, si il existe :


dk M →

p = min{k / (t0 ) 6= 0 }
dtk


dp M
Dans ce cas, (t0 ) est tangent à l’arc en M (t0 ).
dtp

Deuxième entier caractéristique de τ en M (t0 )


Notons q, si il existe :

→ −

dk M dp M
q = min{k / (t0 ) et (t0 ) soient non colinéaires}
dtk dtp

Coordonnées de M(t) dans un repère particulier



→ −
→ !
dp M dq M
Soit R le repère défini par : M (t0 ), (t0 ), (t0 ) . Dans ce
dtp dtq
repère, on obtient pour les coordonnéesA de M (t)
(t − t0 )p

X(t) ∼

p!
Y (t) ∼
 (t − t0 )q
q!
A En faisant le lien avec le développement limité des fonctions coordonnées de M
10.2. ÉTUDE MÉTRIQUE DES ARCS PARAMÉTRÉS 79

À l’aide de ces entiers, on peut caractériser le point singulier :


→ p paire, q impaire : Point de rebroussement du première ordre
→ p paire, q paire : Point de rebroussement du deuxième ordre
→ p impaire, q paire : Point ordinaire
→ p impaire, q impaire : Point d’inflexion

10.2 Étude métrique des arcs paramétrés


10.2.1 Longueur d’un arc
Soit τ un arc de classe C 1 sur I = [a, b], avec a < b. Soit l(M (a)M
\(b))
la longueur d’arc τ reliant M (a) à M (b).

Z b −

\(b)) = dM
l(M (a)M || (t)||dt
a dt

10.2.2 Abscisse curviligne


Soit τ un arc de classe C 1 sur un intervalle I. On défini une abscisse
curviligne par :
1- Un point de l’arc, appelé origine.
2- Une orientation sur l’axe :
→ Le sens des t croissants
→ Ou le sens des t décroissants
Soit M (t0 ) l’origine de l’abscisse. Soit s(t) l’abscisse curviligne du point
M (t).
Z t − →
dM
s(t) = ε || (u)||du
t0 dt

avec ε = ±1 selon l’orientation de l’axe. On obtient que :




ds dM
= || ||ε
dt dt

s est un paramétrage du support de l’arc.


80 CHAPITRE 10. ARCS PARAMÉTRÉS ET ARCS POLAIRES

Repère de FrenetB en M(t)





− dM
On note T = le premier vecteur de Frenet en M (t). On le
ds
calcule en utilisant le fait que :
−→ −

dM ε dM
= − →
ds || ddt
M
|| dt

− →
− → −
On note N l’unique vecteur vérifiant le fait que (M (t), T , N ) soit un
repère orthonormé direct, appelé repère de Frenet en M (t). Soit ϕ =
− →
→ − →

( i , T ) [2π], avec i vecteur horizontal passant par M(t). Alors :
   

− cos(ϕ) →
− −sin(ϕ)
T = et N =
sin(ϕ) cos(ϕ)

10.2.3 Courbure d’un arc en un point


Définition 81. On définit le rayon de courbure en M(t), noté R, par

ds
R=

Définition 82. La courbure en M(t), notée γ, est définie par

1
γ=
R

=
ds

dt
= ds
dt

10.2.4 Formules de Frenet



− →

Soit T et N les deux vecteurs de la base de Frenet. Sachant que


dT →

=N

B Jean Frédéric Frenet (Périgueux le 7 février 1816 - Périgueux le 12 juin 1900)

était un mathématicien, astronome et météorologue français.


10.3. ARCS POLAIRES 81

On obtient →

dT →

= γ(t) N
ds
De même, on obtient


dN →

= −γ T
ds

Lien entre courbure, vitesse et accélération





− dM →

Notons V = , la vitesse de M (t), et v = || V || sa norme.
dt

− →

V = εv T



− dV
Notons a = l’accélération de M (t).
dt

− dv →
− →

a = ε T + v2 γ N
dt
De cette expression, on en déduit que

− −
Det( V , →
a)
γ=ε 3
v
avec Det le déterminant.

10.3 Arcs polaires



− → −
Soit P un plan muni d’un repère orthonormé direct (O, i , j ). Soit
M ∈ P.
Définition 83. On définit le vecteur −
→ par :
u θ

− →

uθ = cos(θ) i + sin(θ) j
On dit que (ρ, θ) est un couple de coordonnées polaires de M si :
−−→
OM = ρ− →

−−→ − −−→

→ Si ρ > 0, alors ρ = ||OM || et θ = ( i , OM ) [2π]
−−→ − −−→

→ Si ρ < 0, alors ρ = −||OM || et θ = ( i , OM ) − π [2π]
Définition 84. Un arc τ défini par une équation polaire ρ = f (θ) est
un arc dont le support est défini par :
Supp(τ ) = {M (ρ, θ) / ρ = f (θ)}
82 CHAPITRE 10. ARCS PARAMÉTRÉS ET ARCS POLAIRES

10.3.1 Lien polaire-cartésien


Soit (ρ, θ) les coordonnées de M . On obtient les coordonnées carté-
siennes de M avec les relations suivantes :

x = ρ cos(θ)
y = ρ sin(θ)

On a donc :
p
ρ = ± x2 + y 2

10.3.2 Équivalence et symétrie


Soit M (ρ, θ) = M (−ρ, θ + π)C un point de P.

Propriété 110. Nous avons les caractérisations suivantes :


→ M1 symétrique de M par rapport à (Ox) si ses coordonnées po-
laires sont de la forme (ρ, −θ + 2kπ) avec k ∈ Z
→ M2 symétrique de M par rapport à (Oy) si ses coordonnées po-
laires sont de la forme (ρ, π − θ)
→ M3 symétrique de M par rapport à l’origine si ses coordonnées
polaires sont de la forme (ρ, π + θ)

10.3.3 Étude des tangentes


Soit τ un arc défini par une équation polaire ρ = ρ(θ)
dM (θ)
→ Si ρ est dérivable en θ, est tangent en M (θ) et :

dM
= ρ0 (θ)−
→ + ρ(θ)→




avec :
   

→= cos(θ) →
− − sin(θ)
uθ et vθ
sin(θ) cos(θ)

→ Si ρ(θ) = 0, −
→ est tangent en 0

C Cette égalité est vérifiée pour tous point du plan.


10.3. ARCS POLAIRES 83

10.3.4 Étude d’une branche infinie


Soit τ un arc défini par une équation polaire ρ = ρ(θ). Si :

lim ρ(θ) = ∞
θ→θ0

Alors la courbe possède une branche infinie de direction − u→


θ0 . On réalise
−→ −→
alors une étude dans le repère (0,uθ0 , vθ0 ). On étudie, dans ce repère :

lim Y (θ)
θ→θ0

avec Y (θ) = ρ sin(θ − θ0 )


84 CHAPITRE 10. ARCS PARAMÉTRÉS ET ARCS POLAIRES
Chapitre 11
Les coniques

11.1 Définitions
Définition 85. On appelle conique de foyer F A , de directrice ∆ et
d’excentricité e l’ensemble :

{M / e · d(M, ∆) = M F }

avec d(M, ∆) la distance entre le point M et la directrice ∆.

11.1.1 Définition bifocale d’une ellipse


Définition 86. Soit F et F 0 les deux foyers de l’ellipse. On définit cette
ellipse par :

M appartient à l’ellipse ⇔ M F + M F 0 = cte = 2a

avec a le demi-grand axe de l’ellipse.

Définition 87. On appelle cercle principal d’une ellipse le cercle de


centre O et de rayon a.

A Par symétrie, il y a toujours deux foyers pour un conique.

85
86 CHAPITRE 11. LES CONIQUES

11.1.2 Définition bifocale d’une hyperbole


Définition 88. Soit F et F 0 les deux foyers de l’hyperbole. On définit
cette hyperbole par :
M appartient à l’hyperbole ⇔ |M F − M F 0 | = cte = 2a
avec a la valeur absolue de la distance du point d’intersection entre l’axe
Ox et l’hyperbole avec l’origine.

11.2 Les différentes coniques


Soit (a, b) ∈ R2 .

11.2.1 L’ellipse
Définition 89. Une ellipse est définie par l’équation suivante :
x2 y2
+ =1
a2 b2
max(a, b) est appelé le demi-grand axe. min(a, b) est appelé le demi-
petit axe. Soit P le point correspondant à M sur le cercle principale de
l’ellipse. On peut aussi paramétrer un point M de l’ellipse par :

x(t) = a cos(t)
y(t) = b sin(t)
Avec t l’angle entre l’axe Ox et OP.

11.2.2 L’hyperbole
Une hyperbole est définie par l’équation suivante :
x2 y2
2
− 2 =1
a b
Pour vérifier cette formule, on prend x = 0 et on vérifie qu’il n’y à
pas de solutions réelles pour y B . De plus, on obtient les asymptotes en
annulant le second membre. On peut aussi paramétrer un point M de
l’hyperbole par : 
x(t) = a ch(t)
y(t) = b sh(t)
B Une hyperbole ne coupe jamais l’axe des ordonnées.
11.3. ÉQUATION POLAIRE DANS UN REPÈRE 87

11.2.3 Parabole
L’équation réduite d’un parabole est :

y 2 = 2px

11.3 Équation polaire dans un repère de


centre F

− → − →

Considérons le repère (F, i , j ), avec j un vecteur directeur de ∆.
Soit M (ρ, θ) et ∆ la directrice d’équation x = x∆ . L’équation générale
d’un conique est :
ex∆
ρ=
1 + e cos(θ)
avec e l’excentricité de la conique. Notons c l’abscisse de F et p = ex∆ .
p p
→ Si e < 1 : C’est une ellipse. Posons a = 2
, b= √ .
1−e 1 − e2
Nous avons donc les résultats suivants
c
→ e=
a
→ c2 = a2 − b2
a2
→ x∆ =
c
→ Si e = 1 : C’est une parabole.
→ Si e > 1 : C’est une hyperbole.
c
→ e=
a
→ c2 = a2 + b2
a2
→ x∆ =
c
88 CHAPITRE 11. LES CONIQUES
Cinquième partie

Fonctions de R2 dans R

89
Chapitre 12
Fonctions de R2 dans R

12.1 Norme
Définition 90. Soit E un espace vectoriel. Soit n une application de E
dans R. n est une norme sur E si :
→ Elle est positive
∀x ∈ E, n(x) ≥ 0
→ Elle est définie

∀x ∈ E, n(x) = 0 ⇒ x = 0

→ Elle vérifie l’inégalité triangulaire (Appelé aussi inégalité de Min-


kowskiA ) :

∀(x, y) ∈ E2 n(x + y) ≤ n(x) + n(y)

→ Elle vérifie cette propriété :

∀λ ∈ R, ∀x ∈ E, n(λx) = |λ|n(x)

Propriété 111. On définit la norme ||(x, y)||n par :

∀(x, y) ∈ R2 ||(x, y)||n = (|x|n + |y|n )1/n


A Hermann Minkowski (Alexotas le 22 juin 1864 - Göttingen le 12 janvier 1909)

était un mathématicien et un physicien théoricien allemand.

91
92 CHAPITRE 12. FONCTIONS DE R2 DANS R

12.1.1 Cas particuliers de normes


Propriété 112. La norme euclidienne, notée ||(x, y)||2 est définie par :
p
∀(x, y) ∈ R2 ||(x, y)||2 = x2 + y 2

Propriété 113. On définit la norme infinie par :

∀(x, y) ∈ R2 ||(x, y)||∞ = max(|x|, |y|)

12.2 Boules
12.2.1 Boules ouvertes
Définition 91. Soit n une norme sur E, soit x0 ∈ E, et r ∈ R+ . On
appelle boule ouverte de centre x0 , de rayon r, notée B(x0 , r) :

B(x0 , r) = {x ∈ E / n(x0 − x) ≤ r}

12.2.2 Boules fermées


Définition 92. Soit n une norme sur E, soit x0 ∈ E, et r ∈ R+ . On
appelle boule fermée de centre x0 , de rayon r, noté B(x0 , r) :

B(x0 , r) = {x ∈ E / n(x0 − x) ≤ r}

12.2.3 Normes équivalentes


Définition 93. Soit n1 et n2 deux normes sur E. n1 et n2 sont dites
équivalentes si il existe deux réels strictement positifs, α et β, tels que

∀x ∈ E, αn2 (x) ≤ n1 (x) ≤ βn2 (x)

Ou, ce qui est équivalent

1 1
∀x ∈ E, n1 (x) ≤ n2 (x) ≤ n1 (x)
β α

Théorème 11. Dans un espace de dimension finie, toutes les normes


sont équivalentes.
12.3. LIMITE D’UNE FONCTION DE R2 DANS R 93

12.2.4 Convergence d’une suite


Soit (un ) une suite de vecteur de E.

Propriété 114. On dit que (un ) converge vers 0 pour la norme n si la


suite des réels (n(un )) converge vers 0. La convergence dépend donc a
priori de la norme considérée.

Propriété 115. Si deux normes sont équivalentes, toute suite conver-


gente pour l’une est convergente pour l’autre.

Propriété 116. Dans un espace de dimension finie, la définition de la


convergence ne dépend pas de la norme considéréeB .

12.3 Limite d’une fonction de R2 dans R


Définition 94. Soit A une partie de R2 , et n une norme de R2 . Soit
f une fonction de A dans R. Soit (x0 , y0 ) ∈ A. Soit l ∈ R. On dit que
lim f = l si et seulement si
(x0 ,y0 )

∀ε > 0 ∃α > 0 tel que ∀(x, y) ∈ B((x0 , y0 ), α), |f (x, y) − l| < ε

Propriété 117. La limite de la somme est la somme des limites.

Propriété 118. La limite du produit est le produit des limites.

Propriété 119. Soit

f : R2 → R et ϕ : R → R

Si 
 lim f = l
(a,b)
limϕ = m
l

Alors
lim ϕof = m
(a,b)

B Car toutes les normes sont équivalentes en dimension finie.


94 CHAPITRE 12. FONCTIONS DE R2 DANS R

12.3.1 Théorème d’encadrement


Soit f, g, h trois fonctions définies sur A. Si

∀(x, y) ∈ A, h(x, y) ≤ f (x, y) ≤ g(x, y)

et si

lim g = lim h
(a,b) (a,b)

=l

alors
lim f = l
(a,b)

12.3.2 Caractérisation de la divergence


Soient x1 , y1 , x2 , y2 quatre fonctions de R dans R. Soit f une fonction
de R2 dans R. Soit (a, b, c, d) ∈ R4 , avec c 6= d. Si

 lim x1 (t) = a
t→t0


 lim y1 (t) = b

t→t0

 lim x2 (t) = a

t→α

 lim y (t) = b
2
t→α

Et 
 lim f (x1 (t), y1 (t)) = c
t→t0
 lim f (x2 (t), y2 (t)) = d
t→α

Alors lim f n’existe pas.


(a,b)

12.3.3 Continuité
Définition 95. Soit f une fonction de R2 dans R. Si f est définie sur
un voisinage de (a, b), avec :

lim f = f (a, b)
(a,b)

Alors, on dit que f est continue en (a, b).


12.4. DÉRIVATION 95

12.4 Dérivation
12.4.1 Dérivation suivant un vecteur
Définition 96. Soit M (a, b) ∈ R2 . Soit →−
u (α, β) un vecteur de R2 . On
définit le nombre dérivé de f en M suivant →

u , noté D→
u f (M ), par :

f (M + t→

u ) − f (M )
D→
u f (M ) = lim

t→0 t
On note aussi


u f (M ) = df (M ) · u
D→

Avec

df (M ) : R2 → R

−u 7→ df (M ) · →

u

Propriété 120. Soit M ∈ R2 . L’application df (M ) est une application


linéaire de R2 dans R.

12.4.2 Dérivées partielles


Soit B = (→

e1 , →

e2 ) la base canonique de R2 . Soit f une fonction définie
au voisinage de M (a, b).
Définition 97. On appelle première dérivée partielle de f en M (a, b) le
nombre dérivé de f selon le premier vecteur de base de la base canonique
de R2 , →

e1 .

∂f f (M + t→ −
e1 ) − f (M )
(M ) = lim
∂x t→0 t
f (a + t, b) − f (a, b)
= lim
t→0 t
Définition 98. On appelle deuxième dérivée partielle de f en M (a, b)
le nombre dérivé de f selon le deuxième vecteur de base de la base
canonique de R2 , →−
e2 . :

∂f f (M + t→ −
e2 ) − f (M )
(M ) = lim
∂y t→0 t
f (a, b + t) − f (a, b)
= lim
t→0 t
96 CHAPITRE 12. FONCTIONS DE R2 DANS R

12.4.3 Fonction de classe C 1


Définition 99. Soit A une partie de R2 . Soit f une fonction de R2 dans
R. On dit que f est de classe C 1 sur A si :
→ f possède deux dérivées partielles pour tout point de A.
→ Ces deux fonctions sont continues sur A.

12.4.4 Développement limité d’ordre 1


Soit f une fonction de R2 dans R. Si f est de classe C 1 sur A,
voisinage de (a, b), alors ∀(x, y) ∈ A
∂f ∂f
f (x, y) = f (a, b) +(a, b)(x − a) + (a, b)(y − b) + o(||(x, y) − (a, b)||)
∂x ∂y
Propriété 121. Soit →

u (α, β) et f une fonction de classe C 1 au voisi-
nage de M (a, b).
∂f ∂f
df (M ) · →

u =α (M ) + β (M )
∂x ∂y
On en déduit que l’application df (M ) est une application continue.

12.4.5 Plan tangent


Soit f une fonction de R2 dans R.
Définition 100. On appelle plan tangent à la surface représentative
d’une fonction de classe C 1 au point de coordonnées (a, b, f (a, b)) le
plan défini par le repère :
−→ − →
(M (a, b, f (a, b)), t→
− , t→
i
−)
j

avec :
0
   
1
−→  0 −→  1
t→
− =  et t→
− =
 
i ∂f j ∂f 
(a, b) (a, b)
∂x ∂y

Vecteur normal au plan tangent


Définition 101. Soit
g : R3 → R
(x, y, z) 7→ g(x, y, z) = f (x, y) − z
12.4. DÉRIVATION 97

On définit un vecteur normal au plan tangent précédent, noté →



n , par :

− −−→
n = grad(g)(a, b, f (a, b))

12.4.6 Dérivées partielles d’ordre 2


Soit f une fonction de R2 dans R définie sur une partie A de R2 .
∂f
Définition 102. Si est définie sur A et possède des dérivées par-
∂x
tielles, on les note
∂2f ∂ ∂f
=
∂x2 ∂x ∂x
∂2f ∂ ∂f
=
∂y∂x ∂y ∂x
∂f
Respectivement pour , on obtient
∂y

∂2f ∂ ∂f
=
∂y 2 ∂y ∂y

∂2f ∂ ∂f
=
∂x∂y ∂x ∂y
∂2f ∂2f
Théorème 12. Théorème de SchwarzC : Si et sont conti-
∂x∂y ∂y∂x
nues sur A, alors :
∂2f ∂2f
=
∂x∂y ∂y∂x

12.4.7 Dérivée des composées


Premier type de composées
Soit f une fonction de classe C 1 de A dans R, avec A ⊂ R2 . Soit ϕ
une fonction dérivable sur R. Soit g = ϕof

g:A→R
(x, y) 7→ ϕ(f (x, y))
C Hermann Amandus Schwarz (Hermsdorf le 25 janvier 1843 - Berlin le 30 no-

vembre 1921) était un mathématicien allemand.


98 CHAPITRE 12. FONCTIONS DE R2 DANS R

On obtient les dérivées partielles suivantes


∂g ∂f
(x, y) = (x, y)ϕ0 (f (x, y))
∂x ∂x
∂g ∂f
(x, y) = (x, y)ϕ0 (f (x, y))
∂y ∂y

Second type de composées


Soit x et y deux fonctions de R dans R, dérivables sur R. Soit f une
fonction de R2 dans R, de classe C 1 sur R2 . Soit ϕ la fonction définie
par :

ϕ:R→R
t 7→ f (x(t), y(t))

On obtient, à l’aide d’un développement limité :


∂f ∂f
∀t ∈ R ϕ0 (t) = x0 (t) (x(t), y(t)) + y 0 (t) (x(t), y(t))
∂x ∂y
Sixième partie

Equations différentielles

99
Chapitre 13
Équations différentielles
linéaires

13.1 Généralités
Définition 103. Soit A une partie de R. Soit (a0 , . . . , an , b) n + 1 fonc-
tions définies sur A. Soit (E) l’équation d’inconnue y, fonction n fois
dérivable sur une partie A de R :

(E) ∀x ∈ A, an (x)y (n) (x) + · · · + a0 (x)y(x) = b(x)

On dit que (E) est une équation différentielle linéaire d’ordre n.

Nota 1. On note cette équation :

(E) ∀x ∈ A, an (x)y (n) + · · · + a0 (x)y = b(x)

Propriété 122. L’ensemble des solutions de (E) est :


→ soit ∅
→ soit un espace affine de direction l’espace vectoriel des solutions
de l’équation sans second membreA .
Si les fonctions (a0 , . . . , an ) sont constantes, alors l’ensemble des solu-
tions de (E) est un espace de dimension n.
A Appelé aussi équation homogène

101
102 CHAPITRE 13. ÉQUATIONS DIFFÉRENTIELLES LINÉAIRES

13.2 Équations différentielles linéaires


d’ordre 1
Définition 104. Soit A ⊂ R. Soit a, b, c trois fonctions définies sur A,
et (E) l’équation différentielle :

(E) ∀x ∈ A, a(x)y 0 + b(x)y = c(x)

Notons (E0 ) l’équation homogène associée à (E) :

(E0 ) ∀x ∈ A, a(x)y 0 + b(x)y = 0

13.2.1 Cas particulier


Si :
→ a et b sont continues sur A.
→ A est un intervalle de R, notons le I.
→ ∀x ∈ I, a(x) 6= 0B
Alors :
R −b(x)
dx
(E0 ) ⇔ ∃K ∈ R tel que ∀x ∈ I, y(x) = Ke a(x)

B On dit que l’équation différentielle est résolue.


Chapitre 14
Équations différentielles
linéaires à coefficients
constants

14.1 Équation différentielle du première


ordre homogène

Soit (a, b) ∈ R2 , avec a 6= 0. Les solutions de l’équation différentielle


suivante

∀t ∈ R, ay 0 (t) + by(t) = 0

sont données par :

b
∃K ∈ R, tel que ∀t ∈ R, y(t) = Ke− a t

On observe bien que l’espace des solutions ici est un espace vectoriel de
dimension 1.

103
104 CHAPITRE 14. ÉQUATION DIFFÉRENTIELLE

14.2 Équation différentielle du second


ordre homogène
Soit r ∈ R. On recherche une base de l’espaces des solutionsA , avec
des vecteurs de la forme : t 7→ ert . On établit, en simplifiantB par ert ,
l’équation caractéristique qui est de la forme :

ar2 + br + c = 0

On détermine ∆C et on obtient :
→ ∆ > 0 : Il y a deux racines réelles, r1 et r2 . On obtient donc :

∃(A, B) ∈ R2 tel que ∀t ∈ R, y(t) = Aer1 t + Ber2 t

→ ∆ = 0 : Il y a une racine double. On la note r0 . On obtient donc :

∃(A, B) ∈ R2 tel que ∀t ∈ R, y(t) = (At + B)er0 t

→ ∆ > 0 : Il n’y a pas de solution dans R, mais il y en a dans C.


CSes racines sont de la forme r0 ± iω0 D . On obtient donc :

∃(A, B) ∈ R2 tel que ∀t ∈ R, y(t) = (A cos(ω0 t) + B sin(ω0 t))er0 t

14.3 Équation différentielle avec second


membre
L’espace des solutions étant un espace affine, il reste à trouver une
solution particulièreE . Une solution d’une équation différentielle avec
second membre est donnée par :

y : t 7→ y0 (t) + z(t)

Avec :
(
y0 : Solution particulière de l’équation avec second membre
z : Solution de l’équation homogène
A Qui est de dimension 2.
B Car ∀x ∈ R ex > 0.
C Le discriminant de l’équation caractéristique.
p
D r = −b et ω = |∆|
0 0 .
2a 2a
E Le x , qui ”fixe” l’espace vectoriel.
0
14.3. ÉQUATION DIFFÉRENTIELLE AVEC SECOND MEMBRE105

14.3.1 Recherche d’une solution particulière


En général, on recherche, pour la solution particulière, le même type
de fonction que le second membre.

Second membre constant


Soit (a, b, c, d) ∈ R4 . Soit (E) l’équation différentielle donnée par :

(E) ∀t ∈ R, ay 00 (t) + by 0 (t) + cy(t) = d

d
→ Si c 6= 0 : y0 : t 7→ est une solution particulière de l’équation
c
avec second membre.
d
→ Si c = 0 et b 6= 0 : y0 : t 7→ t est une solution particulière de
b
l’équation avec second membre.

Second membre polynomial


En général, on recherche un polynôme de même degré. Pour déter-
miner les coefficients du polynôme solution, on dérive ce polynôme.

Second membre exponentiel


Soit α ∈ R et λ ∈ R. Si le second membre est de la forme :

f : t 7→ eαt

Alors on peut espérer une solution de la forme y0 : t 7→ λeαt

14.3.2 Méthode de variation de la constante


Considérons cette méthode dans le cas d’une équation différentielle
du première ordre. Cette méthode consiste à remplacer la constante KF
par une fonction. On recherche donc une solution de la forme y0 : t 7→
b
z(t)e− a t , ce qui revient à déterminer la fonction z. Pour ce faire, on
injecte cette solution y0 dans l’équation avec le second membre, et on
détermine z.

Propriété 123. Le y0 ainsi déterminé est une solution particulière de


l’équation différentielle du première ordre.
b
F En effet, la solution est de la forme : f : t 7→ Ke− a t .
106 CHAPITRE 14. ÉQUATION DIFFÉRENTIELLE

14.3.3 Principe de superposition


Soit (a, b, c) ∈ R3 . Soit f1 , f2 deux fonctions. Soit (E) l’équation
différentielle :

(E) ∀t ∈ R, ay 00 (t) + by 0 (t) + cy(t) = f1 (t) + f2 (t)

On considère les équations différentielle suivantes :

(E1 ) ∀t ∈ R, ay 00 (t) + by 0 (t) + cy(t) = 0

(E2 ) ∀t ∈ R, ay 00 (t) + by 0 (t) + cy(t) = f1 (t)


(E3 ) ∀t ∈ R, ay 00 (t) + by 0 (t) + cy(t) = f2 (t)
Soit y1 , y2 , solutions respectives de (E2 ) et (E3 ). Une solution particu-
lière de (E) est y1 + y2 .
Septième partie

Intégration

107
Chapitre 15
Intégration de RiemannA

15.1 Fonctions continues par morceaux


15.1.1 Subdivision
Soit [a, b] un segment de R, avec a < b.

Définition 105. On appelle subdivision de [a, b] un n-uplets (x0 , . . . , xn )


vérifiant :
a = x0 < x1 < · · · < xn = b

On note σ = (xi )a≤i≤n . Le pas d’une subdivision est la longueur d’in-


tervalle la plus importante. Il est défini comme :

max |xi − xi−1 |


1≤i≤n

Si les intervalles sont tous de la même longueur, la subdivision est


dite régulière. Soit σ une subdivision régulière de [a, b]. On obtient

b−a
∀k ∈ [|0, n|], xk = a + k
n
A Georg Friedrich Bernhard Riemann (Breselenz le 17 septembre 1826 - Selasca le

20 juillet 1866) était un mathématicien allemand.

109
110 CHAPITRE 15. INTÉGRATION DE RIEMANN

15.1.2 Fonctions en escalier sur [a,b]


Soit f une fonction définie sur [a, b].

Définition 106. On dit que f est en escalier si il existe une subdivision


de [a, b] : (xi )0≤i≤n telle que :

∀i ∈ [|1, n|], f est constante sur ]xi−1 , xi [

Cette subdivision est dite adaptée à la fonction f .

Propriété 124. Une fonction en escalier est bornée.

Propriété 125. L’ensemble des fonctions en escalier sur [a, b] est un R


espace vectoriel.

15.1.3 Fonctions continues par morceaux


Soit f une fonction définie sur [a, b].

Définition 107. f est un fonction continue par morceaux sur [a, b] si :




 ∀i ∈ [|1, n|], f est continue sur ]xi−1 ; xi [

∀i ∈ [|1, n|], lim f (x) existe
x→x−i

∀i ∈ [|0, n − 1|] lim+ f (x) existe


x→xi

Propriété 126. Une fonction continue par morceaux est bornée.

Propriété 127. L’ensemble des fonctions continues par morceaux sur


[a, b] est un R espace vectoriel.

Propriété 128. Une fonction en escalier est continue par morceaux.

Propriété 129. Une fonction continue sur [a, b] est continue par mor-
ceaux.

15.1.4 Approximation d’une fonction continue par


morceaux par des fonctions en escalier
Soit f une fonction continue par morceaux sur [a, b]B .
B Ce qui comprend les fonctions continues sur [a, b].
15.2. INTÉGRALE DE RIEMANN 111

Théorème 13. Soit ε > 0. Il existe deux fonctions en escalier sur [a, b],
ϕ et ψ, telles que
(
∀x ∈ [a, b], ϕ(x) ≤ f (x) ≤ ψ(x)
0 ≤ ψ(x) − ϕ(x) ≤ ε

On peut donc approcher, avec une précision arbitraireC , une fonction


continue par morceaux par deux fonctions en escalier.

15.2 Intégrale de Riemann


15.2.1 Intégrale d’une fonction en escalier
Définition 108. Soit ϕ une fonction en escalier sur [a, b]. Notons (xi )0≤i≤n
une subdivision adaptée à ϕ, et posons :

∀i ∈ [|1, n|], ∀x ∈]xi−1 , xi [, ϕ(x) = λi

L’intégrale sur [a, b] de ϕ est :


Z n
X
ϕ(x)dx = (xi − xi−1 )λi
[a,b] i=1

Propriété 130. Si a < b


Z Z b
ϕ(x)dx = ϕ(x)dx
[a,b] a

Si b < a Z Z a
ϕ(x)dx = ϕ(x)dx
[a,b] b

Par convention
Z b Z a
ϕ(x)dx = − ϕ(x)dx
Z aa b

ϕ(x)dx = 0
a

C Définie par ε.
112 CHAPITRE 15. INTÉGRATION DE RIEMANN

Propriété 131. Soit ϕ et ψ deux fonctions en escalier sur [a, b]. Soit λ
et µ deux réels.
Z Z Z
(λϕ(x) + µψ(x))dx = λ ϕ(x)dx + µ ψ(x)dx
[a,b] [a,b] [a,b]

Propriété 132. Soit ϕ et ψ deux fonctions en escalier sur [a, b] telles


que ∀x ∈ [a, b], ϕ(x) ≤ ψ(x). Dans ce cas
Z Z
ϕ(x)dx ≤ ψ(x)dx
[a,b] [a,b]

De plus, si ϕ est positive sur [a, b]


Z
ϕ(x)dx ≥ 0
[a,b]

15.3 Intégrale d’une fonction continue par


morceaux
Soit f une fonction continue par morceaux sur [a, b]. Notons :


 E+ = {ϕ en escalier sur [a, b] / ϕ ≥ g}
 E− = {ϕ nR en escalier sur o[a, b] / ϕ ≤ g}

 A+ = n [a,b] ϕ / ϕ ∈ E+ o

 R
 A− = ϕ / ϕ ∈ E−

[a,b]

Propriété 133. inf(A+ ) et sup(A− ) existent et sont égaux


Définition 109. La valeur commune de ces deux réels, inf(A+ ) et
sup(A− ), est appelé intégrale de Riemann sur [a, b] de f . On la note :
Z
f (x)dx
[a,b]

15.3.1 Somme de Riemann


Propriété 134. Soit f une fonction continue par morceaux sur [a, b].
Notons
n
  
 b−a X b−a
 u
 n
 = f a + k
n n

k=1
∀n ∈ N, n−1  
 vn = b − a b−a
 X
f a + k

n n


k=0
15.3. INTÉGRALE - FONCTION CONTINUE PAR MORCEAUX113

R
Alors (un ) et (vn ) convergent vers [a,b]
f (x)dx

15.3.2 Linéarité
Propriété 135. Soit λ et µ deux réels, et f et g deux fonctions continues
par morceaux sur [a, b].
Z Z Z
(λϕ(x) + µϕ(x))dx = λ ϕ(x)dx + µ ψ(x)dx
[a,b] [a,b] [a,b]

15.3.3 Transmission de l’ordre


Propriété 136. Si f et g sont deux fonctions continues par morceaux
sur [a, b] et f ≤ g, alors :
Z Z
f (x)dx ≤ g(x)dx
[a,b] [a,b]

15.3.4 Intégrale et valeur absolue


Propriété 137. Soit f une fonction continue par morceaux sur [a, b],
en supposant a < bD . Alors :
Z Z

|f (x)|dx ≥ f (x)dx

[a,b] [a,b]

15.3.5 Relation de ChaslesE


Propriété 138. Soit f une fonction continue par morceaux sur [a, c] et
b ∈ [a, c].
Z Z Z
f (x)dx = f (x)dx + f (x)dx
[a,c] [a,b] [b,c]

Z b Z a
D Car f (x)dx = − f (x)dx.
a b
E Michel Chasles (Épernon le 15 novembre 1793 - Paris le 18 décembre 1880) était
un mathématicien français.
114 CHAPITRE 15. INTÉGRATION DE RIEMANN

15.3.6 Inégalité de la moyenne


Propriété 139. Soit f et g deux fonctions continues par morceaux sur
[a, b], avec a < b, telle que g soit bornée. Donc M = sup |g(x)| existe.
x∈[a,b]

Z Z

f (x)g(x)dx ≤ M |f (x)|dx


[a,b] [a,b]

Z
1
Définition 110. Soit µ = g(x)dx. µ est la valeur moyenne
b−a [a,b]
de g sur [a, b].
Z
g = µ(b − a)
[a,b]

15.4 Intégrale et primitive d’une fonction


continue
Soit I un intervalle. Soit f une fonction continue sur I. Soit a ∈ I.
Z x
Propriété 140. Soit x ∈ I. f (t)dt existe.
a
Z x
Propriété 141. La fonction x → f (t)dt est continue sur I.
a
Z x
Propriété 142. Soit g : x 7→ f . g est dérivable sur I et sa dérivée
a
est f . Si f est de classe C n sur I, alors g est de classe C n+1 sur I

Propriété 143. Soit ϕ une fonction positive, respectivement négative,


continue sur [a, b] et d’intégrale nulle. Alors ϕ est la fonction nulle.

15.4.1 Utilisation des primitives d’une fonction con-


tinue
Définition 111. Soit f une fonction définie sur un intervalle I. Une
primitive de f sur I, c’est une fonction dérivable sur I dont la dérivée
est f .
15.4. INTÉGRALE - FONCTION CONTINUE 115

Ensemble des primitives d’une fonction continue


Soit f une fonction continue sur un intervalle I.

Propriété 144. Soit F une primitive de f sur I. Soit G une autre


primitive de f sur I. Le lien entre G et F est :

∃K ∈ R, ∀x ∈ I, G(x) = F (x) + K

Une primitive est donc toujours définie à une constante près.

Propriété 145. Soit F une primitive de f sur I. Soit (a, b) ∈ I2 .


Z b
f (x)dx = F (b) − F (a)
a

15.4.2 Technique de calcul d’une intégrale


Intégration par partie
Propriété 146. Soit I un intervalle. Soit f et g deux fonctions de classe
C 1 sur I, (a, b) ∈ I2 .
Z b Z b
f (x)g 0 (x)dx = [f g]ba − f 0 (x)g(x)
a a

Changement de variables
Propriété 147. Soit (α, β) ∈ R2 . Soit [a, b] ⊂ R. Soit u une bijection
de classe C 1 de [α, β] sur un intervalle [a, b]. Soit f une fonction continue
sur [a, b].
Z b Z β
f (x)dx = f (u(t))u0 (t)dt
a α

15.4.3 Intégrale d’une fonction paire, impaire, pé-


riodique
Fonction paire
Propriété 148. Soit a ∈ R. Si f est une fonction continue et paire sur
[−a, a], alors : Z a Z a
f (x) = 2 f (x)
−a 0
116 CHAPITRE 15. INTÉGRATION DE RIEMANN

Fonction impaire
Propriété 149. Si f est une fonction continue et impaire sur [−a, a],
alors : Z a
f (x)dx = 0
−a

Fonction périodique
Propriété 150. Si f est une fonction continue et T périodique sur R.
Soit a ∈ R.
Z a+T
f est indépendante de a
a

15.5 Inégalité de Cauchy-SchwarzFG


Théorème 14. Soit f et g deux fonctions continues sur [a, b]H :
Z sZ Z


f (x)g(x)dx ≤
2
f (x)dx g 2 (x)dx
[a,b] [a,b] [a,b]

Si cette inégalité devient une égalité, alors il existe λ0 ∈ R tel que

∀x ∈ [a, b], g(x) = −λ0 f (x)

15.6 Formule de Taylor avec reste intégrale


Théorème 15. Soit f une fonction de classe C n+1 . ∀x ∈ Df
x
(x − a)n (n) (x − a)n (n+1)
Z
f (x) = f (a) + · · · + f (a) + f (t)dt
n! a (n)!
F Augustin Louis, baron Cauchy, (Paris le 21 août 1789 - Sceaux le 23 mai 1857)

était un mathématicien français, membre de l’Académie des sciences et professeur à


l’École polytechnique.
G Hermann Amandus Schwarz (Hermsdorf le 25 janvier 1843 - Berlin le 30 no-

vembre 1921) était un mathématicien allemand.


H Cette propriété vient du fait que sur l’espace vectoriel des fonctions continues
Z b
sur [a, b], f (t)g(t) défini un produit scalaire de f et g. Cette propriété est donc
a
la propriété générale sur les produits scalaire : | < u, v > | ≤ ||u|| · ||v||
15.7. INÉGALITÉ DE TAYLOR-LAGRANGE 117

15.7 Inégalité de Taylor-LagrangeI


Théorème 16. Soit f une fonction de classe C n+1 sur I, et a ∈ I. Sup-
posons que f (n+1) soit majorée sur I. Notons Mn+1 = sup|f (n+1) (x)|.
x∈I

x
(x − t)n (n+1) (x − a)n+1
Z
∀x ∈ I, | f (t)dt| ≤ Mn+1
a n! (n + 1)!

I Joseph Louis, comte de Lagrange (Turin le 25 janvier 1736 - Paris le 10 avril

1813) était un mathématicien et astronome italien.


118 CHAPITRE 15. INTÉGRATION DE RIEMANN
Huitième partie

Polynômes

119
Chapitre 16
Les polynômes

16.1 Définitions
Soit K un corpsA .
Définition 112. Un polynôme à coefficients dans K est une suite d’élé-
ments de K tous nuls à partir d’un certain rang. Soit P un polynôme.
Ceci s’écrit aussi :

∃(a0 , . . . , an ) ∈ Kn tels que P = (a0 , . . . , an , 0, . . . )

On peut l’écrire sous les formes suivantes :

P = a0 + a1 X + · · · + an X n
Xn
= ak X k
k=0
X∞
= ak X k
k=0

X est appelé l’Indéterminé. L’ensemble des polynômes à coefficients


dans K est noté K[X]. Il y a unicité de l’écriture d’un polynôme.
Propriété 151. Soit (P, Q) ∈ K[X]2 . P et Q sont égaux si et seulement
si ∀k ∈ N ak = bk .
A Dans notre programme, K = R ou K = C.

121
122 CHAPITRE 16. LES POLYNÔMES

16.1.1 Opérations

X ∞
X
Soit P = ak X k et Q = bk X k deux polynômes. Soit λ ∈ K.
k=0 k=0
On définit les opérations suivantes sur les polynômes.
X∞
→ Une addition : P + Q = (ak + bk )X k
k=0

X 0
→ Un produit : P × Q = (ak bk0 )X k+k
k,k0 ≥0

X
→ Un produit par un scalaire : λ · P = (λak )X k
k=0

X
→ Une composée : P (Q) = ak Qk
k=0
Il est à noter que le produit défini sur l’ensemble des polynômes n’est
pas le même que celui défini sur l’ensemble des suitesB . Nous allons voir
dans la suite l’utilité de cette définition.

16.1.2 Structure de K[X]


→ (K[X],+) est un groupe commutatif.
→ (K[X],+,×) est un anneau commutatif : On peut donc utiliser les
identités remarquables sur les polynômes. Cet anneau est intègreC .
→ (K[X],+,×,·) est une algèbre commutative.

16.1.3 Polynôme constante


Propriété 152. Il existe un isomorphisme entre l’ensemble des po-
lynômes constants et l’ensemble des scalaires. On identifie donc, par
abusD , l’ensemble des polynômes constants à des scalaires.

16.1.4 Fonction polynôme associée


Définition 113. Soit (a0 , . . . , an ) ∈ Kn , soit P ∈ K[X] définit par :

P = a0 + a1 X + · · · + an X n
B Un polynôme est une suite, nous l’avons vu.
C Soit (P, Q) ∈ K[X]2 : (P Q = 0) ⇔ (P = 0 ou Q = 0). Cette propriété est une
conséquence de la définition du produit entre polynômes.
D Mais cet isomorphisme justifie cet abus.
16.1. DÉFINITIONS 123

On appelle fonction polynôme associée de P la fonction polynômiale,


notée Pe, définie par
∀x ∈ K, Pe(x) = a0 + a1 x + · · · + an xn
Propriété 153. L’application qui lie le polynôme à sa fonction po-
lynôme associée est un isomorphisme. Toutes les notions de parité se
transmettent de la fonction polynôme associée au polynôme. En pra-
tique, en analyse, on assimile polynôme et fonction polynôme associéeE .

16.1.5 Degré

X
Définition 114. Soit P = ak X k un polynôme. On définit le degré
k=0
de P , noté deg(P ), par
deg(P ) = max {k ∈ N / ak 6= 0}
On appelle terme dominant de P le terme adeg(P ) X deg(P ) . Par conven-
tion
deg(0) = −∞
Définition 115. Soit n ∈ N. L’ensemble des polynômes de degré infé-
rieur ou égale à n est noté Kn [X].

Degré d’une combinaison


Soit P et Q deux polynômes.
deg(P × Q) = deg(P ) + deg(Q)
deg(P + Q) ≤ max(deg(P ), deg(Q))

16.1.6 Valuation

X
Définition 116. Soit P = ak X k un polynôme. On définit la valua-
k=0
tion de P , notée val(P ), par
val(P ) = min {k ∈ N / ak 6= 0}
Par convention
val(0) = +∞
E Ce qui est possible grâce l’isomorphisme.
124 CHAPITRE 16. LES POLYNÔMES

Valuation d’une combinaison


Soit P et Q deux polynômes.

val(P × Q) = val(P ) + val(Q)

val(P + Q) ≥ min(val(P ), val(Q))

16.1.7 Division euclidienne dans K[X]


Diviseur, Multiple
Définition 117. Soit (A, B) ∈ K[X]2 . On dit que B divise A dans
K[X], ou que A est un multiple B dans K[X], si :

∃Q ∈ K[X] tel que A = BQ

Propriété 154. Les polynômes constants non nuls divisent tous les
autres.

Division euclidienne
Définition 118. Soit (A, B) ∈ K[X]2 tels que B soit non nul. Alors :

∃!(R, Q) ∈ K[X]2 tel que A = BQ + R

avec deg(R) ≤ deg(Q) − 1. On appelle respectivement R et Q le reste


et le quotient de la division euclidienne dans K[X].

16.1.8 Formule de Taylor


Soit a ∈ R. Soit P un polynôme de degré n. On obtient :
n
X Dk (Pe)(a)
P = (X − a)k
k!
k=0

avec Dk (Pe)(a) la dérivée k-ème de Pe calculée en a.

16.2 Racine d’un polynôme


Soit P ∈ K[X]. Soit r ∈ K
16.2. RACINE D’UN POLYNÔME 125

16.2.1 Racine simple


Définition 119. r est une racine de P dans K si Pe(r) = 0
Propriété 155. r est une racine de P dans K ⇔ (X − r) divise P dans
K[X]

16.2.2 Racine multiple et ordre de multiplicité


Soit α ∈ N∗ . Soit r ∈ K.
Définition 120. r est une racine d’ordre α dans K de P si (X − r)α
divise P dans K[X] et que (X − r)α+1 ne divise pas P dans K[X]. α est
aussi appelé ordre de multiplicité de la racine r dans P .

Propriété 156.
(
^
∀i ∈ [|0, α − 1|] D i (P )(r) = 0
r est une racine d’ordre α de P ⇔
D^α (P )(r) 6= 0

16.2.3 Polynôme scindé


Soit P ∈ K[X] de degré n et de termes dominant an X n .
Définition 121. P est scindé si le nombre de racines, en comptant les
ordres de multiplicité, est n.
Propriété 157. Soit P un polynôme scindé de degré n. Alors il existe
(r1 , . . . , rp ) ∈ K p et (α1 , . . . , αq ) ∈ Nq , avec αi la multiplicité de la
racine ri de P , tels que

P = an (X − r1 )α1 . . . (X − rn )αn

Lien entre coefficients et racines d’un polynôme scindé


n
X
Soit P = ak X k un polynôme scindé. Soit (r1 , . . . , rn ) ∈ K n les
k=0
racines de P.
n
X −an−1
ri =
i=1
an
a0
r1 . . . rn = (−1)n
an
126 CHAPITRE 16. LES POLYNÔMES

16.2.4 Factorisation
Polynôme irréductible
Définition 122. Un polynôme est irréductible dans K[X] si il n’est
divisible dans K[X] que par les polynômes constants et par les produits
de lui-même par un constante.

Dans C[X]
Théorème 17. Tout polynôme non constant dans C[X] possède au
moins une racine complexe. (Théorème de D’Alembert-GaussF )
Propriété 158. Le Théorème de D’Alembert-Gauss nous permet donc
de dire que
→ Tout polynôme dans C[X] est scindé
→ Les seuls polynômes irréductibles de C[X] sont ceux de degré 1

Dans R[X]
Propriété 159. Soit P ∈ R[X]. Soit r ∈ C. Si r est une racine de
d’ordre α de P dans C, alors r est une racine d’ordre α de P dans C.
Propriété 160. Les polynômes irréductibles de R[X] sont :
→ Les polynômes de degré 1
→ Les polynômes de degré 2 avec un discriminant strictement né-
gatif

F Johann Carl Friedrich Gauss (Brunswick le 30 avril 1777 — Göttingen le 23

février 1855) était un mathématicien, astronome et physicien allemand.


Neuvième partie

Espace vectoriel

127
Chapitre 17
Espace vectoriel

17.1 Définitions
Définition 123. Soit E un espace et K un corps. On dit que (E, +, ·)
est un K espace vectoriel si (E, +) est un groupe commutatifA et si la
loi · munie sur E vérifie les propriétés suivantes :
1- · est une loi de composition externe :

∀x ∈ E, ∀λ ∈ K, λ·x∈E

2- · possède un élément neutre, noté 1K :

∀x ∈ E 1K · x = x

3- · vérifie :

∀x ∈ E, ∀(λ, µ) ∈ K2 , λ · (µ · x) = (λ · µ) · x

4- · vérifie :

∀x ∈ E, ∀(λ, µ) ∈ K2 , (λ + µ) · x = (λ · x) + (µ · x)

5- · vérifie :

∀(x, y) ∈ E2 , ∀λ ∈ K, λ · (x + y) = λ · x + λ · y
A Voir la fiche de méthodologie sur les structures.

129
130 CHAPITRE 17. ESPACE VECTORIEL

Propriété 161. Soit E un K espace vectoriel :


→ ∀x ∈ E, 0K · x = 0E
→ ∀x ∈ E − x = (−1K ) · x
→ Soit x ∈ E, λ ∈ K, (λ · x = OE ) ⇔ (λ = OK ou x = OE )

17.2 Sous-espaces vectoriels


17.2.1 Définitions
Définition 124. Soit E un K espace vectoriel. Soit F un espace. On dit
que F est un sous-espace vectoriel de E si et seulement si :

F⊂E
(F, +, ·) est un K espace vectoriel
Propriété 162. Soit E un K espace vectoriel. Soit F et G deux sous
espaces vectoriels de E :
→ {OE } est le plus petit sous espace vectoriel de E.
→ F ∩ G est un sous espace vectoriel de E.
→ F + GB est un sous espace vectoriel de E.

17.2.2 Critère de reconnaissance


Propriété 163. Soit E un K espace vectoriel et F un espace. F est un
sous espace vectoriel de E si et seulement si

 F⊂E
F 6= ∅
∀(x, y) ∈ F2 , ∀(λ, µ) ∈ K2 , λx + µy ∈ F

17.2.3 Sous espaces vectoriels supplémentaires


Soit E un K espace vectoriel. Soit F et G deux sous espaces vectoriels
de E.
Définition 125. On dit de F et G qu’ils sont en somme direct si :
F ∩ G = {OE }
La somme de ces deux espaces est alors notée
F⊕G
B L’ensemble F + G est défini par F + G = {x + y / x ∈ F et y ∈ G}.
17.2. SOUS-ESPACES VECTORIELS 131

Définition 126. F et G sont supplémentaire si ils sont en somme direct


et que leur somme est égale à l’espace tout entier. On le note F⊕G = E.
(
F ∩ G = {OE }
F⊕G=E⇔
F+G=E

Propriété 164. Si F et G sont supplémentaires, alors ∀x ∈ E, il existe


un unique couple (y, z) avec y ∈ F et z ∈ G tel que :

x=y+z

17.2.4 Famille génératrice d’un sous-espace vecto-


riel
Sous espace vectoriel engendré par une famille
Soit A une famille de vecteurs de E.
Propriété 165. Il existe un unique plus petit espace vectoriel, noté G,
contenant A. Cet espace est engendré par l’ensemble des combinaisons
linéaires des vecteurs de A. On le note

G = Vect(A)

On dit aussi que A est une famille génératrice de G.

Sous espace engendré par une famille finie


Soit {u1 , . . . , un } une famille de n vecteurs de E. Dans le cas d’une
famille finie, on peut expliciter l’expression de l’unique plus petit espace
vectoriel contenant la famille {u1 , . . . , un }, noté Vect({u1 , . . . , un })

Vect({u1 , . . . , un }) = {λ1 u1 + · · · + λn un / (λ1 , . . . , λn ) ∈ Kn }

17.2.5 Produit de deux espaces vectoriels


Définition 127. Soit E et F deux K espaces vectoriels. On munit
l’ensemble E × FC des deux lois suivant. ∀(x, y) ∈ E × F, ∀(x0 , y 0 ) ∈
E × F, ∀λ ∈ K
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )

λ · (x + y) = (λx, λy)
C L’ensemble E × F est définies par E × F = {(x, y) / x ∈ E et y ∈ F }
132 CHAPITRE 17. ESPACE VECTORIEL

Propriété 166. (E × F, +, ·) est un K espace vectoriel, de vecteur nul


(OE , OF ).

17.3 Application linéaire


Définition 128. Soit E et F deux K espaces vectoriels et f une appli-
cation de E dans F. f est une application linéaire si :

∀(x, y) ∈ E2 ∀(λ, µ) ∈ K2 f (λx + µy) = λf (x) + µf (y)

17.3.1 Vocabulaire
1. Une application linéaire de E dans F est appelée un morphismeD
d’espace vectoriel.
2. Une application linéaire de E dans E est appelée un endomor-
phisme de E.
3. Une application linéaire bijective est appelée un isomorphisme.
4. Une application linéaire bijective de E dans E est appelée un au-
tomorphisme de E.
On note L(E, F) l’ensemble des applications linéaires de E dans F. Si
F=E, on note cette ensemble L(E).

Propriété 167. Soit f un isomorphisme de E dans F. Alors f −1 existe


et est linéaire de F dans E.

17.3.2 Noyau et image d’une application linéaire


Soit f ∈ L(E, F).

Image
Définition 129. On appelle image de f l’ensemble des images de tous
les vecteurs de E par f :

Im(f ) = {f (x) / x ∈ E}

Im(f ) est un sous espace vectoriel de F.


D On dit qu’une application que c’est un morphisme si elle conserve la structure,

la ”morphologie”, d’espace vectoriel.


17.3. APPLICATION LINÉAIRE 133

Noyau
Définition 130. On appelle noyau de f l’ensemble des antécédents de
OF par f :
Ker(f ) = {x ∈ E / f (x) = 0}
Ker(f ) est un sous espace vectoriel de E.
Propriété 168. f est une application injective si et seulement si Ker(f )
est réduit au vecteur nul :

f est injective ⇔ Ker(f ) = {OE }

17.3.3 Structures
1. (L(E, F) est un espace vectoriel.
2. (L(E), +, ×, ·) est une K Algèbre commutative : On peut donc
utiliser les identités remarquables.
3. (L(E), +, o, ·) est une K Algèbre.
4. GL(E) est appelé groupe des automorphismes de E. Dans ce groupe :
(f og)−1 = g −1 of −1

17.3.4 Projecteur
Définition 131. Soit E un K espace vectoriel, soit F et G deux sous
espaces vectoriels supplémentaires de E. Soit x ∈ E

∃!(y, z) ∈ F × G tel que x = y + z

On appelle projeté de x sur F parallèlement à G, noté p(x), le vecteur


y.
Propriété 169. p est une application linéaire
Propriété 170. Soit p la projection de F parallèlement à G
1. Im(p) = F
2. Ker(p) = G
3. pop = p
Propriété 171. Soit q la projection de G parallèlement à F. p et q sont
appelés projecteurs associés.
1. Im(q) = G
134 CHAPITRE 17. ESPACE VECTORIEL

2. Ker(q) = F
3. poq = OE
4. p + q = Ide

Propriété caractéristique
Propriété 172. Si : 
f est linéaire
f of = f
Alors f est une projection sur F parallèlement à G avec :

F = {x ∈ E / f (x) = x}
G = Ker(f )

17.3.5 Symétrie
Définition 132. Soit E un K espace vectoriel. Soit F et G deux sous
espaces vectoriels supplémentaires de E. Soit x ∈ E

∃!(y, z) ∈ F × G tel que x = y + z

On appelle symétrie de x par rapport à F parallèlement à G, noté s(x) :

s(x) = y − z

avec : 
s(x) = x ⇔ x ∈ F
s(x) = −x ⇔ x ∈ G
Propriété 173. Soit s une symétrie :
1. s est une application linéaire
2. sos = Ide, donc s est une bijection

Propriété caractéristique
Propriété 174. Si : 
f est linéaire
f of = Ide
Alors f est une symétrie
Chapitre 18
Espace vectoriel de dimension
finie

18.1 Famille libre - Famille liée - Famille


génératrice
Soit E un K espace vectoriel.

18.1.1 Famille finie liée


Définition 133. Soit (u1 , . . . , up ) p vecteurs de E. On dit que la famille
{u1 , . . . , up } est liée ou que les vecteurs (u1 , . . . , up ) sont linéairement
dépendants s’il existe (λ1 , . . . , λp ) ∈ K p non tous nuls tels que :

λ1 u1 + · · · + λp up = OE

Cela revient à dire que la famille {u1 , . . . , un } est liée si et seulemement


si il existe un i ∈ [|1, p|] tel que ui soit une combinaison linéaires des
autres vecteurs de la famille.

Propriété 175. Toute famille contenant le vecteur nul de E est liée.

Propriété 176. Soit L et L’ deux familles de vecteurs de E. Si L est


liée, et L ⊂ L0 , alors L’ est liée.

135
136 CHAPITRE 18. ESPACE VECTORIEL - DIMENSION FINIE

Vecteurs colinéaires
Soit u et v deux vecteurs de E. u et v sont colinéaire si et seulement
si la famille {u, v} est liée.

18.1.2 Famille finie libre


Définition 134. Soit L une famille finie de vecteurs de E.

L est libre ⇔ L n’est pas liée

Propriété 177. Soit {u1 , . . . , up } une famille finie libre de vecteurs de


E. Si ∃(λ1 , . . . , λp ) ∈ K p tels que λ1 u1 + · · · + λp up = OE alors

∀i ∈ [|1, p|], λi = 0

On dit que la famille est linéairemement indépendante.

Propriété 178. Soit L et L’ deux familles de vecteurs. Si L est libre,


et L0 ⊂ L, alors L’ est aussi libre.

18.1.3 Famille génératrice


Soit E un K espace vectoriel. Nous avons des propriétés suivantes :
1. G est une famille génératrice de E si Vect(G) = E.
2. Soit A et B deux familles de E. Si A ⊂ B, alors Vect(A) ⊂ Vect(B).
3. Soit G une famille génératrice de E, et G’ une famille de vecteurs
de E telle que G ⊂ G0 , alors G’ est une famille génératrice de E.

18.1.4 Base
Soit E un K espace vectoriel.

Définition 135. Une base de E est une famille génératrice et libre de


E.

Théorème 18. Soit B = {e1 , . . . , en } une base finie de E, alors pour


tout vecteur u de E, il existe un unique n-uplets de scalaires (x1 , . . . , xn )
tel que :
u = x1 e1 + · · · + xn en
18.2. DIMENSION D’UN ESPACE DE DIMENSION FINIE 137

Le n-uplets (x1 , . . . , xn ) est appelé le n-uplets de coordonées de u dans


la base B. On le note aussi sous forme matricielle :
 
x1
 .. 
matB (u) =  . 
xn

Base de référence
Dans certains espaces, il y a des bases de références. Ces bases sont
appelé bases canoniques. Par exemple :
1. Rn [X] = Vect{1, X, X 2 , . . . , X n }A

2. Rn = Vect{(1, . . . , 0), . . . , (0, . . . , 1)}B

18.2 Dimension d’un espace de dimension


finie
Définition 136. Soit E un K espace vectoriel. Si E possède une famille
génératrice finie, on dit que E est un espace de dimension finies.
Propriété 179. Soit E un espace de dimension finie et G = {u1 , . . . , up }
une famile génératrice de E. Si G est libre, alors G est une base de E.
Propriété 180. De toute famille génératrice finie de E, on peut extraire
une base de E.
Théorème 19. Théorème dit de la base incomplète : Soit L = {u1 , . . . , un }
une famille de E. Si L est une famille libre de E, on peut la compléter
en une base de E.
Propriété 181. Lemme de SteinitzC : Si E possède une famille géné-
ratrice de n vecteurs, alors toute famille de n + 1 vecteurs est liée
Théorème 20. Si E est de dimension finie, toutes les bases de E ont
le même nombre d’élements et ce nombre commun est la dimension de
l’espace. Soit B une base de E. On obtient donc que
dim(E) = card(B)
A Cette famille génératrice est libre, c’est donc une base de Rn [X]
B Cette famille génératrice est libre, c’est donc une base de Rn
C Ernst Steinitz (Laurahütte le 13 juin 1871 – Kiel le 29 septembre 1928) était un

mathématicien allemand.
138 CHAPITRE 18. ESPACE VECTORIEL - DIMENSION FINIE

Avec card(B) le cardinal de B, c’est à dire le nombre d’éléments défini-


sants B.
Propriété 182. Soit E un espace de dimension n, soit A une famille
de E.
1. Si A est une partie génératrice de E, alors card(A) ≥ n.
2. Si card(A) < n, alors A n’est pas génératrice de E.
3. Si A est libre, alors card(A) ≤ n.
4. Si card(A) > n, alors A est liée.

18.2.1 Caractérisation des bases


Soit E un espace vectoriel de dimension n et A une famille de n
vecteurs de E.

A est une base de E ⇔ A est libre


⇔ A est générateur de E

18.3 Sous-espace vectoriel d’un espace de


dimension finie
Soit E un K espace vectoriel de dimension finie.
Propriété 183. Soit F un sous espace vectoriel de E. F est de dimension
finie et dim(F) ≤ dim(E).

18.3.1 Égalité de deux sous-espaces


Propriété 184. Soit F et G deux sous-espaces vectoriels de E :
(
F⊂G
(F = G) ⇔
G⊂F
(
F⊂G

dim(F) = dim(G)
(
G⊂F

dim(F) = dim(G)
18.3. SOUS-ESPACE VECTORIEL D’UN ESPACE DE DIMENSION FINIE139

18.3.2 Somme et intersection de sous-espace


Propriété 185. Formule de GrassmanD : Soit F et G deux sous-espaces
vectoriels de E. Nous avons la propriété suivante sur les dimensions :

dim(F + G) = dim(F) + dim(G) − dim(F ∩ G)

18.3.3 Sous-espaces vectoriels supplémentaires


Propriété 186. Soit F et G deux sous-espaces vectoriels de E.
(
F ∩ G = {OE }
F et G sont supplémentairesE ⇔
dim(E) = dim(F) + dim(G)
(
F+G=E

dim(E) = dim(F) + dim(G)

Propriété 187. Tous sous-espace vectoriel possède au moins un sup-


plémentaire.

Définition 137. Les sous-espaces vectoriels de dimension 1 sont appelé


droite vectorielle.

Définition 138. Les sous-espaces vectoriels de dimension 2 sont appelé


plan vectoriel.

Propriété 188. Les sous-espaces vectoriels de dimension n − 1 sont


appelé hyperplan.

Propriété 189. Tout supplémentaire d’un hyperplan est une droite


vectorielle.

18.3.4 Rang d’une famille


Définition 139. Soit A une famille de vecteurs d’un espace vectoriel
E. Le rang de A est la dimension du sous espace vectoriel engendré par
A:
rang(A) = dim(VectA)
D Hermann Grassman (Stetinn le 15 avril 1809 - Stetinn le 26 septembre 1877)

était un mathématicien allemand.


140 CHAPITRE 18. ESPACE VECTORIEL - DIMENSION FINIE

Propriété 190. Soit A ⊂ E :

rang(A) = dim(E) ⇔ Vect(A) = E


⇔ A est une famille génératrice de E

A est libre ⇔ rang(A) = card(A)

18.3.5 Sous-espaces supplémentaires et bases


Soit F et G deux sous-espaces de E. Soit BF et BG des bases de F
et G.
(
BF ∪ BG est une base de E
F et G sont supplémentaire ⇔
BF ∩ BG = ∅

18.4 Application linéaires entre deux espaces


de dimension finies
Soit E et F deux K espaces vectoriels de dimensions finies.

18.4.1 Caractérisation par l’image d’une base de E


Soit BE = {e1 , . . . , ep } une base de E. Soit u un vecteur de E tel
que :  
x1
matB (u) =  ... 
 

xp
Si f ∈ L(E, F), alors :

f (u) = x1 f (e1 ) + · · · + xp f (ep )

Soit g ∈ L(E, F). Si :

∀i ∈ [|1, p|], f (ei ) = g(ei )

Alors f = g F .
F Car f et g sont linéaires, et donc l’image de tout vecteur de E peut s’exprimer

sous la forme d’une combinaison linéaire des images des vecteurs de base
18.4. APPLICATION LINÉAIRES ENTRE DEUX ESPACES DE DIMENSION FIN

18.4.2 Image d’une famille libre, liée ou génératrice


de E
Soit f ∈ L(E, F).
1. Si L1 = {u1 , . . . , up } est une famille liée, alors {f (u1 ), ..., f (up )}
est liée.
2. Si L1 = {u1 , . . . , up } est une famille libre, alors on ne peut rien
déduire sur {f (u1 ), . . . , f (up )}.
3. L’image d’une famille génératrice de E est une famille génératrice
de Im(f )
4. Si B est une base de E, alors f (B) est génératrice de Im(f )

18.4.3 Rang d’une application linéaire


Soit f ∈ L(E, F).

Définition 140. Le rang de f est la dimension de l’image de f :

rang(f ) = dim(Im(f ))

Soit B = {e1 , . . . , ep } une base de E.

rang(f ) = rang({f (e1 ), . . . , f (ep )})

Propriété 191. f est surjective ⇔ rang(f ) = dim(F)

18.4.4 Théorème du rang


Théorème 21. Soit f ∈ L(E, F) :

dim(Ker(f )) + rang(f ) = dim(E)

Propriété 192.

f est injective ⇔ Ker(f ) = {OE }


⇔ rang(f ) = dim(E)
142 CHAPITRE 18. ESPACE VECTORIEL - DIMENSION FINIE

18.4.5 Forme linéaire


Définition 141. Une forme linéaire d’un espace E est une application
linéaire de E dans son corps K.
Propriété 193. Si ϕ est une forme linéaire non nulle, alors rang(ϕ) = 1.

Propriété 194. Le noyau d’une forme linéaire non nuls est un hyper-
planG .

18.4.6 Isomorphisme
Définition 142. On considère E et F deux espaces vectoriels de dimen-
sions finies. On dit que E et F sont isomorphes si il existe un isomor-
phisme de E dans F. Dans cette situation, on obtient :
1. Ker(f ) = {OE }
2. Im(f ) = F
3. Deux espaces isomorphe ont même dimensionH
4. Soit BE une base de E, f un isomorphisme, alors f (BE ) est une
base de E.

Caractérisation des isomorphismes


Soit ϕ une application linéaire de E dans F, avec dim(E) = dim(F).
Soit BE une base de E.

ϕ est bijective ⇔ ϕ est injective


⇔ Ker(ϕ) = {OE }
⇔ ϕ est surjective
⇔ Im(ϕ) = F
⇔ ϕ(BE ) est une base de F

G D’après le théorème du rang.


H Qui est le rang de l’isomorphisme.
Dixième partie

Espace Affine

143
Chapitre 19
Espace Affine

Soit E un R espace vectoriel.

19.1 Définitions
Définition 143. Soit ξ un ensemble. On dit que ξ est un espace affine
de direction l’espace vectoriel E si il existe ϕ définie par :

ϕ : ξ2 → E
−−→
(A, B) 7→ →

u = AB

telle que :
→ ∀(A, B, C) ∈ ξ 3 , ϕ(A, B) + ϕ(B, C) = ϕ(A, C) (Relation de
Chasles)
−−→ −
→ ∀A ∈ ξ, ∀→−
u ∈ E, ∃!B ∈ ξ tel que AB = →
u

Vocabulaire 1. Si ξ est un espace affine, ses éléments sont appelés


points.

Vocabulaire 2. Si B est une base de E, et O ∈ ξ, alors (O,B) est un


repère de ξ.

Vocabulaire 3. Si M ∈ ξ, les coordonnées de M dans (O,B) sont celles


−−→
de OM dans B.

145
146 CHAPITRE 19. ESPACE AFFINE

Propriété 195. F, différent de ∅, est un sous espace affine de ξ si et


seulement si il existe A ∈ ξ et F un sous espace vectoriel de E tel que
F = A + F. Un espace affine est donc défini comme la somme d’un point
et d’un espace vectoriel. Par rapport à un espace vectoriel, on peut dire
que les vecteurs de l’espace sont ”fixés”.
Propriété 196. Les espaces vectorielles sont des espaces affines parti-
culiersA .
Propriété 197. Si F est de dimension finie, on dit que F = A + F est
un espace affine de dimension finie. Si F est une droite vectorielle, alors
F = A + F est une droite affine.

19.2 Applications affines


Définition 144. Soit ξ un espace affine et E un espace vectoriel. On
appelle application affine de ξ toute application f de ξ dans ξ telle qu’il
existe ϕ ∈ L(E) et O un point de ξ tels que :
−−−−−−−→ −−→
∀M ∈ ξ, f (O)f (M ) = ϕ(OM )
On dit que ϕ est l’application linéaire associée à f .
Propriété 198. La composée de deux applications affines est affine et
l’application linéaire associée est la composée des applications linéaires
associées.

19.2.1 Homothétie affine


Définition 145. Soit A ∈ ξ et k ∈ R. On appelle homothétie affine de
centre A et de rapport k l’application h définie par :
h:ξ→ξ
M 7→ M 0
−−→ −−→
telle que AM 0 = ϕ(AM ) avec :
ϕ:E→E

−u 7→ k →

u
On reconnait bien la forme d’une application affineB .
A C’est un espace affine avec A = 0
B ∀M
−−−−−−−→ −−→
∈ ξ, f (A)f (M ) = ϕ(AM ), or f (A) = A car A est le centre de l’homothétie.
19.3. ISOMÉTRIES AFFINES 147

19.2.2 Conservation du barycentre


Propriété 199. Soit f une application affine, et ϕ l’application vec-
torielle associée à f . Soit G le barycentre de {(Mi , λi ) / i = 1, . . . , p}.
Alors f (G) est le barycentre de {(f (Mi ), λi )/i = 1, . . . , p}.

19.2.3 Expression analytique dans un repère


Propriété 200. Soit E un espace vectoriel. Soit B une base de E. Soit
ξ un espace affine de direction E. Soit R=(O,B) un repère de ξ. f une
application affine de ξ si et seulement si il existe des réels aij , bi tels que
si M a pour coordonnées (x1 , . . . , xn ) dans R et M 0 a pour coordonnées
(x01 , . . . , x0n ) dans R, avec :
 0
 x1 = a11 x1 + · · · + a1n xn + b1

..
 .
 0
xn = an1 x1 + · · · + ann xn + bn

19.3 Isométries affines


19.3.1 Généralités
Soit f une application affine d’un espace affine ξ.

Propriété 201. f est une isométrie affine si et seulement si ϕ, son


application vectorielle associée, est une isométrie vectorielle.

Propriété 202. Soit ϕ l’application linéaire associée à f :

f est une isométrie affine ⇔ ϕ est un endomorphisme orthogonale

Vocabulaire 4. Soit ϕ l’application linéaire associée à f . Si :


→ det(ϕ) = 1, on dit que f est un déplacement
→ det(ϕ) = −1, ont dit que f est un anti-déplacement

19.3.2 Déplacement du plan


Soit f un déplacement planC et ϕ son application vectorielle associée.
Nous avons les liens suivants entre ϕ et f :
C Donc det(ϕ) = 1.
148 CHAPITRE 19. ESPACE AFFINE

ϕ f
Identité Translation
RotationD d’angle θ [2π] RotationE d’angle θ [2π] de centre Ω

19.3.3 Déplacement de l’espace de dimension 3


Soit f un déplacement dans un espace affine de dimension 3 et ϕ son
application vectorielle associée. Nous avons les liens suivants entre ϕ et
f :
ϕ Point Fixe f
Identité Aucun Translation
Rotation Un point Rotation affine
Rotation Aucun Vissage
Un vissage est la composée d’une translation de vecteurs orthogonaux
au plan et d’une rotation plane.

Propriété 203. Soit f un vissage, r une rotation plane, − → un vecteur


u1
orthogonal à ce plan, et t−
→ la translation par rapport à ce vecteur :
u1

f = t−
→ or
u1

= rotu−

1

D vectorielle
E affine
Chapitre 20
Équation linéaire

20.1 Équation linéaire


Définition 146. Soit E et F deux K espaces vectoriels. Soit f ∈ L(E, F).
Soit b ∈ F. L’équation d’inconnue x, avec x un vecteur de E :

f (x) = b

est appelé équation linéaire.

20.2 Structure de l’ensemble des solutions


L’ensemble des solutions, noté S, est l’ensemble des antécédents de
b par f .
→ Si b ∈ Im(f ), alors l’espace des solutions est un espace affine de
dimension Ker(f ).
→ Si b ∈/ Im(f ), l’espaces des solutions est l’ensemble vide.
Propriété 204. Si f est bijective, l’équation f (x) = b a une unique
solution. Dans ce cas
1. S = {f −1 (b)}
2. b ∈ Im(f )
3. Ker(f ) = {OE }
Propriété 205. Si l’équation f (x) = b admet une unique solution, alors

149
150 CHAPITRE 20. ÉQUATION LINÉAIRE

1. b ∈ Im(f )
2. f est injective

20.3 Système linéaire


Définition 147. Soit (S) :

a x + · · · + a1p xp = b1
 11 1


..
 .

a x + · · · + a x = b
n1 1 np p n

un système d’inconnu (x1 , . . . , xp ). Posons :


f : Kp → Kn
x = (x1 , . . . , xp ) → (a11 x1 + · · · + a1p xp , . . . , an1 x1 + · · · + anp xp )
Soit ϕp et ϕn respectivement des bases de Kp et Kn . Soit A = matϕp ,ϕn (f ).
Notons :
1. x = (x1 , . . . , xn )
2. b = (b1 , . . . , bn )
Avec ces notations, le système (S) devient f (x) = b.
1. On dit que f est l’application associée au système (S).
2. Le rang du système (S) est le rang de f , qui est aussi le rang de
A.
3. Si b ∈ Im(f ), alors S, l’espace des solutions, est un espace affine
de dimension dim(Ker(f )) = p − rang(S).
4. Si b ∈
/ Im(f ), alors S = ∅

20.4 Système de CramerA


Définition 148. Un système de Cramer est un système linéaire de n
équations, à n inconnues, de rang n. Les solutions sont données par
1
∀j ∈ [|1, n|], xj = detϕ (C1 , . . . , Cj−1 , b, Cj+1 , . . . , Cn )
det(A)
Avec Ci le i-ème vecteur colonne de la matrice A.
A Gabriel Cramer (Genève le 31 juillet 1704 - Bagnols-sur-Cèze le 4 janvier 1752)

était un mathématicien suisse.


Onzième partie

Matrice

151
Chapitre 21
Matrices

Soit K un corps, (aij )1≤i≤n des éléments de K, et (n, p) ∈ N2 .


1≤j≤p

21.1 Définition
Définition 149. Une matrice à n lignes et p colonnes à coefficient dans
K est définie par :
 
a11 a12 . . . a1p
 a21 a12 . . . a1p 
M = .
 
.. .. .. 
 .. . . . 
an1 an2 . . . anp
= [aij ]1≤i≤n
1≤j≤p

L’ensemble des matrices à n lignes et p colonnes à valeurs dans K est


noté Mn,p (K).

21.1.1 Vecteur ligne


Définition 150. Soit M une matrice de Mn,p (K). On appelle i-ème
vecteur ligne de M , noté Li , le p-uplet

Li = (xi1 , . . . , xip )

153
154 CHAPITRE 21. MATRICES

21.1.2 Vecteur colonne


Définition 151. Soit M une matrice de Mn,p (K). On appelle j-ème
vecteur colonne de M , noté Cj , le n-uplet

Cj = (x1j , . . . , xnj )

21.1.3 Matrice carrée


Définition 152. Soit M une matrice de Mn,p (K). La matrice M est
dite carrée si n = p. L’ensemble des matrices carrées d’ordre n est
noté Mn (K). On appelle diagonale de la matrice carrée M le n-uplet
(a11 , a22 , . . . , ann )

Matrices carrées particulières


Soit T = [xi,j ] ∈ Mn (K)

Définition 153. On dit que T est triangulaire supérieure si :


 
a11 a12 . . . a1n
 0 a22 . . . a2n 
T = .
 
.. .. .. 
 .. . . . 
0 0 . . . ann

Définition 154. On dit que T est triangulaire inférieure si :


 
a11 0 ... 0
 a21 a22 . . . 0 
T = .
 
.. .. .. 
 .. . . . 
an1 an2 . . . ann

Définition 155. On dit que T est une matrice scalaire si :


 
λ 0 ... 0
0 λ . . . 0
T = . . .
 
 .. .. . . ... 

0 0 ... λ

Si λ = 1, alors la matrice est appelé matrice unité d’ordre n, noté In


21.2. ESPACE VECTORIEL DES MATRICES 155

Matrices carrées symétriques et antisymétriques


Soit S = [xij ] ∈ Mn (K). Soit A = [yij ] ∈ Mn (K).

Matrice carrée symétrique


Définition 156. S est symétrique si ∀(i, j) ∈ [|1, n|]2 , xij = xji .

Matrice carrée antisymétrique


Définition 157. A est antisymétrique si ∀(i, j) ∈ [|1, n|]2 , yij = −yji .
Ceci implique que dans ce cas, la diagonale de A est nulle.

21.2 Espace vectoriel des matrices


21.2.1 Opération
Munissons l’espace Mn,p (K) des opérations suivantes

Addition
Définition 158. L’addition, notée +, des matrices est une addition
composantes par composantes.

Multiplication interne
Définition 159. Soit M = [xij ] ∈ Mn,p (K) et N = [yij ] ∈ Mp,q (K).
La matrice du produit de M par N , notée M × N , est une matrice de
Mn,q (K). Notons M × N = [zij ]. On pose
p
X
∀(i, j) ∈ [|1, n|] × [|1, q|], zij = xik ykj
k=1

Propriété 206. Le produit matricielle n’est pas commutatif.

Multiplication externe
Soit λ ∈ K. La loi de multiplication externe est notée ·. La multipli-
cation d’une matrice par un scalaire est la multiplication de chacune de
ces composantes par ce scalaire.
156 CHAPITRE 21. MATRICES

21.2.2 Structure
Propriété 207. Nous avons les structures suivantes pour l’ensemble
des matrices :
→ (Mn,p (K), +) est un groupe commutatif d’élément neutre [0]A .
→ (Mn,p (K), +, ·) est un K espace vectoriel.
→ (Mn (K), +, ×, ·) est une K algèbre de dimension n2 . Soit A et B
deux matrices carrée d’ordre n. Si A et B commutentB , alors les
identités remarquables sont utilisables.

Propriété 208. Soit

j
 
0 ... 0
Eij =  ..
 .. 
. 1 . i
0 ... 0

L’ensemble {E11 , . . . , Enp } est une base de Mn,p (K) et dim(Mn,p (K)) =
n × p. Cette base est appelé base canonique de Mn,p (K).

21.3 Transposition et trace


21.3.1 Transposition
Définition 160. Soit M ∈ Mn (K). La transposée de M , notée tM , est
la matrice construite en inversant les lignes et les colonnes de M . Par
exemple, si :
 
  a e i
a b c d d f j 
M =  e f g h alors tM =   c g k

i j k l
d h l

Propriété 209. Soit M ∈ Mn (K).


tt
( M) = M
A [0] représente la matrice nulle de Mn,p (K), c’est à dire une matrice à n lignes et
p colonnes, contenant uniquement des 0. Cet élément neutre est aussi noté 0Mn,p (K) .
B Ce qui n’est absolument pas le cas général.
21.3. TRANSPOSITION ET TRACE 157

Propriété 210. Soit ϕ l’application défini par :

ϕ : Mn,p (K) → Mp,n (K)


M 7→ tM

ϕ est un isomorphisme. De plus, si la matrice M est une matrice carrée,


ϕ est une symétrie de Mn (K).

Propriété 211. Soit M ∈ Mn (K).


(
t
M = M ⇔ M est symétrique
t
M = −M ⇔ M est antisymétrique

L’ensemble est matrices carrées symétriques, noté Sn (K), et l’ensemble


des matrices carrées anti-symétriques, noté An (K), sont deux espaces
vectoriels supplémentaires de l’espace des matrices carrées.

Sn (K) ⊕ An (K) = Mn (K)

21.3.2 Trace
Définition 161. Soit M ∈ Mn (K). On définit la trace de la matrice
carrée M comme la somme des termes de sa diagonale :
n
X
Trace(M ) = xkk
i=1

21.3.3 Transposition et trace du produit


Propriété 212. Soit A ∈ Mn,p (K) et B ∈ Mp,q (K). Alors :

t
(A × B) = tB × tA

et
Trace(A × B) = Trace(B × A)

mais généralement A × B 6= B × A.
158 CHAPITRE 21. MATRICES

21.4 Produits particuliers


Soit M ∈ Mn,p (K) et [0] ∈ Mp,q (K).

M × [0] = [0] ∈ Mn,q (K)

Soit T une matrice scalaire appartenant à Mp,q (K).

M ×T =λ·M

Soit In la matrice unité d’ordre n, et M ∈ Mn (K).

M × In = In × M
=M

21.5 Matrice Carrée inversible


Définition 162. Soit M ∈ Mn (K). On dit que M est inversible si
(
M × N = In
∃N ∈ Mn (K) telle que
N × M = In

Si N existe, on l’appelle inverse de M et on le note N = M −1 . On


note GLn (K) l’ensemble des matrices carrées inversibles d’ordre n. Cet
ensemble est appelé groupe linéaire. Et :

(A × B)−1 = B −1 × A−1

Propriété 213. Soit A ∈ Mn (K). A est inversible si et seulement si


rang(A) = n.

Propriété 214. Soit A ∈ Mn (K). A est inversible si et seulement si


det(A) 6= 0.

Propriété 215. Soit (A, B) ∈ (Mn (K))2 telles que A × B = In . Alors


(
A est inversible et B = A−1
B est inversible et A = B −1
21.6. RANG D’UNE MATRICE 159

21.6 Rang d’une matrice


Définition 163. Le rang d’une matrice est le rang de la famille formée
de ses vecteurs colonnesC . Soit A ∈ Mn,p (K) et Ci le i-ème vecteur
colonne de A.

rang(A) = rang({C1 , . . . , Cp })
= dim(Vect{C1 , . . . , Cp })

et de plus
0 ≤ rang(A) ≤ min({n, p})

21.6.1 Rang de matrices particulières


Matrice diagonale
Soit D = [dij ] ∈ Mn (K), avec D une matrice diagonale. Le rang de
D est le nombre de termes de la diagonale non nuls.

Matrice triangulaire
Soit T = [tij ] ∈ Mn (K). Si ∀i ∈ [|1, n|], tii 6= 0, alors T est de rang
n.

21.6.2 Opération élémentaire


Définition 164. On peut effectuer trois opérations élémentaires sur
une matrice :
1. L’échange de deux colonnes : Ci ↔ Cj .
2. Le produit d’une colonne par un scalaire non nuls.
3. L’addition à une colonne d’une combinaison linéaire des autres.
Propriété 216. Ces opérations élémentaires ne modifie par le rang de
la matrice.

C C’est aussi le rang de la famille formée de ses vecteurs lignes, ce qui revient à

dire que rang(tA)=rang(A).


160 CHAPITRE 21. MATRICES
Chapitre 22
Matrices et espaces vectoriels
de dimensions finies

Soit E un espace vectoriel de dimension finie n. Soit B = {e1 , . . . , en }


et B0 = {e01 , . . . , e0n } deux bases de E.

22.1 Matrice de coordonnées d’un vecteur


dans une base
Définition 165. Soit u ∈ E. Alors il existe un unique n-uplet, appelé
coordonnées de u dans E, (x1 , . . . , xn ) ∈ Kn tel que :

u = x1 e1 + · · · + xn en

On note sous forme matricielle


 
x1
matB (u) =  ...  ∈ Mn,1 (K)
 

xn

Cette matrice est appelé matrice de u dans B.

161
162 CHAPITRE 22. MATRICE - ESPACE DE DIMENSION FINIE

22.2 Matrice d’une famille finie de vecteurs


Définition 166. Soit (u1 , . . . , up ) une famille de vecteurs de E. Si
 
x1j
∀j ∈ [|1, p|], matB (uj ) =  ... 
 

xnj
Alors :  
x11 ... x1p
 .. .. .. 
matB (u1 , . . . , up ) =  . . . 
xn1 ... xnp

22.3 Coordonnées de l’image d’un vecteur


Définition 167. Soit E et F deux espaces vectoriels. Soit f ∈ L(E, F).
Soit BE base de E, BF base de F. Soit u ∈ E. Posons

M = matBE ,BF (f )

X = matBE (u)

Y = matBF (f (u))

Alors :
Y = MX
Propriété 217. Soit u ∈ E. Soit f une application de E dans F. Soit
(
X = matBE (u)
Y = matBF (f (u))

Si il existe M ∈ Mn,p (K) telle que ∀u ∈ E


Y = MX
Alors f est une application linéaire
Propriété 218. Soit f ∈ L(E, F). Soit BE une base de E et BF une base
et F. Soit x ∈ E. Supposons que X = matBE (x) et Y = matBF (f (x)),
et qu’il existe une matrice A telle que :
Y = AX
Alors A = matBE ,BF (f )
22.4. MATRICE DE PASSAGE ENTRE DEUX BASES 163

22.4 Matrice de passage entre deux bases


Définition 168. On note P = matB (B0 )A la matrice de passageB de B
à B’ définie par

P = matB (e01 , . . . , e0n ) ∈ Mn (K)

Propriété 219. P est une matrice inversible, et son inverse est donnée
par :
P −1 = matB0 (B)

22.5 Coordonnées d’un vecteur dans deux


bases
Définition 169. Soit P = matB (B0 ). Soit u ∈ E. On pose X = matB (u)
et X 0 = matB0 (u). On obtient la relation suivant :

X = P X0

22.6 Changement de bases


Définition 170. Soit f ∈ L(E, F). Soit BE et BE0 deux bases de E. Soit
BF et BF0 deux bases de F. On pose :


 M = matBE ,BF (f )
M 0 = mat

BE0 ,BF0 (f )


 P = matBE (BE0 )
Q = matBF (BF0 )

Alors :
M 0 = Q−1 M P
Si f est un endomorphisme, Q = P , donc :

M 0 = P −1 M P
0
A On note aussi cette matrice PB B .
B Cette matrice est un cas particulier de la matrice M étudiée dans la section
précédente, dans lequel l’application f est l’identité de E.
164 CHAPITRE 22. MATRICE - ESPACE DE DIMENSION FINIE

22.7 Matrice d’une application linéaire


Soit f ∈ L(E, F).
Définition 171. Soit BE = {e1 , . . . , ep } une base de E et BF = {e01 , . . . , e0n }
une base de F. On définit la matrice de f dans BE , BF par :
M = matBE ,BF (f )
= matBF ({f (e1 ), . . . , f (ep )})
f (e ) f (ep )
 1  0
x11 ... x1p e1
= . .. .. 
 .. . . 
xn1 ... xnp e0n

Le nombre de colonnes de la matrice est définie par la dimension de


l’espace de départ, celui des lignes par la dimension de l’espace d’arrivé.

22.7.1 Cas Particuliers


I) La matrice de l’application nulle de L(E, F) est la matrice nulle
de Mdim(F),dim(E) (K).
II) La matrice d’un endomorphisme de E est une matrice carrée
d’ordre dim(E).
III) La matrice de l’identité est In .
IV) La matrice d’une homothétie de rapport k est k · In .

22.8 Unicité de la matrice, pour des bases


fixées
Propriété 220. Soit BE une base de E, avec dim(E) =p. Soit BF une
base de F, avec dim(F)=n. Soit :
ϕ : L(E, F) → Mn,p (K)
f → matBE ,BF (f )
C
ϕ est un isomorphisme . On en déduit que :
f = g ⇔ matBE ,BF (f ) = matBE ,BF (g)
C Donc la dimension de l’espace de départ et la dimension de l’espace d’arrivé de
l’isomorphisme sont égales. dim(L(E, F)) = dim(Mn,p (K))
22.9. MATRICES ET OPÉRATIONS 165

22.9 Matrices et opérations


22.9.1 Composée d’application linéaire
Définition 172. Soit E, F et G trois espaces vectoriels de dimensions fi-
nies, et de bases respectives BE , BF , BG . Soit f ∈ L(E, F) et g ∈ L(F, G).
Alors :
matBE ,BG (gof ) = matBF ,BG (g) × matBE ,BF (f )

22.9.2 Matrice inversible et isomorphisme - Endo-


morphisme
Propriété 221. Si f est un isomorphisme de E dans F, alors matBE ,BF (f )
est inversible et :

(matBE ,BF (f ))−1 = matBF ,BE (f −1 )

La réciproque est vérifiée. Nous avons donc :

f est un isomorphisme ⇔ (matBE ,BF (f ) est inversible )

Propriété 222. Si f est un endomorphisme, on a :

(matBE (f ))n = matBE (f n )

22.10 Trace d’un endomorphisme


Propriété 223. Soit f un endomorphisme. Soit A et B deux matrices
carrées d’ordre n. On sait déjà que Trace(A×B)=Trace(B×A). Posons :
(
M = matBE (f )
M 0 = matBE0 (f )

Alors
Trace(M ) = Trace(M 0 )
La trace est donc invariante par changement de baseD .

Définition 173. La trace commune à toutes les matrices de f est ap-


pelée trace de f , notée Trace(f ).
D Tout comme le rang et le déterminant d’une matrice.
166 CHAPITRE 22. MATRICE - ESPACE DE DIMENSION FINIE

22.11 Matrice semblable


Définition 174. Soit A et B deux matrices carrées d’ordre n. On dit
que A et B sont semblables si et seulement si

∃P ∈ GLn (K) telle que B = P −1 AP

Propriété 224. Soit A et B deux matrices carrées d’ordre n. A et B


sont semblables si et seulement si elles sont les matrices, dans deux bases
de E, du même endomorphisme f de E.

22.12 Rang d’une application linéaire


Soit f ∈ L(E, F). Soit BE et BF deux bases de E et F. On peut tou-
jours ramener la matrice de f dans les bases BE , BF , à l’aide d’opérations
élémentaires, à Jr , la matrice définie par :
(
Les r premiers termes de la diagonale valent 1
Tous les autres coefficients sont nuls

Ce qui se représente de la façon suivante :

1 0 ... ... ... ... 0


 
 .. 
0 1 . . . . . . ... ... .
 .. .. .. .. .. .. 
 
..
.
 . . . . . . 
 .. .
.. .
.. .. .. .. 
Jr =  . 1 . . .
 

0 . . . . . . . . . .. .. 
 0 . . 
 .. .. 
0 . . . . . . . . . ... . .
0 ... ... ... ... ... 0

On obtient donc que rang(f ) = r.


Chapitre 23
Déterminants

Soit E un K espace vectoriel de dimension n.

23.1 Forme n-linéaire


Définition 175. Soit ϕ l’application définie par :

ϕ : En → K
(u1 , . . . , un ) 7→ ϕ(u1 , . . . , un )

ϕ est une forme n-linéaire si elle est linéaire par rapport à chacune de
ses variables.

Expression dans une base

Définition 176. Soit B = (e1 , . . . , en ) une base de E. Soit (u1 , . . . , un )


n vecteurs de E. Notons
 
x1j
 .. 
∀j ∈ [|1, n|], matB (uj ) =  . 
xnj

167
168 CHAPITRE 23. DÉTERMINANTS

Si ϕ est une forme n-linéaire, alors :


X
ϕ(u1 , . . . , un ) = xi1 ,1 ...xin ,n ϕ(ei1 , ..., ein )
1≤i1 ,...,in ≤n
| {z }
Somme de nn termes

23.1.1 Forme n-linéaire alternée


Définition 177. Soit ϕ forme n-linéaire. On dit que ϕ est alternée si
∀(u1 , . . . , un ) ∈ En , ∀i, j éléments distinct de {1, . . . , n}
ϕ(u1 , . . . , ui−1 , ui , . . . , uj , . . . , un ) = −ϕ(u1 , . . . , ui−1 , uj , . . . , ui , . . . , un )
Propriété 225. Si ϕ est une forme n-linéaire alternée et {u1 , . . . , un }
une partie liée de E, alors
ϕ(u1 , . . . , un ) = 0

Expression dans une base


Soit ϕ une forme n linéaire alternée et B=(e1 , . . . , en ) une base de
E. X
ϕ(u1 , . . . , un ) = xi1 ,1 . . . xin ,n ϕ(ei1 , . . . , ein )
1≤i1 ,...,in ≤n

Soit Sn l’ensemble des bijections de {1, . . . , n} dans lui même.


X
ϕ(u1 , . . . , un ) = xσ(1),1 . . . xσ(n),n ϕ(eσ(1) , . . . , eσ(n) )
σ∈Sn

Si σ ∈ Sn , on note ϕ(eσ(1) , . . . , eσ(n) ) = ε(σ)ϕ(e1 , . . . , en ). On dit que


ε(σ) est la signature de σ, avec ε(σ) = (−1)p , avec p nombre de chan-
gement à effectuer pour obtenir le bon ordreA . On obtient au final :
" #
X
ϕ(u1 , . . . , un ) = ε(σ)xσ(1),1 . . . xσ(n),n ϕ(e1 , . . . , en )
σ∈Sn

Propriété 226. On appelle déterminant dans la base B=(e1 , . . . , en )


l’unique forme n-linéaire alternée ϕ vérifiant :
ϕ(e1 , . . . , en ) = 1
On le note : detB .
A C’est à dire pour passer de (eσ(1) , . . . , eσ(n) ) à (e1 , . . . , en ).
23.2. DÉTERMINANT DANS DEUX BASES DIFFÉRENTES 169

Propriété 227. Toutes les applications ϕ de En dans K définies par


∀(u1 , . . . , un ) ∈ En :
X
ϕ(u1 , . . . , un ) = A ε(σ)xσ(1),1 . . . xσ(n),n
σ∈Sn

avec A scalaire fixé, est une forme n-linéaire de alternée et ϕ(B) = A,


avec B base de E. Ceci revient à dire que l’ensemble des formes n-
linéaires alternée est une droite vectorielle.

Propriété 228. Soit ϕ une forme n-linéaire alternée de E. On obtient


doncB que :
∃λ ∈ K tel que ϕ = λ · detB

23.2 Déterminant dans deux bases différentes


Soit B et B’ deux bases de E. ∀(u1 , ..., un ) ∈ En

detB0 (u1 , . . . , un ) = detB0 (B)detB (u1 , . . . , un )

Ici, on observe que le λ est égale à detB0 (B).

Propriété 229. Nous avons les propriétés suivantes sur le déterminant :


(
detB (u1 , . . . , un ) = 0 ⇔ {u1 , . . . , un } est liée
detB (u1 , . . . , un ) 6= 0 ⇔ ({u1 , . . . , un } est une base

La deuxième propriété est en réalité équivalente à la premièreC .

Propriété 230. Si B et B’ sont deux bases de E :

1
detB0 (B) =
detB (B0 )

Formulaire
→ detB (B) = 1
→ detB (λu1 , . . . , λun ) = λn det(u1 , . . . , un )
B D’après la propriété précédente.
C Concient que l’on travaille dans un espace de dimension n
170 CHAPITRE 23. DÉTERMINANTS

23.3 Déterminant d’un endomorphisme


Propriété 231. Soit f ∈ L(E). Soit B et B’ deux bases de E.

detB (f (B)) = detB0 (f (B 0 ))

Ce scalaire, indépendant du choix de la base, est appelé déterminant de


f . On le note : det(f )

Propriété 232. Soit f et g sont deux endomorphismes de E :

det(f og) = det(g)det(f )

Propriété 233. Soit f ∈ L(E) :

f est bijectif ⇔ det(f ) 6= 0

Propriété 234. Soit f un automorphisme de E :

det(f −1 ) = det(f ))−1


1
=
det(f )

23.4 Déterminant d’une matrice carrée


Définition 178. Soit A ∈ Mn (K). Notons (C1 , . . . , Cn ) les vecteurs
colonnes de A, éléments de K n . Soit B la base canonique de Kn .

det(A) = detB (C1 , . . . , Cn )

Propriété 235. Soit B la base canonique de Kn . Notons (L1 , . . . , Ln )


les vecteurs lignes de A, éléments de K n . Nous avons :

det(A) = detB (L1 , . . . , Ln )

On en déduit donc que det(tA) = det(A).

Propriété 236. Soit f ∈ L(E), et B une base de E. Notons M =


matB (f ). On obtient

det(f ) = detB (f (B))


= det(M )
23.5. DÉVELOPPEMENT DU DÉTERMINANT D’UNE MATRICE171

23.4.1 Déterminant singulier


Soit (A, B) ∈ Mn (K)2 , λ ∈ K.
(
det(A × B) = det(A) · det(B)
det(λ · A) = λn · det(A)

Attention, on ne peut rien dire à priori sur det(A + B).

23.4.2 Opérations élémentaires et déterminant


On peut effectuer des opérations élémentaires, tout comme pour le
calcul de rang, pour calculer le déterminant d’une matrice. Ceci implique
les règles suivantes :
1. Ci ↔ Cj : Changement de signe du déterminant
2. Ci ← λ · Ci : λ fois le déterminant
P
3. Ci ← λk · Ck : Aucun changements
k=1,k6=i

23.4.3 Déterminants remarquables


Matrice diagonale
Soit A une matrice diagonale de diagonale (d1 , . . . , dn ). On obtient :

det(A) = d1 d2 . . . dn

Matrice triangulaire
Soit A une matrice triangulaire de diagonale (t11 , . . . , tnn ). On ob-
tient :
det(A) = t11 . . . tnn

23.5 Développement du déterminant d’une


matrice
Définition 179. Soit A = [ai,j ]1≤i,j≤n . Soit j ∈ {1, . . . , n}. Le déve-
loppement par rapport à la j-ème colonne de A donne

det(A) = a1,j ∆1,j + · · · + an,j ∆n,j


172 CHAPITRE 23. DÉTERMINANTS

Le développement par rapport à la i-ème ligne de A donne :

det(A) = ai,1 ∆i,1 + · · · + ai,n ∆i,n

On appelle cofacteur de ai,j dans le développement ∆i,j :


X
∆i,j = ε(σ)aσ(1),1 . . . aσ(j−1),j−1 aσ(j+1),j+1 . . . aσ(n),n
σ∈Sn ,σ(j)=i

23.5.1 Calcul des cofacteurs


Soit A ∈ Mn (K).
Propriété 237. On détermine le cofacteurs de A à l’aide de l’égalité
suivantes :
∆i,j = (−1)i+j × D
Avec D le déterminant de la matrice obtenu en enlevant la i-ème ligne
et la j-ème colonne de la matrice A.

23.5.2 Inverse d’une matrice inversible


Soit A = [ai,j ]1≤i,j≤n . Soit la comatrice de A, noté Com(A).

Com(A) = [∆i,j ]1≤i,j≤n

Si A est inversible, alors :


1 t
A−1 = Com(A)
det(A)
Douzième partie

Espace vectoriel
euclidien

173
Chapitre 24
Espaces vectoriels euclidiens

24.1 Produit scalaire


Définition 180. Soit E un K espace vectoriel. Un produit scalaire sur
E, noté < , > est une forme


 Bilinéaire, c’est à dire linéaire par rapport à chacune de ces variables.
Symétrique : ∀(x, y) ∈ E 2 , < x, y >=< y, x >



 Positive : ∀x ∈ E, < x, x >≥ 0
Définie : ∀x ∈ E, < x, x >= 0 ⇒ x = 0

24.1.1 Notation et Vocabulaire


Soit E un K espace vectoriel.

Propriété 238. L’application définie par

|| || : E → K

u 7→ ||u|| = < u, u >

est une norme sur E. Cette norme est appelé norme déduite du produit
scalaire < , >.

175
176 CHAPITRE 24. ESPACES VECTORIELS EUCLIDIENS

Définition 181. Soit (u, v) ∈ E 2 . On dit que u et v sont orthogonauxA


si et seulement si
< u, v >= 0

Définition 182. Soit E un espace vectoriel. On dit que E est un espace


vectoriel euclidien si il est de dimension finie, et que l’on a définit sur
cet espace un produit scalaire.

24.2 Propriétés
Soit E un R espace euclidien.

Propriété 239. Soit u et v deux vecteurs de E.

||u + v||2 =< u + v, u + v >


= ||u||2 + 2 < u, v > +||v||2

Théorème 22. Théorème de PythagoreB : Soit u et v deux vecteurs


de E.
u et v sont orthogonaux ⇔ ||u + v|| = ||u||2 + ||v||2

Propriété 240. Inégalité de CauchyC -Schwarz : Soit u et v deux vec-


teurs de E.
| < u, v > | ≤ ||u|| · ||v||
Il y a égalité si et seulement si u et v sont colinéaires.

Propriété 241. Si {u1 , . . . , un } est une famille de n vecteurs non nuls


de E et 2 à 2 orthogonaux, alors la partie est libre.

Propriété 242. Soit B une base de E. Soit u et v deux vecteurs de E de


coordonnées respectives (x1 , . . . , xn ) et (y1 , . . . , yn ) dans B. On définit
le produit scalaire suivant :

< u, v >= x1 y1 + · · · + xn yn
A Pour le produit scalaire < , >. L’orthogonalité est dépendant du produit scalaire
défini sur l’espace E.
B Pythagore (Samos, le 580 av J.C - 497 av J.C) était un mathématicien grec.
C Augustin Louis, baron Cauchy, (Paris le 21 août 1789 - Sceaux le 23 mai 1857)

était un mathématicien français, membre de l’Académie des sciences et professeur à


l’École polytechnique.
24.3. BASE ORTHONORMÉE 177

Donc la norme déduite du produit scalaire < , > s’exprime par


q
||u|| = x21 + · · · + x2n
Ce produit scalaire est appelé produit scalaire usuel sur Rn . Ce produit
scalaire fait de la base canonique de Rn une base orthonormée.

24.3 Base orthonormée


Définition 183. Soit E un espace de dimension n. Soit (e1 , . . . , ep ) p
vecteurs de E deux à deux orthogonaux (famille orthogonale) et unitaire
(famille normée D ). (e1 , . . . , ep ) est une famille dites orthonormée.
Propriété 243. Tout R espace vectoriel euclidien de dimension finie
admet au moins une base orthonormée.
Propriété 244. Soit B = (e1 , . . . , en ) une base orthonormée de E. Soit
u un vecteur de E. Les coordonnées de u dans B sont donnée par
∀k ∈ [|1, n|], < u, ek >= xk

24.3.1 Matrice orthogonale


Définition 184. Une matrice est dite orthogonale si les vecteurs co-
lonnes (C1 , . . . , Cn ) forme une base orthonormée de Rn , avec Rn munie
du produit scalaire usuel.
Propriété 245. Soit M une matrice. M est orthogonale si et seulement
si M tM = In .
Propriété 246. Une matrice de passage entre deux bases orthonormées
est orthogonale.
Propriété 247. Soit B une base orthonormée et B’ une base quel-
conque. Soit P = matB (B0 ) la matrice de passage entre B et B’ .
B’ est orthogonale ⇔ P −1 = tP
Propriété 248. Soit P une matrice orthogonale.
det(P ) = ±1
Propriété 249. Si P est orthogonale, alors tP est orthogonale et (L1 , . . . , Ln )
forme aussi une base orthonorméeE de Rn .
D ∀k ∈ [|1, n|], ||ek || = 1
E Au sens du produit scalaire usuel de Rn .
178 CHAPITRE 24. ESPACES VECTORIELS EUCLIDIENS

24.3.2 Orientation de l’espace vectoriel


Définition 185. Soit E un espace vectoriel. On oriente une base en
définissant une base dite directe. Toutes les autres bases seront posi-
tionnées par rapport à cette base de référence. Soit B0 une base directe.
Soit B une base de E :
(
detB0 (B) > 0 alors B est directe.
detB0 (B) < 0 alors B est indirecte.
Propriété 250. Soit B et B’ deux bases de E :
detB (B0 ) > 0 ⇔ B et B’ ont la même orientation

Bases orthonormées
Propriété 251. Soit B1 une base orthonormée directe de E. Soit B une
base de E.
(
detB1 (B) = 1 alors B est une base orthonormée directe
detB1 (B) = −1 alors B est une base orthonormée indirecte
Propriété 252. Soit (u1 , . . . , un ) ∈ Rn . Soit B et B’ deux bases ortho-
normées directes :
detB (u1 , . . . , un ) = detB0 (u1 , . . . , un )
Ce déterminant commun à toutes les bases orthonormées directes est
noté Det(u1 , . . . , un ).

24.3.3 Orthogonalité et sous-espace vectoriel


Soit E un espace euclidien.

Sous espace vectoriel orthogonaux


Définition 186. Soit F et G deux sous espaces vectoriels de E.
F est orthogonal à G ⇔ ∀(x, y) ∈ F × G, < x, y >= 0
Propriété 253. Deux sous espaces vectoriels orthogonaux sont en somme
directe.
Propriété 254. Soit F et G deux sous espaces vectoriels orthogonaux
de E.
dim(F) + dim(G) ≤ dim(E)
24.3. BASE ORTHONORMÉE 179

Orthogonal d’un sous-espace vectoriel


Définition 187. Soit F un sous espace vectoriel de E. On appelle or-
thogonale de F l’ensemble des vecteurs de E qui sont orthogonaux à
tous les vecteurs de F. On note :

F⊥ = {x ∈ E / ∀y ∈ F, < x, y >= 0}

Propriété 255. F⊥ est un espace vectoriel.


Propriété 256. F et F⊥ sont deux sous espaces vectoriels supplémen-
taires.
Propriété 257. On en déduit que :

dim(F⊥ ) = dim(E) − dim(F)

Propriété 258. L’orthogonale de l’orthogonale de F est F.

(F⊥ )⊥ = F

Propriété 259. Soit ϕ ∈ L(E, R). Soit u un vecteur de E de coor-


données (x1 , . . . , xn ) ∈ Rn dans une base orthonormée de E. Il existe
a = (a1 , . . . , an )Rn tel que :

ϕ(u) = a1 x1 + · · · + an xn

On obtient donc :
ϕ(u) =< a, u >
Avec < , > le produit scalaire usuel de Rn . Par conséquence :

Ker(ϕ) = (Vect(a))⊥

24.3.4 Projection orthogonale


Définition 188. Soit E un espace euclidien. Soit F un sous espace
de E. La projection orthogonale sur un sous espace vectoriel F est la
projection sur F parallèlement à F⊥ .
Définition 189. Soit E un espace euclidien. Soit B1 = (e1 , . . . , ep ) une
base orthonormée de F et B2 = (ep+1 , . . . , en ) une base orthonormée
de F⊥ . B = (e1 , . . . , en ) est une base de EF . Soit x un vecteur de E
F Car F et F ⊥ sont supplémentaire.
180 CHAPITRE 24. ESPACES VECTORIELS EUCLIDIENS

de coordonnées (x1 , . . . , xp , xp+1 , . . . , xn ) dans B. On obtient donc le


| {z } | {z }
∈F ∈F⊥
projeté orthogonale de x sur F, notée p(x) :

p(x) =< x, e1 > e1 + · · · + < x, ep > ep

Propriété 260. Si p est la projection orthogonale sur F. Si u ∈ E,


alors :
inf{||x − y|| / y ∈ F} = ||x − p(x)||
Et on note :
d(x, F) = inf k x − y k
y∈F

Et on appelle ceci distance entre le vecteur x et l’espace F.


Propriété 261. Si :
→ y∈F
→ x − y ∈ F⊥
Alors y = p(x).
24.3. BASE ORTHONORMÉE 181


182 CHAPITRE 24. ESPACES VECTORIELS EUCLIDIENS
Chapitre 25
Espace euclidien de dimension
3

Soit E un espace euclidien de dimension 3. Habituellement, on note


avec une flèche les vecteurs d’un espace euclidien de dimension inférieure
ou égale à 3, par analogie avec la géométrie dans l’espace de 3 dimension
usuel.

25.1 Définitions
25.1.1 Angle de deux vecteurs non nuls
Soit →
−u et →

v deux vecteurs non nuls de E, non colinéaires. Soit θ
l’angle entre u et →

− −v . Soit →
−n un vecteur orthogonale à → −
u et →

v . On
obtient :
<→−u,→−v >= ||→ −
u ||||→

(
v || cos(θ)
Det( u , v , n ) = || u ||||→

− →
− →
− →
− −
v ||||→

n || sin(θ)

Avec ces expressions, on obtient l’expression de cos(θ) et sin(θ), donc θ.

25.1.2 Produit vectoriel



− → − →−
Propriété 262. Soit ( i , j , k ) une base orthonormée directe de E.
Le produit vectoriel est l’unique application de E2 dans E

183
184 CHAPITRE 25. ESPACE EUCLIDIEN DE DIMENSION 3

1. Alternée : →−
u ∧→−
v = −→−v ∧→ −
u
2. Bilinéaire. 

− → − →

i ∧ j = k

− →
→ − →

3. Vérifiant : j ∧ k = i
→
 − → − →

k ∧ i = j
La définition du produit vectoriel est indépendante du choix de la base
orthonormée.
Propriété 263. Soit → −
u et →

v deux vecteurs de E.

− →

u ∧→−v = 0 ⇔→ −u et →−v sont colinéaires
Propriété 264. Soit →
−u et →
−v deux vecteurs de E et θ l’angle entre ces
deux vecteurs.
||→
−u ∧→−
v || = ||→

u || · ||→

v || · | sin(θ)|

− →

Propriété 265. Soit u et v deux vecteurs de E non colinéaires. Alors :
(→

u ∧→

v )⊥→

u

−u ∧→ −v est l’unique vecteur orthogonal à →

u et à →

v A tel que la base

− →
− →
− →

( u , v , u ∧ v ) soit directe.

25.1.3 Double produit vectoriel




Propriété 266. Soit →

a , b et →
−c trois vecteurs de E :


− →
− − −c )→
− →
− −
a ∧(b ∧→ c ) = (→

a ·→ b − (→
−a · b )→
c
On peut le retenir avec l’écriture suivante :

− →
− − →
− − → →

a ∧(b ∧→ c ) = b (→a · −c ) − →
−c (→

a · b)
En se souvenant du BAC - CAB. Cependant, cette écriture n’est pas
standardB .

25.1.4 Produit mixte


Propriété 267. Soit →
−u,→
−v et →−
w trois vecteurs de E :
( u ∧ v ) · w = Det(→

− →
− →
− −u,→
−v ,→

w)

A De norme ||−→u || · ||−



v || · | sin(θ)|
B Car les coefficients des vecteurs sont positionnés après les vecteurs, ce qui n’est
pas l’écriture standard.
Chapitre 26
Isométrie Vectorielle

Soit E un espace euclidien.

26.1 Généralités
Définition 190. Soit f ∈ L(E). f est une isométrie vectorielle si et
seulement si
∀x ∈ E, ||f (x)|| = ||x||
Autrement dit, une isométrie vectorielle est une application vectorielle
qui conserve la norme.
Définition 191. Nous avons une définition équivalente à la précédente
pour une isométrie vectorielle. Soit f ∈ L(E). f est une isométrie vec-
torielle si et seulement si :
∀(x, y) ∈ E2 , < f (x), f (y) >=< x, y >
Autrement dit, une isométrie vectorielle est une application vectorielle
qui conserve le produit scalaire.
Propriété 268. Soit f une isométrie vectorielle. On dit que f est un
endomorphisme orthogonale.
Propriété 269. Une isométrie vectorielle est bijective.
Propriété 270. La réciproque d’une isométrie vectorielle est une iso-
métrie vectorielle.

185
186 CHAPITRE 26. ISOMÉTRIE VECTORIELLE

Propriété 271. La composée de deux isométries vectorielles est une


isométrie vectorielle.

Propriété 272. L’ensemble des isométries vectorielles, munie de la loi


de composition des applications, est un groupe. Ce groupe est appelé le
groupe orthogonale de E, noté O(E).

Propriété 273. Soit f endomorphisme de E, et B une base orthonor-


mée.

f est une isométrie vectorielle ⇔ f (B) est une base orthonormée de E


⇔ matB (f ) est une matrice orthogonale

26.2 Isométrie vectorielle plane


26.2.1 Classification

− →−
Soit B = ( i , j ) une base orthonormée directe du plan euclidien P.
Soit f une isométrie vectorielle de P. Soit D une droite vectoriel. Soit
Inv(f ) l’ensemble des invariants.

f mat
 B (f )  Det Inv(f )
cos(x) − sin(x)
Rotation d’angle θ +1 {0}A
 sin(x) cos(x) 
cos(x) sin(x)
Symétrie ⊥ par rapport à D -1 D
sin(x) − cos(x)

26.2.2 Cas particulier des rotations


Propriété 274. L’ensemble des rotations vectorielles planes est un sous
groupe de O(E), appelé groupe spéciale orthogonale. Il est noté SO(E).

26.2.3 Symétries orthogonales


Propriété 275. La composée de deux symétries orthogonales par rap-
port à deux droites est une rotation d’angle deux fois l’angle entre ces
deux droites.
A Ou E si θ = 0 [2π], car dans ce cas la rotation est en réalité l’identité de E.
26.3. ISOMÉTRIE VECTORIELLE DE DIMENSION 3 187

26.3 Isométrie vectorielle d’un espace eu-


clidien de dimension 3

− → − → −
Soit E un espace euclidien et B = ( i , j , k ) une base orthonormée
directe de E.

26.3.1 Symétrie orthogonale


Soit F un sous espace de E, et sf la symétrie orthogonale par rapport
à F :
Dim Base Matrice
  Det Type
−1 0 0
F = {0} B  0 −1 0  -1 sf = h−1
0 0 −1 
1 0 0
B 0 −1 0 
dim(F ) = 1 (e1 , e2 , e3 ) 1 ×
0 0 −1 
1 0 0
C 0 1 0 
dim(F ) = 2 (e1 , e2 , e3 ) -1 Réflexion
0 0 −1 
1 0 0
dim(F ) = 3 B 0 1 0 1 sf = Ide
0 0 1

Propriété de la matrice d’un symétrie orthogonale dans une


base orthonormée
Si B est une base orthonormée et s une symétrie orthogonale. Soit
M = matB (s). Sachant que s est une symétrie, M est inversible et
M −1 = M . De plus, la symétrie est orthogonale, donc la matrice est
aussi orthogonale, donc M −1 = tM . On obtient donc M =t M . Donc
M est une symétrie.

26.3.2 Rotation
Définition 192. Soit D une droite vectorielle orientée et θ un réel. La
rotation d’axe de D et d’angle θ est l’application linéaire r telle que :
B Base orthonormée directe, avec F = Vect(e1 ).
C Base orthonormée directe, F = Vect(e1 , e2 ).
188 CHAPITRE 26. ISOMÉTRIE VECTORIELLE

→ ∀u ∈ D, r(u) = u
→ Le plan D⊥ soit stable par r et que la restriction de r à ce plan
soit une rotation plane d’angle θ orienté par D.

Propriété 276. Soit B = (e1 , e2 , e3 ) une base orthonormée directe telle


que D = Vect(e1 ) et donc D⊥ = Vect(e2 , e3 ) D , alors :
 
1 0 0
matB (r) = 0 cos(θ) − sin(θ) et det(r) = 1
0 sin(θ) cos(θ)

Propriété 277. Cas particuliers :


→ Si θ = 0, alors r = Ide
→ Si θ = π, alors r = sD

Propriété 278. Composée de deux réflexions : Soit P et P’ deux plans


distincts tels que P ∩ P0 = D :
→ Si u ∈ D, sP0 (sP (u)) = u
→ Si u ∈ D⊥ , alors r est stable dans D⊥
→ sP0 osP (u) est une rotation d’axe D.

Calcul de l’image d’un vecteur de x par une rotation




Soit r une rotation d’axe D, orienté par d , un vecteur directeur de
D, et d’angle θ. Soit →

x ∈
/D:

− →
− − →
− →
− →
<→

x , d >→
− (d ∧→ x)∧ d d ∧− x
r(→

x)= 2
d + cos(θ) →
− + sin(θ) →

||d|| || d ||2 || d ||


Dans le cas particulier où || d || = 1, alors :

− →
− →
− − →
− →
− −
r(→

x ) =< →

x , d > d + cos(θ)( d ∧ →
x ) ∧ d + sin(θ) d ∧ →
x

26.3.3 Classification
Soit f une isométrie vectorielle. Soit Inv(f ) l’ensemble des vecteurs
invariants par f .
D Car un sous espace vectoriel et son orthogonale sont en somme directe.
26.3. ISOMÉTRIE VECTORIELLE DE DIMENSION 3 189

FE f Base Matrice
  Det
1 0 0
3 Ide Quelconque 0 1 0 1
0 0 1 
1 0 0
2 sp F (→

e1 , →

e2 , →

e3 ) 0 1 0  -1
0 0 −1 
1 0 0
1 r(D,θ)G (→

e1 , →

e2 , →

e3 ) 0 cos(θ) − sin(θ) 1
0 sin(θ) cos(θ) 
−1 0 0
0 sp or(D, θ)H (→

e1 , →

e2 , →

e3 )  0 cos(θ) − sin(θ) -1
0 sin(θ) cos(θ)

Éléments caractéristiques d’une rotation


Soit r une rotation. Ses éléments caractéristiques sont :
→ L’axe : L’ensemble des vecteurs invariante
→ L’angle :
→ cos(θ) est obtenu par Trace(r) = 1 + 2 cos(θ) dans une base
adaptée.
→ Le signe de sin(θ) est obtenu par le signe de Det(x, r(x), d),
avec x n’appartenant pas à l’espace des invariant par r, r(x)
l’image de x par la rotation et d un vecteur directeur de l’axe.

Autre résultat
Propriété 279. La matrice d’une projection orthogonale dans une base
orthonormée est symétrique

E La dimension de F.
F Une réflexion
G Rotation d’axe D, avec D = Inf(f ) et d’angle θ
H Composé une rotation et d’une réflexion.
190 CHAPITRE 26. ISOMÉTRIE VECTORIELLE
Treizième partie

Les Annexes

191
Annexe A
Matrices

A.1 Inversibilité et inverse


Soit A ∈ Mn (K)
On peut déterminer si A est inversible et trouver son inverse à l’aide de
trois méthodes classiques :

A.1.1 Interprétation

On pose que A est la matrice d’une application linéaire f dans


la base canonique de Rn . On essaye de montrer que f est un iso-
morphisme et donc de déterminer f −1 . Si on y arrive, on obtient que
A−1 = matB (f −1 ).

A.1.2 Opérations élémentaires

On effectue des opérations élémentaires sur A jusqu’à obtenir la ma-


trice unité In . On en déduit que rang(A)=n, donc que A est inversible.
On reporte les opérations effectuées sur A, pour arriver à In , sur In . La
matrice qui découle de In est A−1 .

193
194 ANNEXE A. MATRICES

A.1.3 Astuce
Si n est assez faible, 2 ou 3, on multiplie A par elle même jusqu’à
obtenir une matrice de la forme :

An = λA + µIn

On obtient A−1 grâce à ceci :


1
A(An−1 − λIn ) = In
µ

A.2 Opérations sur les matrices


A.2.1 Changement de base
1ère méthode
On utilise la formule, dans le cas d’un endomorphisme, pour passer
d’une base BE à une base B0E :

M 0 = P −1 M P

avec :
 M 0 = matB0E (f )

M = matBE (f )
P = matBE (B0E )

2nd méthode
Cette méthode est valable si on connait l’endomorphisme associé à
la matrice M . On sait que M 0 , la matrice dans la nouvelle base, est
construite à l’aide des l’images par f des vecteurs de l’ancienne base,
BE , en fonction de la nouvelle, B0E . On calcule donc l’image des vecteurs
de BE par f , puis on les expriment en fonction des vecteurs de la base
B0E .

A.2.2 Calcul des coordonnées d’un vecteur dans une


autre base
On utilise la formule suivante :

X 0 = P −1 X
A.3. BASE DU NOYAU 195

avec : 
 X = matBE (x)
X 0 = matB 0 E (x)
 −1
P = matBE0 (BE )

A.3 Base du noyau


Si dim(Ker(f )) est 1 ou 2, on observe la matrice de l’application,
et on cherche une combinaison de colonnes qui fournie la colonne nulle.
Sachant que f est linéaire et que les colonnes représente les images des
vecteurs de base, on rassemble ces colonnes et on obtient un vecteur du
noyau.
Par exemple :  
1 2
mat(e1 ,e2 ) (f ) =
0 0
On remarque que 2f (e1 ) − f (e2 ) = 0, donc 2e1 − e2 ∈ Ker(f ).
196 ANNEXE A. MATRICES
Annexe B
Fraction Rationnelle

B.1 Partie entière

Pour déterminer la partie entière, on fait la division euclidienne du


numérateur par le dénominateur, sans l’ordre de multiplicité si il existe.

B.2 Décomposition en éléments simples

On décompose en éléments simples et on détermine ces coefficients


en travaillant sur l’égalité :

N um λ1 λα µ1 µβ
= ... ...
(X − a)α (X − b)β (X − a) (X − a)α (X − b) (X − b)β

Si deg(Dénomin) > 1 (ex : (X 2 + 1)α ) dans la décomposition, alors

∀i ∈ [|1, α|]λi = λi1 X + λi2

197
198 ANNEXE B. FRACTION RATIONNELLE

B.2.1 Dans C
Pôle simple
P P
Si F = = , avec a qui n’est pas racine de Q1 . On
Q (X − a)Q1
obtient que la décomposition de F est de la forme :
λ
F = F0 +
X −a
Avec a qui n’est pas un pôle de F0 . Il existe deux techniques principale
pour déterminer λ :
I) On multiple F par le dénominateur, X − a
P
(X − a)F = = F0 (X − a) + λ
Q1
Et on détermine la valeur en a.
P̃ (a)
λ=
Q̃1 (a)
II) On utilise la dérivé. On applique la formule de Taylor en a pour
Q. Et on obtient, au final, que
P̃ (a)
λ=
Q̃0 (a)

Pôle avec ordre de multiplicité


Dans le cas où un pôle possède un ordre de multiplicité supérieur à
1, on utilise des valeurs particulières pour déterminer les λi .

Parité
Si on a F (−X) = −F (X) ou F (−X) = F (X), on développe les
expressions et on obtient entre les différentes coefficients des relations,
ce qui limite le nombre de coefficients à déterminer.

B.2.2 Dans R
Décomposition indirecte
Si on a la décomposition dans C, avec des pôles imaginaires, on met
sous le même dénominateur les fractions avec les pôles conjugués. On
obtient la décomposition dans R.
B.2. DÉCOMPOSITION EN ÉLÉMENTS SIMPLES 199

Décomposition direct
→ Soit on passe par un ensemble de valeurs particulières, pour dé-
terminer les différents coefficients.
→ Soit, si possible, on utilise un pôle complexe, et on détermine les
coefficient. Par exemple, on utilise la valeur en i de (X 2 + 1)F .
200 ANNEXE B. FRACTION RATIONNELLE
Annexe C
Intégrale

C.1 Étude de la fonction


C.1.1 Définition
Soit
Z v(x)
g : x 7→ f
u(x)

Pour étudier le domaine de définition d’une fonction :


→ On travaille à x fixé : 
Soit x ∈ R
 u(x) existe
→ Puis : (f (x) existe) ⇐ v(x) existe
f est continue par morceaux sur [u(x); v(x)]

C.2 Primitive
Soit f définie sur un ensemble E :
→ Si E n’est pas un intervalle, alors on ne peut rien dire à priori.
→ Si E est un intervalle :
→ Si f n’est pas continue en un réel de E, alors on ne peut rien
dire à priori.
→ Si f est continue par morceaux sur E, alors f admet un en-
semble de primitives.

201
202 ANNEXE C. INTÉGRALE

C.2.1 Dérivabilité
On définit une fonction primitive de f , qui est une fonction continue
par morceaux sur son domaine de définition. On la note F . On obtient :

g(x) = F (v(x)) − F (u(x))

Ce qui permet de dire que g est dérivable, comme F est par définition
dérivable et d’obtenir l’expression de la dérivée.
Annexe D
Procédé d’orthonormalisation
de Gram-Schmidt

Soit (u, v, w) une base de R3 . (On peut étendre cette méthode pour
une base de Rn ). On recherche une base orthonormée de R3 : (e1 , e2 , e3 ).
Cette base doit vérifier :
→ Vect(e1 )=Vect(u)
→ Vect({e1 , e2 }) = Vect({u, v})
→ Vect({e1 , e2 , e3 }) = R3
On construit la base de la façon suivante. Pour e1 , on pose directement :
u
e1 =
||u||

Pour e2 , on détermine tout d’abord un vecteur A2 , colinéaire à e2 . A


l’aide d’une représation plan, on déduit que :

A2 = v + λu

On détermine λ sachant qu’il faut que :

< A2 , e1 >= 0

On obtient λ. On pose :
A2
e2 =
||A2 ||

203
204ANNEXE D. PROCÉDÉ D’ORTHONORMALISATION DE GRAM-SCHMIDT

Pour e3 , on effectue une representation dans l’espace, et on déduit que :

A3 = w + λu + µv

On détermine λ et µ sachant que A3 doit vérifier :

< A3 , e1 > =< A3 , e2 > =0

Et on obtient e3 :
A3
e3 =
||A3 ||
Annexe E
Fonctions de R2 dans R

E.1 Caractérisation de l’existence d’une li-


mite
Pour montrer qu’il existe une limite, on peut procéder de trois façon
differentes :
→ Par utilisation de la définition :

∀ε > 0 ∃α > 0 tq ∀(x, y) ∈ B((x0 , y0 ), α) : |f (x, y) − l| < ε

→ Par utilisation des propriétés sur les sommes, produits et com-


positions.
→ À l’aide du théorème d’encadrement.

E.2 Caractérisation de la non-existence de


limite
Pour caractériser le fait qu’une limite n’existe pas, on utilise l’idée
des ”chemins”. On recherche tout d’abord deux couples différents, (x1 , y1 )
et (x2 , y2 ), qui converge vers (a, b) par exemple :
→ lim x1 (t) = a
t→t0
→ lim y1 (t) = b
t→t0
→ lim x2 (t) = a
t→α

205
206 ANNEXE E. FONCTIONS DE R2 DANS R

→ lim y2 (t) = b
t→α
Puis si on obtient, avec l différents de l0 :
→ lim f (x1 (t), y1 (t)) = l
t→t0
→ lim f (x2 (t), y2 (t)) = l0
t→α
Alors on en déduit que la limite en (a, b) de f n’existe pas.
Annexe F
Plan d’étude des fonctions de
R dans R

Pour étudier une fonction de R dans R, on peut utiliser le protocole


suivant :
1. Domaine de définition.
2. Parité et périodicité, pour réduire le domaine d’étude.
3. Domaine de continuitéA .
4. Domaine de dérivabilitéB .
5. Calcul de la dérivéeC .
6. Signe de la dérivée, et donc sens de variation de la fonction.
7. Limite aux bornes D .
8. Étude des branches infinies.
9. Courbe représentative.
10. Symétries de la courbe.
Af est continue en a si lim f (x) = f (a)
x→a
B f est dérivable en a si lim f (x) − f (a) = f 0 (a)
x→a x−a
C Voir liste des dérivées classiques.
D Voir limites classiques.

207
208ANNEXE F. PLAN D’ÉTUDE DES FONCTIONS DE R DANS R

F.1 Branches infinies


Soit f une fonction définie au voisinage de +∞ telle que lim f (x) =
x→+∞
+∞.
f (x)
1. Si lim = ∞, alors la courbe représentative de f admet une
x→∞ x
branche asymptotique de direction (Oy)
f (x)
2. Si lim = a, avec a 6= 0 :
x→∞ x
(a) Si lim f (x) − ax = b, alors la courbe représentative de f
x→∞
admet une asymptote d’équation y = ax + b

(b) Sinon, elle admet une branche asymptotique d’équation y =


ax
f (x)
3. Si lim = 0, alors la courbe représentative de f admet une
x→∞ x
branche asymptotique de direction (Ox)
Annexe G
Plan d’étude d’un arc
paramétré

Pour étudier un arc paramétré, on peut suivre le plan suivant :


1. Domaine de définition
2. Réduction du domaine d’étude par
(a) Périodicité
(b) Symétrie
(c) Parité
3. Dérivabilité : Faire un double tableau de variation (un pour x, un
pour y)
4. Tangentes
(a) En un point régulier : Le vecteur de coordonnée (x0 (t0 ), y 0 (t0 ))
est tangent en t0 .
(b) En un point singulier :

y 0 (t)
lim
t7→t0 x0 (t)

Ou on peut utiliser la méthode des entiers caractéristiques


5. Branches infinies : Si lim x(t) = +∞ et lim y(t) = +∞
t→t0 t→t0

209
210 ANNEXE G. PLAN D’ÉTUDE D’UN ARC PARAMÉTRÉ

y(t)
→ lim
t→t0 x(t)

→ ∞ : Branche de direction Oy
→ a∈R
→ lim y(t) − ax(t)
t→t0
→ b ∈ R : y = ax + b asymptote
→ ∞ ou ∅ : Branche de direction ax
→ 0 : Branche de direction Ox
→ ∅ : Aucune méthode
6. Concavité :


→ Étude du signe de Det(→−
v A , Γ B ).


→ L’angle (→

v , Γ ) donne la position de la tangente.
→ Les points d’inflexion sont les points de changements de conca-
vité.
7. Point double. On résout le système suivant, d’inconnues (t, t0 ),
avec t 6= t0 :
x(t) = x(t0 )

y(t) = y(t0 )

A La vitesse.
B L’accélération.
Annexe H
Les structures d’algèbre

Ce chapitre classe par complexité les différentes structures

H.1 Groupe
Un groupe est un ensemble munie d’une loi de composition interne.
Soit E un ensemble munie de la loi de composition interne +, noté
(E, +). (E, +) est un groupe si et seulement si
1. + est une loi de composition interne :
∀(x, y) ∈ E2 x+y ∈E
2. + est une loi associative :
∀(x, y, z) ∈ E3 (x + y) + z = x + (y + z)
3. + possède un élément neutre, noté OE A :
∀x ∈ E x + OE = OE + x
=x
4. Tous éléments x de EB est symétrisable pour + dans E. Ce symé-
trique est −x :
∀x ∈ E x + (−x) = (−x) + x = OE
A On l’appelle vecteur nul de E.
B Soit x ∈ E. x est appelé vecteur de E.

211
212 ANNEXE H. LES STRUCTURES D’ALGÈBRE

Un groupe (E, +) est aussi appelé magmaC associatifD unifèreE .

H.1.1 Groupe commutatif


Si + est une loi commutative, c’est à dire si elle vérifie

∀(x, y) ∈ E2 x+y =y+x

On dit que (E, +) est un groupe commutatifF .

H.2 Anneau
Un anneau est un ensemble muni de deux lois : Une loi de composi-
tion interne et une loi de composition externe. Soit E un ensemble munie
de la loi de composition interne + et de la loi de composition externe ·,
noté (E, +, ·) E est un anneau si et seulement si
1. (E, +) est un groupe commutatif.
2. La loi · est associative et distributiveG par rapport à la loi +.

H.3 Corps
Un corps est un ensemble muni de deux lois de compositions in-
ternes, généralement notées + et ×. Soit K un ensemble muni des lois
de compositions internes + et ×. (K, +, ×) est un corps si et seulement
si
1. (K, +) est un groupe commutatif.
2. × est distributive par rapport à +.

H.4 K algèbre
Une K algèbre est un ensemble muni de deux lois de compositions in-
ternes, généralement notées + et ×, et d’une loi de composition externe,
généralement notée ·. Soit (E, +, ·, ×) une K algèbre. Une K algèbre vé-
rifie les propriétés suivantes :
C+ est une loi de composition interne.
D + est une loi de composition associative.
E + possède un élément neutre.
F Aussi appelé magma associatif unifère commutatif.
G ∀(λ, µ) ∈ K 2 , ∀(x, y) ∈ E 2 , (λ + µ) · (x + y) = λ · x + λ · y + µ · x + µ · y.
H.4. K ALGÈBRE 213

1. (E, +, ·) est un K espace vectoriel.


2. La loi × est distributive par rapport à la loi +.
3. ∀(a, b) ∈ K2 et ∀(x, y) ∈ E2 : (a · x) × (b · y) = (ab) · (x × y)
214 ANNEXE H. LES STRUCTURES D’ALGÈBRE
Annexe I
Trigonométrie

I.1 Formules
I.1.1 Décomposition
→ cos(a + b) = cos(a) cos(b) − sin(a) sin(b)

→ cos(a − b) = cos(a) cos(b) + sin(a) sin(b)

→ sin(a + b) = sin(a) cos(b) + sin(b) cos(a)

→ sin(a − b) = sin(a) cos(b) − sin(b) cos(a)

tan(a) + tan(b)
→ tan(a + b) =
1 − tan(a) tan(b)
tan(a) − tan(b)
→ tan(a − b) =
1 + tan(a) tan(b)

I.1.2 Angle double


→ sin(2a) = 2 sin(a) cos(a)

→ cos(2a) = 2 cos2 (a) − 1 = 1 − 2 sin2 (a)

215
216 ANNEXE I. TRIGONOMÉTRIE

2 tan(a)
→ tan(2a) =
1 − tan2 (a)

I.1.3 Linéarisation
→ 2 cos(a) cos(b) = cos(a + b) + cos(a − b)

→ 2 sin(a) sin(b) = cos(a − b) − cos(a + b)

→ 2 sin(a) cos(b) = sin(a + b) + sin(a − b)

1 + cos(2a)
→ cos2 (a) =
2
1 − cos(2a)
→ sin2 (a) =
2

I.1.4 Somme
Soit (p, q) ∈ R2 .    
p+q p−q
→ cos(p) + cos(q) = 2 cos cos
2 2
   
p+q p−q
→ cos(p) − cos(q) = −2 sin sin
2 2
   
p+q p−q
→ sin(p) + sin(q) = 2 sin cos
2 2
   
p+q p−q
→ sin(p) − sin(q) = 2 cos sin
2 2

I.2 Fonctions inverses


I.2.1 Fonctions Hyperboliques
Fonction Df Df 0 f 0 (x)
1
Argch [1 : +∞[ ]1; +∞[ √
2
x −1
1
Argsh R R √
x2 + 1
1
Argth ] − 1; 1[ ] − 1; 1[
1 − x2
I.2. FONCTIONS INVERSES 217

I.2.2 Fonctions Trigonométriques


Fonction Df Df 0 f 0 (x)
−1
Arccos [-1 :1] ]-1 ;1[ √
1 − x2
1
Arcsin [-1 :1] ]-1 ;1[ √
1 − x2
1
Arctan R R
1 + x2
π
→ ∀x ∈ R, arcsin(x) + arccos(x) =
2
 
1 π
→ ∀x ∈ R∗ , arctan(x) + arctan = ± (± car l’égalité dépend
x 2
du signe de x)

→ ∀x ∈ R, cos2 (x) + sin2 (x) = 1

→ ∀x ∈ R, ch2 (x) − sh2 (x) = 1


218 ANNEXE I. TRIGONOMÉTRIE
Annexe J
Limites classiques

Fonctions trigonométriques

sin(x)
lim =1
x→0 x
1 − cos(x) 1
lim 2
=
x→0 x 2
arcsin(x)
lim =1
x→0 x
tan(x)
lim =1
x→0 x

Fonctions hyperboliques

ch(x) 1
lim =
x→+∞ ex 2
sh(x) 1
lim x
=
x→+∞ e 2
ch(x) − 1 1
lim =
x→+∞ x2 2

219
220 ANNEXE J. LIMITES CLASSIQUES

Fonctions exponentielles

ex
lim = +∞
x→+∞ xα

ex − 1
lim =1
x→0 x
lim |xα |ex = 0
x→−∞

Fonctions logarithmes

(ln(x))α
lim =0
x→+∞ xβ
ln(1 + x)
lim =1
x→0 x
lim xα |ln(x)|β = 0
x→0

Fonction polynômes

P (x)
lim = Limite des termes de plus bas degré
x→0 Q(x)
P (x)
lim = Limite des termes de plus haut degré
x→∞ Q(x)

Autres

(1 + x)α − 1
lim =α
x→0 x

Les formes indéterminées



∞−∞
∞×0
1∞
Annexe K
Vos annexesA

A N’hésitez pas à rajouter vos propres méthodes ou conseils pratiques.

221
222 ANNEXE K. VOS ANNEXES
223
224 ANNEXE K. VOS ANNEXES
225
226 ANNEXE K. VOS ANNEXES
227
228 ANNEXE K. VOS ANNEXES
Index

A Bolzano-Weierstrass (Théorème de),


Abscisse curviligne, 79 67
Adhérence, 18 Borne inférieure, 16
Affixe, 46 Borne supérieure, 16
Alignement, 51 Boule, 92
Angle dans le plan complexe, 51 Boule fermée, 92
Anti-déplacement, 147 Boule ouverte, 92
Application affine, 146
Application linéaire, 132 C
Arc cosinus, 32 Calculs des dérivées, 27, 30
Arc paramétré, 77 Caractérisation de la divergence d’une
Arc polaire, 81 fonction de R2 dans R, 94
Arc sinus, 32 Caractérisation séquentielle
Arc tangente, 33 Borne supérieur, 64
Archimède (Propriété d’), 17 D’une limite, 21
Argument cosinus hyperbolique, 31 Partie dense, 17, 64
Argument sinus hyperbolique, 32 Cauchy-Schwarz (Inégalité de), 116,
Argument tangente hyperbolique, 176
32 Cercle principale, 85
Automorphisme, 132 Changement de variables, 115
Changement de variables et équi-
B valent, 38
Base, 136 Chasles (Relation de), 113
Base directe, 178 Classe d’un arc, 77
Base indirecte, 178 Classe d’une fonction, 28
Base orthonormée, 177 Classes et développement limité, 40
Bases canoniques, 137 Cocyclicité, 52
Bijectivité, 29 Composé et équivalent, 38

229
230 INDEX

Continuité d’une fonction, 22 Double produit vectoriel, 184


Continuité d’une fonction de R2 dans Droite affine, 146
R, 94
Continuité uniforme, 23 E
Convergence au sens d’une norme, Échelle de comparaison, 37
93 Ellipse, 85, 86
Cosinus hyperbolique, 30 Endomorphisme, 132
Courbure d’un arc, 80 Endomorphisme orthogonale, 185
Croissance d’une fonction, 20 Entiers caractéristiques d’un arc,
78
Équation différentielle du 1er or-
D
dre, 103
Déplacement, 147
Équation différentielle du 2nd or-
Dérivées n-ème de cosinus et sinus,
dre, 104
28
Équation linéaire, 149
Dérivées partielles, 95
Équations différentielles linéaires,
Dérivabilité, 25
101
Dérivabilité à droite, 26
Équivalent et développement limité,
Dérivabilité à gauche, 26
39
Dérivation d’une fonction de R2 dans
Espace affine, 145
R, 95
Espace euclidien, 176
Dérivation suivant un vecteur, 95
Espace vectoriel, 129
Déterminant d’un endomorphisme,
Euler (Relations de), 47
170
Exponentielle complexe, 69
Déterminant d’une matrice carrée,
170 F
Déterminant d’une matrice diago- Famille finie liée, 135
nale, 171 Famille finie libre, 136
Déterminant d’une matrice trian- Famille génératrice, 131, 136
gulaire, 171 Famille orthonormée, 177
Développement limité, 38 Fonction continue par morceaux, 110
Dérivation et Intégration, 41 Fonction dominée, 35
Développement limités usuels, 40 Fonction en escalier, 110
Degré d’un polynôme, 123 Fonction k-lipschitzienne, 20
Dimension, 137 Fonction négligeable, 35
Distance entre un vecteur et un plan, Fonction polynôme associée, 122
180 Fonctions équivalentes, 36
Division de polynômes, 124 Fonctions de même nature, 38
Division euclidienne de polynômes, Forme exponentielle d’un complexe,
124 47
Domaine de définition, 19 Forme linéaire, 142
INDEX 231

Forme n-linéaire, 167 Limite d’une fonction, 20


Forme n-linéaire alternée, 168 Limite d’une fonction de R2 dans
Foyer d’une conique, 85 R, 93
Frenet (Formules de), 80 Longueur d’un arc, 79
Frenet (Repère de), 80
M
G Méthode de variation de la constante,
Grassman (Formule de), 139 105
Groupe orthogonale, 186 Majorant, 16
Majoration d’une fonction, 19
H Manipulation des équivalents, 37
Heine (Théorème de), 23 Matrice, 153
Homothétie, 53 Matrice antisymétrique, 155
Homothétie affine, 146
Matrice carrée, 154
Hyperbole, 86
Matrice d’application linéaire, 164
I Matrice de coordonnées, 161
Image, 132 Matrice de passage, 163
Image d’un intervalle, 23 Matrice diagonale, 159
Imaginaire pur (iR), 46 Matrice inversible, 158
Inégalité de la moyenne, 114 Matrice orthogonale, 177
Inégalité des accroissement finies, Matrice scalaire, 154
28 Matrice semblable, 166
Injectivité, 29 Matrice symétrique, 155
Intégration par partie, 115 Matrice triangulaire, 159
Intérieur, 18 Matrice triangulaire inférieure, 154
Intervalle, 18 Matrice triangulaire supérieure, 154
Inverse d’une fonction, 29 Matrice unité, 154
Inversion limite-fonction, 22 Minorant, 16
Isométrie affine, 147 Module, 47
Isométrie vectorielle, 185 Morphisme, 132
Isomorphisme, 132
N
L Nombre complexe, 45
L’Indéterminé, 121 Norme, 91
Leibniz (Formule de), 29 Norme déduite d’un produit sca-
Lien entre coefficients et racines d’un laire, 175
polynôme., 125 Norme euclidienne, 92
Lien polaire-cartésien, 82 Notation de Hardy, 35, 36, 72
Limite à droite, 20 Notation de Landau, 35, 36, 72
Limite à gauche, 20 Noyau, 133
232 INDEX

O Relation d’ordre, 15
Ordre de multiplicité d’une racine, Riemann (Intégrale de), 111
125 Rolle (Théorème de), 27
Orthogonal d’un sous espace, 179 Rotation, 54
Orthogonalité, 52
S
P Schwarz (Théorème de), 97
Parabole, 87 Segment, 18
Partie bornée, 17 Segments emboités, 67
Partie dense, 17 Similitude, 55
Partie entière, 17
Sinus hyperbolique, 30
Partie imaginaire, 45
Solution particulière d’une équation
Partie principale d’un développe-
différentielle, 105
ment limité, 39
Somme de Riemann, 112
Partie réelle, 45
Somme directe, 130
Pas d’une subdivision, 109
Sous espace orthogonaux, 178
Plan complexe, 46
Sous espaces vectoriels supplémen-
Point régulier d’un arc, 78
taires, 131
Point singulier d’un arc, 78
Sous-espace vectoriel, 130
Points, 145
Sous-espaces vectoriels supplémen-
Polynôme, 121
taires, 139
Polynôme irréductible, 126
Sous-groupe de R, 18
Polynôme scindé, 125
Steinitz (Lemme de), 137
Principe de superposition, 106
Subdivision, 109
Produit mixte, 184
Subdivision régulière, 109
Produit scalaire, 175
Suite équivalente, 73
Produit vectoriel, 183
Projecteur, 133 Suite adjacente, 67
Projecteurs associés, 133 Suite arithmétique, 60
Projection orthogonale, 179 Suite convergente, 63
Pythagore (Théorème de), 176 Suite définie par récurrence, 71
Suite divergente, 66
R Suite dominée, 72
Règle de D’Alembert Suite extraite, 65
Pour les suites numérique, 72 Suite géométrique, 60
Racine multiple d’un polynôme, 125 Suite négligeable, 72
Racine n-ème d’un complexe, 49 Suite numérique, 59
Racine n-ème de l’unité, 49 Suite numérique complexe, 69
Racine simple d’un polynôme, 125 Suite vérifiant une relation de ré-
Rang d’une famille, 139 currence, 60
Rang d’une matrice, 159 Suites de même nature, 74
INDEX 233

Surjectivité, 29 Vecteurs linéairement dépendants,


Symétrie, 134 135
Système linéaire, 150 Vecteurs linéairement indépendants,
136
T Vecteurs orthogonaux, 175
Tangente, 25
Tangente hyperbolique, 31
Tangentes d’un arc polaire, 82
Taylor (Formule de), 116, 124
Taylor-Lagrange (Inégalité de), 117
Taylor-Young (Formule de), 40
Théorème d’encadrement d’une fonc-
tion de R2 dans R, 94
Théorème d’encadrement pour les
suites, 65
Théorème de la base incomplète,
137
Théorème de la bijection, 30
Théorème de la limite monotone,
24
Théorème de minoration, 66
Théorème des accroissements finies,
27
Théorème des valeurs intermédiaires,
23
Théorème du rang, 141
Trace, 157
Trace d’un endomorphisme, 165
Translation, 52
Transposition, 156

U
Unicité du développement limité,
39

V
Valuation d’un polynôme, 123
Vecteur colonne, 154
Vecteur ligne, 153
Vecteurs colinéaires, 136

Vous aimerez peut-être aussi