Académique Documents
Professionnel Documents
Culture Documents
Matrices
Définition d’une matrice. L’ensemble des matrices à m lignes et n colonnes à
coefficients dans K est noté Mm,n (K). Matrices carrées, la diagonale, matrices
diagonales. Matrice unité In .
Opérations sur les matrices.
Transposée d’une matrice. Propriété : (AT )T = A.
La somme de deux matrices de la même taille. Propriétés :
1. A + B = B + A ;
2. (A + B) + C = A + (B + C) ;
3. La transposée de la somme de deux matrices est la somme des matrices
transposées.
Multiplication d’une matrice par un nombre. Propriétés :
1. ∀ c, d ∈ K et A ∈ Mm,n (K) on a c(dA) = (cd)A et (c + d)A = cA + dA.
2. ∀ c ∈ K et A, B ∈ Mm,n (K) on a c(A + B) = cA + cB.
3. ∀ c ∈ K et A ∈ Mm,n (K) on a (cA)T = c AT .
1
Produit de matrices
On définit le produit AB de deux matrices A et B seulement si le nombre de
colonnes de A est égal au nombre de lignes de B.
Définition. Soient A ∈ Mm,n (K) et B ∈ Mn,k (K) deux matrices. Alors AB
est la matrice à m lignes et k colonnes dont les coefficients sont données par
la formule
n
X
(AB)ji := Ajl Bil = Aj1 Bi1 + Aj2 Bi2 + · · · + Ajn Bin .
l=1
Propriété. Soil 0a,b ∈ Ma,b (K) la matrice dont tous les éléments sont nuls.
On a, évidemment:
∀ A ∈ Mm,n (K) 0p,m A = 0p,n et A0n,q = 0m,q .
Proposition (Propriétés du produit des matrices) 1. Associativité du
produit : Soient A ∈ Mm,n (K), B ∈ Mn,p (K) et C ∈ Mp,q (K). Alors les
produits AB, (AB)C, BC, A(BC) ont un sens et l’on a l’égalité suivante
dans Mm,q (K) :
(AB)C = A(BC) .
2. Distributivité à droite du produit par rapport à la somme : soient A ∈
Mm,n (K), B ∈ Mm,n (K) et C ∈ Mn,p (K). Alors A+B et les produits AC, BC
et (A + B)C ont un sens et on a l’égalité dans Mm,p (K) :
(A + B)C = AC + BC .
A(B + C) = AB + AC .
2
Proposition (Produit d’une matrice par une matrice unité) Soit Ir
la matrice unité d’ordre r. Si A ∈ Mn,p (K), on a les propriétés suivantes :
AIp = A et In A = A .
3
Propriétés.
1. Soit A ∈ GLn (K). Alors A−1 est inversible et on a (A−1 )−1 = A.
2. Soit A ∈ GLn (K). Alors AT est inversible et on a (AT )−1 = (A−1 )T .
3. Soient A, B ∈ GLn (K). Alors AB est inversible et on a (AB)−1 =
−1 −1
B A .
4. Simplification par une matrice inversible. Soient X, Y ∈ Mn (K)
et A ∈ GLn (K). Alors l’égalité AX = AY implique l’égalité X = Y . Pareil,
XA = Y A implique X = Y .
4
2) Multiplier une ligne par une constante non nulle (homothétie).
3) Remplacer une ligne par elle-même plus un multiple d’une autre ligne
(substitution).
En effectuant une opération élémentaire, on ne mélange jamais les colon-
nes.
Les trois opérations élémentaires sont inversibles, c’est-à-dire que l’on
peut revenir en arrière par une autre opération élémentaire.
Disons que deux matrices A, B ∈ Mmn (K) sont équivalentes si B se déduit
de A par une suite finie d’opérations élémentaires. Dans ce cas, on note
A ∼ B.
L’inversibilité des opérations élémentaires implique que la relation binaire
A ∼ B est une relation d’équivalence, c’est-à-dire :
1. Si A ∈ Mmn (K), on a A ∼ A (on dit que la relation ∼ est reflexive).
2. Soient A, B, C ∈ Mmn (K) trois matrices. Si A ∼ B et B ∼ C alors A ∼ C
(on dit que la relation ∼ est transitive).
3. Soient A, B ∈ Mmn (K). Si A ∼ B alors B ∼ A (on dit que la relation ∼
est symétrique ).
Théorème. Toute matrice A est équivalente à une matrice échelonnée
réduite U .
U = M A ou bien A = M −1 U .
5
Matrice échelonnées réduites
Une matrice échelonnée est triangulaire supérieure (une matrice A = (Aij )
est triangulaire supérieure si Aij = 0 pour tout (i, j) tel que j < i).
Théorème. Soit A ∈ Mn (K) et U une matrice échelonnée réduite qui lui est
équivalente. La matrice A est inversible si et seulement si U est égale à In .
Donc, A (une matrice carrée) est inversible si et seulement si U = In .
On a alors M = A−1 . On retrouve donc le calcul de A−1 par la méthode de
Gauss en utilisant la matrice  = (A In ) de taille n × 2n; on notera (A|In ).
En effet, Û = M Â = (M A|M In ) = (In |A−1 ).
Systèmes linéaires
Définition. Soit n ∈ N un entier naturel supérieur à 1. Une équation linéaire
à n inconnues x1 , x2 , . . . , xn est une équation de la forme
a1 x1 + a2 x2 + · · · + an xn = b ,
Notation matricielle
6
Les nombres Aij , i = 1, . . . , m, j = 1, . . . , n, sont les coefficients du système.
Ce sont des données. Les nombres bi , i = 1, . . . , m, constituent le second
membre du système et sont également des données.
La matrice
A11 A12 ... A1i ... A1n
A21 A22 ... A2i ... A2n
.. .. .. ..
. . ... . ... .
A=
Aj1 Aj2 ... Aji ... Ajn
.. .. .. ..
. . ... . ... .
A1 Am
m
2 ... Am i ... Am
n
7
Définition. On dit que deux systèmes linéaires sont équivalents s’ils ont le
même ensemble de solutions.
Le jeu pour résoudre un système linéaire donné consistera à le transformer
en un système équivalent dont la résolution sera plus simple que celle du
système de départ.
Un cas particulier important est celui des systèmes homogènes pour les-
quels b1 = b2 = · · · = bm = 0, c’est-à-dire dont le second membre est nul.
De tels systèmes sont toujours compatibles car ils admettent toujours la
8
solution s1 = s2 = · · · = sn = 0. Cette solution est appelée solution triviale.
Géométriquement dans le cas 2 × 2, un système homogène correspond à deux
droites qui passent par l’origine des coordonnées, cette origine (0, 0) étant
donc toujours solution. Dans le cas des systèmes homogènes, on s’attachera
par conséquent à déterminer s’il n’y a que la solution triviale ou s’il y en a
d’autres.
9
b) Soit il y a une solution unique s’il n’y a pas de telle ligne ni de variables
libres.
c) Soit il y a une infinité de solutions s’il n’y a pas de telle ligne mais qu’il
existe des variables libres.
10
Espaces vectoriels et applications linéaires
Définition. Un K-espace vectoriel est un ensemble non vide E muni
• d’une loi de composition interne c’est à dire d’une application de E × E
dans E,
E × E → E , (v, v 0 ) 7→ v + v 0
• d’une loi de composition externe : une application de K × E dans E
K × E → E , (c, v) 7→ c · v
vérifiant trois groupes d’axiomes :
1) Axiomes relatifs à la loi interne ;
2) Axiomes relatifs à la loi externe ;
3) Axiomes liant les deux lois : double distributivité.
Axiomes
Dans la description des axiomes, la loi externe sur E et la multiplication dans
K seront toutes les deux notées · ; la loi de composition interne dans E et la
somme dans K seront toutes les deux notées + mais le contexte permettra
de déterminer aisément de quelle loi il s’agit.
1) Axiomes relatifs à la loi interne : E est un groupe commutatif par rapport
à la loi de composition interne, c’est-à-dire (rappel) :
a) Associativité : pour tous éléments u, v et w de E
(u + v) + w = u + (v + w) .
11
d) Commutativité : pour tous élément u et v de E,
u+v =v+u .
(c · d) · v = c · (d · v) .
(c + d) · v = c · v + d · v .
c · (u + v) = c · u + c · v .
Quelques règles
• Comme toujours pour les groupes, si u, v, w ∈ E sont des vecteurs tels
que u + v = u + w, alors v = w.
12
• Pour tout scalaire c, c0E = 0E .
cv + ((−1)c)w = cv + (−1)cw = cv − cw
Sous-espaces vectoriels
Définition–Théorème. Soit E un K-espace vectoriel et soit F une partie
de E telle que
• F est non vide ;
∀ u, v ∈ F , u + v ∈ F ;
∀ c ∈ K , ∀ u ∈ F , cu ∈ F .
13
Alors la partie F , munie de ces deux lois, a une structure de K-espace
vectoriel.
La partie F est appelé sous espace vectoriel de E.
Lemme. Soit E un K-espace vectoriel et F une partie de E. F est un
sous-espace vectoriel de E si et seulement si :
F est non vide ;
Toute combinaison linéaire de deux éléments de F appartient à F :
∀ u, v ∈ F ∀ c, d ∈ K , cu + dv ∈ F .
14
Définition. Les sous-espaces vectoriels supplémentaires.
Applications linéaires
Définition des applications linéaires.
Proposition. Soient E et F deux K-espaces vectoriels et f une application
de E dans F . L’application f est linéaire si et seulement si, pour tous vecteurs
u et v de E et pour tous scalaires c et d de K,
vocabulaire.
15
Proposition. (Composée de deux applications linéaires) Soient E, F , G
trois K-espaces vectoriels, f une application linéaire de E dans F et g une
application linéaire de F dans G, alors g ◦ f est une application linéaire de
E dans G.
Proposition. (Linéarité de l’application réciproque d’un isomorphisme)
Soient E et F deux K-espaces vectoriels, si f est un isomorphisme de E
sur F , alors f −1 est un isomorphisme de F sur E.
Définitions de l’image et du noyau d’un homomorphisme.
Proposition. (Structure de l’image d’un sous espace vectoriel) Soit f une
application linéaire du K-espace vectoriel E dans le K-espace vectoriel F . Si
A est un sous-espace vectoriel de E, alors f (A) est un sous-espace vectoriel
de F . En particulier, Im f est un sous-espace vectoriel de F .
Proposition. Soient E et F deux K-espaces vectoriels et f une application
linéaire de E dans F . Le noyau de f est un sous-espace vectoriel de E.
Exemple. Projection p sur F parallèlement à G. L’image et le noyau de p.
Idempotent.
Théorème. (Caractérisation des applications linéaires injectives) Soient E
et F deux K-espaces vectoriels et f une application linéaire de E dans F .
L’application f est injective si et seulement si son noyau ne contient que le
vecteur nul.
Bases
Définition. (Définition d’un espace vectoriel de type fini) Un espace vecto-
riel E est dit de type fini s’il admet une famille finie de générateurs, c’est-à-
dire ∃ un entier p et p vecteurs de E, v1 , . . . , vp , telles que E = Khv1 , . . . , vp i.
Définition. Soit E un K-espace vectoriel. Une famille (v1 , v2 , . . . , vn ) de
E est dite linéairement indépendante ou libre si toute combinaison linéaire
nulle
λ1 v1 + λ2 v2 + · · · + λn vn = 0
est telle que tous ses coefficients sont nuls
λ1 = λ2 = · · · = λn = 0 .
16
Dans le cas contraire, c’est-à-dire s’il existe une combinaison linéaire nulle à
coefficients non tous nuls, on dit que la famille est linéairement dépendante ou
liée. Une telle combinaison linéaire s’appelle alors une relation de dépendance
linéaire entre les vj .
Théorème. Soit E un K-espace vectoriel. Une famille F = (v1 , v2 , . . . , vn )
de n ≥ 2 vecteurs de E est linéairement dépendante si et seulement si au
moins un des vecteurs de F est combinaison linéaire des autres vecteurs de
F.
Proposition. a) Toute partie contenant une partie liée est liée.
b) Toute partie contenue dans une partie libre est libre.
Proposition. (Adjonction d’un vecteur à une partie libre) Soient E un K-
espace vectoriel et (v1 , v2 , . . . , vn ) une partie libre de E. Si u est un vecteur
de E tel que (v1 , v2 , . . . , vn , u) soit une partie liée de E, alors le vecteur u est
combinaison linéaire des vecteurs v1 , v2 , . . . , vn .
v = α1 v1 + α2 v2 + · · · + αn vn .
17
souvent la matrice colonne
α1
α2
[v](v1 ,v2 ,...,vn ) =
..
.
αn
χ : Kn → E , (α1 , α2 , . . . , αn ) 7→ α1 v1 + α2 v2 + · · · + αn vn
est un isomorphisme.
Proposition. (Première caractérisation d’une base) Soit E un espace vec-
toriel. Un n-uplet (v1 , . . . vn ) est une base de E si et seulement si l’ensemble
(v1 , . . . , vn ) est une partie libre maximale.
Proposition. (Deuxième caractérisation d’une base) Soit E un espace vec-
toriel. Un n-uplet (v1 , . . . , vn ) est une base de E si et seulement si l’ensemble
(v1 , . . . , vn ) est une partie génératrice minimale de E.
Théorème. (Théorème d’existence de parties libres et génératrices) Soit E
un K-espace vectoriel de type fini, G une partie génératrice finie de E et L
une partie libre incluse dans G. Alors, il existe une partie B vérifiant les
trois propriétés suivantes :
(i) L ⊂ B ⊂ G,
(ii) B est libre,
(iii) B engendre E.
Corollaire. (Théorème d’existence d’une base) Tout espace vectoriel de
type fini (c’est-à-dire admettant une famille finie de générateurs), non réduit
à {0}, admet une base.
Théorème. (Théorème de la “base incomplète”) Soit E un K-espace vecto-
riel de type fini, non réduit à {0}. Soit G une partie génératrice finie de E
et L une partie libre de E. Alors il existe une partie G0 de G telle que, en
notant (v1 , v2 , . . . , vn ) la partie L ∪ G0 , (v1 , v2 , . . . , vn ) soit une base de E.
Théorème. (Base d’une somme directe) Soit E un K-espace vectoriel.
Soient F et G deux sous-espaces vectoriels de E tels que E = F ⊕ G. On
18
suppose que F et G sont de type fini. Soient BF = (a1 , a2 , . . . , ar ) une
base de F et (b1 , b2 , . . . , bs ) une base de G. Alors E est de type fini et
(a1 , a2 , . . . , ar , b1 , b2 , . . . , bs ) est une base de E.
19
de F et de G. La dimension de F + G est égale à la somme des dimensions
de F et de G si et seulement si la somme est directe.
Proposition. Tout sous-espace vectoriel d’un K-espace vectoriel de type fini
admet un supplémentaire.
20
F . Alors
dim E = dim Ker f + dim Im f .
21
[φ]B
BE .
F
[αh]B BF
BE = α[h]BE .
F
[ψ ◦ φ]B BG BF
BE = [ψ]BF [φ]BE .
G
de φ−1 par rapport aux bases BF et BE est égale à A−1 , inverse de la matrice
A. Cela s’écrit :
([φ]BF −1
BE ) =][φ−1 ]B
BF .
E
22
De plus, si f est un automorphisme de E et si A = [f ]BE , la matrice de
−1
f dans la base BE est égale à inverse de la matrice A. Cela s’écrit :
([f ]BE )−1 = [f −1 ]BE .
bases BE et BF . On a
[φ(x)]BF = [φ]B
BE [x]BE .
F
23
Théorème. (Formule de changement de base) Soient E et F deux K-espaces
vectoriels de type fini, BE et BE0 deux bases de E, et BF et BF0 deux bases
de F . Soit φ une application linéaire de E dans F .
Alors, la matrice associée à φ par rapport aux bases BE et BF , et la
matrice associée à φ par rapport aux bases BE0 et BF0 sont liées par la formule :
B0
[φ]BF0 = PBF0 BF [φ]BF
0 0
−1 BF
BE PBE BE = (PBF BF ) [φ]BE PBE BE .
0
E
[φ]BE0 = P −1 [φ]BE P .
det A0 = − det A .
24
A. Alors on a
det A0 = det A .
det(M
f ) := (−1)1+1 m1,1 det(M
f 1,1 ) + (−1)
1+2
m1,2 det(M
f 1,2 ) + · · ·
25
définissent par récurrence, pour tout entier n supérieur ou égal à 1, une
application det
f de Mn (K) dans K qui satisfait aux propriétés (D1)–(D3).
Théorème. (Unicité du déterminant) Soit Γ une application de Mn (K) dans
K qui satisfait aux propriétés (D1)–(D3). Alors,
Γ = det
f .
Donc, l’application det Mn (K) → K est bien caractrisée par les propriétés
(D1)–(D3).
Remarque. Soit M une matrice de Mn (K). Définissons la fonction det
f i par
Propriétés du déterminant
Proposition. On a
det(AT ) = det A .
26
aux lignes, si une matrice a deux lignes égales, son déterminant est nul, on ne
modifie pas un déterminant en ajoutant à une ligne une combinaison linéaire
des autres lignes, etc.
Définition. Soit A une matrice n × n et Aij la matrice (n − 1) × (n − 1)
obtenue en effaçant la ligne i et la colonne j de A. On appelle mineur de A
relatif à aij le déterminant ∆ij = det Aij . On appelle cofacteur de A relatif
à aij le nombre Cij = (−1)i+j ∆ij .
Théorème. (développement suivant une ligne ou une colonne) On a les
formules suivantes :
n
X n
X
i+j
∀ i , det A = (−1) aij ∆ij = aij Cij
j=1 j=1
27
Expression de l’inverse d’une matrice à l’aide du déterminant
28
Application à la détermination du rang d’une matrice
Théorème. Le rang d’une matrice est le plus grand entier r tel qu’il existe
une matrice carrée d’ordre r extraite de M de déterminant non nul.
Proposition. Soit A une matrice à n lignes et p colonnes. Le rang de A est
égal au rang de sa transposée.
Corollaire. On ne change pas le rang d’une matrice par les opérations
élémentaires suivantes sur les lignes :
• Permutation de deux lignes.
• On multiplie une ligne par un scalaire non nul.
• On ajoute à une ligne un multiple d’une autre ligne.
29
L’équation caractéristique associée à (RL) est
(ECA) r2 = αr + β .
E = {(λrn + µnrn ) , λ, µ ∈ R} .
30
Exemples de calcul d’un déterminant à partir de ses propriétés.
1. Une matrice A est dite antisymétrique si AT = −A. Pour une telle matrice
de taille n, on a
Nous avons déjà calculé le déterminant d’une matrice similaire (en fait trans-
posée à celle-ci, pour Z 0 il faut le déterminant développer par rapport à la
dernière ligne, puis une avant la dernière etc.) Le déterminant de Z 0 est égal
à det A, donc
det Z = det A det B .
31
Espaces euclidiens
Définition. Soit V un K-espace vectoriel. Une forme bilinéaire sur V est
une application m : V × V → K telle que
• pour tout y, m1 (x) := m(x, y) est linéaire ;
• pour tout x, m2 (y) := m(x, y) est linéaire.
On dit que m est symétrique si m(x, y) = m(y, x) ∀ x, y ∈ V .
Si K = R on dit que
• m est non-négative si m(x, x) ≥ 0 ∀ x ∈ V ;
• m est positive si m est non-négative et m(x, x) = 0 seulement pour
x = 0.
ce qui signifie que m est uniquement déterminée par ces valeurs m(ei , ej ) sur
la base B. La Pmatrice de m dans la base B est (mB )ij = m(ei , ej ), donc on
a m(x, y) = ij xi yj (mB )ij .
Lemme.
P (Changement de base) Soit B 0 = {e0i }ni=1 une autre base et e0j =
i Cji ei , C la matrice de passage. Alors,
X
(mB 0 )ij = Cik Cjl (mB )kl .
kl
32
Exemple. Sur Mn (R) on pose hA, Bi := Tr(AB). C’est un produit scalaire.
Théorème. (inégalité de Cauchy–Schwarz) Soit V un espace euclidien. Pour
tout x, y ∈ V on a
hx, yi2 ≤ hx, xihy, yi ,
avec égalité si et seulement si x et y sont colinéaires.
Algorithme de Gram–Schmidt
Soit V un espace euclidien. Une base B = {ei }ni=1 de V est dite orthonormale
si
hej , ek i = δjk ∀ j, k .
Remarque. Soit {fi }pi=1 une famille orthonormale. Alors, c’est une famille
libre. En effet, supposons
λ1 f1 + · · · + λp fp = 0 .
Alors,
0 = h0, fj i = hλ1 f1 + · · · + λp fp , fj i = λj ∀ j = 1, . . . , p .
L’algorithme de Gram–Schmidt fabrique une base orthonormale à partir
d’une base quelconque. En particulier, pour tout espace euclidien, des bases
orthonormales existent, c’est-à-dire que pour toute forme bilinéaire positive
m il existe une base B = {ei }ni=1 pour laquelle la matrice de m est la matrice
identité, m(ej , ek ) = δjk ∀ j, k.
33
Cette équation a une solution unique, que nous normalisons pour définir le
vecteur e2 ,
a2 + µe1
e2 = .
||a2 + µe1 ||
Notons que le plan engendré par e1 et e2 est exactement le plan engendré par
a1 et a2 .
Si e1 , . . . , ek ont construit et L(e1 , . . . , ek ) (l’espace de dimension k, en-
gendré par e1 ,. . . ,ek ) est le même que l’espace L(a1 , . . . , ak ), on cherche un
vecteur ak+1 + µ1 e1 + . . . µk ek , orthogonal aux vecteurs e1 , . . . , ek :
hak+1 + µ1 e1 + . . . µk ek , ej i = 0 , j = 1, . . . , k ,
hak+1 , ej i + µj = 0 .
Limites
Définition. Soit (un ) une suite de réels. On dit que la suite (un ) est :
• constante si ∀ n ∈ N , un+1 = un ;
• croissante si ∀ n ∈ N , un+1 ≥ un ;
• décroissante si ∀ n ∈ N , un+1 ≤ un ;
• strictement croissante si ∀ n ∈ N , un+1 > un ;
• strictement décroissante si ∀ n ∈ N , un+1 < un ;
• monotone si elle est croissante ou décroissante ;
• majorée si {un , n ∈ N} est majoré ;
• minorée si {un , n ∈ N} est minoré ;
34
• bornée si {un , n ∈ N} est borné ;
• périodique si ∃ p ∈ N∗ , ∀ n ∈ N , un+p = un .
Il arrive qu’une suite ne soit définie que sur une partie de N: par exemple
(1/n)n∈N∗ . On sera également amené à réduire la suite aux indices au-delà
d’un certain entier n0 : (un )n>n0 . L’expression “à partir d’un certain rang”
reviendra souvent dans ce qui suit. Dire que la suite (un )n∈N possède la
propriété P à partir d’un certain rang signifie que la suite (un )n≥n0 la possède
pour un certain n0 . On dit aussi “P est vraie pour n assez grand”. Voici
quelques exemples.
Définition. Soit (un )n∈N une suite de réels. On dit que la suite (un ) est
• constante à partir d’un certain rang (on dit aussi stationnaire) si ∃ n0 ∈
N , ∀ n ≥ n0 , un+1 = un ;
• croissante à partir d’un certain rang si ∃ n0 ∈ N , ∀ n ≥ n0 , un+1 ≥ un ;
• périodique à partir d’un certain rang si ∃ n0 ∈ N , ∃ p ∈ N∗ , ∀ n ≥
n0 , un+p = un .
Lemme. Si la suite (un ) est “majorée à partir d’un certain rang”, alors elle
est majorée tout court.
Les opérations sur les réels s’étendent aux suites en des opérations terme
à terme.
• addition : (un ) + (vn ) = (un + vn ),
• multiplication : (un )(vn ) = (un vn ),
• multiplication par un réel : λ(un ) = (λun ),
• comparaison : (un ) ≤ (vn ) ⇔ ∀ n ∈ N , un ≤ vn .
L’addition a les mêmes propriétés que celle des réels : RN muni de
l’addition est un groupe commutatif. Muni de l’addition et de la multi-
plication par un réel, c’est un espace vectoriel.
Définition. Etant donnée une suite (un ), on appelle suite extraite ou sous-
suite, une suite formée de certains termes de (un ), c’est-à-dire une suite de
la forme (vk ) = (uφ(k) ), où φ est une application strictement croissante de N
dans N.
35
Convergence
On dit que la suite (un ) converge vers un réel l (sa limite) si tout intervalle
ouvert contenant l, contient aussi tous les un pour n assez grand.
Définition. Soit (un ) une suite de réels et l un réel. On dit que la suite (un )
converge vers l, (ou tend vers l, ou a pour limite l) si :
∀ > 0 , ∃ n0 ∈ N , ∀ n ≥ n0 , |un − l| ≤ .
On notera :
lim un = l ou bien un −−−→ l .
n→∞ n→+∞
∀ A ∈ R , ∃ n0 ∈ N , ∀ n ≥ n0 , u n ≥ A .
∀ A ∈ R , ∃ n0 ∈ N , ∀ n ≥ n0 , u n ≤ A .
36
Théorème. 1. La somme de deux suites convergeant vers une limite finie
est convergente et sa limite est la somme des limites.
2. Le produit de deux suites convergeant vers une limite finie est conver-
gent et sa limite est le produit des limites.
Théorème. 1. Toute suite croissante et majorée converge vers sa borne
supérieure.
2. Toute suite croissante et non majorée tend vers +∞.
3. Toute suite décroissante et minorée converge vers sa borne inférieure.
4. Toute suite décroissante et non minorée tend vers −∞.
Définition. Soient (un ) et (vn ) deux suites de réels. Elles sont dites adja-
centes si
1. (un ) est croissante,
2. (vn ) est décroissante,
3. (vn − un ) tend vers 0.
Proposition. Deux suites adjacentes convergent vers la même limite.
Théorème. Soient (un ) et (vn ) deux suites de réels convergentes. Si pour
tout n ∈ N, un ≤ vn , alors :
lim un ≤ lim vn .
n→∞ n→∞
Théorème. Soient (un ) et (vn ) deux suites de réels telles que (vn ) tend vers
0. Si pour tout n ∈ N, |un | ≤ |vn |, alors un tend vers 0.
Corollaire (théorème des gendarmes). Soient (un ), (vn ) et (wn ) trois
suites de réels telles que (un ) et (wn ) convergent vers la même limite l, et
pour tout n ∈ N,
un ≤ vn ≤ wn ,
alors (vn ) converge vers l.
Théorème. Soient (un ) et (vn ) deux suites de réels telles que pour tout
n ∈ N, un ≤ vn .
1. Si un tend vers +∞ alors vn tend vers +∞.
2. Si vn tend vers −∞ alors un tend vers −∞.
Définition. Soient (un ) et (vn ) deux suites de réels.
37
1. On dit que la suite (un ) est dominée par la suite (vn ) si :
∃ M ∈ R , ∀ n ∈ N , |un | ≤ M |vn | .
On écrit un = O(vn ), qui se lit “un est un grand O de vn ”.
2. On dit que la suite (un ) est négligeable devant la suite (vn ) si :
un
∃M ∈R, ∀n∈N, ≤M .
vn
2. (un ) est négligeable devant (vn ) si et seulement si (un /vn ) tend vers 0 :
un
∀ > 0 , ∃ n0 , ∀ n ≥ n0 , ≤.
vn
un
∀ > 0 , ∃ n0 , ∀ n ≥ n0 , −1 ≤ .
vn
38