Vous êtes sur la page 1sur 5

Résumé algèbre linéaire I + II (SV)

Déterminant
Techniques:
Matrices 2*2: det(A) = a11*a22 – a12*a21

Matrices 3*3: réécrire les 2 première colonnes à coté de la matrice puis


multiplier les éléments sur la diagonale en partant de a11 et
additionner les produits lorsque que la multiplication se fait de
gauche à droite et soustraire les produits quand elle se fait de
droite à gauche.
Matrices n*m: Echelonner la matrice pour en faire un matrice triangulaire
supérieure.
A chaque échange de ligne: (-1)det(A)
A chaque multiplication d’une ligne par λ: (1/λ)det(A)
Finalement: multiplier les éléments diagonaux en tenant compte
des changements précédents.
Remarque: si det(A) ≠ 0  A est injective

Espaces vectoriels
Technique: V est un espace vectoriels si:
1) u + v = v + u
2) u + (v + w) = (u + v) + w
3) 0v + u = u + 0v = u
4) Il existe (–u) tel que: u + (-u) = 0v
5) λ*(u*v) = λ*u + λ*v
6) (λ + µ)*u = λ*u + µ*u
7) λ*(µ*v) = (λµ)*v
8) 1*v = v

Sous-espaces vectoriels
Technique: W est un sous-espace vectoriel de V si:
1) 0v W
2) u + v W
3) λu W
V u,v W

Application linéaires
Technique: f est une application linéaire si:
1) f(x + y) = f(x) + f(y)
2) f(λx) = λf(x)

Technique: Pour trouver la matrice standard [f] de f: W  V On regarde ce que


valent les vecteurs unitaires après leurs transformation avec f. Puis on
place les vecteurs obtenus en colonne dans une matrice n*m avec n =
dim(V) et m = dim(W)

Propriétés: [fog] = [f][g]

1
Indépendance linéaire
2 Techniques:
Matrices carrées: det(A) ≠ 0  linéairement indépendant (on créer A en
mettant les vecteurs en colonnes car on cherche des λ)
Autres matrices: On dispose les vecteurs en colonnes et on résout le système.
Si la seule solution est λ1 = λ2 = … = λn = 0  les vecteurs
sont linéairement indépendants.
(On choisira cette méthode si on a des polynômes, des sin,
cos etc..)

Bases
Définition: Un ensemble W de vecteurs est une base de V si:
1) Ses vecteurs sont linéairement indépendants
2) W engendre V

Trouver une base:


Si vecteurs:
1) disposer les vecteurs en lignes
2) échelonner
3) les lignes non-nulles forment une base
alternativement on peut aussi disposer les vecteurs en colonne et
résoudre puis s’il y a des variables libre faire comme pour les
vecteurs propres.
Si matrices:
1) disposer a11 en dessus de a12 en dessus a21 etc..
2) répéter les pas précédents des vecteurs.
Si polynômes:
1) disposer en lignes avec une colonne pour les x2 etc..
2) répéter les pas précédent des vecteurs.
Prouver qu’un ensemble de vecteurs est une base:
1) Disposer les vecteurs en colonnes et mettre = (a, b, c, ….)
2) Échelonner, réduire
3) S’il n’y a qu’une et une seule solution pour (a, b, c, …) (c'est-à-dire
que chaque ligne a un pivot)  les vecteurs engendrent le sous-
espace
4) Si en remplaçant (a,b,c,….) par 0 la seule solution pour λ est
λ1=λ2=λ3…..=0  les vecteurs sont linéairement indépendants
5)  les vecteurs forment une base.

Exprimer un vecteur v = (v1, v2, v3) dans une base B:


Trouver λ1,…,λn tels que v = λ1v1 + … + λnvn (λ1, … , λn sont les
coordonnées de v dans la base B).
Ça revient à disposer les vecteurs de la base en colonne et faire = v et
résoudre.

2
Dimension
Définition: La dimension d’un espace vectoriel est les nb d’éléments que contient sa
base.
Remarques: dim(An*m) = n*m
dim(Rn) = n
dim(Pn) = n + 1

Changement de base
Technique:
Soient U,V deux bases et Pv,u la matrice de passage de U à V que l’on cherche.
1) exprimer les vecteurs de U dans la base V (ce sera (u)v)
2) Disposer les vecteurs trouvés en colonnes; c’est la matrice Pv,u .
3) Pour passer dans une autre base: (w)v = Pv,u * (w)u

Noyau
Technique: Pour trouver le noyau d’une application linéaire on pose f(v) = 0 (en
mettant f(v) en lignes) et on résout pour trouver x,y,z.
Ex: (x,y,z)  (x+y, y, z+2x) donc le système à résoudre est
1100
0100
2010
Remarque: Si ker(f(v)) = {0} alors f(v) est injective.

Valeurs propres
Technique: Pour trouver les valeurs propres d’une matrice: résoudre det(λI - A) = 0.
(on trouvera d’abord le polynôme caractéristique qu’on factorisera pour
avoir les valeurs qui annulent λ; ce sont les valeurs propres)
Tip: si on a λ3s on regarde si 1 ou -1 annulent le polynôme puis si c’est le
cas on mettra (λ-1) ou (λ+1) en évidence et on divisera le polynôme
par cette parenthèse.

Vecteurs propres
Technique: Pour trouver les vecteurs propres associés au valeurs propres on pose pour
chaque valeur propre Av – λv = 0 où v=(x,y,z,…)
(ça revient à soustraire λ à tout les éléments diagonaux de A)
On échelonne, on réduit et on trouve les solutions; ce sont les vecteurs
propres. Ex: z = s; y = -s; x = s alors le vecteur propre est: Eλ=s(1,-1,1)

Remarque: si une matrice n*n a n vecteurs propres linéairement indépendants alors


A est diagonalisable.

3
Diagonalisation
Technique:
1) trouver les valeurs propres
2) trouver les espaces propres associés aux valeurs propres
3) Si nb de vecteurs propres = n(pour une matrice An*n)A est diagonalisable
4) La matrice diagonale est la matrice avec sur la diagonale les valeurs
propres (dans le même ordre qu’elles vont être dans Pc,b)(s’il y a 2 vecteurs
propres associés à une valeur propres  la valeur propre apparaitra 2 fois
sur la diagonale)
5) Disposer les vecteurs propres en colonne; c’est la matrice Pc,b (ou P)
6) Trouver P-1 (ou Pb,c)
7) La matrice diagonale D (bien qu’on la connaisse déjà..) est donnée par la
relation: D = P-1AP (ou D = Pb,c A Pc,b)
(alternativement: A = PDP-1 )
Remarque: Pour diagonaliser A-1: D = P-1AP

Produit scalaire généralisé


Critères:
1) <u, v> = <v, u>
2) <u + v, w> = <u, w> + <v, w>
3) <λu, v> = λ<u, v>
4) <v, v> ≥ 0
5) <v, v> = 0  v = 0
Propriétés:
Un produit scalaire généralisé peut-être n’importe quelle transformation qui
respecte les critères susmentionnés.
Norme:
La norme associée avec un produit scalaire généralisé est définie comme:
√<a,b> (où <a,b> est un produit scalaire généralisé)
Produit scalaire usuel:
<u, v> = u1v1 + u2v2 + … + unvn

Gramm-Schmidt
Technique:
Soit la base B = {u1, u2, …, un} (les vecteurs orthogonaux sont appelés
w1, w2,…wn tandis que les vecteurs orthonormés sont nommés v1,..,vn)
1) w1 = u1
2) w2 = u2 - <u2, w1>w1/<w1, w1>
3) w3 = u3 - <u3, w1>w1/<w1, w1> - <u3, w2>w2/<w2, w2> etc…
4) les vecteurs {w1, w2, w3} forment une base orthogonale à B
5) v1 = w1/||w1|| ; w2 = w2/||w2||
6) les vecteurs {v1, v2, v3} forment une base orthonormée à B
Remarques:
1) <wn, wn> = ||wn||2
2) La norme tout comme les produits scalaires utilisés sont ceux définis par le
produit scalaire généralisé s’il y en a.
3) Pour calculer la projection sur l’espace W de la base de départ on fait:
< sinx, v1>v1 + <sinx, v2>v2 + … + <sinx, vn>vn (si on veut calculer
proj(sin x)W) où v1, …, vn sont les vecteurs de la base orthonormée.

4
Tips:
Taille des matrices: n*m (n=nb de lignes, m=nb de colonnes)
Multiplication:
-A(n*m)*B(r*s) on peut multiplier uniquement si m=r et la matrice résultante
sera de taille n*s.
-Technique: lignes*colonnes
Inversion:
Possible si: det(A) ≠ 0
Ou
Si A est une matrice carrée et que λ=0 n’est pas une valeur propre
de A
Technique: mettre In à gauche puis échelonner, réduire jusqu’à avoir In à
droite.
Propriétés: si A et B inversibles alors (AB)-1 = B-1A-1
Transposition:
Une matrice n*m devient m*n; ses lignes deviennent les colonnes de AT
Trace:
La trace est obtenue en additionnant tout les nombres sur la diagonale (même si
la matrice n’est pas échelonnée).
Propriétés: tr(A+B) = tr(A) + tr(B)
tr(λA) = λtr(A)
tr(AB) = tr(BA)

Plans droites etc…


Equation du plan passant par P = (x0, y0, z0) et orthogonal à n = (n1, n2, n3):
n1(x - x0) + n2(y – y0) + n3(z – z0) = 0

Vecteur normal: si a + b + c ≠ 0  l’équation du plan ax + by + cz = 0 est l’équation


du plan ayant pour vecteur normal n = (a, b, c)

Equation paramétrique de la droite passant par P = (x0,y0,z0) et parallèle à v = (a,b,c):


x – x0 = λa
y – y0 = λb
z – z0 = λc
(λ est un scalaire)

Distance du plan ax + by + cz + d = 0 au point P = (x0, y0, z0):


D = |ax0 + by0 + cz0 + d| / √a2 + b2 + c2

Vous aimerez peut-être aussi