Vous êtes sur la page 1sur 17

ASI 3

Méthodes numériques
pour l’ingénieur
Introduction :
vecteurs, matrices
et applications linéaires
Opérations sur les vecteurs
 x1  0
   
  n    
Vecteur x 
x =  xi  = ∑ xi bi bi =  1  x ∈ Rn
base (canonique)   i =1  
  
bi , i=1,n x  0
 n  
espace vectoriel V
sur le corps des réels ∀x, y ∈ V , ∀λ , µ ∈ R λx + µy ∈ V
 k 
combinaison linéaire soient ( xi ∈ V )i = 1, k ∑ i i αi ∈ R
α x
i =1
 k 
sous espace vectoriel W =  y ∈ V ∃α i ∈ R, y = ∑ α i xi  s.e.v. de V
 i =1 
 k  
base, dimension noyau de W : ker(W ) =  y ∈ W ∑ α i xi = 0
 i =1 
Opérations sur les vecteurs
Somme z = x+ y zi = xi + yi

multiplication ?

Vecteur transposé x' = ( x1  xi  xn )


n
x = ∑ xi = x' x
2 2
Norme
i =1
n
( x, y ) = ∑ xi yi = x' y ; x = ( x, x ) = x ' x
2
produit scalaire,
i =1

vecteurs orthogonaux {y ∈ R n ( x, y) = 0}
Normes et produit scalaire
 n( x) ≥ 0 positivité
 n : E → R+  n( x ) = 0 ⇔ x = 0

norme :  vérifiant 
 x  n( x )  n(λx) = λ n( x)
n( x + y ) ≤ n( x) + n( y )
exemples E = R n ;
n n n
x =∑ = ∑ xi ( p ≥ 1) ; x 1 = ∑ xi ; x ∞ = sup xi
2 p p
2
xi2 ; x p
i =1 i =1 i =1 i =1, n

 p ( x, y ) = p ( y , x )
produit  p : E × E → R  p (λx, y ) = λp ( x, y )

 vérifiant 
scalaire  x, y  p ( x, y )  p ( x + y , z ) = p ( x, z ) + p ( y , z )
 p ( x, x ) = n ( x )
exemple E = R ; n
n n
p ( x, y ) = ( x, y ) = ∑ xi yi ; ( x, x) = x = ∑ xi2 euclidienne
2
2
i =1 i =1
propriété : inégalité de Schwartz : ( x, y ) ≤ x 2 y 2
Matrices
Tableau de n lignes et k colonnes
 a11  a1 j  a1k 
 
      
A =  ai1  aij  aik 
 
      
a  anj  ank 
 n1
Remarque fondamentale :
on ne peu rien démontrer sans faire référence
à l’application linéaire que la matrice représente
A : Rk → Rn
x  y = Ax
linéaire : A(λx + µy ) = λAx + µAy
Applications linéaires
Soient E et F deux espaces vectoriels
Définition : u : E → F
x  y = u ( x)
u est linéaire ssi : u (λx + µy ) = λu ( x) + µu ( y )
Propriétés : Noyau : ker(u ) = {x ∈ E u ( x) = 0}
image : Im(u ) = {y ∈ F ∃x ∈ E tel que u ( x) = y}
Noyau et image sont des s.e.v. resp. de E et de F
image : s.e.v engendré par u(ei)
rang = dim(Im(u))
u injective (ker(u) = 0)
u surjective Im(u) = F

soit (ei ∈ E )i = 1, k une base de E , et ( f i ∈ F )i = 1, n une base de F

n
définissons a ji tels que u (ei ) = ∑ a ji f j alors u ( x)
j =1

Par identification, on donne une signification aux colonnes de la matrice


Applications linéaires et matrices
n
définissons aij tels que u (e j ) = ∑ aij f i alors
i =1
 k  k
y = u ( x) = u ∑ x j e j  = ∑ x j u (e j )
 j =1  j =1
k
n  n k 
= ∑ x j  ∑ aij f i  = ∑  ∑ x j aij  f i
j =1  i =1  i =1  j =1 
k  k
y = Ax = ∑ x ja j et yi = ∑ aij x j
j =1 j =1

 yi   a11   a1 j   a1k 
       
         
 y  = x  a  + ... + x  aij  + ... + x  a 
 i  1  i1  j
  k
 ik 
         
y  a  a  a 
 i  n1   nj  nk 
Propriétés des matrices
Im( A) = {y ∈ R ∃x ∈ R tel que Ax = y}
n k

c' est le s.e.v. engendré par les colonnes de A


Ax = b admet une solution ssi b ∈ Im( A)
Rg ( A) = dim(Im( A) )
c' est le nombre de colonnes de A linéairement indépendantes
si Rg ( A) = n, l' application linéaire associée est surjective
{
ker(A) = x ∈ R k Ax = 0 }
c' est un s.e.v. de R k
si ker ( A) = {0}, l' application linéaire associée est injective

u, A Img(A)

Ker(A) •0
Rn
Rk
Propriété des matrices
– Soit A une matrice associée à une application linéaire u de E dans F
– soit k = dim(E) et n=dim(F)
Théorème
Rg ( A) + dim(ker( A) ) = k
Corolaire
pour A donné, ∀b
l' équation Ax = b admet une solution unique
ssi k = n et (Rg ( A) = n ⇔ dim(ker( A) ) = 0)

Noyau
Rang (nombre de colonnes linéairement indépendantes)
variables équivalentes
équations équivalentes
systèmes liés - systèmes libres (matrices blocs)
vecteurs propres
Question fondamentale
A quelles conditions l’équation Ax = b admet-elle une solution unique ?

Théorème
Dim(Im u)+dim(ker u) = dim(F)
rang(u)+dim(ker u) = dim(F)

corollaire
Opérations sur les matrices
Somme : soient A et B deux matrices de même taille
C = A + B; cij = aij + bij
remarque : l' ensemble des matrices de même taille est un e.v.
somme des applications linéaires
produit : soient A et B deux matrices avec
nombre de colonnes de A = nombre de lignes de B = n
n
C = AB; cij = ∑ aik bkj
k =1
C a autant de lignes que A et autent de colonnes que B
composition
des n B
applications E = R q
→
v,B
F = R n
→
u, A
G = R p
n
linéaires E = R w
q
   → G = R p q
=u v ,C = AB
A p
AB n’est pas BA (non commutatif)
Complexité algorithmique
Quel est l’algorithme qui calcule C=AB le plus vite ?
Définitions
– grand O f ( x) = O ( g ( x) ) lorsque x → ∞ ≡ f ( x) = g ( x) H ( x), H ( x) étant borné à l' infini
f ( x)
– petit o f ( x) = o( g ( x) ) lorsque x → ∞ ≡ lim =0
x →∞ g ( x )
f ( x)
– équivalence f ( x) = Ω( g ( x) )lorsque x → ∞ ≡ xlim →∞ g ( x )
=1
asymptotique
A, B et C sont des matrices carrées de taille n
O(n2) < Algorithme < O(n3)
 a11 a21  b11 b21   c11 c21 
Exemple, n=2
  = 
 a21 a22  b21 b22   c21 c22 
c11 = a11 × b11 + a12 × b21
23 = 8 multiplications
c12 = a11 × b12 + a12 × b22
Comme Strassen, 1969
c21 = a21 × b11 + a22 × b21 sauriez vous faire mieux ?
c22 = a21 × b12 + a22 × b22
Complexité algorithmique
Quel est l’algorithme qui calcule C=AB le plus vite ?
 a11 a21  b11 b21   c11 c21 
Exemple, n=2
  = 
 a21 a22  b21 b22   c21 c22 
Q1 = (a11 + a22 ) × (b11 + b22 )
Q2 = (a21 + a22 ) × b11 c11 = Q1 + Q4 − Q5 + Q7
Q3 = a11 × (b12 − b22 ) c12 = Q2 + Q4
Q4 = a22 × (− b11 + b21 ) c21 = Q3 + Q5 log10(n)
1
n3/n(log2(7))
1.5
Q5 = (a11 + a12 ) × b22 c22 = Q1 + Q3 − Q2 + Q6 2 2.4
3 3.7
Q6 = (a21 − a11 ) × (b11 + b12 ) 4 5.8
Q7 = (a12 − a22 ) × (b21 + b22 ) 5
6
9.1
14.3
7 22.3
Strassen, 1969
8 34.7
9 54.1
o(n2) < Algorithme < O(n2,807
log27) 10 84.4
1 0   0
Opérations sur les matrices  
0 1  
Inverse A−1 A = AA−1 = I In =       
(a.l. bijective <=> matrice carrée)  
  1 0
matrice identité I 0   0 1
 
Transposée (adjointe pour les complexes)
Définition A': a 'ij = a ji
Propriétés ( A')' = A; ( A + B)' = A'+ B' ; ( AB)' = B' A' ; (kA)' = kA' ;
( )
si A est carrée : A = ( A')−1
−1 '

A est symétrique ssi A’=A


Permutation p associé à la matrice P (changement de base de ei à ep(i))
0 0 0 1
 
i 1 2 3 4  0 1 0 0 −1 −1
; P=  P = P ' ; A' = P AP
p(i ) 3 2 4 1 1 0 0 0
 
0 0 1 0
Opérations sur les matrices
Changement de base
e~ = Pei i P : matrice de passage
E , ei u→
,A
E , ei
~
↑ P −1 ↓P : A = PAP -1
~ ~~
E , e~i u~→
~
,A
E , ei

déterminant d’une matrice carrée


A matrice carrée de taille n

det( A) = ∑ sign( p )a p (1)1a p ( 2) 2 ...a p (i )i ...a p ( n ) n


p∈P
P désigne l' ensemble des permutations possibles
sign(p) = 1 si on peut décomposer p
en un nombre pair de transposition (-1 sinon)
Quelques matrices particulières
Matrices carrées
Matrices diagonales
Matrices triangulaires (inférieure et supérieure)
Matrices par bandes
Matrice diagonale (strictement) dominante n
pour une matrice carrée, ∀i ∈1, n ∑ aij ≤ (<) aii
j=1, j≠i
Matrice symétrique
Matrice de Vandermonde (déjà vu en introduction)
n
Matrice de Toeplitz ∑ ai − j x j = yi , i = 1, n
i =1
Matrice de Hankel
4 principes fondamentaux

On ne change pas la solution lorsque l’on :


1. permute 2 lignes

2. permute 2 colonnes

3. divise par un même terme non nul les éléments d’une ligne

4. ajoute ou retranche à une ligne un certain nombre


de fois une autre ligne