Académique Documents
Professionnel Documents
Culture Documents
x = (c by)/a
_
.
La notazione usata `e la seguente: { ... } signica linsieme ... e la barra verticale |
signica tale che. In denitiva, (2) si legge dicendo linsieme degli x, y tali che
x = (c by)/a. Si osservi che y pu`o assumere qualsiasi valore. Per questo motivo,
diciamo che y `e un parametro libero (relativamente alla descrizione data dello spazio delle
soluzioni del sistema 1).
Esempio. Studiamo il sistema lineare di due equazioni in due incognite
(3)
_
a x + b y =
c x + d y =
, a , b , c , d , , R .
2
Se moltiplichiamo la seconda equazione per a e vi sostituiamo ax = by (ottenuta
dalla prima equazione del sistema) troviamo
(4) (ad bc) y = a c .
Si potrebbe obiettare che potremmo aver moltiplicato per zero (se a = 0). Vero, comunque
luguaglianza scritta resta valida.
1
Un calcolo simile mostra che
(5) (ad bc) x = d b.
Da (4) e (5) deduciamo quanto segue.
Proposizione. Se := ad bc = 0 , esiste una unica soluzione del sistema lineare
(3), si ha
(6) x =
d b
ad bc
, y =
a c
ad bc
Dimostrazione. Dividendo sia (4) che (5) per troviamo le espressioni di x ed y che
abbiamo scritto. Questo dimostra che c`e al pi` u una soluzione, quella indicata.
Lesistenza `e un facile conto: basta sostituire le espressioni trovate nel sistema (3).
_
a
1,1
x
1
+ ... + a
1,n
x
n
= b
1
a
2,1
x
1
+ ... + a
2,n
x
n
= b
2
...
...
a
m,1
x
1
+ ... + a
m,n
x
n
= b
m
dove gli a
i,j
ed i b
i
sono numeri reali (detti coecienti del sistema), mentre x
1
, ..., x
n
sono dei simboli detti incognite del sistema.
Una soluzione del sistema `e una n
pla
di numeri x
1
, ..., x
n
che soddisfano tutte le equazioni.
Denizione. Se i coecienti b
1
, ..., b
m
(detti anche termini noti) sono tutti nulli diciamo
che il sistema `e omogeneo.
Denizione. Il sistema omogeneo associato al sistema lineare () `e il sistema di equazioni
_
_
a
1,1
x
1
+ ... + a
1,n
x
n
= 0
...
...
a
m,1
x
1
+ ... + a
m,n
x
n
= 0
Denizione. Un sistema lineare si dice compatibile se ammette soluzioni (una o pi` u), se
non ammette soluzioni si dice incompatibile.
Denizione. Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
Esempio. I sistemi lineari
_
3x + 2y = 7
2x + 5y = 12
_
5x + 6y = 17
8x + 3y = 14
sono equivalenti. Infatti, hanno entrambi x = 1 , y = 2 come unica soluzione.
Esercizio. Risolvere i sistemi dellesempio precedente.
Esempio 7. I sistemi lineari
S
1
:=
_
_
3x + 2y + 2z = 7
2x + 5y + 2z = 1
2x + 2y + 3z = 8
, S
2
:=
_
_
3x + 2y + 2z = 7
2x + 5y + 2z = 1
9x + 14y + 9z = 17
sono equivalenti. Ma non `e necessario risolverli per rendersi conto che sono equivalenti: le
equazioni di S
2
le abbiamo ricavate da quelle di S
1
(ricopiando le prime due equazioni
e sommando, alla terza equazione, la prima equazione pi` u il doppio della seconda), quindi
4
se x
, y
, z
`e una soluzione di S
1
, soddisfa anche S
2
; viceversa, le soluzioni di S
2
sono
soluzioni anche di S
1
perche `e possibile ricavare le equazioni di S
1
da quelle di S
2
(basta
ricopiare le prime due equazioni e sottrarre, alla terza equazione, la prima equazione pi` u il
doppio della seconda).
Passiamo dallesempio al caso generale.
Denizione. Una combinazione lineare delle equazioni f
1
(...) =
1
, ..., f
k
(...) =
k
`e
unequazione del tipo
1
f
1
(...) + ... +
k
f
k
(...) =
1
1
+ ... +
k
k
. I numeri
1
, ...,
k
si chiamano coecienti della combinazione lineare.
Esempio. La combinazione lineare di coecienti 2 e 3 delle equazioni
4x + 3y + 5z = 7
2x + 4y + 2z = 3
`e lequazione
14x + 18y + 16z = 23 ,
ottenuta sommando il doppio della prima equazione al triplo della seconda equazione.
Generalizzando quanto visto nellesempio (7), se modichiamo un sistema lineare som-
mando ad una sua equazione una combinazione lineare delle altre, otteniamo un sistema
lineare equivalente a quello da cui siamo partiti. Naturalmente, anche loperazione di molti-
plicare unequazione per una costante non nulla non cambia la classe di equivalenza di un
sistema lineare. In denitiva, abbiamo losservazione fondamentale sulla quale si basano i
metodi per risolvere un sistema lineare:
Osservazione. La classe di equivalenza di un sistema lineare non cambia se
(8)
i) si moltiplica unequazione per una costante non nulla;
ii) ad unequazione si somma una combinazione lineare delle altre;
iii) si scambiano due equazioni tra loro .
Prima di concludere questo paragrafo torniamo al sistema () ed osserviamo che le infor-
mazioni che lo identicano sono racchiuse nei numeri a
i,j
e b
i
, numeri che raccoglieremo
in delle tabelle ponendo
A :=
_
a
i,j
_
:=
_
_
_
_
_
_
_
_
a
1,1
... a
1,n
. . .
. . .
. . .
a
m,1
... a
m,n
_
_
_
_
_
_
_
_
,
A : =
_
_
_
_
_
_
_
_
a
1,1
... a
1,n
b
1
. . . .
. . . .
. . . .
a
m,1
... a
m,n
b
m
_
_
_
_
_
_
_
_
.
Tabelle di questo tipo si chiamano matrici.
Denizione. Le matrici A ed
A si chiamano rispettivamente matrice incompleta e
matrice completa associata al sistema lineare () .
5
3. Leliminazione di Gauss (E.G.).
LE.G. per righe (quella per colonne `e analoga) `e il procedimento che semplica una
matrice mediante le seguenti operazioni elementari:
(8
)
i) si moltiplica una riga per una costante non nulla;
ii) ad una riga si somma una combinazione lineare delle altre;
iii) si scambiano due righe tra loro.
Inciso. La denizione di combinazione lineare di righe di una matrice `e analoga a quella
di combinazione lineare di equazioni di un sistema: la combinazione lineare di coecienti
1
, ...,
r
delle righe (c
1,1
... c
1,n
) , ..., (c
r,1
... c
r,n
) `e la riga (
r
t=1
t
c
t,1
...
r
t=1
t
c
t,n
) .
Losservazione fondamentale che bisogna tenere sempre presente `e la seguente:
Osservazione 9. Consideriamo una matrice
A, e trasformiamola eseguendo operazioni
del tipo di quelle appena descritte. Chiamiamo
B la matrice che otteniamo. Si ha che i
sistemi lineari associati rispettivamente alle matrici
A e
B sono equivalenti.
La dimostrazione di questa osservazione `e essenzialmente ovvia: scrivere una matrice non
`e altro che un modo compatto di scrivere le informazioni che individuano un sistema lineare
e le operazioni descritte in (8
_
x + 3y + z = 2
4x + 9y + 3z = 8
3x + 5y + 2z = 7
.
Per risolverlo, il primo passo da fare consiste nello scrivere la matrice completa associata
_
_
1 3 1 2
4 9 3 8
3 5 2 7
_
_
.
A questo punto operiamo sulla matrice:
_
_
1 3 1 2
4 9 3 8
3 5 2 7
_
_
(1)
_
_
1 3 1 2
0 3 1 0
0 4 1 1
_
_
(2)
_
_
1 3 1 2
0 3 1 0
0 0 1/3 1
_
_
(3)
_
_
1 3 1 2
0 3 0 3
0 0 1/3 1
_
_
(4)
_
_
1 0 0 2
0 3 0 3
0 0 1/3 1
_
_
(5)
_
_
1 0 0 2
0 1 0 1
0 0 1 3
_
_
,
dove i passaggi eettuati sono: 1) alla seconda riga abbiamo sottratto il quadruplo della
prima ed alla terza abbiamo sottratto il triplo della prima, 2) alla terza riga abbiamo
sottratto i quattro terzi della seconda, 3) alla seconda riga abbiamo sommato il triplo della
6
terza, 4) alla prima riga abbiamo sommato la seconda e sottratto il triplo della terza, 5)
abbiamo diviso la seconda riga per -3 ed abbiamo moltiplicato la terza riga per tre. Il sistema
associato allultima matrice che abbiamo scritto `e il sistema
_
_
1x + 0y + 0z = 2
0x + 1y + 0z = 1
0x + 0y + 1z = 3
ovvero
_
_
x = 2
y = 1
z = 3
In virt` u dellosservazione fondamentale (9) questultimo sistema `e equivalente a quello da
cui siamo partiti, pertanto le soluzioni cercate sono proprio x = 2, y = 1, z = 3.
Le cose non vanno sempre cos` bene, se non altro perche potremmo partire da un sistema
che ammette innite soluzioni o che non ne ammette aatto.
Esempio. Consideriamo il sistema lineare
x + 3y 7z = 2 .
La matrice completa associata `e
_
1 3 7 2
_
e non c`e modo di semplicarla. In compenso le soluzioni di questo sistema sono evidenti:
possiamo considerare y e z come parametri liberi e scrivere x = 3y + 7z + 2 .
Esempio. Consideriamo il sistema lineare
_
x + 2y + 5z = 2
2x + 4y + 10z = 3
La matrice completa associata `e
_
1 2 5 2
2 4 10 3
_
.
Sottraendo alla seconda riga il doppio della prima troviamo la matrice
_
1 2 5 2
0 0 0 1
_
,
che `e la matrice completa associata al sistema ovviamente incompatibile
_
x + 2y + 5z = 2
0 = 1
Torniamo alla teoria generale.
Denizione. Una matrice a scala superiore `e una matrice A = (a
i,j
) M
m,n
(R) in
cui (i) , che per denizione `e lindice massimo tale che a
i,1
= ... = a
i,
= 0 , `e
una funzione strettamente crescente dellindice di riga i , con lovvia eccezione che se una
riga `e tutta nulla ci limiteremo a richiedere che le successive siano anchesse nulle (...non
potrebbero avere pi` u di n zeri, poverine hanno solo n elementi!).
Questo `e un esempio di matrice a scala superiore:
_
_
_
_
_
1 3 1 5 0 1 2
0 2 2 7 0 0 11
0 0 0 1 21 3 8
0 0 0 0 3 0 0
0 0 0 0 0 4 2
_
_
_
_
_
.
7
Si osservi che se una matrice A `e quadrata ed `e a scala superiore, allora `e necessariamente
triangolare superiore (ossia tutti gli elementi sotto la diagonale principale sono nulli).
Esercizio. Indicare quali matrici tra quelle che seguono sono a scala superiore.
_
_
4 3 1
0 2 2
0 0 0
_
_
,
_
_
1 2 3 1
0 0 2 1
0 0 1 1
_
_
,
_
_
1 0 0 0
0 0 2 0
0 0 0 0
_
_
,
_
_
_
1 3
0 1
0 5
0 0
_
_
_
_
_
_
0 2 3 1
0 0 2 1
0 0 1 5
0 0 0 1
_
_
_ ,
_
_
_
1 3 3 1
0 0 9 4
0 0 0 4
0 0 0 0
_
_
_ ,
_
0 0 0
0 0 0
_
,
_
_
2 1
0 0
0 0
_
_
Osservazione. I sistemi lineari la cui matrice completa associata `e a scala superiore, che
chiameremo sistemi a scala, si risolvono rapidamente per sostituzione partendo dallultima
equazione e tornando indietro:
Esempio. Il sistema a scala
(10)
_
_
2x + y 3z + w s = 2
3z w + 2s = 3
w + 5s = 10
si risolve nel modo che segue: si considera lultima equazione e si considerano come parametri
liberi tutte le variabili che seguono w, quindi si scrive
w = 5s + 10 ,
si sostituisce quanto ottenuto nella penultima equazione e si isola la variabile z (sempre,
prendiamo la prima variabile dellequazione considerata), quindi si scrive
z =
_
7s + 13
_
/3
(in questo passaggio non sono apparsi altri parametri liberi oltre s, che abbiamo gi`a consi-
derato) si sostituisce quanto ottenuto nella prima equazione e si isola la variabile x (ripeto,
`e sempre la prima variabile quella che prendiamo), quindi si scrive
x =
_
y s + 5
_
/2
tenendo le eventuali altre
2
variabili, in questo caso solamente la y , come parametri liberi.
In denitiva, lo spazio delle soluzioni del sistema (10) `e
(11)
_
_
x, y, z, w, s
x =
_
y s + 5
_
/2
z =
_
7s + 13
_
/3
w = 5s + 10
_
_
,
dove, lo ripeto, y ed s sono parametri liberi, ovvero sono variabili che possono assumere
qualsiasi valore.
Lesempio esposto non ha nulla di particolare, ogni sistema lineare la cui matrice completa
associata `e a scala superiore si risolve nello stesso modo. Lunica cosa che potrebbe accadere
2
Oltre quelle gi`a considerate.
8
`e che lultima equazione `e qualcosa del tipo 0 = 3, in questo caso il nostro sistema lineare
`e palesemente incompatibile.
Il primo coeciente non nullo di ogni equazione viene chiamato pivot. Si osservi che i
parametri liberi sono le variabili che non corrispondono ad un pivot. Nellesempio consi-
derato i pivot sono 2, 3, 1 (coecienti di x, z, w, rispettivamente della prima, seconda e
terza equazione) ed i parametri liberi sono le restanti variabili: y ed s .
Inciso 12.
`
E opportuno usare i simboli t
1
, t
2
, ... per indicare, ed evidenziare, i parametri
liberi. In questo modo le soluzioni del sistema dellesempio vengono scritte nella forma
(12
)
_
_
x, y, z, w, s
x =
_
t
1
t
2
+ 5
_
/2
y = t
1
z =
_
7t
2
+ 13
_
/3
w = 5t
2
+ 10
s = t
2
_
_
,
detta anche rappresentazione parametrica dellinsieme delle soluzioni del sistema dato.
Visto che sappiamo risolvere i sistemi a scala resta da imparare a ridurre un qualsiasi
sistema ad un sistema a scala, ed in virt` u dellosservazione (9), resta da illustrare lalgoritmo
che trasforma una qualsiasi matrice in una matrice a scala. Questo algoritmo viene descritto
nella prossima dimostrazione e si chiama algoritmo di riduzione a scala (ovvero di Gauss).
Proposizione 13. Sia A =
_
a
i,j
_
M
m,n
(R) una qualsiasi matrice rettangolare.
LE.G. per righe consente sempre di trasformarla in una matrice a scala superiore.
Dimostrazione. Sia k lintero pi` u grande tale che la sottomatrice B costituita dalle prime
k colonne di A `e a scala. Ovviamente k pu`o essere zero (per lesattezza, k = 0 se e solo
se a
2,1
= ... = a
m,1
= 0). Se B non ha righe identicamente nulle, A `e a scala ed abbiamo
concluso. Altrimenti, assumiamo k < n (se k = n la matrice A `e gi`a a scala e non c`e
nulla da dimostrare). Posto r uguale allindice della prima riga identicamente nulla di B
(se k = 0 scegliamo r = 1), consideriamo a
r,k+1
, ..., a
m,k+1
. Questi numeri non sono
tutti nulli perche altrimenti la sottomatrice delle prime k +1 colonne di A sarebbe a scala.
A meno di cambiare lordine delle righe di indice r, ..., m possiamo assumere a
r,k+1
= 0 ,
quindi per ogni i > r sottraiamo alla i
esima
riga il prodotto della r
esima
riga per
a
i,k+1
a
r,k+1
. In questo modo sotto a
r,k+1
otteniamo tutti zeri, quindi la sottomatrice delle prime
k + 1 colonne della nuova A (stiamo modicando la nostra matrice) `e a scala.
Iterando questo procedimento arriveremo ad avere k = n ed avremo quindi concluso la
riduzione a scala di A.
_
x
1
, x
2
, ...
x
1
= c
1,1
t
1
+ ... + c
1,
t
...
x
n
= c
n,1
t
1
+ ... + c
n,
t
...
_
_
(vedi inciso 12), dove t
1
, ..., t
_
x + y 7z + w s = 3
3z + y + 2s = 8
w + 3s = 6
_
x + y 7z + w s = 3
3x + y + 2s = 2
_
_
x + y z + 2w = 3
x y z w = 2
x + 2y 2z + 3w = 4
_
_
x + 3y z + 2w = 5
3x + y 5z + w = 0
2x 4z 5w = 7
x + 7y 2z + 8w = 14
_
_
x
2
x
3
+ x
4
+ x
5
x
6
+ x
7
= 3
x
1
x
2
+ x
5
+ x
6
+ x
7
= 1
x
1
+ x
2
+ 2x
3
+ x
4
+ 2x
5
+ x
6
+ x
7
= 5
_
_
x
3
x
4
+ x
5
+ x
6
x
7
= 3
x
1
x
2
+ 3x
5
+ 4x
6
+ x
7
= 4
x
1
+ 3x
2
+ 2x
5
+ x
6
+ x
7
= 1
x
1
+ 4x
2
+ 7x
3
+ x
4
+ 2x
5
x
6
x
7
= 2
10
4. Matrici.
Denizione 15. Una matrice m n `e una tabella di numeri costituita da m righe ed
n colonne. Linsieme delle matrici mn lo indichiamo con M
m,n
(R) . Consideriamo due
matrici delle stesse dimensioni
A :=
_
a
i,j
_
:=
_
_
_
_
_
a
1,1
. . . a
1,n
. . . . .
. . . . .
. . . . .
a
m,1
. . . a
m,n
_
_
_
_
_
, B :=
_
b
i,j
_
:=
_
_
_
_
_
b
1,1
. . . b
1,n
. . . . .
. . . . .
. . . . .
b
m,1
. . . b
m,n
_
_
_
_
_
.
Si denisce la loro somma A + B ponendo
A + B :=
_
_
_
_
_
a
1,1
+ b
1,1
. . . a
1,n
+ b
1,n
. . . . .
. . . . .
. . . . .
a
m,1
+ b
m,1
. . . a
m,n
+ b
m,n
_
_
_
_
_
.
Osserviamo che A + B M
m,n
(R) .
Esempio.
_
_
4 3 1 0
0 2 2 0
2 5 0 1
_
_
+
_
_
1 2 3 11
3 7 2 19
3 0 1 57
_
_
=
_
_
5 5 4 11
3 9 4 19
5 5 1 58
_
_
.
Denizione 16. Siano A = (a
i,j
) M
m,n
(R) e C = (c
i,j
) M
n,k
(R) due matrici (si
osservi che il numero delle colonne di A `e uguale al numero delle righe di C ). Si denisce
il prodotto righe per colonne
A C M
m,k
(R)
ponendo
(16
)
_
A C
_
i,j
:=
n
h=1
a
i,h
c
h,j
.
Si osservi che secondo questa formula, lelemento di posto i, j della matrice prodotto
`e il prodotto della i
esima
riga di A per la j
esima
colonna di C . Ad esempio,
_
a b c
_
_
_
_
_
=
_
a + b + c
_
.
Esempio 17.
_
4 0 1
2 5 0
_
_
_
1 2 0 3
0 7 2 1
3 0 1 1
_
_
=
_
7 8 1 11
2 31 10 1
_
.
Per giusticare la denizione (16), mi limito a fare una considerazione: se sostituiamo le
relazioni
_
_
y
1
= z
1
+ 2z
2
+ 0z
3
+ 3z
4
y
2
= 0z
1
+ 7z
2
+ 2z
3
+ z
4
y
3
= 3z
1
+ 0z
2
z
3
z
4
nelle relazioni
_
x
1
= 4y
1
+ 0y
2
+ y
3
x
2
= 2y
1
5y
2
+ 0y
3
11
otteniamo proprio (si noti che le matrici associate sono quelle del prodotto nellesempio)
_
x
1
= 7z
1
+ 8z
2
z
3
+ 11z
4
x
2
= 2z
1
31z
2
10z
3
+ z
4
Osservazione 18. Quanto visto nellesempio vale in generale: il prodotto (righe per
colonne) tra matrici codica loperazione di sostituzione. Infatti, date A e C come nella
denizione (16), se x
1
, ..., x
m
, y
1
, ..., y
n
e z
1
, ..., z
k
soddisfano le relazioni
x
i
= a
i,1
y
1
+ ... + a
i,n
y
n
=
n
h=1
a
i,h
y
h
e y
h
= c
h,1
z
1
+ ... + c
h,k
z
k
=
k
j=1
c
h,j
z
j
,
(dove i = 1, ..., m e h = 1, ..., n), allora risulta
x
i
=
n
h=1
a
i,h
y
h
=
n
h=1
a
i,h
k
j=1
c
h,j
z
j
=
k
j=1
_
n
h=1
a
i,h
c
h,j
_
z
j
Si osservi che tra le parentesi c`e la denizione (vedi 16
_
1 2
3 7
_
=
_
13 29
6 14
_
ma
_
1 2
3 7
_
_
4 3
0 2
_
=
_
4 7
12 23
_
.
Osservazione 21. Un modo compatto per denotare il sistema lineare () introdotto
allinizio del paragrafo 2 consiste nello scrivere
A x =
b ,
dove, per denizione, x =
_
_
x
1
.
.
.
x
n
_
_
,
b =
_
_
b
1
.
.
.
b
m
_
_
, A `e la matrice incompleta associata al
sistema lineare dato ed il prodotto `e il prodotto righe per colonne della denizione (16).
Infatti, usando la denizione (16) di prodotto righe per colonne si ottiene proprio
A x =
_
_
_
_
_
a
1,1
. . . a
1,n
. . . . .
. . . . .
. . . . .
a
m,1
. . . a
m,n
_
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
=
_
_
_
_
_
_
_
_
a
1,1
x
1
+... + a
1,n
x
n
...
...
...
a
m,1
x
1
+... + a
m,n
x
n
_
_
_
_
_
_
_
_
M
m,1
(R) .
12
Osservazione 22. Facciamo un passo indietro e torniamo allosservazione (18). Posto
x :=
_
_
x
1
.
.
.
x
m
_
_
, y :=
_
_
_
y
1
.
.
.
y
n
_
_
_ , z :=
_
_
z
1
.
.
.
z
k
_
_
,
le relazioni
x
i
=
n
h=1
a
i,h
y
h
, y
h
=
k
j=1
c
h,j
z
j
possono essere scritte nella forma compatta
x = A y , y = C z .
Sostituendo y = Cz nella x = Ay si ottiene
x = A
_
C z
_
Quindi, usando lassociativit`a del prodotto tra matrici, si ottiene
x = (A C) z ,
che `e esattamente la forma compatta della relazione x
i
=
k
j=1
_
n
h=1
a
i,h
c
h,j
_
z
j
ottenuta
nellosservazione (18).
Concludiamo il paragrafo con una denizione.
Denizione 23. Sia A = (a
i,j
) M
m,n
(R) una matrice. La matrice che si ottiene
scambiando le righe con le colonne si chiama trasposta di A e si indica con
t
A. Osserviamo
che
_
t
A
_
i,j
= a
j,i
,
t
A M
n,m
(R) .
Esempio. Se A =
_
2 1 3
5 7 4
_
, allora
t
A =
_
_
2 5
1 7
3 4
_
_
.
Esercizio. Calcolare i seguenti prodotti
_
1 2
2 3
_
_
4 3
1 1
_
;
_
2 1 3
5 7 4
_
_
_
5 1 0
1 1 1
2 2 4
_
_
;
_
_
5
2
1
_
_
( 2 1 ) ;
_
_
1
2
3
_
_
( 5 7 4 ) ;
_
_
5
7
4
_
_
( 1 2 3 ) ;
_
_
2 1 0
1 3 1
2 2 4
_
_
_
_
5 3 1
1 1 1
2 1 2
_
_
.
_
_
0 0
0 0
0 0
_
_
_
_
2 4 9
1 6 7
3 5 8
_
_
;
_
_
2 4 9
1 6 7
3 5 8
_
_
_
_
0 0
0 0
0 0
_
_
;
_
_
2 4 9
1 6 7
3 5 8
_
_
_
_
_
_
.
13
5. Matrici quadrate.
Il prodotto tra matrici in M
n,n
(R) ha certamente senso ed il risultato che si ottiene `e
sempre in M
n,n
(R) . In eetti M
n,n
(R) , con le due operazioni di somma e prodotto, `e un
esempio di anello unitario (un anello `e un oggetto algebrico che noi non studieremo). Non
entrer`o troppo in questioni algebriche, per`o due osservazioni le voglio fare.
Denizione. La matrice nn che ha tutti 1 sulla diagonale principale e tutti zeri altrove
I
n
:=
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_
_
_
_
_
_
si chiama matrice identica di ordine n.
Osservazione.
A I
n
= I
n
A = A , A M
n,n
(R)
Denizione 24. Consideriamo A M
n,n
(R) . Se esiste B tale che A B = I
n
diciamo
che A `e invertibile, B la chiamiamo inversa di A e la denotiamo A
1
.
Proposizione 25. Si ha che A B = I
n
se e solo se B A = I
n
. Linversa di una
matrice, se esiste, `e unica.
Rimando la dimostrazione di questa proposizione al paragrafo 18, in parte perche la
voglio arricchire con dei commenti che coinvolgono argomenti che dobbiamo ancora trattare,
in parte perche in questo momento non voglio appesantire il discorso (comunque, invito lo
studente a dare n dora unocchiata alla dimostrazione, ...se non altro perche mi sono preso
la briga di scrivere una dimostrazione comprensibile con gli strumenti introdotti n qui!).
Torniamo al sistema lineare () del paragrafo 2, ovvero al sistema (vedi osservazione 21):
(26) A x =
b
Se il numero delle equazioni `e uguale al numero delle incognite la matrice incompleta A `e
una matrice quadrata n n mentre la matrice completa
A `e una matrice n (n + 1) .
Assumiamo che esiste linversa di A. In questo caso possiamo moltiplicare ambo i membri
delluguaglianza (26) per A
1
, ottenendo A
1
(A x) = A
1
b .
Questuguaglianza mostra lunicit`a delleventuale soluzione del nostro sistema e ci fornisce un
candidato per tale soluzione. Poiche il passaggio eettuato `e invertibile (rimoltiplicando
per A torniamo al sistema di partenza), abbiamo lesistenza della soluzione del sistema
dato.
Il prossimo obiettivo `e quello di studiare linvertibilit`a e calcolare linversa di una matrice.
A tal ne avremo bisogno della nozione di determinante, oggetto di studio del prossimo
paragrafo.
14
6. Determinante.
In questo paragrafo introduciamo la funzione determinante, funzione che ad una matrice
quadrata (cio`e che ha uguale numero di righe e colonne) associa un numero. Ci sono diverse
denizioni equivalenti del determinante, noi lo deniamo tramite lo sviluppo di Laplace (def.
29). La formula (31) e la proposizione (40) forniscono altri due modi possibili di denire il
determinante. Cominciamo con alcuni casi particolari.
Se A = (a) `e una matrice 1 1 si pone
det(A) := a .
Se A =
_
a b
c d
_
`e una matrice 2 2 si pone
det(A) := ad bc .
Per le matrici di ordine superiore la denizione `e pi` u complicata, ad esempio gi`a per le
matrici 3 3 si pone
det
_
_
a b c
d e f
g h i
_
_
:= aei afh bdi + bfg + cdh ceg .
...ma vediamo la denizione generale! La denizione che segue `e induttiva, nel senso che si
denisce il determinante di una matrice di ordine n utilizzando il determinante di matrici
di ordine pi` u basso. Premettiamo una notazione.
Notazione 28. Sia A M
n,n
(R) una matrice. Indichiamo con C
i,j
M
n1,n1
la
matrice che si ottiene prendendo A e cancellando la i
esima
riga e la j
esima
colonna. Ad
esempio,
se A =
_
_
3 5 1
7 2 4
8 6 9
_
_
, si ha C
1,2
=
_
7 4
8 9
_
.
Denizione 29. Sviluppo di Laplace del determinante. Come abbiamo gi`a menzionato, se
A = (a) `e una matrice di ordine 1 si pone detA := a . Sia quindi n 2 e consideriamo
A = (a
i,j
) M
n,n
(R) . Si denisce
(29
) detA :=
n
j=1
(1)
1+j
a
1,j
detC
1,j
,
dove la notazione usata `e quella appena introdotta.
Si osservi che la denizione data ha senso, in eetti luguaglianza (29
) denisce in maniera
ricorsiva il determinante: si sa calcolare il determinante delle matrici di ordine 1, quindi si
sa calcolare il determinante di quelle di ordine 2, ne segue che si sa calcolare il determinante
di quelle di ordine 3, ...di quelle di ordine 4, eccetera.
Osservazione. Applicando luguaglianza (29
) per n = 3 si ottiene
det
_
_
a b c
d e f
g h i
_
_
: = a det
_
e f
h i
_
b det
_
d f
g i
_
+ c det
_
d e
g h
_
= a (ei fh) b (di fg) + c (dh eg) ,
che coincide con la denizione data precedentemente.
15
Esempio. Si ha
det
_
_
2 5 3
3 2 7
1 4 6
_
_
: = 2 det
_
2 7
4 6
_
5 det
_
3 7
1 6
_
+ 3 det
_
3 2
1 4
_
= 2 (12 28) 5 (18 7) + 3 (12 2) = 57 .
Visto che ci siamo vediamo cosa si ottiene per le matrici di ordine 4:
det
_
_
_
a b c d
e f g h
i l m n
o p q r
_
_
_ :=
adet
_
_
f g h
l m n
p q r
_
_
bdet
_
_
e g h
i m n
o q r
_
_
+ cdet
_
_
e f h
i l n
o p r
_
_
ddet
_
_
e f g
i l m
o p q
_
_
.
Si osservi che sviluppando i determinanti delle matrici di ordine 4 si perviene ad un polinomio
costituito da 4 6 = 24 termini. Lo sviluppo del determinante di una matrice di ordine 5 `e
un polinomio molto lungo: ha 5 24 = 120 termini. Dalla denizione (29) `e evidente per
ragioni induttive che questa considerazione si generalizza:
Osservazione 30. Per le matrici di ordine n, la funzione determinante `e un polinomio
di 1 2 3 ... n termini (questo prodotto si chiama fattoriale di n e si indica con n! , il
punto esclamativo fa parte della notazione).
Vedremo comunque che il calcolo del determinante di una matrice `e una operazione molto
pi` u semplice di quanto si possa immaginare ...e temere!
Facciamo alcune considerazioni. Sia A = (a
i,j
) M
n,n
(R) . Chiaramente, detA `e un
polinomio negli a
i,j
. Aermo che i monomi che lo costituiscono sono (a meno del segno) i
prodotti di n elementi della matrice che stanno sia su righe che su colonne distinte. Questo
segue dalla (29
): nella (29
) abbiamo che a
1,j
si scontra con detC
1,j
(per ogni i, j),
essendo C
1,j
la matrice ottenuta cancellando proprio la riga e la colonna corrispondente a
a
1,j
; quindi, ragionando per induzione, `e chiaro che i monomi di detA sono (a meno del
segno) esattamente tutti i prodotti di n elementi che stanno sia su righe che su colonne
distinte.
Si osservi che questo risultato, coerentemente col fatto che le permutazini di n elementi
sono n! (n fattoriale), quindi col fatto che tutti i possibili prodotti di n elementi che stanno
sia su righe che su colonne distinte sono in numero uguale a n!, `e in linea con losservazione
precedente sul numero dei monomi che costituiscono il determinante di A.
Con un pizzico di lavoro in pi` u, che a questo punto per`o ce lo risparmiamo per non
appesantire il discorso, non `e dicile comprendere anche quali sono i segni davanti a tali
monomi e in denitiva provare la proposizione che segue.
Proposizione. Si abbia A = (a
i,j
) M
n,n
(R) . Si ha
(31) det(A) :=
S
n
() a
1,(1)
a
2,(2)
... a
n,(n)
,
dove S
n
`e linsieme delle permutazioni dei primi n interi {1, ..., n} , e dove () `e il
segno della permutazione .
Quanto al segno di una permutazione, () = 1 se `e ottenibile come composizione di
scambi in numero pari, () = 1 se `e ottenibile come composizione di scambi in numero
16
dispari (`e possibile dimostrare che il segno di una permutazione `e ben denito). Ad esempio,
la permutazione (1) = 3, (2) = 2, (3) = 1, (4) = 5, (5) = 4 , che verr`a denotata con
(3,2,1,5,4) si ottiene scambiando 3 con 1 nonche 5 con 4. Pertanto si realizza eettuando
2 scambi (i.e. `e pari), quindi () = 1 .
Lo studente non si deve spaventare perche non dovr`a mai impelagarsi con il formalismo
di questa formula. Il motivo per cui ho voluto enunciarla `e per ribadire lo straordinario
ordine della funzione determinante. In particolare, per ribadire, usando il linguaggio di
una formula, la (31) appunto, il fatto gi`a menzionato che il determinante `e il polinomio
(omogeneo, di grado n) nelle variabili a
i,j
i cui monomi che lo costituiscono sono (a meno
del segno) i prodotti di n elementi della matrice che stanno sia su righe che su colonne
distinte. Una conseguenza della (31) `e che lo sviluppo di Laplace del determinante pu`o
essere eettuato rispetto ad una riga a piacere (a dirla tutta, anche rispetto ad una qualsiasi
colonna): sia k un indice che ssiamo, si ha
(32) detA :=
n
j=1
(1)
k+j
a
k,j
detC
k,j
,
dove come al solito C
k,j
`e la matrice che si ottiene prendendo A e sopprimendo la k
esima
riga e la j
esima
colonna.
Esempio. Sviluppando rispetto alla seconda riga il determinante dellesempio precedente
si ottiene
det
_
_
2 5 3
3 2 7
1 4 6
_
_
: = 3 det
_
5 3
4 6
_
+ 2 det
_
2 3
1 6
_
7 det
_
2 5
1 4
_
= 3 (30 12) + 2 (12 3) 7 (8 5) = 57 .
Come promesso dalla formula (32) il risultato ottenuto `e lo stesso di prima: 57 .
Denizione 33. Il prodotto (1)
i+j
detC
i,j
si chiama complemento algebrico di a
i,j
.
Lemma 34. Il determinante `e una funzione antisimmetrica delle righe della matrice: se
scambiamo tra loro due righe di A il determinante cambia segno.
Dimostrazione. Dalla (32) segue immediatamente che se scambiamo due righe adiacenti
il determinante cambia segno: se A
Lemma 35. Il determinante `e una funzione multilineare delle righe della matrice: sia k
un indice di riga, un numero reale e siano A, A
, A
i,j
= a
i,j
= b
i,j
, i = k , j ;
a
k,j
+ a
k,j
= a
k,j
, j ;
b
k,j
= a
k,j
, j .
(cio`e coincidono ovunque tranne che per il fatto che la k
esima
riga di A
`e la somma
della k
esima
riga di A con quella di A
, mentre la k
esima
riga di B `e il prodotto della
17
k
esima
riga di A per ). Allora
detA + detA
= detA
;
detB = detA .
Questo enunciato sembra poco digeribile per via delluso degli indici. In realt`a il lemma `e
molto semplice, ci sta dicendo che se ssiamo tutti gli elementi di una matrice eccetto quelli
di una data riga, la funzione determinante, come funzione di quella riga, `e lineare. ...ma `e
meglio dirlo con due esempi:
Esempio. det
_
2 5
7 3
_
= det
_
2 5
7 3
_
.
Esempio. det
_
2+3 5+1
4 7
_
= det
_
2 5
4 7
_
+ det
_
3 1
4 7
_
.
Esercizio. Calcolare i determinanti delle matrici indicate negli esempi.
Esercizio 36. Sia A una matrice di ordine n e sia A la matrice che si ottiene
moltiplicando tutti gli elementi di A per la costante . Vericare che det(A) =
n
detA.
Dimostrazione (del lemma 35). Poiche le matrici coincidono fuori della k
esima
riga,
calcolando il determinante utilizzando lo sviluppo di Laplace proprio rispetto alla k
esima
riga (formula 32), si ottiene
detA + detA
=
n
j=1
(1)
k+j
a
k,j
detC
k,j
+
n
j=1
(1)
k+j
a
k,j
detC
k,j
=
n
j=1
(1)
k+j
_
a
k,j
+ a
k,j
_
detC
k,j
= detA
.
Analogamente,
detB =
n
j=1
(1)
k+j
b
k,j
detC
k,j
=
n
j=1
(1)
k+j
a
k,j
detC
k,j
= detA
`e la matrice ottenuta moltiplicando la riga nulla per due (si noti che A
= A),
allora F(A) = F(A
) `e possibile trasformare
qualsiasi matrice in una matrice che ha una riga di zeri oppure nella matrice identica. Nel
primo caso si ha F(A) = 0 (segue dalla multilinearit`a, il ragionamento `e quello fatto quando
abbiamo dimostrato la 38
d
). Nel secondo caso siamo ugualmente in grado di dire quanto
vale F(A) : basta che ci ricordiamo delle costanti (non nulle) che avremo fatto intervenire
nellapplicare lE.G. che trasforma A nella matrice identica e del numero degli eventuali
scambi di righe eettuati. Si osservi che usiamo lipotesi F(I
n
) = 1 . Poiche in entrambi
(tutti) i casi siamo stati capaci di calcolare F(A) utilizzando solo le propriet`a che avevamo
a disposizione, F `e unica.
_
detA
1
_
= 0 .
Viceversa, se detA = 0 , allora A `e invertibile ed esiste una formula che ne calcola linversa.
Tale formula `e contenuta nel teorema che segue:
Teorema 42. Consideriamo A M
n,n
(R) . Si ha che A `e invertibile se e solo se
detA = 0 . In questo caso risulta
_
A
1
_
i,j
= (1)
i+j
detC
j,i
detA
,
dove come al solito C
j,i
`e la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna.
Attenzione! Non mi sono sbagliato: a sinistra delluguaglianza ho scritto i, j , a destra
ho scritto j, i.
Osservazione. La formula del teorema (42) ci dice che A
1
`e la trasposta della matrice
dei complementi algebrici (vedi def. 33, pag. 16) divisi per il determinante di A.
Avendo gi`a provato che se A `e invertibile allora detA = 0 , per concludere la di-
mostrazione del teorema `e suciente calcolare il prodotto di A per la matrice indicata
nel teorema e vericare che il risultato `e la matrice identica. Tale calcolo lo svolgiamo nel
paragrafo 18.
Esempio. Determiniamo linversa della matrice A =
_
_
1 12 4
3 1 0
4 5 2
_
_
.
Poiche detA = 2 , la matrice A `e invertibile. La matrice dei complementi algebrici `e la
matrice
_
_
_
_
_
_
_
_
_
_
_
_
_
det
_
1 0
5 2
_
det
_
3 0
4 2
_
det
_
3 1
4 5
_
det
_
12 4
5 2
_
det
_
1 4
4 2
_
det
_
1 12
4 5
_
det
_
12 4
1 0
_
det
_
1 4
3 0
_
det
_
1 12
3 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
2 6 19
4 14 43
4 12 37
_
_
.
Dividendo per detA si ottiene la matrice
_
_
1 3 19/2
2 7 43/2
2 6 37/2
_
_
. Inne, trasponendo
questultima matrice si ottiene
A
1
=
_
_
1 2 2
3 7 6
19/2 43/2 37/2
_
_
.
21
La formula del teorema (42) non `e molto pratica, per calcolare linversa di una matrice di
ordine tre abbiamo dovuto fare molte operazioni. Nel 8 vedremo che utilizzando lalgoritmo
di Gauss `e possibile calcolare linversa di una matrice abbastanza rapidamente.
Esercizio. Vericare che
_
_
1 12 4
3 1 0
4 5 2
_
_
_
_
1 2 2
3 7 6
19/2 43/2 37/2
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Esercizio. Si calcoli linversa della matrice
_
_
2 7 5
3 1 8
1 11 3
_
_
utilizzando la formula del
teorema (42). Si verichi la correttezza del risultato ottenuto svolgendo il prodotto righe
per colonne della matrice data per la matrice inversa trovata.
Esercizio. Calcolare il determinante delle matrici che seguono
_
7 3
2 8
_
;
_
_
3 271 583
0 1 49
0 0 2
_
_
;
_
_
2 0 0
4729 1 0
357 9041 5
_
_
;
_
_
0 0 1
0 3 237
2 795 9467
_
_
.
Esercizio. Calcolare il determinante (in funzione del parametro k) delle matrici che
seguono ed indicare per quali valori di k non sono invertibili.
_
k k+1
2k 3k5
_
;
_
_
k 3k k
1 2 1
5 6 1
_
_
;
_
_
k 1 5
3k 2 6
k 1 1
_
_
;
_
_
2k 3k7 k+71
0 k
2
11 23k
3
0 0 k8
_
_
.
Esercizio. Calcolare linversa delle matrici
_
7 2
3 5
_
,
_
_
2 0 2
7 1 8
4 8 9
_
_
,
_
_
2 2 0
7 8 1
1 6 7
_
_
,
_
_
3 3 3
4 4 5
3 2 7
_
_
,
_
_
_
2 1 3 1
6 2 6 2
5 0 3 1
4 3 1 0
_
_
_ ,
e vericare la correttezza dei risultati ottenuti (ricordiamo che per vericare che due ma-
trici sono luna linversa dellaltra `e suciente moltiplicarle tra loro, come risultato si deve
ottenere la matrice identica).
22
7. Teorema di Cramer.
Torniamo a considerare il sistema lineare
Ax =
b , A M
n,n
(R) .
Osservazione 43. Sia A M
n,n
(R) una matrice quadrata a scala. Dalla propriet`a
(38
e
), il determinante detA `e il prodotto degli elementi sulla diagonale. Inoltre, se a
k
0
,k
0
=
0 per un qualche indice k
0
, si ha anche a
k,k
= 0 per ogni k > k
0
(altrimenti A non
sarebbe a scala). Pertanto le condizioni
i) detA = 0 ; ii) a
n,n
= 0 ; iii) a
k,k
= 0 , k ;
sono equivalenti tra loro.
Lemma. Sia A M
n,n
(R) una matrice quadrata a scala. Il sistema lineare Ax =
b
ha una unica soluzione se e solo se detA = 0 .
Dimostrazione. Poiche A `e a scala, abbiamo a che fare con un sistema lineare a scala del
tipo
_
_
a
1,1
x
1
+ ... ... = b
1
a
2,2
x
2
+ ... = b
2
...
a
n,n
x
n
= b
n
.
Se detA = 0, per losservazione (43), tutti gli elementi sulla diagonale principale a
1,1
, ..., a
n,n
sono non nulli.
`
E evidente che tale sistema si risolve (partendo dallultima equazione e
tornando indietro) senza produrre parametri liberi ne incompatibilit`a.
Viceversa, nel caso risulti detA = 0 , e quindi a
n,n
= 0 (sempre per losservazione 43),
ci sono due possibilit`a: il sistema `e incompatibile oppure `e compatibile. Nellipotesi che
si verichi questo secondo caso, lultima equazione deve essere lequazione 0 = 0 (se fosse
b
n
= 0 il nostro sistema sarebbe incompatibile) ed il sistema in questione `e in realt`a un
sistema, compatibile per ipotesi, di al pi` u n 1 equazioni in n incognite; il metodo visto
nel paragrafo 3 di soluzione allindietro di un tale sistema a scala produce almeno un
parametro libero e quindi innite soluzioni.
In denitiva, abbiamo provato che nel caso risulti detA = 0 , il sistema `e incompatibile
oppure ammette innite soluzioni.
23
Analizziamo le due possibilit`a da un altro punto di vista. Come prima, consideriamo il
sistema lineare A x =
b .
Caso 1: detA = 0 . Lesistenza e lunicit`a della soluzione del sistema lineare Ax =
b
segue anche
3
dal teorema (42): nel paragrafo 5 abbiamo osservato che lesistenza dellinversa
di A garantisce lesistenza e lunicit`a della soluzione del sistema lineare: si ha x = A
1
b .
Caso 2: detA = 0 . Per losservazioni (39), lannullarsi del determinante `e equivalente
a che una riga sia combinazione lineare delle altre. Di conseguenza, abbiamo la stessa
dicotomia incontrata nellesempio (3) del paragrafo 1 (vedi pag. 2): o il termine noto
corrispondente a quella riga di A non `e compatibile con la combinazione lineare, cosa
che rende il sistema lineare incompatibile, oppure tutta lequazione corrispondente a quella
riga `e combinazione lineare delle altre equazioni e questo, di fatto, signica avere meno di
n equazioni (il che signica avere innite soluzioni oppure, comunque, incompatibilit`a; di
sicuro, dalla stessa E.G. si evince che un sistema di meno di n equazioni in n incognite non
pu`o avere ununica soluzione).
Teorema 45 (Cramer). Consideriamo il sistema lineare Ax =
b ed assumiamo
detA = 0 . Sia quindi x =
_
_
x
1
.
.
.
x
n
_
_
la soluzione (che esiste ed `e unica per il teorema
precedente). Si ha
x
i
=
det A
b/col i
detA
,
dove A
b/col i
`e la matrice che si ottiene sostituendo la i
-esima
colonna di A con il vettore
dei termini noti
b .
Osservazione 46. Nel caso n = 2 , ad esempio nel caso del sistema (3) del paragrafo 1
_
a b
c d
__
x
y
_
=
_
_
,
questo teorema si riduce alla formula (6) del paragrafo 1:
x =
det
_
b
d
_
det
_
a b
c d
_ , y =
det
_
a
c
_
det
_
a b
c d
_ .
Esempio. Risolviamo il sistema lineare
_
_
3x + 3y + 4z = 19
5x + 6y 7z = 13
7x + 9y 17z = 31
.
Il determinante della matrice incompleta `e 3, quindi la soluzione esiste ed `e unica. Si ha
x =
det
_
_
19 3 4
13 6 7
31 9 17
_
_
3
, y =
det
_
_
3 19 4
5 13 7
7 31 17
_
_
3
, z =
det
_
_
3 3 19
5 6 13
7 9 31
_
_
3
.
3
Oltre che dal ragionamento nella dimostrazione del teorema (44).
24
Esercizio. Risolvere il sistema lineare (utilizzando il teorema di Cramer)
_
_
x + 2y 4z = 19
3x 5y + 7z = 13
2x 3y + 13z = 31
.
Del teorema di Cramer ne espongo due dimostrazioni.
Dimostrazione #1. Poiche x = A
1
b , abbiamo che x
i
`e il prodotto della i
-esima
riga
di A
1
per
b :
x
i
=
j
(A
1
)
i,j
b
j
=
j
(1)
i+j
detC
j,i
detA
b
j
,
dove la seconda uguaglianza segue dalla formula del teorema (42) (come al solito, C
j,i
`e
la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna). Lespressione
trovata `e esattamente il quoziente tra lo sviluppo di Laplace del determinante della matrice
A
b/col i
rispetto alla i
-esima
colonna (quella dove appare il vettore dei termini noti
b) e
detA.
Dimostrazione #2. Da A x = I
b/col i
,
dove I
x/col i
`e la matrice che si ottiene sostituendo la i
-esima
colonna della matrice identica
I con il vettore delle incognite x. Daltro canto det I
x/col i
= x
i
. Quindi prendendo
il determinante dellequazione (47) si ottiene
(detA) x
i
= (detA) (det I
x/col i
) = det
_
A I
x/col i
_
= det A
b/col i
.
Da (detA) x
i
= det A
b/col i
segue immediatamente luguaglianza di Cramer.
_
x + 3y z = 1
2x + 7y + 2z = 2
x + 4y + 5z = 3
utilizzando
i) il metodo di Gauss;
ii) il calcolo dellinversa della matrice incompleta A nonche la formula (27);
iii) il teorema di Cramer.
Se il risultato che vi viene non `e sempre lo stesso ... rifate i conti!!!
25
8. Il calcolo dellinversa di una matrice mediante lalgoritmo di Gauss.
In questo paragrafo vediamo in che modo leliminazione di Gauss pu`o essere utilizzata
per calcolare linversa di una matrice. Sia A =
_
a
i,j
_
M
n,n
(R) una matrice invertibile,
la ricetta da seguire per calcolare A
1
consiste dei seguenti passi (per non appesantire le
notazioni, per descrivere questo procedimento considero il caso n = 4 ) :
i) si scrive la matrice n 2n costituita da due blocchi n n :
_
_
_
_
_
_
_
a
1,1
a
1,2
a
1,3
a
1,4
a
2,1
a
2,2
a
2,3
a
2,4
a
3,1
a
3,2
a
3,3
a
3,4
a
4,1
a
4,2
a
4,3
a
4,4
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
;
ii) con i passi delleliminazione di Gauss si trasforma la matrice considerata no ad
ottenere la matrice identica al posto del primo blocco n n;
iii) si ricopia il secondo blocco n n : tale blocco `e linversa di A.
Esempio 49. Calcoliamo linversa della matrice
_
_
1 2 5
3 7 18
4 9 22
_
_
. A tal ne
scriviamo
_
_
1 2 5
3 7 18
4 9 22
1 0 0
0 1 0
0 0 1
_
_
(1)
_
_
1 2 5
0 1 3
0 1 2
1 0 0
3 1 0
4 0 1
_
_
(2)
_
_
1 2 5
0 1 3
0 0 1
1 0 0
3 1 0
1 1 1
_
_
(3)
_
_
1 2 5
0 1 0
0 0 1
1 0 0
6 2 3
1 1 1
_
_
(4)
_
_
1 0 0
0 1 0
0 0 1
8 1 1
6 2 3
1 1 1
_
_
,
dove: 1) alla seconda riga abbiamo sottratto il triplo della prima riga ed alla terza riga
abbiamo sommato il quadruplo della prima riga; 2) alla terza riga abbiamo sommato la
seconda; 3) alla seconda riga abbiamo sottratto il triplo della terza; 4) alla prima riga
abbiamo sottratto il doppio della seconda ed il quintuplo della terza. Linversa della matrice
data `e la matrice
_
_
8 1 1
6 2 3
1 1 1
_
_
.
Esercizio. Vericare luguaglianza
_
_
1 2 5
3 7 18
4 9 22
_
_
_
_
8 1 1
6 2 3
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Esercizio. Calcolare linversa delle matrici che seguono
_
1 1
3 2
_
,
_
_
1 0 1
3 1 3
2 8 1
_
_
,
_
_
1 6 3
7 1 0
1 6 3
_
_
,
_
_
3 0 3
4 2 6
3 7 3
_
_
,
_
_
_
2 5 3 1
4 7 9 3
1 0 3 1
1 0 0 1
_
_
_ .
26
Osservazione 50. Il motivo per cui questo metodo funziona `e abbastanza semplice: alla
matrice a blocchi (A| I ) , dove I denota la matrice identica, associamo il sistema lineare
A x = I
b ;
poiche i passi delleliminazione di Gauss non cambiano la classe di equivalenza di un sistema
lineare, i due sistemi lineari A x = I
b e I x = B
b , cio`e
A x =
b e x = B
b ,
sono equivalenti. Poiche questa equivalenza vale per ogni scelta di
b , la matrice B deve
necessariamente essere linversa di A (questultima aermazione oltre ad essere molto ra-
gionevole si dimostra facilmente: dallequivalenza dei due sistemi lineari si deduce, sosti-
tuendo la seconda equazione nella prima, A B
b =
b , sempre per ogni scelta di
b; ne
segue che deve essere A B = I , cio`e che B `e linversa di A).
27
9. Spazi Vettoriali.
Accade spesso che oggetti molto diversi tra loro hanno una certa struttura matema-
tica comune, in questo caso ci si inventa un nome per quella struttura e la si studia. Tra i
vantaggi di questo modo di lavorare: in colpo solo si studiano pi` u oggetti, si impara a capire
cosa dipende da cosa il che consente una visione pi` u profonda.
In questo capitolo la struttura matematica che studiamo `e quella di spazio vettoriale
reale astratto. La denizione la dar`o dopo aver illustrato alcuni esempi, comunque voglio
anticipare che uno spazio vettoriale reale astratto non `e altro che un insieme, i cui elementi
verranno chiamati vettori, sul quale `e denita una somma tra vettori e sul quale `e denito
un prodotto per gli scalari (operazione che ad un numero reale ed a un vettore associa un
altro vettore). Naturalmente, per denizione, queste operazioni dovranno godere di alcune
propriet`a. Vogliamo procedere dal concreto allastratto, per cui ora non ci soermiamo su
tali propriet`a e passiamo subito agli esempi. Lo dico una volta per tutte: negli esempi che
seguono denoter`a sempre un numero reale.
Esempio 51. Spazio R
n
delle n
-ple
di numeri reali. In questo caso i vettori sono
elementi del tipo (x
1
, ..., x
n
) , la somma `e denita ponendo (x
1
, ..., x
n
) + (y
1
, ..., y
n
) :=
(x
1
+ y
1
, ..., x
n
+ y
n
) , ed il prodotto per gli scalari `e denito ponendo (x
1
, ..., x
n
) :=
(x
1
, ..., x
n
) . Questo esempio `e fondamentale perche nello studio degli spazi vettoriali di
dimensione nita ci si riconduce sempre ad esso. Pi` u avanti vedremo come e perche.
Nellindicare un elemento di R
n
abbiamo utilizzato una notazione per righe (x
1
, ..., x
n
) .
In realt`a la notazione giusta consiste nello scrivere le n
-ple
di numeri reali come vettori
colonna:
`e opportuno scrivere
_
_
x
1
.
.
.
x
n
_
_
invece di (x
1
, ..., x
n
) .
Si osservi che questa notazione diventa obbligata se si vuole che il prodotto righe per colonne
A v , dove A M
m,n
(R) e v R
n
, abbia senso.
Esempio 52. Spazio delle soluzioni di un sistema lineare omogeneo. In questo caso gli
elementi del nostro insieme, cio`e i vettori, sono le soluzioni del sistema lineare omogeneo
A x =
0 , dove A M
m,n
(R) , x =
_
_
x
1
.
.
.
x
n
_
_
e dove
0 :=
_
_
0
.
.
.
0
_
_
. Per la propriet`a
distributiva del prodotto tra matrici, se (s
1
, ..., s
n
) e (t
1
, ..., t
n
) sono soluzioni del sistema
dato, anche la somma (s
1
+t
1
, ..., s
n
+t
n
) nonche il prodotto ( s
1
, ..., s
n
) ne sono
soluzioni. Queste naturali operazioni di somma tra vettori e prodotto per uno scalare sono,
per denizione, le operazioni che deniscono la struttura di spazio vettoriale dellinsieme
considerato. Il lettore sagace avr`a intuito che questo spazio `e un sottospazio di R
n
(vedi
esempio 51).
Esempio 53. Spazio delle funzioni continue denite su un intervallo I . Nel corso di
analisi avete visto, o state per vedere, che la somma di due funzioni continue `e ancora una
funzione continua e che anche il prodotto f(x) ha senso ed `e una funzione continua,
dove R ed f(x) `e una funzione continua. Di nuovo, queste operazioni deniscono la
struttura di spazio vettoriale dellinsieme considerato.
Esempio 54. Spazio delle successioni. Chiaramente, se {a
n
}
nN
e {b
n
}
nN
sono
successioni, anche {a
n
+ b
n
}
nN
e {a
n
}
nN
sono successioni... .
Esempio 55. Spazio delle successioni convergenti. Di nuovo, la somma di successioni
convergenti `e una successione convergente, il prodotto per un numero reale di una successione
28
convergente `e una successione convergente. In eetti questo esempio `e un sottospazio
vettoriale del precedente.
Nellesempio che segue utilizzo la struttura di spazio vettoriale per risolvere un problema.
`
E opportuno che lo studente legga ora questo esempio, accettando le considerazioni che
inevitabilmente non hanno ancora una giusticazione formale, e che lo analizzi in maniera
pi` u critica dopo aver studiato gli spazi vettoriali in astratto.
Esempio 56. Spazio delle successioni di Fibonacci. Il problema `e il seguente: trovare
una formula per i termini della successione
(56.1) {1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, ...} ,
dove ogni numero `e la somma dei due numeri che lo precedono, e.g. 13 = 5+8, 55 = 21+34,
89 = 34 + 55 eccetera.
Soluzione. Per risolvere questo problema consideriamo lo spazio delle successioni, dette
successioni di Fibonacci, {a
0
, a
1
, a
2
, ... } che soddisfano la legge
(56.2) a
n+2
= a
n+1
+ a
n
, n 0 .
Non `e dicile vericare che questo `e uno spazio vettoriale, in particolare la somma di
successioni che soddisfano (56.2) `e ancora una successione che soddisfa (56.2) nonche il
prodotto per uno scalare di una tale successione soddisfa anchesso (56.2) . Linsieme,
o meglio lo spazio vettoriale, di tali soluzioni lo chiameremo V . Chiaramente (56.1) `e
un vettore di V . Premesso ci`o, dimentichiamoci di (56.1) e concentriamoci sullo spazio
vettoriale, o meglio, sulla legge (56.2) che ne denisce gli elementi. Qualche vettore di
V siamo in grado di trovarlo: tentiamo con una successione del tipo {a
n
:= x
n
} , con x
numero reale. La propriet`a (56.2) si traduce nella richiesta x
n+2
= x
n+1
+ x
n
, n 0 ,
cio`e nella richiesta (portiamo al primo membro x
n+1
+x
n
quindi raccogliamo x
n
a fattore
comune) (x
2
x+1) x
n
= 0 , n 0 . A questo punto, risolvendo lequazione di secondo
grado x
2
x + 1 = 0 troviamo x = (1
5
2
_
n
_
, ii)
_
c
n
:=
_
1
5
2
_
n
_
sono vettori di V , cio`e soddisfano (56.2). A questo punto non abbiamo certo risolto il
problema da cui siamo partiti. Lo ripeto, abbiamo semplicemente trovato due vettori di V .
Daltronde sappiamo che questi vettori li possiamo moltiplicare per degli scalari e sommare
tra loro. In termini pi` u espliciti, sappiamo che ogni successione del tipo
(56.3)
{b
n
} + {c
n
} = { b
n
+ c
n
}
=
_
_
1 +
5
2
_
n
+
_
1
5
2
_
n
_
, , R
`e un vettore di V . Ora che abbiamo a disposizione molti vettori di V siamo in grado
di risolvere il problema dal quale siamo partiti: la successione (56.1) del nostro problema
comincia con a
0
= a
1
= 1 , mentre la successione (56.3) comincia con a
0
= +, a
1
=
(1 +
5)/2 + (1
5)/2 + (1
5)/2 = 1
(sistema che lo studente `e invitato a risolvere per esercizio), si trova = (5 +
5)/10 e
= (5
5
10
_
1 +
5
2
_
n
+
5
5
10
_
1
5
2
_
n
_
.
29
Lo studente scettico, ma anche quello che non lo `e, verichi ad esempio che per n = 6 questa
espressione vale 13 , che `e il termine a
6
della (56.1), e che per n = 8 questa espressione
vale 34 , che `e il termine a
8
della (56.1). ...sono rari i casi in cui calcolare qualche potenza
di un binomio ha fatto male a qualcuno!
Lesempio che abbiamo appena discusso `e importante perche lequazione (56.2) `e lanalogo
discreto di un tipo di equazioni che descrivono dei fenomeni sici: le equazioni dierenziali
lineari. Naturalmente non ho intenzione di studiare in questa sede tale tipo di equazioni, il
che `e oggetto di studio di un corso di analisi del secondo anno. Voglio comunque dire due
parole a riguardo.
Esempio 57. Spazio delle soluzioni di unequazione dierenziale lineare. Consideriamo un
punto che si muove lungo una retta, la sua posizione sar`a una funzione del tempo x(t) (dove
t indica il tempo trascorso). Questo punto sar`a soggetto a delle forze, ad esempio possiamo
supporre che c`e una molla ideale che lo spinge con una forza pari a 3xnewton (dove x
`e la coordinata sulla retta, relativa ad un sistema di riferimento la cui origine corrisponde
al punto di equilibrio della molla) e che c`e una resistenza che ne rallenta la velocit`a pari
a 2v newton, dove v denota la velocit`a del punto. Assumendo che il nostro punto ha
massa unitaria troviamo che la legge che ne descrive il moto `e data dallequazione
(57.1)
d
2
d
2
t
x(t) = 3x(t) 2
d
dt
x(t) .
Ricordiamo che la velocit`a `e la derivata della posizione rispetto al tempo e che laccelerazione
(derivata della velocit`a) `e la derivata seconda della posizione rispetto al tempo ed `e pari alla
somma delle forze applicate diviso la massa del corpo considerato. Il bello dellequazione che
abbiamo trovato `e che la somma di due sue soluzioni `e ancora una sua soluzione (la derivata
di una somma `e la somma delle derivate), nonche il prodotto per una scalare di una sua
soluzione `e anchesso una sua soluzione. In denitiva, linsieme delle soluzioni di (57.1) ha
la struttura di spazio vettoriale. Interrompo qui le mie considerazioni perche andare oltre
sarebbe oggetto di un corso di analisi sulle equazioni dierenziali.
`
E arrivato il momento di enunciare la denizione di spazio vettoriale reale
4
.
Denizione 58. Uno spazio vettoriale reale V `e un insieme sul quale `e denita una
operazione di somma ed una operazione di moltiplicazione per gli scalari
V V V R V V
(v , w) v + w (, v) v
che soddisfano le propriet`a che seguono
u + (v + w) = (u +v) + w, u, v, w V (associativit` a della somma);
u +v = v +u, u, v V (commutativit` a della somma);
0 +v = v , v + (v) =
0, 0v =
0, 1v = v, (1)v = v
(in particolare, esistenza dellelemento neutro e degli opposti);
( + )v = v + v, (v + w) = v + w, (v) = ()v , v, w V , , R
(propriet`a distributive).
Osserviamo che sono tutte propriet`a molto naturali e che nei casi degli esempi discussi
sono tutte praticamente ovvie. Nello scrivere queste propriet`a non ci siamo preoccupati di
4
In realt`a, tutto quello che dico in questo capitolo e nei prossimi due capitoli, oltre a valere per spazi vettoriali
reali, vale anche per spazi vettoriali deniti sul campo dei numeri complessi nonche vale per spazi vettoriali
deniti su un campo astratto arbitrario.
30
evitare le ripetizioni, ad esempio la propriet`a 0v =
0 pu`o essere dedotta dalle altre:
(58.1) 0v = (1 1)v = 1v + (1)v = v + (v) =
0 .
Esercizio. Indicare, per ognuna delle uguaglianze in (58.1), quale propriet`a della
denizione (58) `e stata utilizzata.
Ora introduciamo la nozione di sottospazio vettoriale. Nella sostanza un sottospazio
vettoriale W di V `e uno spazio vettoriale W contenuto in V .
Denizione 59. Sia V uno spazio vettoriale e sia W un sottoinsieme di V . Se risulta
(59
)
w
1
+ w
2
W , w
1
, w
2
W ;
w W , w W .
allora diciamo che W `e un sottospazio vettoriale di V .
Osservazione 60. Si osservi che un tale W ha anchesso una naturale struttura di
spazio vettoriale: alla luce di (59
1
v
1
+ ... +
k
v
k
,
1
, ...,
k
R .
Denizione 62. Sia V uno spazio vettoriale e siano v
1
, ..., v
k
vettori in V . Diciamo
che i vettori considerati sono linearmente dipendenti se e solo se esistono
1
, ...,
k
R
non tutti nulli tali che
(62
)
1
v
1
+ ... +
k
v
k
=
0 .
Altrimenti, diciamo che sono linearmente indipendenti. Gli aggettivi dipendente e
indipendente possono riferirsi anche allinsieme dei vettori: `e corretto dire { ... } `e un
insieme dipendente (ovvero indipendente) di vettori.
Osservazione 63. Un insieme B di vettori `e un insieme indipendente di vettori se e solo
se nessun vettore v B `e combinazione lineare degli altri vettori di B .
La dimostrazione `e ovvia: si guardi la (62
).
Denizione 64. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Si denisce
SpanS linsieme di tutte le combinazioni lineari di vettori di S :
SpanS :=
_
1
v
1
+ ... +
k
v
k
1
, ...,
k
R
v
1
, ..., v
k
S
_
.
31
Proposizione 65. Si abbiamo V ed S come sopra. Si ha che SpanS `e un sottospazio
vettoriale di V .
Dimostrazione. Si deve vericare che SpanS soddisfa le propriet`a della denizione (59).
Chiaramente la somma di combinazioni lineari `e una combinazione lineare ed il prodotto di
una combinazione lineare per una costante `e una combinazione lineare. Ad esempio
_
1
v
1
+ ... +
k
v
k
_
= (
1
)v
1
+ ... + (
k
)v
k
.
Denizione 66. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Se SpanS = V
diciamo che S genera V .
Se esiste un insieme nito che genera V diciamo che V `e nitamente generato.
Studieremo esclusivamente gli spazi vettoriali nitamente generati. Dora in poi, con la
locuzione spazio vettoriale intender`o sempre spazio vettoriale nitamente generato.
Denizione 67. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Diciamo che
S `e una base di V se `e un insieme indipendente che genera V .
Osservazione 68. Sia B = {
b
1
, ...,
b
n
} una base di uno spazio vettoriale V . Poiche
per ipotesi B genera V , per ogni v V esistono dei coecienti
1
, ...,
n
tali che
v =
1
b
1
+ ... +
n
b
n
;
poiche B `e un insieme indipendente, tali coecienti sono unici: se
1
b
1
+ ... +
n
b
n
=
v =
b
1
+ ... +
b
n
, allora (
1
1
)
b
1
+ ... + (
n
n
)
b
n
=
0 e quindi, essendo B
un insieme indipendente, si deve avere
i
=
i
, i = 1, ..., n.
Denizione 69. I coecienti dellosservazione precedente
1
, ...,
n
si chiamano coordi-
nate del vettore v rispetto alla base B .
Esempio. Una base dello spazio vettoriale R
2
`e costituita dai vettori e
1
=
_
1
0
_
ed
e
2
=
_
0
1
_
. Infatti, `e chiaro che sono indipendenti e che generano R
2
: si ha
_
_
=
e
1
+ e
2
. La base B = {e
1
, e
2
} si chiama base canonica dello spazio vettoriale R
2
.
Si osservi che le coordinate del vettore
_
_
rispetto alla base canonica sono proprio i
coecienti e .
Generalizziamo quanto abbiamo appena visto: consideriamo lo spazio vettoriale R
n
. I
vettori e
1
:=
_
_
_
_
1
0
.
.
.
0
_
_
_
_
, e
2
=
_
_
_
_
0
1
.
.
.
0
_
_
_
_
, ... , e
n
=
_
_
_
_
0
.
.
.
0
1
_
_
_
_
, costituiscono una base, detta base
canonica, di R
n
. Anche in questo caso, le coordinate del vettore
_
_
1
.
.
.
n
_
_
rispetto alla base
canonica sono proprio i coecienti
1
, ...,
n
(lo studente verichi quanto abbiamo appena
aermato).
Esercizio. Sia B =
__
1
3
_
,
_
2
1
__
e sia v =
_
9
2
_
. Vericare che B `e una base di
R
2
, calcolare le coordinate di v rispetto alla base B .
32
Soluzione. I vettori di B sono chiaramente indipendenti e generano R
2
: il sistema lineare
1
_
1
3
_
+
2
_
2
1
_
=
_
x
y
_
ammette soluzioni per ogni
_
x
y
_
. Imponendo
1
_
1
3
_
+
2
_
2
1
_
=
_
9
2
_
si trovano le coordinate di v rispetto alla base B :
1
= 1,
2
= 5 .
Osservazione 70. Sia V uno spazio vettoriale. Nel momento in cui ssiamo una base
di V abbiamo a disposizione delle coordinate: associando ad ogni vettore v V la n
pla
delle sue coordinate (
1
, ...,
n
) otteniamo una identicazione di V con R
n
.
Lo studio della dipendenza lineare ed il problema della determinazione di una base di uno
spazio vettoriale si basano su tre osservazioni fondamentali.
Osservazione 71. Se S
S allora SpanS
SpanS .
Osservazione 71
= SpanS .
Dimostrazione. Losservazione (71) `e assolutamente ovvia. La (71
) `e anchessa immediata.
Dimostriamo la (71
. Se tra gli u
i
c`e w, ad esempio u
1
= w, abbiamo
u =
1
u
1
+
2
u
2
+ ... +
r
u
r
,
=
1
(
1
v
1
+ ... +
k
v
k
) +
2
u
2
+ ... + u
r
.
Questultima espressione scritta `e una combinazione lineare di vettori di S
).
In particolare, lalgoritmo dellestrazione di una base ci assicura la seguente proposizione.
33
Proposizione 73. Sia V uno spazio vettoriale e sia S V un sottoinsieme nito che
genera V . Esiste una base B di V contenuta in S , per trovarla `e suciente applicare
lalgoritmo dellestrazione di una base.
Esempio. Consideriamo i vettori
b
1
=
_
_
_
3
2
2
4
_
_
_,
b
2
=
_
_
_
5
4
1
3
_
_
_,
b
3
=
_
_
_
8
6
3
7
_
_
_,
b
4
=
_
_
_
1
2
3
4
_
_
_ e
determiniamo una base di V := Span
_
b
1
,
b
2
,
b
3
,
b
4
_
R
4
:
prendiamo
b
1
, quindi consideriamo
b
2
e lo teniamo perche non `e un multiplo di
b
1
,
consideriamo
b
3
e lo eliminiamo perche `e combinazione lineare di
b
1
e
b
2
, consideriamo
b
4
e lo teniamo perche non `e combinazione lineare degli altri vettori scelti. In denitiva
abbiamo che linsieme B
:= {
b
1
,
b
2
,
b
4
} `e una base di SpanS .
Osservazione 74. Ogni spazio vettoriale ammette moltissime basi, pu`o accadere che
abbiamo bisogno di trovare una base contenente certi particolari vettori ssati a priori.
Una base di tale tipo si chiama completamento ad una base di un insieme indipendente
di vettori, per trovarla possiamo utilizzare lalgoritmo dellestrazione di una base (72):
dati dei vettori indipendenti v
1
, ..., v
k
di uno spazio vettoriale V , possiamo considerare
(in questo ordine) i vettori v
1
, ..., v
k
, w
1
, ..., w
m
, dove { w
1
, ..., w
m
} `e un insieme di
vettori che genera V (lesistenza di questinsieme di vettori `e garantita dallipotesi che V
`e nitamente generato, vedi denizione 66). Applicando lalgoritmo dellestrazione di una
base troviamo una base di V contenente i vettori v
1
, ..., v
k
(questo perche sono i primi che
scegliamo e sono indipendenti). In particolare, il ragionamento esposto dimostra il teorema
del completamento ad una base di un insieme indipendente di vettori:
Teorema 75 (del completamento). Sia V uno spazio vettoriale nitamente generato e
siano v
1
, ..., v
k
dei vettori indipendenti di V . Allora esiste una base di V contenente i
vettori dati.
Esercizio. Trovare una base di R
4
contenente i vettori
b
1
=
_
_
_
1
1
2
1
_
_
_ e
b
2
=
_
_
_
2
3
4
2
_
_
_ .
Suggerimento: utilizzare i vettori della base canonica per completare linsieme {
b
1
,
b
2
} ,
cio`e si applichi lalgoritmo (72) allinsieme dei vettori {
b
1
,
b
2
, e
1
, e
2
, e
3
, e
4
} .
Proposizione 76. Sia V uno spazio vettoriale nitamente generato (vedi denizione 66)
e sia B una base di V . Allora B `e costituita da un numero n nito di vettori, il numero
n dipende solo da V : se B
ha n elementi. Inoltre,
ogni insieme di vettori S che ha pi` u di n elementi `e linearmente dipendente nonche ogni
insieme indipendente costituito da n vettori `e una base.
Lidea della dimostrazione `e che `e possibile sostituire uno alla volta i vettori di B con
quelli di B
b
1
, ...,
b
n
} e sia B
= {
d
1
, ...,
d
k
} . Come primo passo
consideriamo i vettori {
d
1
,
b
1
, ...,
b
n
} , quindi applichiamo lalgoritmo dellestrazione di una
base. Iteriamo questo procedimento: ogni volta aggiungiamo un vettore di B
(inserendolo
allinizio) e applichiamo lalgoritmo. Alla ne arriveremo ad avere solamente i vettori di
B
sono in numero
minore o uguale a quelli di B , cio`e risulta k n. Scambiando i ruoli tra B e B
si ottiene
34
n k . In denitiva n = k .
Denizione 77. Sia V uno spazio vettoriale nitamente generato e sia B una base. Si
denisce la dimensione di V ponendo
dimV := n = numero degli elementi di B .
Sottolineo che la denizione ha senso (`e ben posta) perche, in virt` u della proposizione
precedente, tale numero non dipende dalla particolare base B che abbiamo a disposizione.
Esercizio. Siano
b
1
=
_
_
_
1
4
2
3
_
_
_,
b
2
=
_
_
_
2
8
4
6
_
_
_,
b
3
=
_
_
_
8
1
3
7
_
_
_,
b
4
=
_
_
_
9
3
1
10
_
_
_ . Si determini
una base di V := Span
_
b
1
,
b
2
,
b
3
,
b
4
_
R
4
.
Esercizio. Si determini una base di R
3
contenente il vettore v =
_
_
0
4
3
_
_
.
Esercizio. Sia B =
_
_
_
_
_
2
3
5
_
_
,
_
_
1
4
1
_
_
_
_
_
una base di un sottospazio W di R
3
. Si
determini unaltra base di W .
Esercizio. Determinate le coordinate del vettore v R
3
rispetto alla base B =
_
b
1
,
b
2
,
b
3
_
quando:
a)
b
1
=
_
_
0
2
1
_
_
,
b
2
=
_
_
1
2
1
_
_
,
b
3
=
_
_
3
2
5
_
_
, v =
_
_
1
2
1
_
_
;
b)
b
1
=
_
_
3
2
1
_
_
,
b
2
=
_
_
3
5
1
_
_
,
b
3
=
_
_
3
7
5
_
_
, v =
_
_
3
2
1
_
_
;
c)
b
1
=
_
_
4
0
0
_
_
,
b
2
=
_
_
0
5
7
_
_
,
b
3
=
_
_
0
7
10
_
_
, v =
_
_
0
2
1
_
_
.
Esercizio. Si consideri lo spazio vettoriale V := Span{
b
1
,
b
2
,
b
3
} . Estrarre dallinsieme
{
b
1
,
b
2
,
b
3
} una base B
V
di V , vericare che v V e determinare le coordinate di v
rispetto alla base B
V
, quando:
a)
b
1
=
_
_
1
1
2
_
_
,
b
2
=
_
_
2
1
3
_
_
,
b
3
=
_
_
1
1
1
_
_
, v =
_
_
5
2
7
_
_
.
b)
b
1
=
_
_
1
0
2
_
_
,
b
2
=
_
_
2
1
1
_
_
,
b
3
=
_
_
1
1
3
_
_
, v =
_
_
3
2
4
_
_
.
c)
b
1
=
_
_
_
7
0
45
38
_
_
_,
b
2
=
_
_
_
473
189
32
18
_
_
_,
b
3
=
_
_
_
0
0
0
0
_
_
_, v =
_
_
_
473
189
32
18
_
_
_.
35
10. Sottospazi di uno spazio vettoriale e formula di Grassmann.
Denizione 78. Sia V uno spazio vettoriale e siano U e W due suoi sottospazi. Si
deniscono la loro somma e la loro intersezione ponendo
U + W :=
_
v = u + w
u U , w W
_
U W :=
_
v
v U , v W
_
Osservazione 79. Gli insiemi U + W e U W sono entrambi sottospazi vettoriali di
V . Lo studente verichi che soddisfano le propriet`a indicate nella denizione (59).
Esercizio. Sia V uno spazio vettoriale e U , W due suoi sottospazi. Provare che
U + W = Span{U W} , dove denota lunione di insiemi. Osservare che, in
particolare, U + W `e anchesso un sottospazio di V .
Teorema 80 (formula di Grassmann). Sia V uno spazio vettoriale e siano U , W
due suoi sottospazi. Le dimensioni di somma e intersezione di U e W sono legate dalla
seguente formula
dim
_
U + W
_
= dimU + dimW dim
_
U W
_
Questa formula non va imparata a memoria, `e intuitivamente ovvia: la dimensione dello
spazio somma `e uguale alla somma delle dimensioni meno un fattore correttivo che in un
certo senso tiene conto delle ripetizioni. Lo studente osservi lanalogia con lovvia formula
di insiemistica #(A B) = #A + #B #(A B) , dove A e B sono insiemi niti e
# indica il numero degli elementi di un insieme. Lanalogia `e ancora pi` u evidente alla
luce della seguente dimostrazione delle formula di Grassmann (che suggeriamo quindi di non
saltare).
Dimostrazione. Consideriamo una base {
b
1
, ...,
b
r
} di U W e la completiamo ad
una base {
b
1
, ...,
b
r
, u
1
, ..., u
s
} di U nonche ad una base {
b
1
, ...,
b
r
, w
1
, ..., w
t
} di W .
Il teorema segue dal fatto che {
b
1
, ...,
b
r
, u
1
, ..., u
s
, w
1
, ..., w
t
} `e una base di U + W :
`e chiaro che questi vettori generano U + W , daltro canto sono anche indipendenti per
lesercizio che segue.
Pertanto, dim(U+W) = r+s+t = (r+s) +(r+t) r = dimU + dimW dim
_
UW
_
.
b
1
+ ... +
r
b
r
+
r+1
u
1
+ ... +
r+s
u
s
+
r+s+1
w
1
+ ... +
r+s+t
w
t
=
0
si giunge ad una contraddizione.
Esempio. Consideriamo R
3
e due piani distinti U e W passanti per lorigine. Si osservi
che la loro intersezione deve essere una retta, quindi ha dimensione 1 . Si ha dim
_
U+W
_
=
3 nonche dimU + dimW dim
_
U W
_
= 2 + 2 1 = 3 .
Osservazione 81. Per determinare un insieme di generatori dello spazio somma U + W
`e suciente considerare lunione di un insieme di generatori di U ed un insieme di generatori
di W ; per determinarne una base `e quindi suciente applicare lalgoritmo dellestrazione
di una base (72) allinsieme considerato.
Osservazione 82. Per determinare lintersezione U W bisogna invece risolvere un
sistema di equazioni: se U = Span {u
1
, ..., u
h
} e W = Span { w
1
, ..., w
k
} , lintersezione
36
U W `e data dalle combinazioni lineari
h
i=1
x
i
u
i
_
ovvero dalle combinazioni lineari
k
i=1
y
i
w
i
_
, dove x
1
, ..., x
h
, y
1
, ..., y
k
sono le soluzioni del sistema lineare di n = dimV
equazioni (una per ogni coordinata) in h + k incognite
h
i=1
x
i
u
i
=
k
i=1
y
i
w
i
.
Esempio. Siano U = Span
_
_
_
_
_
3
5
7
_
_
,
_
_
2
1
1
_
_
_
_
_
e W = Span
_
_
_
_
_
4
3
8
_
_
,
_
_
1
2
1
_
_
_
_
_
due
sottospazi di R
3
. Risolvendo il sistema lineare
() x
1
_
_
3
5
7
_
_
+ x
2
_
_
2
1
1
_
_
= y
1
_
_
4
3
8
_
_
+ y
2
_
_
1
2
1
_
_
,
ovvero
_
_
3 x
1
+ 2 x
2
= 4 y
1
+ y
2
5 x
1
+ x
2
= 3 y
1
+ 2 y
2
7 x
1
x
2
= 8 y
1
+ y
2
, si trova
_
_
x
1
= t
x
2
= 2t
y
1
= t
y
2
= 3t
(dove t `e un parametro libero, vedi paragrafo 3). Ne segue che
U W =
_
_
_
v = t
_
_
3
5
7
_
_
2t
_
_
2
1
1
_
_
t R
_
_
_
= Span
_
_
_
_
_
1
3
5
_
_
_
_
_
.
Si osservi che avremmo potuto anche utilizzare le espressioni a destra delluguaglianza ():
U W =
_
_
_
v = t
_
_
4
3
8
_
_
+ 3t
_
_
1
2
1
_
_
t R
_
_
_
= Span
_
_
_
_
_
1
3
5
_
_
_
_
_
.
Esercizio. Sia V = R
4
, U = Span {u
1
, u
2
} , W = Span { w
1
, w
2
, w
3
} . Determinate
una base dello spazio somma U + W ed una base dellintersezione U W quando
a) u
1
=
_
_
_
0
2
1
2
_
_
_, u
2
=
_
_
_
1
2
1
2
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
1
2
4
_
_
_, w
3
=
_
_
_
2
2
3
2
_
_
_;
b) u
1
=
_
_
_
2
2
6
5
_
_
_, u
2
=
_
_
_
5
2
0
4
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
0
1
2
_
_
_, w
3
=
_
_
_
4
2
1
2
_
_
_;
c) u
1
=
_
_
_
5
4
11
8
_
_
_, u
2
=
_
_
_
1
0
0
0
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
0
1
2
_
_
_, w
3
=
_
_
_
1
2
7
7
_
_
_.
Inoltre, vericate che le dimensioni degli spazi trovati soddisfano la formula di Grassmann
(se non la soddisfano c`e un errore in quello che avete fatto).
...attenzione allesercizio (c)!
37
Esercizio. Siano U e W due sottospazi di R
19
. Determinate le possibili dimensioni
della loro intersezione sapendo che dimU = 9 , dimW = 14 .
Esercizio. Siano U e W due sottospazi di R
8
. Supponiamo che dim(U W) = 3 e
che dimU = 6 . Provare che 3 dimW 5 .
Soluzione. Per la formula di Grassmann abbiamo dimW = dim(U+W) + dim(UW)
dimU = dim(U+W) +3 6 = dim(U+W) 3 . Poiche 6 = dimU dim(U+W) 8 ,
si deve avere 3 dimW 5 .
k
W ha dimensione 1 e scrivere esplicitamente
una base di U
k
W ;
d) completare la base di U
k
W trovata al punto c) a una base di U
k
.
Suggerimento: dopo aver risposto alla domanda a), determinare la dimensione dello spazio
somma U
k
+ W , quindi utilizzare la formula di Grassmann.
Esercizio. Si considerino i sottospazi U e V di R
4
ed il vettore v
k
R
4
(dipendente
dal parametro k) deniti come segue:
U = Span
_
_
_
_
_
1
3
2
1
_
_
_,
_
_
_
5
1
2
4
_
_
_
_
_
, V = Span
_
_
_
_
_
3
2
0
6
_
_
_,
_
_
_
2
6
4
9
_
_
_
_
_
, v
t
=
_
_
_
2
2t
4
3t
_
_
_.
a) determinare una base B
UV
dellintersezione U V ;
b) determinare i valori del parametro t per i quali v
t
appartiene allo spazio U nonche
i valori per i quali v
t
appartiene allintersezione U V ;
c) completare la base di U V trovata al punto a) a una base di U + V .
38
11. Rango di una matrice.
Sia A M
m,n
(R) una matrice.
Denizione 83. Un minore estratto da A `e una matrice quadrata ottenuta cancellando
alcune righe ed alcune colonne di A. Il rango di A, che indicheremo con rgA, `e lordine
5
massimo di un minore invertibile.
Esempio. Un minore di A =
_
_
14 -3 4 2
5 1 7 9
9 -4 11 7
_
_
`e la matrice B =
_
3 4
4 11
_
ottenuta cancellando la seconda riga, la prima colonna e la quarta colonna di A. Poiche
detB = 0 , il rango di A `e maggiore o uguale a 2. Daltro canto la terza riga di A `e uguale
alla somma delle prime due, ne segue che ogni minore di ordine 3 di A ha il determinante
uguale a zero e quindi non pu`o essere invertibile. In denitiva, rgA = 2 .
Osservazione. Essendo nullo il determinante di una matrice quadrata B le cui righe
(ovvero colonne) sono dipendenti, rgA non pu`o superare ne il numero massimo di righe
indipendenti di A ne il numero massimo di colonne indipendenti di A. Per lo stesso
motivo, inoltre, ai ni del calcolo del rango di una matrice, possiamo eliminare una riga
(ovvero colonna) se questa `e combinazione lineare delle altre.
Osservazione. Se A `e una matrice a scala, il suo rango `e uguale al numero delle righe
non nulle. Infatti, se A `e una matrice a scala, la matrice che si ottiene cancellando le righe
nulle e le colonne che non corrispondono ad alcun pivot
6
`e una matrice quadrata, triangolare
superiore, con gli elementi sulla diagonale che sono non nulli, e quindi invertibile. Lordine
di tale matrice quadrata, che `e uguale al numero delle righe non nulle di A, `e il rango di A.
Esempio. Consideriamo la matrice a scala
A =
_
_
_
_
_
_
_
_
_
_
0 1 2 3 4 5 6 7
0 0 8 9 10 11 12 13
0 0 0 0 -1 -2 3 4
0 0 0 0 0 -5 6 7
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
.
Le colonne seconda, terza, quinta e sesta sono quelle dei pivot. Cancellando la quinta riga,
la prima, la quarta, la settima e lottava colonna si ottiene il minore invertibile di ordine
massimo
_
_
_
1 2 4 5
0 8 10 11
0 0 1 2
0 0 0 5
_
_
_ .
Pertanto, si ha rgA = 4 .
Teorema 84. Il rango rgA di una matrice A M
m,n
(R) coincide con
i) il numero massimo di righe indipendenti di A;
ii) il numero massimo di colonne indipendenti di A.
Dimostrazione. Abbiamo gi`a visto che
rg(A) # max righe ind. , rg(A) # max col. ind.
5
Una matrice quadrata di ordine k `e una matrice in M
k,k
(R) .
6
Un pivot di una matrice a scala `e, per denizione, il primo elemento non nullo di una riga non nulla.
39
Daltro canto, posto k uguale al numero massimo di colonne indipendenti e indicata con
C la matrice ottenuta considerando un insieme massimale di colonne indipendenti di A,
dal fatto che il sistema lineare Cx =
0 non ha soluzioni non banali (non ci stanchiamo di
ripetere che il prodotto Cx non `e altro che la combinazione lineare di coecienti x
1
, ..., x
k
delle colonne di C ) e dalla teoria svolta studiando i sistemi lineari, segue che il sistema ha
k equazioni indipendenti, ovvero C ha almeno k righe indipendenti, e che il determinante
della matrice costituita da tali k righe di C `e non nullo. In particolare, rg(A) k . Stessa
cosa per il numero massimo di righe indipendenti: basta scambiare i ruoli di righe e colonne
(ovvero considerare la trasposta di A).
b
1
, ...,
b
k
_
R
n
. Possiamo disporre le coordinate dei
vettori
b
1
, ...,
b
k
in una matrice: deniamo una matrice in M
n,k
ponendo le coordinate del
vettore
b
i
nella i
esima
colonna. La matrice appena introdotta `e qualcosa del tipo
B :=
_
_
_
_
| |
b
1
...
b
k
| |
_
_
_
_
,
la chiameremo matrice associata ai vettori
b
1
, ...,
b
k
.
Teorema 86. Consideriamo W = Span
_
b
1
, ...,
b
k
_
R
n
e la matrice B associata
ai vettori
b
1
, ...,
b
k
. Si ha
dimW = rgB .
Inoltre, se i
1
, ..., i
r
sono le colonne di B individuate da un minore invertibile di rango
massimo r (vedi la denizione di rango), linsieme
_
b
i
1
, ...,
b
i
r
_
`e una base di W .
Dimostrazione. La dimensione di W `e il numero massimo di vettori indipendenti
dellinsieme
_
b
1
, ...,
b
k
_
. Per il teorema (84) questo numero `e uguale al rango r di B .
Inoltre, essendo le colonne di posto i
1
, ..., i
r
indipendenti, i corrispondenti vettori devono
costituire una base di W (si veda la parte nale della proposizione 76).
b
1
,
b
2
,
b
3
,
b
4
_
di R
3
, dove
b
1
=
_
_
3
2
5
_
_
,
b
2
=
_
_
1
3
3
_
_
,
b
3
=
_
_
7
7
7
_
_
,
b
4
=
_
_
2
1
1
_
_
. La matrice associata ai vettori
b
1
,
b
2
,
b
3
,
b
4
`e la matrice B =
_
_
3 1 7 2
2 3 7 1
5 3 7 1
_
_
. Poiche
_
_
3 1 2
2 3 1
5 3 1
_
_
`e un minore
invertibile di ordine tre (rgB = 3), linsieme di vettori
_
b
1
,
b
2
,
b
4
_
`e una base di V .
Si osservi che lo spazio V di questo esempio `e un sottospazio di R
3
di dimensione 3,
quindi V = R
3
.
`
E un errore non accorgersene! Comunque, in un caso come questo, se vi
viene chiesto di scrivere una base di V potete tranquillamente scrivere la base canonica di
R
3
.
Esercizio. Determinare la dimensione di Span
_
b
1
,
b
2
,
b
3
,
b
4
_
quando:
a)
b
1
=
_
_
1
3
2
_
_
,
b
2
=
_
_
2
6
4
_
_
,
b
3
=
_
_
4
5
8
_
_
,
b
4
=
_
_
0
0
0
_
_
;
b)
b
1
=
_
_
_
1
4
1
2
_
_
_,
b
2
=
_
_
_
2
4
5
3
_
_
_,
b
3
=
_
_
_
2
3
6
11
_
_
_,
b
4
=
_
_
_
1
1
1
1
_
_
_.
41
13. Sottospazi di uno spazio vettoriale: equazioni parametriche e cartesiane.
Consideriamo lo spazio R
n
ed un suo sottospazio W = Span
_
b
1
, ...,
b
r
_
. Possiamo
rienunciare la denizione di Span dicendo che lo spazio W `e linsieme delle n
ple
(x
1
, ..., x
n
) che soddisfano le equazioni
(87)
_
_
x
1
= b
1,1
t
1
+ ... + b
1,r
t
r
...
x
n
= b
n,1
t
1
+ ... + b
n,r
t
r
per qualche t
1
, ..., t
r
R. Qui, come al solito, B = (b
i,j
) `e la matrice associata ai
vettori
b
1
, ...,
b
r
: per denizione, b
i,j
`e la i
esima
coordinata di
b
j
.
Denizione 88. Assumiamo che
_
b
1
, ...,
b
r
_
sia una base di W . Le equazioni (87)
si chiamano equazioni parametriche dello spazio W e le variabili t
1
, ..., t
r
si chiamano
parametri o coordinate.
Consideriamo lo spazio R
n
ed una matrice di coecienti =
_
i,j
_
M
s,n
(R) .
Abbiamo visto (esempio 52, 9) che linsieme U delle soluzioni del sistema lineare omogeneo
(89) x =
0 , ovvero
_
1,1
x
1
+ ... +
1,n
x
n
= 0
...
s,1
x
1
+ ... +
s,n
x
n
= 0
,
`e un sottospazio di R
n
.
Denizione. Le equazioni del sistema lineare omogeneo (89) si chiamano equazioni
cartesiane dello spazio U .
Il passaggio da equazioni cartesiane a parametriche di un sottospazio W si eettua sem-
plicemente risolvendo il sistema lineare. Il passaggio inverso, ovvero quello da equazioni
parametriche a cartesiane si eettua eliminando i parametri. Nellesempio che segue ve-
diamo come si eliminano i parametri.
Esempio. Per determinare delle equazioni cartesiane del sottospazio di R
4
W := Span
_
b
1
,
b
2
_
, dove
b
1
:=
_
_
_
8
6
9
4
_
_
_,
b
2
:=
_
_
_
3
2
11
5
_
_
_,
dopo aver vericato che {
b
1
,
b
2
} `e una base di W , si scrive il sistema di equazioni
()
_
_
x
1
= 8t
1
+ 3t
2
x
2
= 6t
1
+ 2t
2
x
3
= 9t
1
+ 11t
2
x
4
= 4t
1
+ 5t
2
,
quindi dalle ultime due equazioni si determina t
1
= 5x
3
11x
4
, t
2
= 4x
3
+ 9x
4
.
Sostituendo inne le espressioni trovate nelle prime due equazioni del sistema (), si trovano
le equazioni cartesiane di W :
_
x
1
= 8(5x
3
11x
4
) + 3(4x
3
+ 9x
4
)
x
2
= 6(5x
3
11x
4
) + 2(4x
3
+ 9x
4
)
,
42
ovvero le equazioni
_
x
1
28x
3
+ 61x
4
= 0
x
2
22x
3
+ 48x
4
= 0
.
La correttezza del procedimento visto si spiega facilmente: lo spazio W `e lo spazio di
quei vettori di R
4
di coordinate x
1
, x
2
, x
3
, x
4
che soddisfano le realzioni (), essendo t
1
e t
2
parametri liberi. Le equazioni () sono equivalenti alle 4 equazioni
x
1
28x
3
+61x
4
= 0 , x
2
22x
3
+48x
4
= 0 , t
1
= 5x
3
11x
4
, t
2
= 4x
3
+9x
4
.
Questo signica che W (e lo faccio a posta a ripetermi!) `e lo spazio di quei vettori di R
4
di
coordinate x
1
, x
2
, x
3
, x
4
che soddisfano le equazioni qui sopra, essendo t
1
e t
2
parametri
liberi. Ma a questo punto `e chiaro che le equazioni t
1
= 5x
3
11x
4
e t
2
= 4x
3
+9x
4
le possiamo semplicemente cassare perche non aggiungono nulla: ci stanno dicendo che le
espressioni 5x
3
11x
4
e 4x
3
+ 9x
4
possono asumere qualsiasi valore (chiaramente `e
fondamentale il fatto che t
1
e t
2
non compaiono in nessuna altra equazione).
Esempio. Per determinare delle equazioni parametriche del sottospazio U di R
5
denito
dalle equazioni
_
_
2x
1
+ x
2
3x
3
+ x
4
x
5
= 0
6x
1
+ 3x
2
6x
3
+ 2x
4
x
5
= 0
2x
1
+ x
2
3x
3
+ 2x
4
+ 4x
5
= 0
,
si risolve il sistema lineare, quindi si scrivono le soluzioni nella forma (14), paragrafo 3:
_
_
x
1
, x
2
, x
3
, x
4
, x
5
x
1
= 3t
1
3t
2
x
2
= 6t
1
x
3
= 14t
2
x
4
= 30t
2
x
5
= 6t
2
_
_
.
Le equazioni appena trovate sono equazioni parametriche dello spazio U .
Osservazione. Sistemi diversi possono rappresentare lo stesso spazio, ad esempio il
sistema
_
2x 3y = 0
5x + z = 0
ed il sistema
_
9x 6y + z = 0
x + 9y + z = 0
deniscono
la stessa retta dello spazio R
3
.
Esercizio. Provare che i due sistemi dellosservazione precedente sono equivalenti, quindi
dedurre che deniscono la stessa retta. Risolvere i due sistemi, quindi trovare delle equazioni
parametriche della retta che deniscono.
Esercizio. Determinare delle equazioni cartesiane dei seguenti sottospazi di R
3
e di R
4
U = Span
_
_
_
_
_
2
3
1
_
_
,
_
_
4
2
1
_
_
_
_
_
; V = Span
_
_
_
_
_
1
5
1
_
_
_
_
_
;
W = Span
_
_
_
_
_
2
3
5
_
_
,
_
_
3
2
1
_
_
_
_
_
; H = Span
_
_
_
_
_
2
2
3
1
_
_
_,
_
_
_
4
4
2
1
_
_
_
_
_
;
K = Span
_
_
_
_
_
2
2
3
7
_
_
_,
_
_
_
4
4
1
9
_
_
_,
_
_
_
1
4
1
6
_
_
_
_
_
.
43
Esercizio. Determinare delle equazioni parametriche dei seguenti sottospazi di R
3
U =
_
x
1
2x
3
= 0
x
1
+ 2x
2
+ 3x
3
= 0
; V =
_
x
1
2x
3
= 0 ;
W =
_
2x
1
+ x
2
+ x
3
= 0 ; H =
_
x
1
+ x
2
+ x
3
= 0
2x
1
2x
2
2x
3
= 0
.
Esercizio. Determinare delle equazioni parametriche dei seguenti sottospazi di R
4
U =
_
x
1
2x
4
= 0
x
1
+ 2x
3
+ 3x
4
= 0
; V =
_
_
x
1
x
4
= 0
x
1
x
3
= 0
x
2
x
3
= 0
;
W =
_
3x
1
+ 7x
2
+ x
3
= 0
2x
1
x
2
x
3
= 0
; H =
_
x
1
2x
3
= 0 .
Abbiamo visto che la dimensione dello spazio W = Span
_
b
1
, ...,
b
r
_
`e uguale al rango
della matrice B associata ai vettori
b
1
, ...,
b
r
(teorema 86). Anche quando uno spazio `e
denito da equazioni cartesiane sappiamo calcolarne la dimensione. Se U R
n
`e denito
da s equazioni cartesiane, ci si aspetta che la sua dimensione sia dimU = n s ; questo
perche ogni equazione dovrebbe far scendere di uno la sua dimensione. Poiche potremmo
avere delle equazioni ripetute pi` u volte o che comunque non aggiungono nulla al sistema
perche possono essere dedotte dalle altre, a priori possiamo solamente aermare che risulta
dimU n s . Vale il teorema che segue.
Teorema 90. Sia U R
n
lo spazio vettoriale denito dalle equazioni cartesiane
x =
0 , ovvero
_
1,1
x
1
+ ... +
1,n
x
n
= 0
...
s,1
x
1
+ ... +
s,n
x
n
= 0
Si ha
dimU = n rg ,
dove =
_
i,j
_
M
s,n
(R) `e la matrice associata al sistema di equazioni.
Dimostrazione. Assodato che la dimensione di U `e uguale al numero dei parametri
liberi che compaiono in una risoluzione del sistema, il teorema segue da quello che sappiamo
sui sistemi lineari e dal fatto che il rango di `e uguale al numero massimo di equazioni
indipendenti (11, teorema 84).
Esercizio. Vericare che le dimensioni degli spazi dei due esercizi precedenti sono quelle
previste dal teorema (90).
Esercizio. Siano U e W due sottospazi di R
19
. Supponiamo che U sia denito da
4 equazioni cartesiane e che dimW = 10 . Provare che 6 dim(U W) 10 e che
15 dim(U + W) 19 .
Soluzione. La prima stima da eettuare riguarda la dimensione di U che deve essere
compresa tra 15 e 19, infatti U `e denito da 4 equazioni (che a priori potrebbero essere
tutte banali). La stessa stima vale per la dimensione dello spazio somma U +W . A questo
punto la stima 6 dim(U W) 10 segue dalla formula di Grassmann. Un altro modo
di ottenere questultima stima `e il seguente: U W si ottiene considerando i vettori di
W le cui coordinate soddisfano le equazioni che deniscono U ; i.e. `e un sottospazio di
uno spazio di dimensione 10, denito da 4 equazioni. Quindi la sua dimensione deve essere
compresa tra 6 = 10 4 e 10 .
44
14. Richiami di insiemistica.
Siano A e B due insiemi. Una applicazione o funzione da A a B `e una legge f che
ad ogni elemento di A associa un elemento di B . Una tale legge la denoteremo scrivendo
f : A B . In questo caso A e B si chiamano rispettivamente dominio e codominio della
funzione f .
Consideriamo unapplicazione f : A B . Dato a A, lelemento f(a) si chiama
immagine di a. Limmagine di f , che denotiamo scrivendo Imf , `e il sottoinsieme di B
costituito da tutti gli elementi del tipo f(a) (con a che varia tra gli elementi di A).
Denizione. Sia f : A B una applicazione
i) se Imf = B diciamo che f `e suriettiva;
ii) se elementi distinti di A hanno immagini distinte diciamo che f `e iniettiva;
iii) se f `e sia suriettiva che iniettiva, diciamo che `e biunivoca;
iv) ssato b B , linsieme degli elementi a A tali che f(a) = b si chiama bra (o
immagine inversa) di b e si denota con f
1
(b) ;
Si osservi che f `e iniettiva se e solo se ogni sua bra `e linsieme vuoto oppure `e costituita
da un solo elemento, f `e suriettiva se e solo se ogni sua bra `e non-vuota.
Se f `e biunivoca, tutte le bre sono costituite da un solo elemento, ovvero per ogni
b B esiste un unico elemento a A tale che f(a) = b . In questo caso si denisce
linversa di f (che si denota con f
1
), ponendo
f
1
: B A , f
1
(b) = lunico a tale che f(a) = b.
15. Applicazioni lineari.
Cominciamo brutalmente con due denizioni generali, subito dopo studiamo lesempio
delle applicazioni lineari da R
n
a R
m
.
Denizione 91. Siano V e W due spazi vettoriali. Una applicazione lineare
L : V W
v w
`e una legge che ad ogni vettore v V associa un vettore w = L(v) W , che soddisfa
le due propriet`a:
(91
)
L(v + u) = L(v) + L(u) , v , u V ;
L( v) = L(v) , v V , R.
Questa denizione ci dice che una applicazione lineare `e una funzione che rispetta le
operazioni su V e W : dati due vettori in V , limmagine della loro somma (operazione in
V ) `e uguale alla somma (operazione in W) delle loro immagini, limmagine di un multiplo
di un vettore `e quel multiplo dellimmagine del vettore.
Denizione 92. Sia L : V W una applicazione lineare. Si deniscono nucleo e
immagine di L, che si indicano rispettivamente scrivendo kerL (dallinglese kernel =
nucleo) ed ImL (dallinglese image = immagine), ponendo
kerL :=
_
v V
L(v) =
0
_
;
ImL :=
_
w W
0
_
`e la bra del vettore nullo di W. I vettori
nellimmagine di L, come la parola stessa suggerisce (e coerentemente con la denizione
data nei richiami di insiemistica), sono quei vettori w W tali che c`e almeno un vettore
v V al quale L associa w.
Denizione 93. Consideriamo gli spazi vettoriali R
n
ed R
m
. Si denisce lapplicazione
L
A
associata ad una matrice A =
_
a
i,j
_
M
m,n
(R) ponendo
L
A
: R
n
R
m
_
_
1
.
.
.
n
_
_
_
_
_
a
1,1
... a
1,n
.
.
.
.
.
.
.
.
.
a
m,1
... a
m,n
_
_
_
_
_
1
.
.
.
n
_
_
dove, come sempre, denota il prodotto righe per colonne tra matrici.
Proposizione. La funzione L
A
appena introdotta `e lineare.
Dimostrazione. Infatti, per la propriet`a distributiva del prodotto righe per colonne,
L
A
(v + w) = A (v + w) = A v + A w = L
A
(v) + L
A
( w) ,
L
A
(v) = A (v) =
_
A v
_
= L
A
(v) .
per ogni v, w R
n
e R.
_
_
_
3 7
2 4
5 1
_
_
_
=
_
_
3 + 7
2 + 4
5 +
_
_
Osserviamo che svolgendo il prodotto righe per colonne si ottiene
L
A
_
1
0
_
=
_
_
3 7
2 4
5 1
_
_
_
1
0
_
=
_
_
3
2
5
_
_
nonche L
A
_
0
1
_
=
_
_
3 7
2 4
5 1
_
_
_
0
1
_
=
_
_
7
4
1
_
_
,
ovvero nelle colonne della matrice A ci sono scritte le coordinate delle immagini dei vettori
della base canonica di R
2
.
Esercizio. Sia L
A
lapplicazione lineare dellesempio. Calcolare L
A
_
2
3
_
.
Esempio. Determiniamo ora nucleo e immagine dellapplicazione lineare L
A
dellesempio
precedente. Per denizione,
kerL
A
=
_
_
_
_
_
R
2
L
A
(
_
_
) =
_
_
3 + 7
2 + 4
5 +
_
_
=
_
_
0
0
0
_
_
_
_
_
.
Risolvendo il sistema lineare
_
_
3 + 7 = 0
2 + 4 = 0
5 + = 0
,
46
troviamo = = 0, quindi il nucleo di L
A
`e costituito solo dal vettore nullo: kerL
A
=
_
0
0
_
.
I vettori dellimmagine di L
A
sono tutti i vettori in R
3
del tipo
_
_
3 + 7
2 + 4
5 +
_
_
, dove
e sono parametri liberi; pertanto, ricordando la denizione di Span, si ha
(94)
ImL
A
=
_
_
_
_
_
3 + 7
2 + 4
5 +
_
_
, R
_
_
_
=
_
_
_
_
_
3
2
5
_
_
+
_
_
7
4
1
_
_
, R
_
_
_
= Span
_
_
_
_
_
3
2
5
_
_
,
_
_
7
4
1
_
_
_
_
_
.
I risultati trovati nellesempio si generalizzano. Innanzi tutto, guardando la denizione
(93) `e del tutto evidente che vale losservazione che segue.
Osservazione 95. Si consideri L
A
: R
n
R
m
, A M
m,n
(R) . Le coordinate
dellimmagine dello i
-esimo
vettore e
i
della base canonica di R
n
sono scritte nella i
-esima
colonna di A.
Osservazione 96. Anche i conti della formula (94) si generalizzano: data L
A
: R
n
R
m
,
A M
m,n
(R) , si ha
(96
)
ImL
A
=
_
_
_
_
_
_
_
n
j=1
j
a
1,j
.
.
.
n
j=1
j
a
m,j
_
_
_
_
_
1
, ...,
n
R
_
_
=
_
1
_
_
_
a
1,1
.
.
.
a
m,1
_
_
_ + ... +
n
_
_
_
a
1,n
.
.
.
a
m,n
_
_
_
1
, ...,
n
R
_
_
= Span
_
_
_
_
_
a
1,1
.
.
.
a
m,1
_
_
_, ...,
_
_
_
a
1,n
.
.
.
a
m,n
_
_
_
_
_
.
Questo prova che limmagine di L
A
`e lo Span delle colonne della matrice A. In particolare,
per il teorema (86) del paragrafo 12, si ha
(97) dimImL
A
= rgA
Per quel che riguarda liniettivit`a e la suriettivit`a di L
A
vale la proposizione che segue.
Proposizione 98. Si consideri L
A
: R
n
R
m
, A M
m,n
(R) . Si ha che
i) L
A
`e iniettiva se e solo se kerL
A
= {
0} ;
ii) L
A
`e suriettiva se e solo se rgA = m (che `e la massima possibile).
Dimostrazione. Poiche L
A
(
0) =
0 , liniettivit`a di L
A
implica kerL
A
= {
0} .
Viceversa, se ci sono due vettori distinti v
1
e v
2
che hanno la stessa immagine w, si
47
ha L
A
(v
1
v
2
) = L
A
(v
1
) L
A
(v
2
) = w w =
0 , ovvero kerL
A
= {
0} .
Ora proviamo laermazione ii) . Per losservazione precedente, limmagine di L
A
`e lo
Span dei vettori costituiti dalle colonne di A e la dimensione di tale Span uguaglia il
rango di A per la formula (97). Inne, ImL
A
= R
m
se e solo se dimImL
A
= m.
)
del paragrafo 9. Questa verica `e veramente facile e la lascio per esercizio.
Proposizione. Sia L : V W una applicazione lineare. Si ha che
(100) dimV = dimImL + dimkerL
Losservazione (102) dimostra questa proposizione.
Osservazione 101. Nel caso di una applicazione lineare L
A
: R
n
R
m
questa
identit`a `e una rilettura dellidentit`a del teorema (90), paragrafo 13. Infatti, in questo caso
dimV = n, ImL = Span colonne di A, kerL = Spazio delle soluzioni del sistema
lineare Ax =
0.
Osservazione 102. Sia L : V W una applicazione lineare. Se completiamo una
base {
b
1
, ...,
b
s
} di kerL ad una base {
b
1
, ...,
b
s
, c
1
, ..., c
r
} di V , linsieme di vettori
{L(c
1
), ..., L(c
r
)} `e una base di ImL.
Dimostrazione. Chiaramente, Span{L(c
1
), ..., L(c
r
)} = Span{
0, ...,
0, L(c
1
), ..., L(c
r
)}
= Span{L(
b
1
), ..., L(
b
s
), L(c
1
), ..., L(c
r
)} = ImV , questo perche {
b
1
, ...,
b
s
, c
1
, ..., c
r
}
`e una base di V . Daltro canto, se i vettori L(c
1
), ..., L(c
r
) fossero linearmente dipendenti,
ovvero se esistessero dei coecienti (non tutti nulli)
1
, ...,
r
tali che
i
L(c
1
) =
0 , per
la linearit`a di L si avrebbe anche L
_
i
c
1
_
=
0 , quindi si avrebbe
i
c
1
kerL =
Span{
b
1
, ...,
b
s
} . Questo non `e possibile perche, per ipotesi, i vettori
b
1
, ...,
b
s
, c
1
, ..., c
r
sono indipendenti.
_
_
_
z
1
z
2
z
3
z
4
_
_
_
Si determini una base di kerL, si completi la base trovata ad una base di R
4
, si veri-
chi che le immagini dei vettori che sono stati aggiunti per eettuare tale completamento
costituiscono una base dellimmagine di L.
48
Esercizio. Per ognuna delle matrici che seguono, si consideri lapplicazione lineare
associata e se ne determini una base del nucleo ed una base dellimmagine.
_
_
4 3 1
1 1 2
5 4 3
_
_
,
_
_
1 2 3 1
4 8 12 4
2 4 6 2
_
_
,
_
_
1 0 0 4
3 0 1 0
1 2 0 0
_
_
,
_
_
_
1 3
0 0
3 9
2 6
_
_
_
_
_
_
0 2 3 1
0 0 0 2
0 0 0 1
1 0 0 0
_
_
_ ,
_
_
_
1 3 3 1
3 4 9 4
1 2 0 4
0 1 1 7
_
_
_ ,
_
0 0 0
0 0 0
_
,
_
_
2 1
0 0
4 2
_
_
_
0 0 1 1 3 9
1 0 1 1 3 9
_
,
_
1 3 4
2 6 8
_
,
_
_
_
_
_
_
_
0 1 1 1 1 1
0 0 1 1 1 1
0 0 0 1 1 1
0 0 0 0 1 1
0 0 0 0 0 1
0 0 0 0 0 0
_
_
_
_
_
_
_
.
Osservazione. Dalluguaglianza (100) segue che dimImL = dimV se e solo se
dimkerL = 0 (ovvero se e solo se L `e iniettiva). Quindi, nellipotesi che si abbia dimV =
dimW , lapplicazione lineare L : V W `e suriettiva se e solo se `e iniettiva.
Proposizione 103. Consideriamo lapplicazione lineare di R
n
in se stesso associata alla
matrice A, L
A
: R
n
R
n
. Le aermazioni che seguono sono equivalenti tra loro:
i) L
A
`e suriettiva;
ii) L
A
`e iniettiva;
iii) rgA = n.
Ad una matrice A M
m,n
abbiamo associato una applicazione lineare L
A
: R
n
R
m
.
Viceversa, data una applicazione lineare L : R
n
R
m
`e possibile trovare una matrice che
la rappresenta (detta matrice associata ad L) : si ha L = L
A
, dove A `e la matrice le
cui colonne sono le immagini dei vettori della base canonica di R
n
. In denitiva c`e una
corrispondenza biunivoca
_
matrici in M
m,n
(R)
_
_
applicazioni lineari L : R
n
R
m
_
.
Gi`a osservammo (vedi osservazione 18, 4) che il prodotto righe per colonne tra matrici codi-
ca loperazione di sostituzione, pertanto, modulo lidenticazione qui sopra, il prodotto
righe per colonne tra matrici corrisponde alla composizione
7
di applicazioni lineari. Lo
ripetiamo:
Proposizione. Siano L
A
: R
n
R
m
ed L
B
: R
m
R
k
due applicazioni lineari.
Ha senso considerare la composizione
L
B
L
A
: R
n
R
m
R
k
.
Si ha
(104) L
B
L
A
= L
BA
.
7
La composizione di funzione si eettua sostituendo: siano A, B e C tre insiemi, f : A B e g : B C
due funzioni, sia quindi b = f(a) e c = g(b) , la composizione g f : A C viene denita ponendo
g f(a) = g(f(a)) = g(b) , cio`e sostituendo!
49
Esempio. Consideriamo le due applicazioni lineari (vedi lesempio 17 del paragrafo 4:
le matrici sono le stesse)
L : R
4
R
3
_
_
_
z
1
z
2
z
3
z
4
_
_
_
_
_
y
1
y
2
y
3
_
_
:=
_
_
1 2 0 3
0 7 2 1
3 0 1 1
_
_
_
_
_
z
1
z
2
z
3
z
4
_
_
_
M : R
3
R
2
_
_
y
1
y
2
y
3
_
_
_
x
1
x
2
_
:=
_
4 0 1
2 5 0
_
_
_
y
1
y
2
y
3
_
_
La composizione M L `e lapplicazione (vericarlo)
T : R
4
R
2
_
_
_
z
1
z
2
z
3
z
4
_
_
_
_
x
1
x
2
_
:=
_
7 8 1 11
2 31 10 1
_
_
_
_
z
1
z
2
z
3
z
4
_
_
_
La matrice di questa composizione coincide con il prodotto della matrice associata ad M
per la matrice associata ad L (vericarlo).
Esercizio. Sia A =
_
2 0
0 3
_
. Si calcoli, e si descriva esplicitamente (secondo le
notazioni della denizione 93),
L
A
, L
A
L
A
, L
A
L
A
L
A
,
_
L
A
_
k
= L
A
... L
A
(ripetuto k volte).
Esercizio. Sia A =
_
_
1 2 3
0 1 2
0 0 1
_
_
, B =
_
_
1 0 0
0 2 0
0 0 3
_
_
, C =
_
_
2 1 0
1 1 1
0 1 3
_
_
. Si
calcoli, e si descriva esplicitamente,
L
A
L
B
, L
B
L
A
, L
A
L
B
L
C
, L
A
L
A
L
A
, L
B
L
C
L
C
, L
C
L
(C
1
)
, L
(A
3
)
.
Esercizio. Per ognuna delle applicazioni dellesercizio precedente si determini limmagine
del vettore
_
_
2
1
3
_
_
.
Osservazione. Lidentit`a I : R
n
R
n
, denita ponendo I(x) = x, x, `e
chiaramente una applicazione lineare nonch`e `e rappresentata dalla matrice identica I
n
.
Osservazione 105. Supponiamo di avere una applicazione lineare L
A
: R
n
R
n
e
supponiamo che L
A
sia una funzione biunivoca. Allora, linversa (insiemistica), vedi 14,
della funzione L
A
`e una applicazione lineare nonch`e `e lapplicazione lineare associata alla
matrice A
1
(inversa di A). Infatti, per la (104),
L
A
L
A
1 = L
AA
1 = L
I
n
= I .
50
Osservazione 106. Consideriamo ora il sistema lineare Ax =
b e lapplicazione
lineare L
A
: R
n
R
m
, x y = Ax. Chiaramente, le soluzioni del sistema lineare
sono i vettori della bra (i.e. immagine inversa) di
b . In particolare, la compatibilit`a del
sistema equivale alla propriet`a
b ImL
A
. Alla luce di questa considerazione, del fatto che
limmagine di L
A
`e lo Span delle colonne della matrice A (osservazione 96) e del teorema
(84) del paragrafo 11, abbiamo il teorema che segue.
Teorema 107 (di Rouche-Capelli). Sia Ax =
b un sistema lineare di m equazioni in
n incognite. Indichiamo con
A la matrice completa associata a questo sistema lineare. Le
aermazioni che seguono sono equivalenti.
i) Ax =
b `e compatibile;
ii)
b ImL
A
;
iii)
b Span{colonne di A};
iv) rgA = rg
A.
Notazione. Sia A M
n, m
una matrice. In seguito, scriveremo anche:
kerA, intendendo kerL
A
;
ImA, intendendo ImL
A
.
Esercizio. Sia A =
_
2 1
3 5
_
. Calcolare L
A
L
A
_
7
4
_
.
Esercizio. Sia L : R
7
R
11
una applicazione lineare rappresentata da una matrice
A M
11,7
(R) di rango 5. Calcolare dimkerL e dimImL.
Esercizio. Sia L : R
8
R
5
una applicazione lineare e sia W R
8
un sottospazio di
dimensione 6. Provare che dim
_
kerL W
_
1 .
Soluzione. Per luguaglianza (100) abbiamo dimkerL = dimR
8
dimImL 8 5 = 3 .
Per la formula di Grassmann abbiamo
dim
_
kerL W
_
= dimkerL + dimW dim
_
kerL + W
_
3 + 6 8 = 1 .
51
16. Trasformazioni lineari di uno spazio vettoriale: autovalori e autovettori.
Concentriamo la nostra attenzione sulle applicazioni di R
n
in se stesso dette anche trasfor-
mazioni di R
n
.
Per cominciare con un esempio, consideriamo la seguente dilatazione
L : R
2
R
2
_
x
y
_
_
3 0
0 1
_
_
x
y
_
=
_
3x
y
_
`
E abbastanza chiaro cosa fa questa applicazione: prende il piano e lo dilata nella direzione
dellasse delle ascisse. Si osservi che il punto
_
1
0
_
ha per immagine il punto
_
3
0
_
, mentre
il punto
_
0
1
_
viene mandato in se stesso. Ma ora consideriamo lapplicazione
M : R
2
R
2
_
x
y
_
_
2 1
1 2
_
_
x
y
_
=
_
2x + y
x + 2y
_
Non `e aatto chiaro a priori come si comporta questa applicazione, ma basta accorgersi
del fatto che il punto
_
1
1
_
ha per immagine il punto
_
3
3
_
, mentre il punto
_
1
1
_
viene mandato in se stesso, per rendersi conto che questa applicazione `e molto simile alla
precedente. Infatti, esattamente come la precedente applicazione, anche M dilata il piano
in una direzione e lascia ssati i punti della retta ortogonale a tale direzione, solo che questa
volta la direzione lungo la quale stiamo dilatando il piano non `e quella dellasse delle ascisse
bens` `e quella della retta x = y .
Queste considerazioni suggeriscono che per comprendere la geometria di una trasfor-
mazione lineare L : R
n
R
n
`e importante vedere se ci sono delle direzioni privilegiate,
ovvero dei sottospazi di R
n
che vengono mandati in se stessi, pi` u precisamente `e importante
domandarsi se esistono dei sottospazi sui quali L agisce in un modo particolarmente sem-
plice: `e la moltiplicazione per una costante . Nei corsi di Fisica e di Ingegneria vedrete
che le direzioni privilegiate hanno un ruolo fondamentale, ad esempio possono rappre-
sentare assi di rotazione, direzioni privilegiate allinterno di un materiale e molto altro. Noi
non discuteremo le applicazioni, per mancanza di tempo e perche in questo corso vogliamo
concentrarci su questioni algebriche.
Denizione 108. Sia L : R
n
R
n
una trasformazione lineare e supponiamo che
esistono R e w
0
R
n
, con w
0
=
0 , tali che
(108
) L( w
0
) = w
0
.
In questo caso diciamo che `e un autovalore della trasformazione L e che lo spazio
W
:=
_
w R
n
L( w) = w
_
ne `e il relativo autospazio. I vettori (non nulli) w che soddisfano la (108
) si chiamano
autovettori (di L e di autovalore ).
Esercizio 109. Vericare che linsieme W
).
52
Le denizioni di autovalore, autovettore e autospazio possono riferirsi anche ad una ma-
trice quadrata A : se `e un autovalore della trasformazione L
A
(vedi def. 93), `e lecito
dire (per denizione) che `e un autovalore della matrice A, eccetera.
In questo paragrafo discutiamo il problema della determinazione degli autovalori e dei
corrispondenti autospazi di una trasformazione di R
n
. Prima di procedere per`o osserviamo
che la denizione si pu`o dare pi` u in generale:
Denizione 110. Sia V uno spazio vettoriale e sia
T : V V
una trasformazione lineare. Se esistono v = 0 e R tali che
(110
) T(v) = v ,
Diciamo che v e sono rispettivamente un autovettore e un autovalore di T .
Osservazione/Denizione. Ovviamente, anche la tesi dellesercizio (109) si generalizza:
linsieme dei vettori che soddisfano la (110
. Scrivendo la (110
= ker(T I) .
Voglio sottolineare che, in particolare, se v `e un autovettore, allora tutti i suoi multipli (non
nulli) sono anchessi autovettori, relativamente allo stesso autovalore.
Denizione 112. Linsieme degli autovalori di T si chiama spettro di T .
Osservazione 113. Alla luce della denizione (110) e di quanto appena osservato, il
valore `e un autovalore di T se e solo se il nucleo ker(T I) contiene almeno un vettore
non nullo, ovvero se e solo se tale nucleo ha dimensione strettamente positiva:
`e un autovalore di T dimker
_
T I
_
> 0 .
Abbiamo visto che un autovettore rappresenta una direzione privilegiata, ovvero una
direzione lungo la quale T `e una dilatazione. Il relativo autovalore `e il coecente di
tale dilatazione. E del tutto evidente che lo stesso vettore v non pu`o essere autovettore
per due autovalori distinti (lesercizio 116 vi chiede di dimostrare questa aermazione!). Un
po meno evidente `e la propriet`a secondo la quale autovettori corrispondenti a autovalori
distinti sono sicuramente indipendenti:
Teorema 114. Autospazi corrispondenti ad autovalori distinti sono indipendenti.
Inciso 115. Stiamo utilizzando laggettivo indipendente relativamente a dei sottospazi
di uno spazio vettoriale piuttosto che relativamente a dei vettori di uno spazio vettoriale.
Si tratta solo di una questione di linguaggio, la denizione `e quella ovvia: diciamo che i
sottospazi W
1
, ..., W
k
di uno spazio vettoriale V sono indipendenti se presi comunque dei
vettori non nulli w
i
1
W
i
1
, ..., w
i
r
W
i
r
si ha che w
i
1
, ..., w
i
r
sono vettori indipendenti.
Nel paragrafo 18 proponiamo un esercizio utile (esercizio 137).
Come gi`a accennato, il teorema (114) generalizza il risultato dellesercizio che segue.
Pu`o essere dimostrato per induzione sul numero degli autospazi che si considerano, la di-
mostrazione la svolgiano le 18.
53
Esercizio 116. Provare che due autospazi corrispondenti a due autovalori distinti sono
indipendenti (i.e. la loro intersezione `e il vettore nullo).
Torniamo a considerare L
A
: R
n
R
n
(in realt`a, tutto quello che stiamo per dire ha
perfettamente senso anche per le trasformazioni lineari di uno spazio vettoriale astratto).
Denizione 117. Il polinomio caratteristico di L
A
`e il polinomio
P
L
A
() := det
_
A I
_
= ()
n
+ ()
n1
tr(A) + ... + det(A) ,
dove I denota la matrice identica e dove trA, detta traccia di A, `e per denizione la
somma degli elementi sulla diagonale principale di A :
tr A := a
1,1
+ a
2,2
+ ... + a
n,n
.
Naturalmente, per denizione, si pu`o dire il polinomio caratteristico di A e si pu`o scrivere
P
A
() , intendendo sempre det(AI) .
Esempio. Se A =
_
_
2 1 0
5 1 1
0 0 3
_
_
, si ha
P
A
() = det
_
_
_
_
2 1 0
5 1 1
0 0 3
_
_
_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
= det
_
_
2 1 0
5 1 1
0 0 3
_
_
=
3
+ 6
2
16 + 21 .
Esercizio. Calcolare il polinomio caratteristico delle seguenti matrici
_
1 2
3 4
_ _
3 2
3 1
_ _
1 1
3 3
_ _
1 0
0 1
_
_
_
1 1 0
1 1 1
2 0 2
_
_
_
_
1 1 0
0 2 1
0 0 2
_
_
_
_
0 0 0
0 0 0
0 0 0
_
_
_
5 7
3 4
_ _
2 1
1 2
_
Osservazione 118. Consideriamo sempre L
A
: R
n
R
n
. Losservazione (113) ci dice
che il valore `e un autovalore di L
A
se e solo se il nucleo della trasformazione L
A
I ha
dimensione strettamente positiva. Daltro canto, poiche la matrice associata allapplicazione
lineare L
A
I `e la matrice AI
n
(questo `e ovvio, se non vi sembra ovvio dimostratelo!
...e scrivete qualche esempio), il valore `e un autovalore di L
A
se e solo se il determinante
della matrice AI
n
vale zero. In altri termini, lo spettro di L
A
(denizione 112) `e
linsieme delle radici del polinomio caratteristico:
spettro
_
L
A
_
= insieme delle radici del polinomio caratteristico.
Questo signica che abbiamo uno strumento per determinare gli autovalori di una trasfor-
mazione lineare: scriviamo il polinomio caratteristico e ne troviamo le radici. Una volta
trovati gli autovalori, `e facile determinarne i relativi autospazi: basta usare la (111).
Nellesempio che segue determiniamo autovalori e autospazi di una trasformazione di R
2
.
Prima per`o introduciamo due numeri associati a un autovalore.
54
Denizione 119. Sia L
A
: R
n
R
n
una trasformazione lineare e sia un autovalore
di L
A
. Si pone
g
() := dimker(L
A
I
d
) = dimV
a
() := molteplicit`a di come soluzione di P
A
() = 0 .
Queste due quantit`a si chiamano, per denizione, rispettivamente molteplicit` a geometrica
e molteplicit` a algebrica dellautovalore . Vale il seguente risultato fondamentale.
Teorema 120.
g
()
a
() .
Questo teorema lo dimostriamo nel paragrafo 18.
Esempio. Consideriamo la trasformazione lineare, associata alla matrice A =
_
1 2
1 4
_
,
L : R
2
R
2
_
x
y
_
_
1 2
1 4
_
_
x
y
_
=
_
x + 2y
x + 4y
_
e calcoliamone gli autovalori ed i relativi autospazi. Per prima cosa scriviamo il polinomio
caratteristico:
P
L
() := det
__
1 2
1 4
_
_
1 0
0 1
__
= det
_
1 2
1 4
_
=
2
5 + 6 ;
poi ne calcoliamo le radici, che sono
1
= 2 e
2
= 3 . A questo punto determiniamo
il nucleo della matrice (ovvero della corrispondente trasformazione) A 2I =
_
1 2
1 2
_
e della matrice A 3I =
_
2 2
1 1
_
. Si ha ker
_
1 2
1 2
_
= Span
__
2
1
__
nonche
ker
_
2 2
1 1
_
= Span
__
1
1
__
. Quindi, ci sono due autovalori: 2 e 3; i relativi autospazi
sono lautospazio V
2
= Span
__
2
1
__
e lautospazio V
3
= Span
__
1
1
__
.
Entrambi gli autovalori hanno molteplicit`a algebrica e geometrica uguale a uno.
Esercizio. Calcolare autovalori e autospazi delle matrici che seguono (calcolare anche le
molteplicit`a algebrica e geometrica di ogni autovalore)
_
1 1
2 2
_ _
3 2
2 1
_ _
1 1
1 2
_ _
4 0
0 7
_
_
_
4 3 0
3 2 0
0 0 5
_
_
_
_
4 0 5
0 2 0
5 0 3
_
_
_
_
2 0 0
0 2 0
0 0 7
_
_
_
_
2 1 0
0 2 0
0 0 7
_
_
_
0 0
1 0
_ _
1 1
1 1
_
Osservazione 121. Supponiamo che v sia un autovettore di A e che ne sia il relativo
autovalore. Per ogni intero k 0 si ha
A
k
v = A ... A
. .
k volte
v = A ... A
. .
k1 volte
v = ... =
k
v
Esercizio. Vericare che v =
_
3
2
_
`e un autovettore della matrice A =
_
0 3
2 1
_
.
Calcolarne il relativo autovalore e determinare A
2
v , A
3
v , A
5
v , A
14
v .
55
17. Problema della diagonalizzazione.
Consideriamo uno spazio vettoriale V ed una trasformazione lineare T : V V .
Abbiamo visto che se ssiamo una base B = {
b
1
, ...,
b
n
} di V , corrispondentemente
abbiamo delle coordinate su V ( 9, osservazione 68 e denizione 69). Diciamo che T `e
rappresentata dalla matrice A (rispetto alla base B) se
T
_
n
i=1
b
i
_
=
n
i=1
b
i
, dove
_
_
_
1
.
.
.
n
_
_
_ := A
,
cio`e se A
b
1
, ...,
b
n
} `e la base canonica di R
n
, la trasformazione
T `e rappresentata dalla matrice A se e solo se T = L
A
(vedi 15, def. 93).
Il problema della diagonalizzazione `e il seguente: dati V e T come sopra, trovare (se
possibile) una base di V rispetto alla quale la matrice che rappresenta T `e una matrice
diagonale. Prima di procedere caratterizziamo le trasformazioni rappresentate da una ma-
trice diagonale:
Osservazione 122. Siano V e T come sopra e sia B = {
b
1
, ...,
b
n
} una base di V .
Si ha che T `e rappresentata dalla matrice diagonale
(
1
, ...,
n
) :=
_
_
_
_
1
0 ... 0
0
2
... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ...
n
_
_
_
_
.
se e solo se
T(
b
i
) =
i
b
i
, i .
Si noti che, nella situazione indicata, in particolare i vettori
b
1
, ...,
b
n
sono autovettori
della trasformazione T (di autovalori
1
, ...,
n
).
Quanto appena osservato dimostra la proposizione che segue.
Proposizione 123. Siano V e T come sopra. La trasformazione T `e diagonalizzabile
se e solo se esiste una base di autovettori.
Questa proposizione e losservazione che la precede inquadrano geometricamente il pro-
blema della diagonalizzazione: lo esibiscono come problema della ricerca di una base di
autovettori, problema che sappiamo arontare con gli strumenti visti nel paragrafo prece-
dente. Prima di andare avanti col problema della diagonalizzazione ci poniamo un obbiettivo
di natura pi` u algebrica. Consideriamo due matrici che rappresentano la stessa trasformazione
(rispetto a basi diverse) e ci chiediamo: cosa hanno in comune? `e possibile scrivere una for-
mula che le lega (cos` il problema della diagonalizzazione diventa il problema della ricerca
delle eventuali matrici diagonali legate a una matrice data)?
56
La proposizione (124) e le osservazioni che seguono rispondono alle nostre domande. In
inciso, nel paragrafo 18 vedremo, in generale, come cambia la matrice rappresentativa di una
applicazione lineare L : V W quando si cambia la base
8
del dominio e/o del codominio.
Ora, consideriamo una trasformazione lineare di uno spazio vettoriale V e scriviamo la
formula che lega le matrici rappresentative rispetto a basi diverse di V . Per rendere un
po meno astratta la trattazione e per semplicare il discorso consideriamo V = R
n
ed
assumiamo che una delle due basi in questione sia la base canonica di R
n
. Dunque, vale il
risultato che segue.
Proposizione 124. Sia L = L
A
: R
n
R
n
una trasformazione lineare (quindi A `e
la matrice rappresentativa di L rispetto alla base canonica di R
n
). Sia B = {
b
1
, ...,
b
n
}
unaltra base di R
n
. Sia B la matrice associata ai vettori
b
1
, ...,
b
n
. La matrice che
rappresenta L rispetto alla base B `e la matrice
(124
) X = B
1
A B
Come gi`a accennato, nel paragrafo 18 generalizziamo questa proposizione.
La dimostrazione di questa proposizione `e molto importante perche aiuta a capire.
Dimostrazione. Per denizione di matrice rappresentativa, trovare X signica descrivere
la legge che alle coordinate di un vettore v rispetto a B associa le coordinate di L(v) ,
sempre rispetto a B . Siano dunque
1
, ...,
n
le coordinate di v rispetto alla base B e
determiniamo le coordinate di L(v) , sempre rispetto a B . Il nostro primo passo `e quello
di trovare v , cio`e di determinare le coordinate di v rispetto alla base canonica. Questo
obbiettivo si ottiene moltiplicando per la matrice B . Infatti, il prodotto B
_
_
1
.
.
.
n
_
_
`e
la combinazione lineare di coecienti
1
, ...,
n
delle colonne di B (che rappresentano i
vettori della base B rispetto alla base canonica). Osserviamo che il ragionamento eettuato
ci insegna una cosa: il passaggio da coordinate rispetto a B a coordinate rispetto alla base
canonica si eettua moltiplicando per la matrice B . A questo punto, e questo `e il nostro
secondo passo, moltiplichiamo per A, ottenendo cos` L(v) ; diciamo meglio, ottenendo
cos` le coordinate di L(v) rispetto alla base canonica. Ora che abbiamo trovato L(v) , ne
determiniamo le coordinate rispetto alla base B . A tale ne sar`a suciente moltiplicare per
B
1
. Infatti, come `e vero che il passaggio da coordinate rispetto a B a coordinate rispetto
alla base canonica si eettua moltiplicando per la matrice B , `e anche vero che il passaggio
inverso (da coordinate canoniche a coordinate rispetto a B ) si eettua moltiplicando per
linversa di B . Riassumendo, siamo partiti dalle coordinate di v rispetto a B ed abbiamo
i) trasformato le coordinate di v rispetto a B nelle coordinate di v rispetto alla base
canonica (questo passaggio lo abbiamo realizzato moltiplicando per la matrice B);
ii) moltiplicato per A il risulato ottenuto, ottenendo cos` le coordinate di L(v) rispetto
alla base canonica;
iii) trasformato le coordinate di L(v) rispetto alla base canonica nelle coordinate di
L(v) rispetto alla base B (passaggio realizzato moltiplicando per la matrice B
1
);
In denitiva, la legge che a
_
_
1
.
.
.
n
_
_
associa B
1
A B
_
_
1
.
.
.
n
_
_
`e la legge cercata (il primo
prodotto che si eettua `e quello pi` u a destra). Pertanto, si deve avere X = B
1
A B .
8
Nel caso delle trasformazioni lineari si ha V = W , in questo caso si sceglie sempre la stessa base per
dominio e codominio (questo non tanto perche sceglierle diverse e peraltro cambiarle signicherebbe gestire
quattro basi per lo stesso spazio vettoriale, ma perche altrimenti si arriverebbe a matrici geometricamente
poco signicative).
57
Abbiamo considerato R
n
ed abbiamo assunto che una delle due basi era quella canonica.
In eetti anche nel caso generale di una trasformazione di uno spazio vettoriale astratto V
la formula che lega le matrici rappresentative rispetto a basi diverse `e identica alla (124
):
consideriamo uno spazio vettoriale V , una trasformazione lineare T e due basi di V ,
che chiameremo vecchia e nuova (e chiamiamo vecchie e nuove le corrispondenti
coordinate), sia X la matrice che rappresenta T rispetto alla nuova base (la legge che alle
nuove coordinate di un vettore associa le nuove coordinate dellimmagine di quel vettore
`e data dalla moltiplicazione per X) e sia A la matrice che rappresenta T rispetto alla
vecchia base (la legge che alle vecchie coordinate di un vettore associa le vecchie coordinate
dellimmagine di quel vettore `e data dalla moltiplicazione per A). Supponiamo che il pas-
saggio da nuove a vecchie coordinate si eettua moltiplicando per la matrice B . Allora
si deve avere X = B
1
A B . La spiegazione della formula `e quella vista dimostrando
il teorema (124) e si pu`o riassumere con lo schemino che segue (nu, ve e co stanno
rispettivamente per nuove, vecchie e coordinate, la freccia indica il passaggio):
X
nu.co.(v)
..
. .
nu.co.(T(v))
= B
1
A B
nu.co.(v)
..
. .
ve.co.(v)
. .
ve.co.(T(v))
. .
nu.co.(T(v))
Naturalmente a questo punto si deve identicare meglio la matrice B (sappiamo cosa fa,
moltiplicare per B fa passare da nuove a vecchie coordinate, ma non abbiamo detto chi `e):
riettenoci un istante `e chiaro che la matrice B `e la matrice delle coordinate dei vettori
della nuova base rispetto alla vecchia: infatti, se
`e il vettore delle nuove coordinate di
v , essendo B
M
n,n
(R) rappresentano la stessa trasfor-
mazione lineare rispetto a basi diverse se e solo se esiste una matrice invertibile C tale
che
(126
) A
= C
1
A C
Denizione 127. Due matrici A, A
M
n,n
(R) come nella (126
) si dicono coniugate.
Torniamo al problema della diagonalizzazione. Alla luce di quanto abbiamo visto, e in
particolare della proposizione (126), abbiamo la seguente osservazione
Osservazione 128. La trasformazione lineare L = L
A
: R
n
R
n
`e diagonalizzabile
se e solo se la matrice A `e coniugata a una matrice diagonale, cio`e se e solo se esiste una
matrice invertibile C tale che C
1
A C `e una matrice diagonale.
Il problema della diagonalizzazione di una matrice A `e il problema di trovare una matrice
invertibile C tale che A
= C
1
AC `e diagonale. Risolviamo il seguente problema:
Problema 129. Trovare una matrice invertibile B che diagonalizza la matrice
A =
_
3 3
1 5
_
.
Soluzione. Scriviamo il polinomio caratteristico di A
P
A
() = det
_
A I
_
= det
_
3 3
1 5
_
=
2
8 + 12 ,
ne calcoliamo le due radici
1
= 2,
2
= 6, quindi determiniamo i due autospazi V
2
e V
6
:
V
2
= ker
_
A 2I
_
= ker
_
1 3
1 3
_
= Span
_
_
3
1
_
_
;
V
6
= ker
_
A 6I
_
= ker
_
3 3
1 1
_
= Span
_
_
1
1
_
_
.
La matrice B , associata agli autovettori trovati, `e la matrice che diagonalizza A : si ha
B
1
A B =
_
1
0
0
2
_
,
o meglio,
(129
)
_
3 1
1 1
_
1
_
3 3
1 5
_
_
3 1
1 1
_
=
_
2 0
0 6
_
.
=
_
4
4
_
, v
2
=
_
3
1
_
. Seguendo queste
scelte avremmo trovato
(129
)
_
4 3
4 1
_
1
_
3 3
1 5
_
_
4 3
4 1
_
=
_
6 0
0 2
_
.
Esercizio. Vericare le uguaglianze (129
) e (129
).
Ora enuncio un lemma molto importante.
Lemma 130. Se A ed A
= B
1
A B), hanno
lo stesso polinomio caratteristico.
Dimostrazione. Si ha P
A
() = det
_
A
I
_
= det
_
B
1
A B I
_
=
det
_
B
1
A B B
1
I B
_
= det
_
B
1
(AI) B
= detB
1
det
_
AI)
_
detB =
det
_
A I) = P
A
() .
In particolare, tutti i coecienti del polinomio caratteristico sono invarianti per coniugio.
Poiche il termine noto ed il coeciente di ()
n1
sono rispettivamente determinante e
traccia, infatti det
_
A I
_
= ()
n
+ ()
n1
tr(A) + ... + det(A) , si ha il seguente
corollario.
Corollario 131. Se A ed A
; trA = trA
(ricordiamo che la traccia di una matrice `e la somma degli elementi sulla diagonale).
Nel paragrafo precedente sostanzialmente abbiamo introdotto il polinomio caratteristico
come oggetto associato a una matrice (denizione 117). Il lemma (130) `e importante perche
ci consente di vedere il polinomio caratteristico come oggetto associato a una trasformazione
lineare. Vediamo meglio:
Osservazione 132. Data una trasformazione lineare T di uno spazio vettoriale V ,
possiamo scegliere una base di V . Corrispondentemente possiamo considerare la matrice
A rappresentativa di T rispetto alla base scelta, quindi possiamo considerare il polinomio
caratteristico di A. Se eettuiamo una scelta diversa, o, se preferite, se cambiamo la nostra
scelta, otteniamo una matrice A
1
. . . 0
.
.
.
0 . . .
n
_
_
`e una matrice diagonale, i
i
sono gli autovalori di e determinante e traccia di sono
rispettivamente uguali a prodotto e somma degli autovalori
i
:
det =
1
...
n
, tr =
1
+ ... +
n
.
Inoltre, le molteplicit`a algebrica e geometrica di ogni autovalore coincidono, e sono uguali
al numero di volte che il valore compare tra i valori
1
, ...,
n
(questo `e evidente, se non
vi sembra evidente dimostratelo per esercizio).
Corollario 133. Se A `e una matrice diagonalizzabile,
i) il determinante detA `e uguale al prodotto degli autovalori di A;
ii) la traccia trA `e uguale alla somma degli autovalori di A;
iii) le molteplicit`a algebrica e geometrica di ogni autovalore coincidono.
Dimostrazione. Per ipotesi, la matrice A `e coniugata ad una matrice diagonale .
Per la premessa, la matrice soddisfa i), ii) e iii). Daltro canto A e hanno lo
stesso polinomio caratteristico, in particolare, hanno stessi autovalori e relative molteplicit`a
algebriche e geometriche (queste ultime coincidono per ragioni geometriche: perche A e
rappresentano la stessa trasformazione lineare), stessa traccia e stesso determinante. Ne
segue che anche A soddisfa i), ii) e iii).
`e un autovettore di A; b) determinare
il corrispondente autovalore nonche le molteplicit`a algebrica e geometrica di ;
c) trovare, se sistono, una matrice C M
3, 3
(R) ed una matrice diagonale M
3, 3
(R)
tali che C
1
A C = .
Soluzione. Calcoliamo il prodotto A v
t
:
_
_
7 3 1
4 11 2
2 3 6
_
_
_
_
4
2
t
_
_
=
_
_
t 22
2t 6
2 6t
_
_
.
Il vettore v
t
`e un autovettore di A se esiste un valore per il quale risulti
_
_
t 22
2t 6
2 6t
_
_
=
_
_
4
2
t
_
_
.
Risolvendo il sistema indicato troviamo = 5 , = 2 .
Lautospazio associato allautovalore = 5 `e il nucleo della matrice
A + 5I =
_
_
2 3 1
4 6 2
2 3 1
_
_
,
61
ovvero `e lo spazio delle soluzioni dellequazione 2x 3y z = 0 (le tre righe della
matrice indicata sono chiaramente proporzionali tra loro, quindi il sistema omogeneo as-
sociato si riduce ad una sola equazione). Risolvendo questa equazione troviamo una base
dellautospazio V
5
: si ha B
V
5
=
_
_
_
_
_
3
2
0
_
_
,
_
_
1
0
2
_
_
_
_
_
.
Questo signica che V
5
ha dimensione 2 (quindi, per denizione di molteplicit`a geome-
trica, la molteplicit`a geometrica dellautovalore = 5 vale 2.
Se la matrice A `e diagonalizzabile, anche la molteplicit`a algebrica dellautovalore = 5
deve essere uguale a 2 nonche la somma degli autovalori deve essere uguale a -24 (che `e
la traccia della matrice A) . In questo caso c`e un altro autovalore, che indicheremo con
, ed `e dato dallequazione 24 = 5 5 + , dalla quale troviamo = 14 , quindi
-14 avr`a molteplicit`a algebrica e geometrica uguale a 1 e -5 avr`a eettivamente molteplicit`a
algebrica uguale a 2 (la somma delle molteplicit`a, di quelle algebriche come pure di quelle
geometriche, non pu`o superare 3). In questo caso lautospazio V
14
associato allautovalore
= 14 `e lo spazio delle soluzioni del sistema lineare (A+14I)x =
0 , ovvero `e lo spazio
delle soluzioni del sistema lineare
_
_
7 3 1
4 3 2
2 3 8
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Tale sistema lineare ammette innite soluzioni, questo conferma che -14 `e eettivamente un
autovalore e che la situazione `e quella descritta.
Risolvendo tale sistema troviamo che {
_
_
1
2
1
_
_
} `e una base dellautospazio V
14
.
Inne, C e sono le matrici della diagonalizzazione di A, ovvero sono rispettivamente
la matrice di una base di autovettori e la matrice diagonale dei corrispondenti autovalori:
C =
_
_
3 1 1
2 0 2
0 2 1
_
_
, =
_
_
5 0 0
0 5 0
0 0 14
_
_
.
Esercizio. Per ognuna delle matrici che seguono, determinare gli autovalori e calcolarne
le relative molteplicit`a algebriche e geometriche. Osservare che nessuna soddisfa la propriet`a
iii) del corollario (133), quindi dedurre che sono tutte matrici non diagonalizzabili.
_
1 1
0 1
_
,
_
2 1
0 2
_
,
_
3 4
1 7
_
,
_
_
3 1 0
0 3 1
0 0 3
_
_
,
_
_
2 1 0
0 2 0
0 0 3
_
_
,
_
_
11 0 8
0 7 0
2 0 3
_
_
,
_
_
2 6 2
2 5 1
2 3 3
_
_
( sapendo che 2 `e un autovalore),
_
_
0 0 1
0 0 0
0 0 0
_
_
,
_
_
1 5 3
0 1 4
0 0 1
_
_
.
Esercizio. Svolgere le prove desame indicate (si possono trovare nella sezione Area
Esami della mia pagina web): 13/12/04, #3; 18/2/04, #6; 25/2/04, #5; 8/9/04, #5;
21/2/05, #4; 24/2/05, #3; 20/2/06, #4; 22/2/06, #2; 1/3/06, #1; 12/9/06, #1;
27/9/06, #3.
La diagonalizzazione di una matrice pu`o essere utilizzata per calcolare la potenza A
n
di
una matrice A. Nellesercizio che segue vediamo come.
62
Esercizio . Sia A =
_
11 6
18 10
_
. Calcolare A
80
.
Soluzione. Naturalmente potremmo armarci di pazienza e svolgere semplicemente il
prodotto di A per se stessa 80 volte. No, percorriamo unaltra strada: consideriamo la
trasformazione lineare L
A
: R
2
R
2
e ne troviamo le direzioni privilegiate, utilizzando
queste calcoliamo la composizione L
A
... L
A
(80-volte), inne scriviamo la matrice
rappresentativa di questa composizione.
Il polinomio caratteristico della trasformazione L
A
`e il polinomio
det
_
11 6
18 10
_
=
2
2 = ( 2)( + 1) ,
quindi gli autovalori di L
A
sono i valori = 2 e = 1 . I corrispondenti autospazi
sono
V
2
= ker(A2I) = ker
_
9 6
18 12
_
= Span{
_
2
3
_
} ;
V
1
= ker(A + I) = ker
_
12 6
18 9
_
= Span{
_
1
2
_
} .
Rispetto alla base degli autovettori B = {
_
2
3
_
,
_
1
2
_
} , la trasformazione L
A
`e rap-
presentata dalla matrice diagonale degli autovalori =
_
2 0
0 1
_
, quindi la composizione
L
A
... L
A
(80-volte) `e rappresentata (sempre rispetto alla base degli autovettori) dalla
matrice
80
=
_
2
80
0
0 1
80
_
(vedi esercizio 135).
A questo punto, eettuando un cambiamento di base troviamo la matrice che rappresenta
L
A
... L
A
(80-volte) rispetto alla base canonica di R
2
(tale matrice `e A
80
):
A
80
=
_
2 1
3 2
_
_
2
80
0
0 (1)
80
_
_
2 1
3 2
_
1
=
_
2
82
3 2
81
2
32
81
+6 32
80
+4
_
Non ho voluto dirlo prima... ma da un punto di vista algebrico quello che abbiamo
fatto `e assolutamente elementare: diagonalizzando A si trova = B
1
A B , dove
B =
_
2 1
3 2
_
`e la matrice di una base di autovettori, =
_
2 0
0 1
_
`e la matrice
diagonale dei corrispondenti autovalori. Quindi,
A = B B
1
,
i.e.
_
11 6
18 10
_
=
_
2 1
3 2
_
_
2 0
0 1
_
_
2 1
3 2
_
1
.
Dallequazione A = B B
1
ricaviamo A
80
:
A
80
=
_
B B
1
_
80
= B
_
B
1
_
B
_
B
1
_
B
_
B
1
...
_
B B
1
= B
80
B
1
(il vantaggio `e che, essendo una matrice diagonale, la potenza
80
la sappiamo calcolare:
basta elevare alla 80 gli elementi sulla diagonale).
Esercizio 135. Vericare che la potenza
n
di una matrice diagonale `e la la matrice
(sempre diagonale) delle potenze n
-esime
degli elementi di .
Interpretare questo risultato alla luce dellosservazione (121).
63
18. Approfondimenti:.
Sullinversa di una matrice.
Nel paragrafo 5 abbiamo enunciato la seguente proposizione (proposizione 25).
Proposizione. Siano A e B due matrici quadrate di ordine n. Si ha che A B = I
n
se e solo se B A = I
n
. Linversa di una matrice, se esiste, `e unica.
Ora la dimostriamo utilizzando solamente gli strumenti che avevamo a disposizione a quel
punto della trattazione.
Dimostrazione. Innanzi tutto osserviamo che, potendo scambiare i ruoli di A e B , `e
suciente dimostrare che se AB = I
n
allora BA = I
n
. Questo segue da tre aermazioni:
i) se A B = I
n
, allora B A w = w per ogni w del tipo w = B x;
ii) ogni elemento w M
n,1
(R) `e del tipo indicato;
iii) se X w = w per ogni w allora X `e la matrice identica I
n
.
La i) `e facile: si ha B A (B x) = B (A B) x = B I
n
x = B x.
La ii) `e pi` u sottile: si deve dimostrare che, per ogni w M
n,1
(R) , il sistema lineare
B x = w `e necessariamente compatibile. Ora, immagginiamo di eettuare la riduzione a
scala di B . Se per assurdo il sistema in questione `e incompatibile, la riduzione a scala di B
(matrice incompleta associata al sistema) deve produrre una riga di zeri. Daltro canto B `e
quadrata, quindi avendo una riga di zeri ha meno di n pivot, quindi le soluzioni del sistema
omogeneo B x =
0 dipendono da almeno un parametro libero. Ma questo `e assurdo
perche il sistema B x =
0 ammette al pi` u una sola soluzione, infatti B x =
0 implica
x = A
0 =
0 (abbiamo moltiplicato a sinistra per A e usato lipotesi A B = I
n
).
Inne, la iii) `e ovvia.
), ii
) e iii
) S `e suriettiva;
iii
) se
_
S T
_
(v) = v per ogni v V , allora S T = I .
64
La i
) `e pi` u sottile: essendo T S lidentit`a, abbiamo che S `e iniettiva (se per assurdo
esistesse v =
) `e una tautologia.
Abbiamo sempre lavorato con spazi vettoriali di dimensione nita (nitamente generati,
denizione 66). Enunciando la proposizione (136) ho voluto sottolineare questa ipotesi
perche nel caso degli spazi vettoriali di dimensione innita la tesi della proposizione `e falsa.
In eetti, in dimensione innita i
) e iii
detC
j,i
detA
,
dove C
j,i
`e la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna. Ora
dimostriamo quanto aermato.
Dimostrazione. Come gi`a osservato nel 6, il non annullarsi del determinante `e una
condizione necessaria per linvertibilit`a di A. Quindi, sar`a suciente dimostrare che il
prodotto di A per la matrice indicata in () `e la matrice identica. Verichiamo quindi che
A X = I
n
, essendo X la matrice X
i, j
= (1)
i+j
det C
j,i
det A
. Lelemento di posto i, j
10
Lipotesi di nitezza `e necessaria, non basterebbe neanche supporre B = A. Riettete sullesempio
A = B = Z (linsieme dei numeri interi), f(x) = 2x, g(x) = x/2 se x `e pari, g(x) = 0 se x `e dispari.
65
della matrice in questione `e
_
A X
_
i, j
=
n
t=1
A
i, t
X
t, j
=
n
t=1
A
i, t
_
(1)
t+j
detC
j,t
detA
_
=
1
detA
n
t=1
A
i, t
_
(1)
t+j
detC
j,t
_
Ora, guardando meglio lespressione trovata ci accorgiamo che questa ha la faccia uno
sviluppo di Laplace, pi` u precisamente, sotto il segno di sommatoria c`e lo sviluppo di Laplace
del determinante della matrice ottenuta sostituendo la j
esima
riga di A con la i
esima
riga
di A!!! Qunidi,
se j = i si ottiene
det A
det A
= 1 ; se j = i si ottiene
11 0
det A
= 0 .
...questa non `e altro che la denizione della matrice identica!
)
1
c
1
v
1
+ ... +
k
c
k
v
k
=
0
Sottraendo alla relazione (
k
)c
i
(per i < k) sono
non nulli. In particolare si ha una relazione non banale tra i vettori v
1
, ..., v
k1
. Questo
contraddice il fatto che per ipotesi induttiva tali vettori sono indipendenti.
w
i
W
i
_
V .
Si noti che alcuni dei sottospazi W
i
possono anche essere di dimensione zero, cio`e costituiti
solamente dal vettore nullo.
11
Viene 0 perche si tratta dello sviluppo del determinante di una matrice che ha due righe uguali.
66
Sulla disuguaglianza
g
()
a
() .
Come promesso nel 16, dimostriamo il teorema (120). Stabiliamo una premessa.
La denizione di molteplicit`a algebrica di un autovalore (def. 119), `e stata data per
le trasformazioni di R
n
, ma alla luce dellosservazione (132) `e chiaro che si estende alle
trasformazioni di uno spazio vettoriale astratto: data una trasformazione lineare T di uno
spazio vettoriale astratto V , scriviamo la matrice rappresentativa di T rispetto a una
base qualsiasi di V , quindi deniamo la molteplicit`a algebrica di un autovalore ponen-
dola uguale alla sua molteplicit`a come radice del polinomio caratteristico. Come dicevo,
per losservazione (132), il polinomio caratteristico, e a maggior ragione la molteplicit`a in
questione, non dipende dalla base di V che abbiamo scelto per scrivere la matrice rappre-
sentativa di T . Ovviamente, anche la denizione di molteplicit`a geometrica si estende al
caso di una trasformazione di uno spazio vettoriale astratto: la molteplicit`a geometrica di
un autovalore `e la dimensione del corrispondente autospazio.
Sia dunque V uno spazio vettoriale di dimensione n, sia T : V V una trasformazione
lineare e sia un autovalore. Si vuole dimostrare la disuguaglianza che segue (teorema 120):
g
()
a
() .
Dimostrazione. Posto d =
g
() , sia {v
1
, ..., v
d
} una base dellautospazio V
e sia
B = {v
1
, ..., v
d
,
b
d+1
, ...,
b
n
}
un completamento di tale base a una base di V . Aermiamo che, rispetto alla base B , la
trasformazione T `e rappresentata da una matrice del tipo
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 ... 0 ...
0 0 ... 0 ...
0 0 ... 0 ...
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... ...
0 0 0 ... 0 ...
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... 0 ...
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
dove gli asterischi indicano numeri che non conosciamo e dove il blocco in alto a sinis-
tra, quello dove appare lungo la diagonale principale, `e una matrice quadrata d d
(sotto questo blocco ci sono tutti zeri, le ultime n d colonne di A non le conosciamo).
Laermazione fatta si giustica facilmente ricordando che nelle colonne di A troviamo
le coordinate delle immagini dei vettori della base: nella prima colonna di A ci sono le
coordinate di T(v
1
) = v
1
, eccetera.
A questo punto `e chiaro che il polinomio caratteristico di A, `e un polinomio del tipo
indicato nella formula che segue:
det
_
AI
_
= ( ) ... ( )
. .
d volte
q() ,
dove q() `e un polinomio di grado n d (del quale non sappiamo dire nulla). Questo ci
garantisce che la molteplicit`a algebrica dellautovalore `e maggiore o uguale a d .
67
Sulle applicazioni lineari e sulluso delle matrici.
Siano V e W spazi vettoriali e sia T : V W una applicazione lineare. Sia inoltre
A la matrice rappresentativa di T relativa alle basi {v
1
, ..., v
n
} di V e { w
1
, ..., w
m
}
di W . In termini delle coordinate associate a tali basi, il fatto che A rappresenta T , per
denizione, signica che T `e caratterizzata dalla propriet`a che segue
La legge che alle coordinate di un vettore v associa le coordinate della sua immagine
T(v) `e la moltiplicazione per la matrice A
(si osservi che, conseguentemente, le coordinate dellimmagine del vettore v
i
sono scritte
nella i
-esima
colonna di A).
Apriamo una breve parentesi per introdurre una nuova notazione. Il vettore v V di
coordinate
1
, ...,
n
e il vettore w W di coordinate
1
, ...,
m
, per denizione, sono
rispettivamente i vettori
(138) v =
n
i=1
i
v
i
,
W =
m
i=1
i
w
i
Queste espressioni la scriviamo utilizzando il formalismo del prodotto righe per colonne
(capisco che possa dare fastidio scrivere una matrice i cui elementi sono vettori... ma qual `e
il problema! si tratta semplicemente di una notazione che mi consente di evitare di scrivere
fastidiose sommatorie):
(139) v = v
, w = w
,
dove abbiamo posto
v := (v
1
, ..., v
n
) ,
:=
_
_
1
.
.
.
n
_
_
, w := ( w
1
, ..., w
m
) ,
:=
_
_
_
1
.
.
.
m
_
_
_ ,
e dove tutti i prodotti sono prodotti righe per colonne. Lo ripeto: v = (v
1
, ..., v
n
) e
w = ( w
1
, ..., w
m
) sono matrici vettoriali (risp. 1 n ed 1 m), mentre
e
sono
matrici numeriche (risp. n 1 ed m1).
Ora, per denizione di matrice rappresentativa, il fatto che A rappresenta T si traduce
dicendo che il vettore w := T(v) `e il vettore di coordinate
= A
Quindi, usando la notazione (139), lidentit`a T(v) = w la possiamo riscrivere come segue:
(140) T
_
v
_
= w A
, .
Ora che abbiamo scritto in termini pi` u intrinseci chi `e lapplicazione T , il problema
di trovare la matrice rappresentativa A
m
} di V e
{ w
1
, ..., w
m
} di W `e ridotto ad un semplice conto formale che coinvolge il prodotto tra
matrici. Ricaveremo A
_
= w A
, T
_
v
_
= w
.
Siano B = (b
i,j
) e C = (c
i,j
) le matrici che rispettivamente rappresentano il cambiamento
di base su V e quello su W , i.e. v
j
=
n
i=1
b
i,j
v
i
, w
j
=
n
i=1
c
i,j
w
i
. Questo signica
che posto v
= ( v
1
, ..., v
m
) , e posto w
= ( w
1
, ..., w
m
) , abbiamo
v
= v B , w
= w C .
68
Si noti che nella i
-esima
colonna di B ci sono le coordinate di v
i
rispetto alla vecchia base
{v
1
, ..., v
m
} ; in particolare la moltiplicazione B trasforma le nuove coordinate di un
vettore nelle vecchie. Laermazione analoga vale per C .
Tramite queste uguaglianze e la 1
a
delle equazioni (141) otteniamo
T
_
v
_
= T
_
(v B)
_
= T
_
v (B
)
_
= w A (B
)
= (w
C
1
) A (B
) = w
_
C
1
A B
_
.
Pertanto, confrontando lequazione ottenuta con la 2
a
delle equazioni (141) otteniamo
(142) A
= C
1
A B .
In eetti la (142) pu`o essere dedotta anche da un semplice ragionamento (confronta con
la dimostrazione della proposizione 124). Innanzi tutto ricordiamo che la moltiplicazione
per A
= v
= B
1
A B .
Inciso 144. Abbiamo visto (17, prop. 126, vedi anche oss. 132) che matrici coniugate
rappresentano la stessa applicazione lineare rispetto a basi diverse e viceversa. Di con-
seguenza, gli invarianti per coniugio dello spazio delle matrici corrispondono alle propriet`a
geometriche intrinseche delle trasformazioni lineari di uno spazio vettoriale.
In particolare questo vale per il determinante di una trasformazione lineare (oss. 132). Una
discussione dellinterpretazione geometrica del determinante non `e oggeto di questo corso,
comunque due parole le voglio dire. Linterpretazione geometrica del determinante `e la
seguente: il determinante misura di quanto la trasformazione in questione dilata i volumi
(lo spazio). Questo, addirittura, indipendentemente da come misuriamo le distanze (e i
volumi): sia V uno spazio vettoriale e sia T : V V una trasformazione lineare, sia
dato anche un prodotto scalare denito positivo (che non `e altro che un oggetto algebrico
che ci consente di misurare
12
le distanze e gli angoli, quindi i volumi), e sia V il volume
di una regione misurabile , allora il volume della immagine T() `e uguale al prodotto
V detT ; questo indipendentemente dal prodotto scalare a disposizione, cio`e da come misu-
riamo distanze e angoli, quindi possiamo dire che detT `e il coeciente di dilatazione del
volume della regione (pur senza avere in mente un modo di misurare distanze e angoli,
quindi volumi). Attenzione, quanto detto vale solamente per i volumi, ad esempio non vale
per la misura delle lunghezze: se v `e un vettore, la lunghezza di T(v) , dipende anche dal
prodotto scalare in questione, cio`e da come misuriamo le distanze, oltre che dalla lunghezza
di v e dalla trasformazione T .
12
O meglio, denire la misura delle distanze e degli angoli, quindi dei volumi.
69
Capitolo 7.
1. Geometria Euclidea del piano.
In questo capitolo discutiamo alcune applicazioni dellalgebra lineare alla geometria euclidea.
Consideriamo un piano H (quello che avete conosciuto alle scuole superiori e del quale
ne allora ne mai vedrete una denizione formale), ssiamo un sistema di riferimento ed una
unit`a di misura (vedi gura 1). Ad ogni punto P H possiamo associare le sue coordinate
_
x
y
_
R
2
e viceversa (vedi gura 1). In questo modo i punti del piano vengono messi in
corrispondenza biunivoca con gli elementi di R
2
.
(g. 1)
asse (y)
asse (x)
P =
_
3
2
_
3
2
u
Per ragioni che saranno pi` u chiare in seguito conviene introdurre la nozione di vettore
geometrico, oggetto che in un certo senso rappresenta uno spostamento e che viene denito
nel modo che segue.
Denizione 2. Un segmento orientato QP `e un segmento che ha un estremo iniziale
Q ed un estremo nale P . Dichiariamo equivalenti due segmenti orientati QP e Q
se
coincidono a meno di una traslazione del piano (cio`e se sono due lati opposti di un paralle-
logramma). Per denizione, un vettore geometrico del piano `e una classe di equivalenza di
segmenti orientati.
Si osservi che, per denizione, i due segmenti orientati indicati nella gura (4) rappresen-
tano lo stesso vettore geometrico.
Denizione 3. Siano
_
q
x
q
y
_
e
_
p
x
p
y
_
le coordinate di due punti Q e P . Per denizione,
le coordinate del vettore rappresentato dal segmento orientato QP sono
_
p
x
q
x
p
y
q
y
_
.
Osserviamo che la denizione `e ben posta: le coordinate di un vettore geometrico non
dipendono dal segmento orientato scelto per rappresentarlo (vedi gura 4).
(g. 4)
Q
P
chiaramente,
_
p
x
q
x
p
y
q
y
_
=
_
p
x
q
x
p
y
q
y
_
.
Osservazione/Denizione. Linsieme dei vettori geometrici `e in corrispondenza biuni-
voca con R
2
. Deniamo la somma di due vettori geometrici ed il prodotto di un vettore
geometrico per uno scalare utilizzando le corrispondenti operazioni denite per lo spazio vet-
toriale R
2
. Chiaramente, queste operazioni arricchiscono linsieme dei vettori geometrici di
70
una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58). Gracamente, la somma di due
vettori geometrici `e loperazione rappresentata nella gura (5).
(g. 5)
v
w
v + w
Osserviamo che gli elementi di R
2
possono essere interpretati sia come punti del piano
H che come vettori geometrici di H. Ci stiamo complicando inutilmente la vita? Forse si,
ma `e estremamente utile mantenere le due nozioni punti e vettori geometrici distinte.
Dora in poi dir`o semplicemente vettore invece di vettore geometrico.
Denizione 6. Siano v =
_
v
x
v
y
_
e w =
_
w
x
w
y
_
due vettori. Si denisce il loro prodotto
scalare mediante la formula
v w := v
x
w
x
+ v
y
w
y
.
Si denisce inoltre la norma, o lunghezza, di un vettore ponendo
|| v || :=
v v =
_
(v
x
)
2
+ (v
y
)
2
Osservazione 7. Per il teorema di Pitagora, la norma del vettore v coincide con la
lunghezza di un segmento orientato che lo rappresenta:
v
v
x
v
y
Osservazione 7
_
(w
x
)
2
+ (w
y
)
2
.
Questa verica la lasciamo per esercizio.
a b cos =
1
2
_
a
2
+ b
2
c
2
_
Applicando questa regola al triangolo individuato da v e w (per rappresentare i vettori v
e w usiamo dei segmenti orientati che hanno origine nello stesso punto, non importa quale
esso sia)
v
v w
w
a = ||v||
b = || w||
c = ||v w||
troviamo
||v|| || w|| cos =
1
2
_
||v||
2
+ || w||
2
||v w||
2
_
= v w .
La verica dellultima uguaglianza `e un facile esercizio: basta fare il conto esplicito.
_
v + w
_
= ||v||
2
+ || w||
2
+ 2v w
||v||
2
+ || w||
2
+ 2 ||v|| || w|| =
_
||v|| + || w||
_
2
(la disuguaglianza al centro segue dalla
disuguaglianza di Cauchy-Schwarz).
13
Non abbiamo mai denito langolo compreso tra due vettori; rispetto al nostro modo di procedere, sarebbe
pi` u corretto denire langolo compreso tra due vettori non nulli v e w come larco-coseno di v w
||v|||| w||
(numero che per la disuguaglianza di Cauchy-Schwarz ha valore assoluto minore o uguale ad uno).
72
Osserviamo che la disuguaglianza triangolare ci dice che la lunghezza di un lato di un
triangolo non pu`o superare la somma delle lunghezze degli altri due lati:
v
w
v + w
||v + w|| ||v|| +||w||
Losservazione (10) ci consente di calcolare le proiezioni ortogonali (vedi gura). Siano
v e w due vettori del piano ed assumiamo w = 0 . La proiezione del vettore v lungo la
direzione individuata da w, che denoteremo con
w
(v) , `e il vettore
(11)
w
(v) =
_
v w
|| w||
2
_
w
(si osservi che tra le parentesi c`e un numero reale).
v
w
u
w
(v)
Dimostrazione. Il vettore
_
v w
|| w||
2
_
w `e un multiplo del vettore w, quindi `e suciente
vericare che il vettore dierenza u := v
_
v w
|| w||
2
_
w `e eettivamente perpendicolare al
vettore w. Eettuiamo tale verica (calcoliamo il prodotto scalare w u) : si ha w u =
w
_
v
_
v w
|| w||
2
_
w
_
= v w
_
v w
|| w||
2
_
( w w) = v w
_
v w
|| w||
2
_
|| w||
2
= v w v w = 0.
_
v w
_
2
, dove questultima uguaglianza segue dalla proposizione (9). A questo
punto resta da provare che
||v||
2
|| w||
2
_
v w
_
2
=
_
det
_
v
x
w
x
v
y
w
y
__
2
.
Per vericare questa formula `e suciente calcolare esplicitamente ambo i membri dell ugua-
glianza (il conto algebrico non ha nulla di interessante quindi lo omettiamo; lo studente lo
svolga per esercizio).
Esercizio. Dire quali sono le coordinate del vettore che `e rappresentato dal segmento
orientato il cui estremo iniziale `e il punto P =
_
5
11
_
ed il cui estremo nale `e il punto
Q =
_
6
7
_
. Disegnare i due punti ed il vettore.
Esercizio. Determinare la distanza tra i punti P =
_
2
3
_
, Q =
_
5
1
_
.
Esercizio. Dire quali sono le coordinate dellestremo nale di un segmento orientato
che rappresenta il vettore v =
_
4
5
_
ed il cui estremo iniziale `e il punto P =
_
3
2
_
.
Disegnare i due punti ed il vettore.
Esercizio. Determinare lestremo iniziale del segmento orientato che rappresenta il vettore
v =
_
7
18
_
e che ha per estremo nale il punto P =
_
5
2
_
.
Esercizio. Trovare il coseno dellangolo compreso tra i vettori v =
_
3
4
_
e w =
_
5
12
_
.
Esercizio. Trovare un vettore di norma uno.
Esercizio. Trovare un vettore di norma uno parallelo al vettore v =
_
1
2
_
Suggerimento: si utilizzi losservazione 7.
Esercizio. Trovare un vettore ortogonale al vettore v =
_
2
5
_
.
Esercizio. Trovare un vettore di norma 52 ed ortogonale al vettore v =
_
12
5
_
.
Esercizio. Calcolare larea del parallelogramma individuato da v =
_
3
7
_
e w =
_
5
8
_
.
Esercizio. Calcolare larea del parallelogramma individuato da v =
_
31
7
_
e w =
_
13
3
_
.
Disegnare i vettori v e w.
Esercizio. Siano v =
_
4
7
_
e w =
_
5
3
_
. Determinare la proiezione del vettore v
lungo la direzione individuata dal vettore w.
Esercizio. Siano v =
_
2
5
_
, u
1
=
_
6
15
_
, u
2
=
_
6
15
_
e w =
_
10
4
_
. Determinare
a) la proiezione del vettore v lungo la direzione individuata dal vettore w;
b) la proiezione del vettore v lungo la direzione individuata dal vettore u
1
;
c) la proiezione del vettore v lungo la direzione individuata dal vettore u
2
.
74
2. Rette nel piano.
Denizione. Una retta r del piano H `e il luogo dei punti P =
_
x
y
_
H che
soddisfano unequazione di primo grado, i.e. unequazione del tipo
(13) ax + by + c = 0 ,
con a e b non entrambi nulli. Tale equazione si chiama equazione cartesiana della retta r.
Esiste un modo equivalente di introdurre la nozione di retta:
Denizione. Una retta r del piano H `e il luogo dei punti P =
_
x
y
_
H del tipo
(14)
_
x = x
0
+ t
y = y
0
+ t
,
_
_
=
_
0
0
_
,
dove
_
x
0
y
0
_
`e un punto ssato,
_
_
`e un vettore ssato e t R `e un parametro (ad
ogni valore di t corrisponde un punto di r ).
Tale equazione prende il nome di equazione parametrica della retta r .
Lequivalenza delle due denizioni enunciate segue immediatamente dalla possibilit`a di
passare da unequazione cartesiana a equazioni parametriche e viceversa. Risolvendo il
sistema lineare costituito dallequazione (13) con i metodi visti nel capitolo 1 otteniamo,
in particolare, equazioni del tipo (14) (dove t `e un parametro libero, vedi cap. 1, 3). Il
passaggio da equazioni parametriche a cartesiane si eettua semplicemente eliminando il
parametro libero t , i.e. ricavando t da una delle due equazioni e sostituendo lespressione
trovata nellaltra.
Esempio. Se r `e la retta di equazioni parametriche
_
x = 2 + 5t
y = 3 2t
,
dalla prima equazione troviamo t = (x2)/5 , sostituendo questa espressione nella seconda
equazione troviamo y = 3 2(x 2)/5 = (19 2x)/5 , ovvero 2x + 5y 19 = 0 ;
questultima `e unequazione cartesiana di r .
Esercizio. Determinare unequazione cartesiana della retta di equazioni parametriche
_
x = 18 15t
y = 11 + 6t
.
Se avete svolto correttamente lesercizio, avete ritrovato la retta dellesempio precedente.
Chiaramente, equazioni diverse possono rappresentare la stessa retta.
Osservazione. Dalle equazioni parametriche (14) si vede immediatamente qual `e la
posizione della retta nel piano. Infatti, chiaramente il punto P
0
=
_
x
0
y
0
_
appartiene alla
retta, mentre il vettore v =
_
_
`e un vettore parallelo alla retta:
75
(y)
(x)
P
0
v
r
La retta dellesempio `e la retta passante per il punto P
0
=
_
2
3
_
e parallela al vettore
v =
_
5
2
_
.
Proposizione 15. Si ha la seguente interpretazione geometrica: se ax + by + c = 0
`e lequazione cartesiana di una retta r , il vettore
_
a
b
_
`e ortogonale alla retta r .
Dimostrazione. La retta r `e parallela alla retta r
di equazione ax + by = 0
(dimostratelo per esercizio!), quindi `e suciente vericare che il vettore
_
a
b
_
`e ortogonale
alla retta r
. Poiche la retta r
_
x
y
_
, i punti
_
x
y
_
di r
sono
i punti del piano le cui coordinate annullano tale prodotto scalare. Inne, per losservazione
(10) lannullarsi del prodotto scalare `e la condizione di ortogonalit`a, pertanto lequazione di
r
_
= QP =
_
p
x
q
x
p
y
q
y
_
76
Esempio. La retta passante per i punti P =
_
4
2
_
e Q =
_
1
3
_
`e descritta dalle
equazioni parametriche
_
x = 4 + 3t
y = 2 + 5t
Si noti che
_
3
5
_
`e il vettore rappresentato dal segmento orientato QP .
Esercizio. Determinare unequazione cartesiana della retta r passante per il punto
P =
_
6
7
_
e parallela alla retta s di equazione 2x 3y + 1 = 0 .
Soluzione. Le rette parallele alla retta s sono descritte da equazioni del tipo 2x 3y +
c = 0 (convincersene per esercizio). Imponendo il passaggio per il punto P troviamo
2 6 3 7 + c = 0 , quindi c = 9 . In denitiva, 2x 3y + 9 = 0 `e unequazione
cartesiana della retta r .
Il caso in cui entrambe le rette sono data in forma parametrica si tratta in modo analogo.
Proposizione. Sia r la retta di equazione ax + by + c = 0 e sia P =
_
p
x
p
y
_
un punto del piano. La distanza di P da r , che per denizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di r , `e data dalla formula
(18) dist
_
P, r
_
=
| ap
x
+ bp
y
+ c |
a
2
+ b
2
,
dove le barre verticali denotano la funzione modulo (valore assoluto).
r
dist{P, r}
Un modo per dimostrare questa proposizione `e quello di eettuare il calcolo esplicito: la
retta s passante per P ed ortogonale ad r ha equazioni parametriche (cfr prop. 15)
_
x = p
x
+ at
y = p
y
+ bt
sostituendo queste equazioni nellequazione cartesiana di r si ottiene lequazione
a(p
x
+ at) + b(p
y
+ bt) + c = 0 ,
quindi si trova che lintersezione r s `e data dal punto Q =
_
p
x
+ at
0
p
y
+ bt
0
_
, dove
t
0
= (ap
x
bp
y
c)/(a
2
+ b
2
) . Inne, calcolando la distanza tra i punti P e Q (che
`e anche la distanza del punto P dalla retta r) si ottiene il risultato annunciato:
dist{P, r} = || PQ|| = ||
_
at
0
bt
0
_
|| = |t
0
| ||
_
a
b
_
|| =
| ap
x
bp
y
c|
a
2
+ b
2
.
Unaltra dimostrazione si basa sulle seguenti considerazioni (non discuter`o alcuni dettagli
formali). Lespressione ap
x
+bp
y
+c si annulla sui punti di r , quindi denisce una funzione
che si annulla proprio sui punti che hanno distanza nulla dalla retta, ed `e una funzione di
primo grado in x ed y . Ora, restringiamo la nostra attenzione ad uno dei due semipiani in
cui r divide il piano. Modulo tale restrizione, anche la nostra funzione distanza deve essere
rappresentata da una funzione di primo grado in x ed y e poiche anchessa si annulla su r ,
deve essere proporzionale alla funzione ap
x
+ bp
y
+ c . Pertanto, la distanza cercata deve
soddisfare unequazione del tipo
(18
) dist
_
P, r
_
= | ap
x
+ bP
y
+ c | ,
78
dove `e una costante opportuna. Che la costante vale proprio
1
a
2
+b
2
pu`o essere
vericato con un conto esplicito. Tale conto lo ometto per`o voglio far notare che tale scelta
di rende lespressione (18
P =
_
2
1
_
Q =
_
8
5
_
K =
_
7
2
_
v
w
Si ha
A =
1
2
| det
_
v
x
w
x
v
y
w
y
_
| =
1
2
| det
_
6 5
4 1
_
| = 7 .
w
(v) =
v w
|| w||
2
w =
10
5
_
1
2
_
=
_
2
4
_
.
P =
_
0
4
_
K =
_
1
2
_
v
u
r
Soluzione #2. Il punto K `e il punto di intersezione della retta r con la retta ortogonale
ad r passante per P . Questultima ha equazioni parametriche
()
_
x = t
y = 4 + 2t
Sostituendo queste equazioni nellequazione di r troviamo t + 2(4 + 2t) 3 = 0 , quindi
t = 1 . Sostituendo il valore t = 1 nelle equazioni () troviamo K =
_
1
2
_
.
82
Esercizio. Determinare la distanza del punto P =
_
0
4
_
dalla retta r di equazione
x + 2y 3 = 0 .
Soluzione. Applicando la formula della distanza si trova
dist
_
P, r
_
=
| 0 + 2 4 3 |
1
2
+ 2
2
=
5
5
=
5
P =
_
_
x
y
z
_
_
Denizione. Un segmento orientato `e un segmento che ha un estremo iniziale Q ed un
estremo nale P . Dichiariamo equivalenti due segmenti orientati QP e Q
se coincidono
a meno di una traslazione dello spazio (cio`e se sono due lati opposti di un parallelogramma).
Per denizione, un vettore geometrico dello spazio `e una classe di equivalenza di segmenti
orientati.
Denizione. Siano
_
_
q
x
q
y
q
z
_
_
e
_
_
p
x
p
y
p
z
_
_
le coordinate di due punti Q e P . Per denizione,
le coordinate del vettore rappresentato dal segmento orientato QP sono
_
_
p
x
q
x
p
y
q
y
p
z
q
z
_
_
.
Osserviamo che la denizione `e ben posta: le coordinate di un vettore geometrico non
dipendono dal segmento orientato scelto per rappresentarlo (vedi 1).
Osservazione/Denizione. Linsieme dei vettori geometrici dello spazio `e in corrispon-
denza biunivoca con R
3
. Deniamo la somma di due vettori geometrici ed il prodotto di
un vettore geometrico per uno scalare utilizzando le corrispondenti operazioni denite per
lo spazio vettoriale R
3
. Chiaramente, queste operazioni arricchiscono linsieme dei vettori
84
geometrici dello spazio S di una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58).
La somma di due vettori geometrici `e loperazione analoga a quella vista studiando il piano
(vedi 1).
Denizione 25. Siano v =
_
_
v
x
v
y
v
z
_
_
e w =
_
_
w
x
w
y
w
z
_
_
due vettori. Si denisce il loro
prodotto scalare mediante la formula
v w := v
x
w
x
+ v
y
w
y
+ v
z
w
z
.
Si denisce inoltre la norma, o lunghezza, di un vettore ponendo
||v|| :=
v v =
_
(v
x
)
2
+ (v
y
)
2
+ (v
z
)
2
Osservazione. Analogamente a quanto accadeva per i vettori del piano, la norma del
vettore v coincide con la lunghezza di un segmento orientato che lo rappresenta (vedi oss.
7, 1). Inoltre, se c R `e una costante e v `e un vettore si ha
|| cv || = |c| || v ||
(vedi oss. 7
Esercizio. Determinare lestremo iniziale del segmento orientato che rappresenta il vettore
v =
_
_
7
18
5
_
_
e che ha per estremo nale il punto P =
_
_
5
2
1
_
_
.
Esercizio. Determinare la distanza tra i punti P =
_
_
4
2
1
_
_
, Q =
_
_
1
7
2
_
_
.
Esercizio. Determinare il coseno dellangolo compreso tra i vettori v =
_
_
5
2
1
_
_
, w =
_
_
1
2
1
_
_
.
Sia ora v il vettore
_
_
3
6
2
_
_
.
Esercizio. Trovare un vettore di norma uno parallelo al vettore v .
Esercizio. Trovare un vettore ortogonale al vettore v . Trovare un altro vettore ortogonale
al vettore v .
Esercizio. Trovare due vettori indipendenti ortogonali al vettore v .
Esercizio. Trovare un vettore di norma 21 ed ortogonale al vettore v .
Esercizio. Trovare due vettori ortogonali tra loro ed ortogonali al vettore v .
Esercizio. Calcolare i prodotti vettoriali che seguono
_
_
1
1
2
_
_
_
_
2
3
1
_
_
,
_
_
5
5
5
_
_
_
_
2
3
1
_
_
,
_
_
4
7
8
_
_
_
_
2
1
1
_
_
,
_
_
1
0
2
_
_
_
_
3
1
1
_
_
.
Esercizio. Vericare, per ogni prodotto vettoriale dellesercizio precedente, che v w `e
ortogonale sia a v che a w.
87
Esercizio. Siano v =
_
_
1
1
2
_
_
e w =
_
_
2
3
1
_
_
due vettori. Calcolare larea A del
parallelogramma individuato dai vettori v e w.
Soluzione #1. Si ha v w =
_
_
5
5
5
_
_
. Pertanto, per la propriet`a (30
c
), si ha A = 5
3 .
Soluzione #2. Indichiamo con langolo tra v e w. Applicando la formula del coseno
(vedi 26) troviamo cos =
v w
||v|||| w||
=
3
84
. Quindi, |sen| =
1 cos
2
=
_
75
84
.
Inne, A = |sen| ||v|| || w|| =
_
75
84
84 =
75 = 5
3 .
_
x = x
0
+
1
t +
1
s
y = y
0
+
2
t +
2
s
z = z
0
+
3
t +
3
s
,
dove t ed s sono parametri liberi.
Il punto P
0
=
_
_
x
0
y
0
z
0
_
_
appartiene al piano; i vettori v =
_
_
3
_
_
e w =
_
_
3
_
_
sono
vettori paralleli al piano nonche sono vettori indipendenti.
Osservazione 33. Per trovare unequazione cartesiana del piano denito dal sistema (32)
si pu`o procedere in due modi: i) si eliminano i parametri; ii) si denisce
14
_
_
a
b
c
_
_
= v w,
vedi (30
b
) e (31), quindi si trova la costante d imponendo il passaggio per il punto P
0
,
ovvero si pone d = ax
0
by
0
cz
0
.
Esercizio. Siano P, Q, K tre punti dello spazio. Vericare che sono allineati se e solo
se i due vettori PQ e PK sono dipendenti.
Osservazione. Siano P =
_
_
p
x
p
y
p
z
_
_
, Q =
_
_
q
x
q
y
q
z
_
_
e K =
_
_
k
x
k
y
k
z
_
_
tre punti non
allineati. Il piano passante per essi `e descritto dalle equazioni parametriche
_
_
x = P
x
+
1
t +
1
s
y = P
y
+
2
t +
2
s
z = P
y
+
3
t +
3
s
, dove
_
_
3
_
_
= P Q ,
_
_
3
_
_
= P K .
14 `
E sottinteso che le costanti a, b, c, d che sto per denire vanno sostituite nellequazione ax+by+cz+d = 0 .
89
Esempio. Il piano passante per i punti P =
_
_
2
0
1
_
_
, Q =
_
_
6
5
7
_
_
e K =
_
_
4
9
8
_
_
`e
descritto dalle equazioni parametriche
_
_
x = 2 + 4t + 2s
y = 0 + 5t + 9s
z = 1 + 6t + 7s
.
Per quel che riguarda la distanza di un punto da un piano, vale una formula analoga alla
(18). Si ha infatti quanto segue.
Proposizione. Sia il piano di equazione ax + by + cz + d = 0 e sia P =
_
_
p
x
p
y
p
z
_
_
un punto dello spazio. La distanza di P da , che per denizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di , `e data dalla formula
(34) dist
_
P,
_
=
| ap
x
+ bp
y
+ cp
z
+ d |
a
2
+ b
2
+ c
2
,
dove le barre verticali denotano la funzione modulo (valore assoluto).
La dimostrazione di questa formula `e del tutto identica alla dimostrazione della (18).
Osservazione 34
x + b
y + c
z + d
= 0
, rg
_
a b c
a
_
= 2 .
Tali equazioni si chiamano equazioni cartesiane della retta r .
Si osservi che la condizione rg
_
a b c
a
_
= 2 `e, da un punto di vista geometrico,
la condizione di non parallelismo tra i piani che stiamo intersecando ed `e, da un punto di
vista algebrico (vedi i capitoli precedenti sui sistemi lineari), la condizione che assicura che
il sistema lineare (35) `e compatibile ed ha uno spazio delle soluzioni che dipende da un
15
In particolare, non coincidenti.
90
parametro libero. Analogamente ai casi delle rette nel piano e dei piani nello spazio, ci`o che
sappiamo sui sistemi lineari ci consente di osservare quanto segue.
Osservazione. Una retta r dello spazio S `e il luogo dei punti P =
_
_
x
y
z
_
_
S del tipo
(36)
_
_
x = x
0
+ t
y = y
0
+ t
z = z
0
+ t
,
_
_
_
_
=
_
_
0
0
0
_
_
dove,
_
_
x
0
y
0
z
0
_
_
`e un punto ssato,
_
_
_
_
`e un vettore non-nullo ssato e, come al solito,
t `e un parametro libero.
Le intersezioni tra piani, oppure tra rette, oppure tra rette e piani, si determinano met-
tendo a sistema le equazioni degli oggetti geometrici in questione. Negli esercizi che seguono
vediamo qualche esempio.
Esercizio. Determinare il punto P di intersezione della retta r di equazioni
_
_
x = 2 + 7t
y = 5 + 2t
z = 8 + 3t
con il piano H di equazione x 3y + 5z 43 = 0 .
Soluzione. Sostituendo x = 2 + 7t, y = 5 + 2t, z = 8 + 3t nellequazione di H troviamo
(2 + 7t) 3(5 + 2t) + 5(8 + 3t) 43 = 0 , quindi t = 1 . Pertanto P =
_
_
9
7
11
_
_
.
_
x = 2 + 7t + 2s
y = 4 + 2t 6s
z = 8 + 3t + 5s
ed H
:=
_
8x 3y 7z 4 = 0
_
.
Soluzione #1. Si trova unequazione cartesiana anche per il piano H (utilizzando uno
dei due metodi indicati nellosservazione 33), quindi si risolve, con i metodi visti nei capitoli
sui sistemi lineari, il sistema costituito da questa equazione e dallequazione di H
Soluzione #2. Imponendo che le espressioni 2+7t +2s, 4+2t 6s, 8+3t +5s soddisno
lequazione di H
. Queste sono le coordinate del generico punto della retta r . Operativamente, questo
signica che si procede come segue: sostituendo le espressioni di cui sopra nellequazione di
H
si trova 8(2 +7t +2s) 3(4 +2t 6s) 7(8 +3t +5s) 4 = 0 , quindi s = 29t 56 .
Pertanto,
_
_
x = 2 + 7t + 2(29t 56) = 110 + 65t
y = 4 + 2t 6(29t 56) = 340 172t
z = 8 + 3t + 5(29t 56) = 272 + 148t
sono equazioni parametriche della retta r .
91
Torniamo alla proposizione (34) ed allosservazione (34
_
x = p
x
+ at
y = p
y
+ bt
z = p
z
+ ct
,
dove a, b, c sono proprio i coecienti che appaiono nellequazione di , ax+by+cz+d = 0 .
Si osservi inoltre che Q `e la proiezione ortogonale di P sul piano .
6. Geometria Euclidea dello spazio: applicazioni ed esercizi.
Nello spazio, la proiezione ortogonale K di un punto P su una retta r pu`o essere
determinata con metodi analoghi a quelli visti nellesercizio (23) del 3:
i) si sceglie un punto Q di r , si proietta il vettore QP su un vettore parallelo ad r ,
si determina K come estremo nale di un segmento orientato che ha Q come estremo
iniziale e che rappresenta il vettore proiezione trovato;
ii) si interseca r con il piano passante per P ed ortogonale a r .
Esercizio 37. Determinare la proiezione K del punto P =
_
_
3
3
10
_
_
sulla retta r di
equazioni
_
_
x = 5 + 3t
y = 3 + t
z = 7 2t
Soluzione #1. Il punto Q :=
_
_
5
3
7
_
_
appartiene ad r nonche il vettore w =
_
_
3
1
2
_
_
`e un vettore parallelo ad r . Proiettando il vettore v = QP =
_
_
2
0
3
_
_
sulla direzione
individuata da w otteniamo
u =
w
(v) =
v w
|| w||
2
w =
12
14
_
_
3
1
2
_
_
=
_
_
18/7
6/7
12/7
_
_
.
Poiche il punto K `e lestremo nale di un segmento orientato rappresentante il vettore u
e che ha origine nel punto Q, abbiamo
K =
_
_
5
3
7
_
_
+
_
_
18/7
6/7
12/7
_
_
=
_
_
17/7
15/7
61/7
_
_
.
`
E opportune eettuare veriche analoghe a quelle svolte risolvendo lesercizio (23) del 3.
Soluzione #2. Il punto K `e il punto di intersezione della retta r con il piano ortogonale
ad r passante per P . Questultimo ha equazione cartesiana (qui usiamo la proposizione
92
31, quindi imponiamo il passaggio per P )
() 3 x + y 2 z + 8 = 0
Sostituendo le equazioni di r nellequazione () troviamo 3(5+3t) +(3+t) 2(72t) +8 =
0 , quindi 12 + 14t = 0 . Sostituendo inne il valore t = 6/7 nelle equazioni di r
troviamo K =
_
_
17/7
15/7
61/7
_
_
.
_
x = 2 + 3t
y = 1 + t
z = 4 + 7t
`e la retta ortogonale a nonche passante per P . Si ha K = r (il calcolo di questa
intersezione lo lasciamo per esercizio).
Osservazione 39. Nello spazio, per calcolare la distanza di un punto P da una retta
r , conviene determinare la proiezione Q di P su r . Naturalmente si ha dist{P, r} =
dist{P, Q} . I metodi pi` u rapidi per trovare le coordinate Q sono i seguenti:
i) si procede come nella soluzione #1 dellesercizio 37;
ii) si procede come nella soluzione #2 dellesercizio 37.
Esercizio. Sia P =
_
_
2
5
4
_
_
e sia r la retta di equazioni
_
_
x = 11 + 5t
y = 3 12t
z = 2 + 3t
.
Determinare la distanza dist{P, r} .
Esercizio. Sia P =
_
_
2
1
3
_
_
e sia r la retta di equazioni
_
x 3y + z = 0
2x + z 5 = 0
.
Calcolare la distanza dist{P, r} .
93
Concludiamo questo paragrafo con il calcolo della distanza tra due rette nello spazio.
Denizione 40. Siano r ed s due rette nello spazio, si pone
dist{r, s} = min
_
dist(P, Q)
_
Pr, Qs
.
Supponiamo che r ed s non siano parallele (se lo sono, la distanza cercata `e uguale alla
distanza di un punto qualsiasi di r da s e si calcola con i metodi suggeriti nellosservazione
39). Supponiamo inoltre che r ed s siano date in forma parametrica, e.g. siano
16
r =
_
_
_
_
_
x
y
z
_
_
= P
0
+ v t
_
_
_
s =
_
_
_
_
_
x
y
z
_
_
= Q
0
+ wt
_
_
_
Sia H il piano contenente r e parallelo ad s , sia H
} = dist{Q, H} ,
dove Q `e un punto qualsiasi di H
} = dist{
P,
Q} ,
Si noti che la prima uguaglianza viene dalle relazioni (41), la seconda uguaglianza segue dal
fatto che
Q `e stato ottenuto proiettando
P (che `e un punto di H ) sul piano H
(`e
opportuno ricordare che i due piani sono paralleli per costruzione).
Inne, poiche
P e
Q sono punti di r ed s rispettivamente, abbiamo che sono proprio i
punti che realizzano il minimo della denizione (40).
Esercizio. Calcolare la distanza tra le rette (si osservi che non sono parallele)
r :
_
_
x = 2 + 3t
y = 1 + 4t
z = 4 + 7t
s :
_
_
x = 5 + 6t
y = 1 + 3t
z = 2 + 7t
Soluzione. Il piano H contenente r e parallelo ad s ha equazioni parametriche
_
_
x = 2 + 3t + 6t
y = 1 + 4t + 3t
z = 4 + 7t + 7t
16
Si osservi che, a parte la notazione un minimo pi` u compatta, queste equazioni sono equazioni parametriche
di rette; le si confrontino con quelle dellosservazione (36).
94
Passando da equazioni parametriche a cartesiane troviamo che
7 x + 21 y + 15 z 53 = 0
`e unequazione cartesiana di H. Per le osservazioni viste, posto Q
0
=
_
_
5
1
2
_
_
si ha
dist{r, s} = dist{ Q
0
, H} =
|7 5 + 21 1 + 15 2 53|
49 + 441 + 225
=
33
715
P,
Q} ,
dove r ed s sono le rette dellesercizio precedente.
Soluzione. Una volta determinato il piano H contenente r e parallelo ad s (si veda la
soluzione dellesercizio precedente), calcoliamo la proiezione s di s su H :
la retta s si ottiene intersecando il piano H con il piano
H
s
contenente s ed ortogonale
ad H, che `e il piano di equazioni (convincersene)
_
_
x = 5 + 6t + 7t
y = 1 + 3t + 21t
z = 2 + 7t + 15t
Si ha pertanto
P = s r =
H
s
r (nonche
Q =
H
r
s , dove
H
r
`e il piano contenente
r ed ortogonale ad H).
Il calcolo esplicito delle intersezioni
H
s
r e
H
r
s lo lasciamo per esercizio.
95
Indice
Capitolo 1
1 Introduzione ai sistemi lineari 1
2 Sistemi lineari e matrici 3
3 Leliminazione di Gauss 5
4 Matrici 10
5 Matrici quadrate 13
6 Determinante 14
7 Teorema di Cramer 22
8 Il calcolo dellinversa di una matrice mediante lalgoritmo di Gauss 25
9 Spazi vettoriali 27
10 Sottospazi di uno spazio vettoriale e formula di Grassmann 35
11 Rango di una matrice 38
12 Sottospazi di uno spazio vettoriale II 40
13 Sottospazi di uno spazio vettoriale: equazioni parametriche e cartesiane 41
14 Richiami di insiemistica 44
15 Applicazioni lineari 44
16 Trasformazioni lineari di uno spazio vettoriale: autovalori e autovettori 51
17 Problema della diagonalizzazione 55
18 Approfondimenti 63
Capitolo 2
1 Geometria Euclidea del piano 69
2 Rette nel piano 74
3 Geometria Euclidea del piano: applicazioni ed esercizi 79
4 Geometria Euclidea dello spazio 83
5 Rette e piani nello spazio 88
6 Geometria Euclidea dello spazio: applicazioni ed esercizi 91
Compiti desame (in gran parte svolti) e altri esercizi si trovano nella sezione
Area Esami
della mia pagina web
www.mat.uniroma2.it/marini