Vous êtes sur la page 1sur 95

Lezioni di Geometria e Algebra Lineare

Ingegneria Gestionale - I Modulo - a.a. 2006/2007


(Giambattista Marini)
Queste note costituiscono gli appunti del I modulo di geometria e sono rivolte agli studenti
che seguono attivamente il corso.
Capitolo 1.
1. Introduzione ai sistemi lineari.
Lesempio pi` u elementare di sistema lineare `e il sistema di una equazione in una incognita
a x = b , a , b R .
In questo caso la discussione delle soluzioni `e molto semplice: ci sono tre possibilit`a
i) se a = 0 esiste una unica soluzione x =
b
a
;
ii) se a = b = 0 ogni valore di x `e una soluzione del sistema;
iii) se a = 0 e b = 0 il sistema non ha soluzioni.
Esempio. Discutiamo le soluzioni del sistema lineare di una equazione in due incognite
(1) a x + b y = c , a , b , c R .
Anche in questo caso lesistenza di soluzioni dipende dai valori dei coecienti a, b, c .
Assumiamo a = 0 e lasciamo allo studente il problema di discutere gli altri casi possibili.
Dividendo per a si ottiene
x =
_
c by
_
/a .
Pertanto, se a = 0 linsieme delle soluzioni del sistema lineare (1) `e
(2)
_
x, y

x = (c by)/a
_
.
La notazione usata `e la seguente: { ... } signica linsieme ... e la barra verticale |
signica tale che. In denitiva, (2) si legge dicendo linsieme degli x, y tali che
x = (c by)/a. Si osservi che y pu`o assumere qualsiasi valore. Per questo motivo,
diciamo che y `e un parametro libero (relativamente alla descrizione data dello spazio delle
soluzioni del sistema 1).
Esempio. Studiamo il sistema lineare di due equazioni in due incognite
(3)
_
a x + b y =
c x + d y =
, a , b , c , d , , R .
2
Se moltiplichiamo la seconda equazione per a e vi sostituiamo ax = by (ottenuta
dalla prima equazione del sistema) troviamo
(4) (ad bc) y = a c .
Si potrebbe obiettare che potremmo aver moltiplicato per zero (se a = 0). Vero, comunque
luguaglianza scritta resta valida.
1
Un calcolo simile mostra che
(5) (ad bc) x = d b.
Da (4) e (5) deduciamo quanto segue.
Proposizione. Se := ad bc = 0 , esiste una unica soluzione del sistema lineare
(3), si ha
(6) x =
d b
ad bc
, y =
a c
ad bc
Dimostrazione. Dividendo sia (4) che (5) per troviamo le espressioni di x ed y che
abbiamo scritto. Questo dimostra che c`e al pi` u una soluzione, quella indicata.
Lesistenza `e un facile conto: basta sostituire le espressioni trovate nel sistema (3).

Resta da studiare il caso = 0 . A tal ne osserviamo che se = 0 , cio`e ad = bc ,


le due funzioni
f(x, y) := ax + by e g(x, y) := cx + dy
sono proporzionali: una delle due funzioni `e un multiplo dellaltra. Infatti, se assumiamo
ab = 0 (lasciamo allo studente lesercizio di studiare i rimanenti casi possibili), dividendo
la relazione ad = bc per ab troviamo
d
b
=
c
a
. Posto k :=
d
b
, abbiamo
cx + dy = k (ax + by) .
Ne segue che ci sono due possibilit`a:
i) = k, in questo caso le due equazioni di (3) si riducono ad una ed abbiamo
innite soluzioni;
ii) = k, in questo caso `e evidente che il sistema (3) non ammette soluzioni.
Anche nel caso che abbiamo lasciato per esercizio ab = 0 si presenta lo stesso fenomeno:
il sistema (3) non ammette soluzioni oppure ne ammette innite. In denitiva vale la propo-
sizione che segue.
Proposizione. Se := ad bc = 0 , possono vericarsi solo due possibilit` a:
i) esistono innite soluzioni del sistema (3);
ii) il sistema (3) non ammette soluzioni.
A questo punto ci domandiamo, cosa accade con i sistemi di n equazioni in n incognite,
`e possibile trovare delle formule che generalizzano (6) e caratterizzare il caso in cui esiste
una unica soluzione? Inoltre, come si aronta lo studio dei sistemi lineari in cui il numero
delle equazioni pu`o essere diverso da quello delle incognite?
1
Peraltro c`e un altro modo di ottenere la stessa equazione, quello di moltiplicare la prima equazione per c
e di sostituirvi cx = dy . Osserviamo che se a = c = 0 , (4) `e luguaglianza banale 0 = 0 .
3
2. Sistemi lineari e matrici.
Nel paragrafo precedente abbiamo introdotto i sistemi lineari ed abbiamo visto alcune
tecniche atte a trovarne le eventuali soluzioni. In questo paragrafo, procedendo in maniera
pi` u sistematica e formale, spieghiamo un procedimento, lalgoritmo di Gauss, che consente
di ridurre un qualsiasi sistema lineare dato ad un sistema a scala, e quindi di risolverlo.
Cominciamo con lintrodurre un po di terminologia.
Denizione. Un sistema lineare di m equazioni in n incognite `e un sistema del tipo
()
_

_
a
1,1
x
1
+ ... + a
1,n
x
n
= b
1
a
2,1
x
1
+ ... + a
2,n
x
n
= b
2
...
...
a
m,1
x
1
+ ... + a
m,n
x
n
= b
m
dove gli a
i,j
ed i b
i
sono numeri reali (detti coecienti del sistema), mentre x
1
, ..., x
n
sono dei simboli detti incognite del sistema.
Una soluzione del sistema `e una n
pla
di numeri x

1
, ..., x

n
che soddisfano tutte le equazioni.
Denizione. Se i coecienti b
1
, ..., b
m
(detti anche termini noti) sono tutti nulli diciamo
che il sistema `e omogeneo.
Denizione. Il sistema omogeneo associato al sistema lineare () `e il sistema di equazioni
_

_
a
1,1
x
1
+ ... + a
1,n
x
n
= 0
...
...
a
m,1
x
1
+ ... + a
m,n
x
n
= 0
Denizione. Un sistema lineare si dice compatibile se ammette soluzioni (una o pi` u), se
non ammette soluzioni si dice incompatibile.
Denizione. Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.
Esempio. I sistemi lineari
_
3x + 2y = 7
2x + 5y = 12
_
5x + 6y = 17
8x + 3y = 14
sono equivalenti. Infatti, hanno entrambi x = 1 , y = 2 come unica soluzione.
Esercizio. Risolvere i sistemi dellesempio precedente.
Esempio 7. I sistemi lineari
S
1
:=
_

_
3x + 2y + 2z = 7
2x + 5y + 2z = 1
2x + 2y + 3z = 8
, S
2
:=
_

_
3x + 2y + 2z = 7
2x + 5y + 2z = 1
9x + 14y + 9z = 17
sono equivalenti. Ma non `e necessario risolverli per rendersi conto che sono equivalenti: le
equazioni di S
2
le abbiamo ricavate da quelle di S
1
(ricopiando le prime due equazioni
e sommando, alla terza equazione, la prima equazione pi` u il doppio della seconda), quindi
4
se x

, y

, z

`e una soluzione di S
1
, soddisfa anche S
2
; viceversa, le soluzioni di S
2
sono
soluzioni anche di S
1
perche `e possibile ricavare le equazioni di S
1
da quelle di S
2
(basta
ricopiare le prime due equazioni e sottrarre, alla terza equazione, la prima equazione pi` u il
doppio della seconda).
Passiamo dallesempio al caso generale.
Denizione. Una combinazione lineare delle equazioni f
1
(...) =
1
, ..., f
k
(...) =
k
`e
unequazione del tipo
1
f
1
(...) + ... +
k
f
k
(...) =
1

1
+ ... +
k

k
. I numeri
1
, ...,
k
si chiamano coecienti della combinazione lineare.
Esempio. La combinazione lineare di coecienti 2 e 3 delle equazioni
4x + 3y + 5z = 7
2x + 4y + 2z = 3
`e lequazione
14x + 18y + 16z = 23 ,
ottenuta sommando il doppio della prima equazione al triplo della seconda equazione.
Generalizzando quanto visto nellesempio (7), se modichiamo un sistema lineare som-
mando ad una sua equazione una combinazione lineare delle altre, otteniamo un sistema
lineare equivalente a quello da cui siamo partiti. Naturalmente, anche loperazione di molti-
plicare unequazione per una costante non nulla non cambia la classe di equivalenza di un
sistema lineare. In denitiva, abbiamo losservazione fondamentale sulla quale si basano i
metodi per risolvere un sistema lineare:
Osservazione. La classe di equivalenza di un sistema lineare non cambia se
(8)
i) si moltiplica unequazione per una costante non nulla;
ii) ad unequazione si somma una combinazione lineare delle altre;
iii) si scambiano due equazioni tra loro .
Prima di concludere questo paragrafo torniamo al sistema () ed osserviamo che le infor-
mazioni che lo identicano sono racchiuse nei numeri a
i,j
e b
i
, numeri che raccoglieremo
in delle tabelle ponendo
A :=
_
a
i,j
_
:=
_
_
_
_
_
_
_
_
a
1,1
... a
1,n
. . .
. . .
. . .
a
m,1
... a
m,n
_
_
_
_
_
_
_
_
,

A : =
_
_
_
_
_
_
_
_
a
1,1
... a
1,n
b
1
. . . .
. . . .
. . . .
a
m,1
... a
m,n
b
m
_
_
_
_
_
_
_
_
.
Tabelle di questo tipo si chiamano matrici.
Denizione. Le matrici A ed

A si chiamano rispettivamente matrice incompleta e
matrice completa associata al sistema lineare () .
5
3. Leliminazione di Gauss (E.G.).
LE.G. per righe (quella per colonne `e analoga) `e il procedimento che semplica una
matrice mediante le seguenti operazioni elementari:
(8

)
i) si moltiplica una riga per una costante non nulla;
ii) ad una riga si somma una combinazione lineare delle altre;
iii) si scambiano due righe tra loro.
Inciso. La denizione di combinazione lineare di righe di una matrice `e analoga a quella
di combinazione lineare di equazioni di un sistema: la combinazione lineare di coecienti

1
, ...,
r
delle righe (c
1,1
... c
1,n
) , ..., (c
r,1
... c
r,n
) `e la riga (

r
t=1

t
c
t,1
...

r
t=1

t
c
t,n
) .
Losservazione fondamentale che bisogna tenere sempre presente `e la seguente:
Osservazione 9. Consideriamo una matrice

A, e trasformiamola eseguendo operazioni
del tipo di quelle appena descritte. Chiamiamo

B la matrice che otteniamo. Si ha che i
sistemi lineari associati rispettivamente alle matrici

A e

B sono equivalenti.
La dimostrazione di questa osservazione `e essenzialmente ovvia: scrivere una matrice non
`e altro che un modo compatto di scrivere le informazioni che individuano un sistema lineare
e le operazioni descritte in (8

) non sono altro che la traduzione in termini di questa nuova


notazione delle operazioni elementari di cui al punto (8) .
Corollario dellosservazione vista `e che possiamo risolvere un sistema lineare applicando
il metodo che segue: scriviamo la matrice completa associata al sistema lineare, la sempli-
chiamo utilizzando le mosse previste in (8

) , risolviamo il sistema lineare la cui matrice


completa associata `e quella ottenuta mediante la semplicazione eettuata. Pi` u avanti
vedremo i dettagli di questa procedura, intanto illustriamo qualche esempio concreto.
Esempio. Consideriamo il sistema lineare
_

_
x + 3y + z = 2
4x + 9y + 3z = 8
3x + 5y + 2z = 7
.
Per risolverlo, il primo passo da fare consiste nello scrivere la matrice completa associata
_
_
1 3 1 2
4 9 3 8
3 5 2 7
_
_
.
A questo punto operiamo sulla matrice:
_
_
1 3 1 2
4 9 3 8
3 5 2 7
_
_

(1)
_
_
1 3 1 2
0 3 1 0
0 4 1 1
_
_

(2)
_
_
1 3 1 2
0 3 1 0
0 0 1/3 1
_
_

(3)
_
_
1 3 1 2
0 3 0 3
0 0 1/3 1
_
_

(4)
_
_
1 0 0 2
0 3 0 3
0 0 1/3 1
_
_

(5)
_
_
1 0 0 2
0 1 0 1
0 0 1 3
_
_
,
dove i passaggi eettuati sono: 1) alla seconda riga abbiamo sottratto il quadruplo della
prima ed alla terza abbiamo sottratto il triplo della prima, 2) alla terza riga abbiamo
sottratto i quattro terzi della seconda, 3) alla seconda riga abbiamo sommato il triplo della
6
terza, 4) alla prima riga abbiamo sommato la seconda e sottratto il triplo della terza, 5)
abbiamo diviso la seconda riga per -3 ed abbiamo moltiplicato la terza riga per tre. Il sistema
associato allultima matrice che abbiamo scritto `e il sistema
_

_
1x + 0y + 0z = 2
0x + 1y + 0z = 1
0x + 0y + 1z = 3
ovvero
_

_
x = 2
y = 1
z = 3
In virt` u dellosservazione fondamentale (9) questultimo sistema `e equivalente a quello da
cui siamo partiti, pertanto le soluzioni cercate sono proprio x = 2, y = 1, z = 3.
Le cose non vanno sempre cos` bene, se non altro perche potremmo partire da un sistema
che ammette innite soluzioni o che non ne ammette aatto.
Esempio. Consideriamo il sistema lineare
x + 3y 7z = 2 .
La matrice completa associata `e
_
1 3 7 2
_
e non c`e modo di semplicarla. In compenso le soluzioni di questo sistema sono evidenti:
possiamo considerare y e z come parametri liberi e scrivere x = 3y + 7z + 2 .
Esempio. Consideriamo il sistema lineare
_
x + 2y + 5z = 2
2x + 4y + 10z = 3
La matrice completa associata `e
_
1 2 5 2
2 4 10 3
_
.
Sottraendo alla seconda riga il doppio della prima troviamo la matrice
_
1 2 5 2
0 0 0 1
_
,
che `e la matrice completa associata al sistema ovviamente incompatibile
_
x + 2y + 5z = 2
0 = 1
Torniamo alla teoria generale.
Denizione. Una matrice a scala superiore `e una matrice A = (a
i,j
) M
m,n
(R) in
cui (i) , che per denizione `e lindice massimo tale che a
i,1
= ... = a
i,
= 0 , `e
una funzione strettamente crescente dellindice di riga i , con lovvia eccezione che se una
riga `e tutta nulla ci limiteremo a richiedere che le successive siano anchesse nulle (...non
potrebbero avere pi` u di n zeri, poverine hanno solo n elementi!).
Questo `e un esempio di matrice a scala superiore:
_
_
_
_
_
1 3 1 5 0 1 2
0 2 2 7 0 0 11
0 0 0 1 21 3 8
0 0 0 0 3 0 0
0 0 0 0 0 4 2
_
_
_
_
_
.
7
Si osservi che se una matrice A `e quadrata ed `e a scala superiore, allora `e necessariamente
triangolare superiore (ossia tutti gli elementi sotto la diagonale principale sono nulli).
Esercizio. Indicare quali matrici tra quelle che seguono sono a scala superiore.
_
_
4 3 1
0 2 2
0 0 0
_
_
,
_
_
1 2 3 1
0 0 2 1
0 0 1 1
_
_
,
_
_
1 0 0 0
0 0 2 0
0 0 0 0
_
_
,
_
_
_
1 3
0 1
0 5
0 0
_
_
_
_
_
_
0 2 3 1
0 0 2 1
0 0 1 5
0 0 0 1
_
_
_ ,
_
_
_
1 3 3 1
0 0 9 4
0 0 0 4
0 0 0 0
_
_
_ ,
_
0 0 0
0 0 0
_
,
_
_
2 1
0 0
0 0
_
_
Osservazione. I sistemi lineari la cui matrice completa associata `e a scala superiore, che
chiameremo sistemi a scala, si risolvono rapidamente per sostituzione partendo dallultima
equazione e tornando indietro:
Esempio. Il sistema a scala
(10)
_

_
2x + y 3z + w s = 2
3z w + 2s = 3
w + 5s = 10
si risolve nel modo che segue: si considera lultima equazione e si considerano come parametri
liberi tutte le variabili che seguono w, quindi si scrive
w = 5s + 10 ,
si sostituisce quanto ottenuto nella penultima equazione e si isola la variabile z (sempre,
prendiamo la prima variabile dellequazione considerata), quindi si scrive
z =
_
7s + 13
_
/3
(in questo passaggio non sono apparsi altri parametri liberi oltre s, che abbiamo gi`a consi-
derato) si sostituisce quanto ottenuto nella prima equazione e si isola la variabile x (ripeto,
`e sempre la prima variabile quella che prendiamo), quindi si scrive
x =
_
y s + 5
_
/2
tenendo le eventuali altre
2
variabili, in questo caso solamente la y , come parametri liberi.
In denitiva, lo spazio delle soluzioni del sistema (10) `e
(11)
_

_
x, y, z, w, s

x =
_
y s + 5
_
/2
z =
_
7s + 13
_
/3
w = 5s + 10
_

_
,
dove, lo ripeto, y ed s sono parametri liberi, ovvero sono variabili che possono assumere
qualsiasi valore.
Lesempio esposto non ha nulla di particolare, ogni sistema lineare la cui matrice completa
associata `e a scala superiore si risolve nello stesso modo. Lunica cosa che potrebbe accadere
2
Oltre quelle gi`a considerate.
8
`e che lultima equazione `e qualcosa del tipo 0 = 3, in questo caso il nostro sistema lineare
`e palesemente incompatibile.
Il primo coeciente non nullo di ogni equazione viene chiamato pivot. Si osservi che i
parametri liberi sono le variabili che non corrispondono ad un pivot. Nellesempio consi-
derato i pivot sono 2, 3, 1 (coecienti di x, z, w, rispettivamente della prima, seconda e
terza equazione) ed i parametri liberi sono le restanti variabili: y ed s .
Inciso 12.
`
E opportuno usare i simboli t
1
, t
2
, ... per indicare, ed evidenziare, i parametri
liberi. In questo modo le soluzioni del sistema dellesempio vengono scritte nella forma
(12

)
_

_
x, y, z, w, s

x =
_
t
1
t
2
+ 5
_
/2
y = t
1
z =
_
7t
2
+ 13
_
/3
w = 5t
2
+ 10
s = t
2
_

_
,
detta anche rappresentazione parametrica dellinsieme delle soluzioni del sistema dato.
Visto che sappiamo risolvere i sistemi a scala resta da imparare a ridurre un qualsiasi
sistema ad un sistema a scala, ed in virt` u dellosservazione (9), resta da illustrare lalgoritmo
che trasforma una qualsiasi matrice in una matrice a scala. Questo algoritmo viene descritto
nella prossima dimostrazione e si chiama algoritmo di riduzione a scala (ovvero di Gauss).
Proposizione 13. Sia A =
_
a
i,j
_
M
m,n
(R) una qualsiasi matrice rettangolare.
LE.G. per righe consente sempre di trasformarla in una matrice a scala superiore.
Dimostrazione. Sia k lintero pi` u grande tale che la sottomatrice B costituita dalle prime
k colonne di A `e a scala. Ovviamente k pu`o essere zero (per lesattezza, k = 0 se e solo
se a
2,1
= ... = a
m,1
= 0). Se B non ha righe identicamente nulle, A `e a scala ed abbiamo
concluso. Altrimenti, assumiamo k < n (se k = n la matrice A `e gi`a a scala e non c`e
nulla da dimostrare). Posto r uguale allindice della prima riga identicamente nulla di B
(se k = 0 scegliamo r = 1), consideriamo a
r,k+1
, ..., a
m,k+1
. Questi numeri non sono
tutti nulli perche altrimenti la sottomatrice delle prime k +1 colonne di A sarebbe a scala.
A meno di cambiare lordine delle righe di indice r, ..., m possiamo assumere a
r,k+1
= 0 ,
quindi per ogni i > r sottraiamo alla i
esima
riga il prodotto della r
esima
riga per
a
i,k+1
a
r,k+1
. In questo modo sotto a
r,k+1
otteniamo tutti zeri, quindi la sottomatrice delle prime
k + 1 colonne della nuova A (stiamo modicando la nostra matrice) `e a scala.
Iterando questo procedimento arriveremo ad avere k = n ed avremo quindi concluso la
riduzione a scala di A.

Esempio . Questa `e la riduzione a scala di una matrice eettuata iterando il procedimento


descritto nella dimostrazione precedente:
A :=
_
_
_
0 2 0 5 8 1
0 0 0 3 9 6
0 0 2 2 0 4
0 0 3 10 0 2
_
_
_
(1)
B :=
_
_
_
0 2 0 5 8 1
0 0 2 2 0 4
0 0 0 3 9 6
0 0 3 10 0 2
_
_
_
(2)
C :=
_
_
_
0 2 0 5 8 1
0 0 2 2 0 4
0 0 0 3 9 6
0 0 0 7 0 4
_
_
_
(3)
D :=
_
_
_
0 2 0 5 8 1
0 0 2 2 0 4
0 0 0 3 9 6
0 0 0 0 21 18
_
_
_ .
In questesempio, consideriamo la prima colonna. Poiche questa, come matrice 4 1 , `e a
scala, andiamo avanti e consideriamo la sottomatrice 4 2 delle prime due colonne che `e
9
anchessa a scala. Quindi guardiamo la sottomatrice delle prime tre colonne. Questa non `e
a scala e purtroppo a
2,3
= 0 , ma scambiando la seconda riga con la terza riga, passo (1),
possiamo fare in modo che lelemento della seconda riga e terza colonna diventi diverso da
zero (in questo modo arriviamo alla matrice B ). La sottomatrice delle prime tre colonne
di B non `e ancora a scala perche sotto b
2,3
non ci sono tutti zeri. Sottraendo alla quarta
riga i tre mezzi della seconda, passo (2), otteniamo la matrice C , che `e una matrice le cui
prime tre colonne sono a scala. Andiamo avanti: consideriamo la sottomatrice delle prime
quattro colonne di C . Questa non `e a scala ma lo diventa se sottraiamo alla quarta riga
i sette terzi della terza riga, passo (3). In questo modo otteniamo la matrice a scala D ed
abbiamo concluso.
Ricapitolando, il metodo per trovare le soluzioni di un qualsiasi sistema lineare `e il
seguente: scriviamo la matrice completa ad esso associata

A, quindi la trasformiamo in una
matrice a scala superiore eettuando lE.G. per righe. Il risultato che si ottiene in questo
modo `e un sistema lineare equivalente a quello di partenza ma che si risolve immediatamente
per sostituzione (partendo da x
n
e tornando indietro).
Esercizio. Risolvere i sistemi lineari le cui matrici complete associate sono quelle
dellesercizio precedente. In particolare, discutere la compatibilit`a ed indicare i parametri
liberi.
Esercizio. Risolvere i sistemi lineari che seguono specicando quali incognite sono
parametri liberi ed indicando lo spazio delle soluzioni nella forma
(14)
_

_
x
1
, x
2
, ...

x
1
= c
1,1
t
1
+ ... + c
1,
t

...
x
n
= c
n,1
t
1
+ ... + c
n,
t

...
_

_
(vedi inciso 12), dove t
1
, ..., t

denotano i parametri liberi.


_

_
x + y 7z + w s = 3
3z + y + 2s = 8
w + 3s = 6
_
x + y 7z + w s = 3
3x + y + 2s = 2
_

_
x + y z + 2w = 3
x y z w = 2
x + 2y 2z + 3w = 4
_

_
x + 3y z + 2w = 5
3x + y 5z + w = 0
2x 4z 5w = 7
x + 7y 2z + 8w = 14
_

_
x
2
x
3
+ x
4
+ x
5
x
6
+ x
7
= 3
x
1
x
2
+ x
5
+ x
6
+ x
7
= 1
x
1
+ x
2
+ 2x
3
+ x
4
+ 2x
5
+ x
6
+ x
7
= 5
_

_
x
3
x
4
+ x
5
+ x
6
x
7
= 3
x
1
x
2
+ 3x
5
+ 4x
6
+ x
7
= 4
x
1
+ 3x
2
+ 2x
5
+ x
6
+ x
7
= 1
x
1
+ 4x
2
+ 7x
3
+ x
4
+ 2x
5
x
6
x
7
= 2
10
4. Matrici.
Denizione 15. Una matrice m n `e una tabella di numeri costituita da m righe ed
n colonne. Linsieme delle matrici mn lo indichiamo con M
m,n
(R) . Consideriamo due
matrici delle stesse dimensioni
A :=
_
a
i,j
_
:=
_
_
_
_
_
a
1,1
. . . a
1,n
. . . . .
. . . . .
. . . . .
a
m,1
. . . a
m,n
_
_
_
_
_
, B :=
_
b
i,j
_
:=
_
_
_
_
_
b
1,1
. . . b
1,n
. . . . .
. . . . .
. . . . .
b
m,1
. . . b
m,n
_
_
_
_
_
.
Si denisce la loro somma A + B ponendo
A + B :=
_
_
_
_
_
a
1,1
+ b
1,1
. . . a
1,n
+ b
1,n
. . . . .
. . . . .
. . . . .
a
m,1
+ b
m,1
. . . a
m,n
+ b
m,n
_
_
_
_
_
.
Osserviamo che A + B M
m,n
(R) .
Esempio.
_
_
4 3 1 0
0 2 2 0
2 5 0 1
_
_
+
_
_
1 2 3 11
3 7 2 19
3 0 1 57
_
_
=
_
_
5 5 4 11
3 9 4 19
5 5 1 58
_
_
.
Denizione 16. Siano A = (a
i,j
) M
m,n
(R) e C = (c
i,j
) M
n,k
(R) due matrici (si
osservi che il numero delle colonne di A `e uguale al numero delle righe di C ). Si denisce
il prodotto righe per colonne
A C M
m,k
(R)
ponendo
(16

)
_
A C
_
i,j
:=
n

h=1
a
i,h
c
h,j
.
Si osservi che secondo questa formula, lelemento di posto i, j della matrice prodotto
`e il prodotto della i
esima
riga di A per la j
esima
colonna di C . Ad esempio,
_

a b c
_

_
_



_
_
=
_

a + b + c
_
.
Esempio 17.
_
4 0 1
2 5 0
_

_
_
1 2 0 3
0 7 2 1
3 0 1 1
_
_
=
_
7 8 1 11
2 31 10 1
_
.
Per giusticare la denizione (16), mi limito a fare una considerazione: se sostituiamo le
relazioni
_

_
y
1
= z
1
+ 2z
2
+ 0z
3
+ 3z
4
y
2
= 0z
1
+ 7z
2
+ 2z
3
+ z
4
y
3
= 3z
1
+ 0z
2
z
3
z
4
nelle relazioni
_
x
1
= 4y
1
+ 0y
2
+ y
3
x
2
= 2y
1
5y
2
+ 0y
3
11
otteniamo proprio (si noti che le matrici associate sono quelle del prodotto nellesempio)
_
x
1
= 7z
1
+ 8z
2
z
3
+ 11z
4
x
2
= 2z
1
31z
2
10z
3
+ z
4
Osservazione 18. Quanto visto nellesempio vale in generale: il prodotto (righe per
colonne) tra matrici codica loperazione di sostituzione. Infatti, date A e C come nella
denizione (16), se x
1
, ..., x
m
, y
1
, ..., y
n
e z
1
, ..., z
k
soddisfano le relazioni
x
i
= a
i,1
y
1
+ ... + a
i,n
y
n
=
n

h=1
a
i,h
y
h
e y
h
= c
h,1
z
1
+ ... + c
h,k
z
k
=
k

j=1
c
h,j
z
j
,
(dove i = 1, ..., m e h = 1, ..., n), allora risulta
x
i
=
n

h=1
a
i,h
y
h
=
n

h=1
a
i,h
k

j=1
c
h,j
z
j
=
k

j=1
_
n

h=1
a
i,h
c
h,j
_
z
j
Si osservi che tra le parentesi c`e la denizione (vedi 16

) dellelemento di posto i, j del


prodotto A C .
Proposizione 19. Le operazioni tra matrici soddisfano le propriet` a
(A + B) + C = A + (B + C) (associativit`a della somma),
(A D) E = A (D E) (associativit`a del prodotto),
(A + B) D = A D + B D (propriet`a distributiva),
dove ovviamente si richiede che le dimensioni delle matrici in questione siano compatibili
con le operazioni scritte: A, B, C M
m,n
(R) , D M
n,k
(R) ed E M
k,h
(R)
Osservazione 20. Il prodotto non `e commutativo (peraltro se le dimensioni delle matrici
in questione non sono giuste non ha neanche senso invertire lordine dei fattori), ad esempio
_
4 3
0 2
_

_
1 2
3 7
_
=
_
13 29
6 14
_
ma
_
1 2
3 7
_

_
4 3
0 2
_
=
_
4 7
12 23
_
.
Osservazione 21. Un modo compatto per denotare il sistema lineare () introdotto
allinizio del paragrafo 2 consiste nello scrivere
A x =

b ,
dove, per denizione, x =
_
_
x
1
.
.
.
x
n
_
_
,

b =
_
_
b
1
.
.
.
b
m
_
_
, A `e la matrice incompleta associata al
sistema lineare dato ed il prodotto `e il prodotto righe per colonne della denizione (16).
Infatti, usando la denizione (16) di prodotto righe per colonne si ottiene proprio
A x =
_
_
_
_
_
a
1,1
. . . a
1,n
. . . . .
. . . . .
. . . . .
a
m,1
. . . a
m,n
_
_
_
_
_

_
_
x
1
.
.
.
x
n
_
_
=
_
_
_
_
_
_
_
_
a
1,1
x
1
+... + a
1,n
x
n
...
...
...
a
m,1
x
1
+... + a
m,n
x
n
_
_
_
_
_
_
_
_
M
m,1
(R) .
12
Osservazione 22. Facciamo un passo indietro e torniamo allosservazione (18). Posto
x :=
_
_
x
1
.
.
.
x
m
_
_
, y :=
_
_
_
y
1
.
.
.
y
n
_
_
_ , z :=
_
_
z
1
.
.
.
z
k
_
_
,
le relazioni
x
i
=
n

h=1
a
i,h
y
h
, y
h
=
k

j=1
c
h,j
z
j
possono essere scritte nella forma compatta
x = A y , y = C z .
Sostituendo y = Cz nella x = Ay si ottiene
x = A
_
C z
_
Quindi, usando lassociativit`a del prodotto tra matrici, si ottiene
x = (A C) z ,
che `e esattamente la forma compatta della relazione x
i
=
k

j=1
_
n

h=1
a
i,h
c
h,j
_
z
j
ottenuta
nellosservazione (18).
Concludiamo il paragrafo con una denizione.
Denizione 23. Sia A = (a
i,j
) M
m,n
(R) una matrice. La matrice che si ottiene
scambiando le righe con le colonne si chiama trasposta di A e si indica con
t
A. Osserviamo
che
_
t
A
_
i,j
= a
j,i
,
t
A M
n,m
(R) .
Esempio. Se A =
_
2 1 3
5 7 4
_
, allora
t
A =
_
_
2 5
1 7
3 4
_
_
.
Esercizio. Calcolare i seguenti prodotti
_
1 2
2 3
_

_
4 3
1 1
_
;
_
2 1 3
5 7 4
_

_
_
5 1 0
1 1 1
2 2 4
_
_
;
_
_
5
2
1
_
_
( 2 1 ) ;
_
_
1
2
3
_
_
( 5 7 4 ) ;
_
_
5
7
4
_
_
( 1 2 3 ) ;
_
_
2 1 0
1 3 1
2 2 4
_
_

_
_
5 3 1
1 1 1
2 1 2
_
_
.
_
_
0 0
0 0
0 0
_
_

_
_
2 4 9
1 6 7
3 5 8
_
_
;
_
_
2 4 9
1 6 7
3 5 8
_
_

_
_
0 0
0 0
0 0
_
_
;
_
_
2 4 9
1 6 7
3 5 8
_
_

_
_

_
_
.
13
5. Matrici quadrate.
Il prodotto tra matrici in M
n,n
(R) ha certamente senso ed il risultato che si ottiene `e
sempre in M
n,n
(R) . In eetti M
n,n
(R) , con le due operazioni di somma e prodotto, `e un
esempio di anello unitario (un anello `e un oggetto algebrico che noi non studieremo). Non
entrer`o troppo in questioni algebriche, per`o due osservazioni le voglio fare.
Denizione. La matrice nn che ha tutti 1 sulla diagonale principale e tutti zeri altrove
I
n
:=
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
_
_
_
_
_
_
si chiama matrice identica di ordine n.
Osservazione.
A I
n
= I
n
A = A , A M
n,n
(R)
Denizione 24. Consideriamo A M
n,n
(R) . Se esiste B tale che A B = I
n
diciamo
che A `e invertibile, B la chiamiamo inversa di A e la denotiamo A
1
.
Proposizione 25. Si ha che A B = I
n
se e solo se B A = I
n
. Linversa di una
matrice, se esiste, `e unica.
Rimando la dimostrazione di questa proposizione al paragrafo 18, in parte perche la
voglio arricchire con dei commenti che coinvolgono argomenti che dobbiamo ancora trattare,
in parte perche in questo momento non voglio appesantire il discorso (comunque, invito lo
studente a dare n dora unocchiata alla dimostrazione, ...se non altro perche mi sono preso
la briga di scrivere una dimostrazione comprensibile con gli strumenti introdotti n qui!).
Torniamo al sistema lineare () del paragrafo 2, ovvero al sistema (vedi osservazione 21):
(26) A x =

b
Se il numero delle equazioni `e uguale al numero delle incognite la matrice incompleta A `e
una matrice quadrata n n mentre la matrice completa

A `e una matrice n (n + 1) .
Assumiamo che esiste linversa di A. In questo caso possiamo moltiplicare ambo i membri
delluguaglianza (26) per A
1
, ottenendo A
1
(A x) = A
1

b . Per lassociativit`a del


prodotto, A
1
(A x) = (A
1
A) x = I
n
x = x, quindi
(27) x = A
1

b .
Questuguaglianza mostra lunicit`a delleventuale soluzione del nostro sistema e ci fornisce un
candidato per tale soluzione. Poiche il passaggio eettuato `e invertibile (rimoltiplicando
per A torniamo al sistema di partenza), abbiamo lesistenza della soluzione del sistema
dato.
Il prossimo obiettivo `e quello di studiare linvertibilit`a e calcolare linversa di una matrice.
A tal ne avremo bisogno della nozione di determinante, oggetto di studio del prossimo
paragrafo.
14
6. Determinante.
In questo paragrafo introduciamo la funzione determinante, funzione che ad una matrice
quadrata (cio`e che ha uguale numero di righe e colonne) associa un numero. Ci sono diverse
denizioni equivalenti del determinante, noi lo deniamo tramite lo sviluppo di Laplace (def.
29). La formula (31) e la proposizione (40) forniscono altri due modi possibili di denire il
determinante. Cominciamo con alcuni casi particolari.
Se A = (a) `e una matrice 1 1 si pone
det(A) := a .
Se A =
_
a b
c d
_
`e una matrice 2 2 si pone
det(A) := ad bc .
Per le matrici di ordine superiore la denizione `e pi` u complicata, ad esempio gi`a per le
matrici 3 3 si pone
det
_
_
a b c
d e f
g h i
_
_
:= aei afh bdi + bfg + cdh ceg .
...ma vediamo la denizione generale! La denizione che segue `e induttiva, nel senso che si
denisce il determinante di una matrice di ordine n utilizzando il determinante di matrici
di ordine pi` u basso. Premettiamo una notazione.
Notazione 28. Sia A M
n,n
(R) una matrice. Indichiamo con C
i,j
M
n1,n1
la
matrice che si ottiene prendendo A e cancellando la i
esima
riga e la j
esima
colonna. Ad
esempio,
se A =
_
_
3 5 1
7 2 4
8 6 9
_
_
, si ha C
1,2
=
_
7 4
8 9
_
.
Denizione 29. Sviluppo di Laplace del determinante. Come abbiamo gi`a menzionato, se
A = (a) `e una matrice di ordine 1 si pone detA := a . Sia quindi n 2 e consideriamo
A = (a
i,j
) M
n,n
(R) . Si denisce
(29

) detA :=
n

j=1
(1)
1+j
a
1,j
detC
1,j
,
dove la notazione usata `e quella appena introdotta.
Si osservi che la denizione data ha senso, in eetti luguaglianza (29

) denisce in maniera
ricorsiva il determinante: si sa calcolare il determinante delle matrici di ordine 1, quindi si
sa calcolare il determinante di quelle di ordine 2, ne segue che si sa calcolare il determinante
di quelle di ordine 3, ...di quelle di ordine 4, eccetera.
Osservazione. Applicando luguaglianza (29

) per n = 3 si ottiene
det
_
_
a b c
d e f
g h i
_
_
: = a det
_
e f
h i
_
b det
_
d f
g i
_
+ c det
_
d e
g h
_
= a (ei fh) b (di fg) + c (dh eg) ,
che coincide con la denizione data precedentemente.
15
Esempio. Si ha
det
_
_
2 5 3
3 2 7
1 4 6
_
_
: = 2 det
_
2 7
4 6
_
5 det
_
3 7
1 6
_
+ 3 det
_
3 2
1 4
_
= 2 (12 28) 5 (18 7) + 3 (12 2) = 57 .
Visto che ci siamo vediamo cosa si ottiene per le matrici di ordine 4:
det
_
_
_
a b c d
e f g h
i l m n
o p q r
_
_
_ :=
adet
_
_
f g h
l m n
p q r
_
_
bdet
_
_
e g h
i m n
o q r
_
_
+ cdet
_
_
e f h
i l n
o p r
_
_
ddet
_
_
e f g
i l m
o p q
_
_
.
Si osservi che sviluppando i determinanti delle matrici di ordine 4 si perviene ad un polinomio
costituito da 4 6 = 24 termini. Lo sviluppo del determinante di una matrice di ordine 5 `e
un polinomio molto lungo: ha 5 24 = 120 termini. Dalla denizione (29) `e evidente per
ragioni induttive che questa considerazione si generalizza:
Osservazione 30. Per le matrici di ordine n, la funzione determinante `e un polinomio
di 1 2 3 ... n termini (questo prodotto si chiama fattoriale di n e si indica con n! , il
punto esclamativo fa parte della notazione).
Vedremo comunque che il calcolo del determinante di una matrice `e una operazione molto
pi` u semplice di quanto si possa immaginare ...e temere!
Facciamo alcune considerazioni. Sia A = (a
i,j
) M
n,n
(R) . Chiaramente, detA `e un
polinomio negli a
i,j
. Aermo che i monomi che lo costituiscono sono (a meno del segno) i
prodotti di n elementi della matrice che stanno sia su righe che su colonne distinte. Questo
segue dalla (29

): nella (29

) abbiamo che a
1,j
si scontra con detC
1,j
(per ogni i, j),
essendo C
1,j
la matrice ottenuta cancellando proprio la riga e la colonna corrispondente a
a
1,j
; quindi, ragionando per induzione, `e chiaro che i monomi di detA sono (a meno del
segno) esattamente tutti i prodotti di n elementi che stanno sia su righe che su colonne
distinte.
Si osservi che questo risultato, coerentemente col fatto che le permutazini di n elementi
sono n! (n fattoriale), quindi col fatto che tutti i possibili prodotti di n elementi che stanno
sia su righe che su colonne distinte sono in numero uguale a n!, `e in linea con losservazione
precedente sul numero dei monomi che costituiscono il determinante di A.
Con un pizzico di lavoro in pi` u, che a questo punto per`o ce lo risparmiamo per non
appesantire il discorso, non `e dicile comprendere anche quali sono i segni davanti a tali
monomi e in denitiva provare la proposizione che segue.
Proposizione. Si abbia A = (a
i,j
) M
n,n
(R) . Si ha
(31) det(A) :=

S
n
() a
1,(1)
a
2,(2)
... a
n,(n)
,
dove S
n
`e linsieme delle permutazioni dei primi n interi {1, ..., n} , e dove () `e il
segno della permutazione .
Quanto al segno di una permutazione, () = 1 se `e ottenibile come composizione di
scambi in numero pari, () = 1 se `e ottenibile come composizione di scambi in numero
16
dispari (`e possibile dimostrare che il segno di una permutazione `e ben denito). Ad esempio,
la permutazione (1) = 3, (2) = 2, (3) = 1, (4) = 5, (5) = 4 , che verr`a denotata con
(3,2,1,5,4) si ottiene scambiando 3 con 1 nonche 5 con 4. Pertanto si realizza eettuando
2 scambi (i.e. `e pari), quindi () = 1 .
Lo studente non si deve spaventare perche non dovr`a mai impelagarsi con il formalismo
di questa formula. Il motivo per cui ho voluto enunciarla `e per ribadire lo straordinario
ordine della funzione determinante. In particolare, per ribadire, usando il linguaggio di
una formula, la (31) appunto, il fatto gi`a menzionato che il determinante `e il polinomio
(omogeneo, di grado n) nelle variabili a
i,j
i cui monomi che lo costituiscono sono (a meno
del segno) i prodotti di n elementi della matrice che stanno sia su righe che su colonne
distinte. Una conseguenza della (31) `e che lo sviluppo di Laplace del determinante pu`o
essere eettuato rispetto ad una riga a piacere (a dirla tutta, anche rispetto ad una qualsiasi
colonna): sia k un indice che ssiamo, si ha
(32) detA :=
n

j=1
(1)
k+j
a
k,j
detC
k,j
,
dove come al solito C
k,j
`e la matrice che si ottiene prendendo A e sopprimendo la k
esima
riga e la j
esima
colonna.
Esempio. Sviluppando rispetto alla seconda riga il determinante dellesempio precedente
si ottiene
det
_
_
2 5 3
3 2 7
1 4 6
_
_
: = 3 det
_
5 3
4 6
_
+ 2 det
_
2 3
1 6
_
7 det
_
2 5
1 4
_
= 3 (30 12) + 2 (12 3) 7 (8 5) = 57 .
Come promesso dalla formula (32) il risultato ottenuto `e lo stesso di prima: 57 .
Denizione 33. Il prodotto (1)
i+j
detC
i,j
si chiama complemento algebrico di a
i,j
.
Lemma 34. Il determinante `e una funzione antisimmetrica delle righe della matrice: se
scambiamo tra loro due righe di A il determinante cambia segno.
Dimostrazione. Dalla (32) segue immediatamente che se scambiamo due righe adiacenti
il determinante cambia segno: se A

`e la matrice che si ottiene scambiando la k


esima
con
la (k + 1)
esima
riga di A, lo sviluppo di Laplace di detA rispetto alla k
esima
riga
coincide con lo sviluppo di Laplace di detA

rispetto alla (k +1)


esima
riga eccetto che per
il fatto che in questo secondo sviluppo il segno davanti a
k,j
detC
k,j
`e (1)
k+1+j
invece di
(1)
k+j
(vedi 32).
Poiche `e possibile scambiare due righe qualsiasi eettuando un certo numero di scambi di
righe adiacenti e poiche questo numero `e necessariamente dispari (questo `e un dettaglio di
teoria degli insiemi e delle permutazioni che qui non dimostro), il risultato `e vero in generale.

Lemma 35. Il determinante `e una funzione multilineare delle righe della matrice: sia k
un indice di riga, un numero reale e siano A, A

, A

e B quattro matrici tali che


a
i,j
= a

i,j
= a

i,j
= b
i,j
, i = k , j ;
a
k,j
+ a

k,j
= a

k,j
, j ;
b
k,j
= a
k,j
, j .
(cio`e coincidono ovunque tranne che per il fatto che la k
esima
riga di A

`e la somma
della k
esima
riga di A con quella di A

, mentre la k
esima
riga di B `e il prodotto della
17
k
esima
riga di A per ). Allora
detA + detA

= detA

;
detB = detA .
Questo enunciato sembra poco digeribile per via delluso degli indici. In realt`a il lemma `e
molto semplice, ci sta dicendo che se ssiamo tutti gli elementi di una matrice eccetto quelli
di una data riga, la funzione determinante, come funzione di quella riga, `e lineare. ...ma `e
meglio dirlo con due esempi:
Esempio. det
_
2 5
7 3
_
= det
_
2 5
7 3
_
.
Esempio. det
_
2+3 5+1
4 7
_
= det
_
2 5
4 7
_
+ det
_
3 1
4 7
_
.
Esercizio. Calcolare i determinanti delle matrici indicate negli esempi.
Esercizio 36. Sia A una matrice di ordine n e sia A la matrice che si ottiene
moltiplicando tutti gli elementi di A per la costante . Vericare che det(A) =
n
detA.
Dimostrazione (del lemma 35). Poiche le matrici coincidono fuori della k
esima
riga,
calcolando il determinante utilizzando lo sviluppo di Laplace proprio rispetto alla k
esima
riga (formula 32), si ottiene
detA + detA

=
n

j=1
(1)
k+j
a
k,j
detC
k,j
+
n

j=1
(1)
k+j
a

k,j
detC
k,j
=
n

j=1
(1)
k+j
_
a
k,j
+ a

k,j
_
detC
k,j
= detA

.
Analogamente,
detB =
n

j=1
(1)
k+j
b
k,j
detC
k,j
=
n

j=1
(1)
k+j
a
k,j
detC
k,j
= detA

Proposizione 37. Si abbia A = (a


i,j
) M
n,n
(R) . Si ha
det A = det
t
A
dove
t
A `e la matrice trasposta della matrice A (vedi def. 23, 4).
Questa proposizione segue immediatamente dalla formula (31). Osserviamo che, come
corollario, i lemmi (34) e (35) continuano a valere qualora si sostituisca (ovunque) la parola
riga alla parola colonna.
18
Osservazione 38. Ricapitoliamo alcune propriet`a utili per il calcolo del determinante di
una matrice:
38
a
) se scambiamo tra loro due righe di A il determinante cambia segno (quindi se A
ha due righe uguali il suo determinante `e nullo);
38
b
) se ad una riga (ovvero colonna) sommiamo una combinazione lineare delle altre il
determinante non cambia;
38
c
) se moltiplichiamo una riga (ovvero colonna) per una costante , il corrispondente
determinante risulta moltiplicato per ;
38
d
) se A ha una riga (ovvero colonna) nulla, allora detA = 0 ;
38
e
) il determinante di una matrice triangolare superiore `e uguale al prodotto degli
elementi sulla diagonale.
Le propriet`a (38
a
) e (38
c
) le abbiamo gi`a dimostrate (lemmi 34 e 35). Quanto alla (38
d
),
se A

`e la matrice ottenuta moltiplicando la riga nulla per due (si noti che A

= A),
allora F(A) = F(A

) = 2F(A) , dove questultima uguaglianza segue dalla (38


c
), quindi
F(A) = 0 (perche lunico numero uguale al suo doppio `e lo zero). La (38
b
) `e anchessa una
conseguenza immediata dei lemmi (34) e (35): se si somma ad una riga un multiplo di unaltra
(se poi si vuole sommare una combinazione lineare delle altre righe basta iterare questo
passaggio), il corrispondente determinante viene sommato a un multiplo del determinante
di una matrice che ha due righe uguali (e che per questo motivo `e nullo); chiariamo quello
che abbiamo appena detto con un esempio
det
_
_
3+9 2+4 5+8
1 6 7
9 4 8
_
_
= det
_
_
3 2 5
1 6 7
9 4 8
_
_
+ det
_
_
9 4 8
1 6 7
9 4 8
_
_
= det
_
_
3 2 5
1 6 7
9 4 8
_
_
+ det
_
_
9 4 8
1 6 7
9 4 8
_
_
= det
_
_
3 2 5
1 6 7
9 4 8
_
_
Esempio. Per le propriet`a dellosservazione (38) sappiamo che
det
_
_
1 2 1
4 7 3
3 8 9
_
_
= det
_
_
3 8 9
4 7 3
1 2 1
_
_
(abbiamo scambiato prima e terza riga);
det
_
_
1 2 1
4 7 3
3 8 9
_
_
= det
_
_
1 2 1
4 7 3
11 33 2
_
_
(alla terza riga abbiamo sommato la
combinazione lineare di coecienti 2 e 3 delle prime due righe);
5 det
_
_
1 2 1
4 7 3
3 8 9
_
_
= det
_
_
1 2 1
20 35 15
3 8 9
_
_
; det
_
_
13 4 7
0 0 0
3 11 4
_
_
= 0 ;
det
_
_
_
3 7 1 8
0 4 2 3
0 0 6 5
0 0 0 2
_
_
_ = 3 4 (6) 2 = 144 .
Osservazione. Le operazioni di cui ai punti (38
a
) e (38
b
) sono sucienti per ridurre
in forma triangolare superiore la matrice A, infatti basta eseguire lalgoritmo di Gauss
descritto nella dimostrazione della proposizione (13) del paragrafo 3. Daltro canto, per la
(38
e
), sappiamo calcolare facilmente il determinante di una matrice triangolare superiore.
Quanto appena osservato permette di calcolare il determinante di una matrice, nellesempio
che segue vediamo concretamente come.
19
Esempio. Utilizzando i passi (38
a
) e (38
b
) troviamo
A :=
_
_
_
0 7 3 8
1 2 1 2
4 1 4 5
3 8 15 23
_
_
_
(1)
_
_
_
1 2 1 2
0 7 3 8
4 1 4 5
3 8 15 23
_
_
_
(2)
_
_
_
1 2 1 2
0 7 3 8
0 7 0 3
0 14 12 29
_
_
_
(3)
_
_
_
1 2 1 2
0 7 3 8
0 0 3 5
0 0 6 13
_
_
_
(4)
_
_
_
1 2 1 2
0 7 3 8
0 0 3 5
0 0 0 3
_
_
_ ,
dove: 1) abbiamo scambiato le prime due righe, 2) alla terza riga abbiamo sottratto quattro
per la prima riga ed alla quarta riga abbiamo sommato il triplo della prima, 3) alla terza riga
abbiamo sommato la seconda ed alla quarta abbiamo sottratto il doppio della seconda, 4)
alla quarta riga abbiamo sottratto il doppio della terza. Il determinante dellultima matrice
`e 1 7 3 3 = 63 . Poiche abbiamo eettuato uno scambio di righe, abbiamo detA = 63 .
Osservazione 39. Come conseguenza dellosservazione precedente, lannullarsi del deter-
minante `e equivalente a che una riga della matrice sia combinazione lineare delle altre (questo
perche lannullarsi del determinante e lavere una riga che `e combinazione lineare delle altre,
sono due propriet`a ovviamente invarianti rispetto ai passi dellE.G., nonche relativamente
alle matrici a scala sono ovviamente propriet`a equivalenti).
Le propriet`a viste oltre ad essere importanti ed utili hanno il pregio di caratterizzare il
determinante, pi` u precisamente vale la proposizione che segue.
Proposizione 40. Esiste una unica funzione F denita su M
n,n
(R) tale che
i) F `e multilineare rispetto alle righe di M
n,n
(R) ;
ii) F `e antisimmetrica rispetto alle righe di M
n,n
(R) ;
iii) F(I
n
) = 1 , dove I
n
`e la matrice identica.
Dimostrazione. Per quel che riguarda lesistenza di una tale F `e stato gi`a detto tutto: la
funzione determinante soddisfa i), ii) e iii).
Lunicit`a segue dal fatto che `e possibile calcolare il determinante di una matrice qualsiasi
utilizzando unicamente le propriet`a i), ii) e iii). Vediamo come: sia dunque A una matrice
e sia F una funzione che soddisfa le propriet`a i), ii) e iii). In particolare, le varie propriet`a
che sono soddisfatte dalla funzione F ci dicono come cambia F(A) quando eettuiamo uno
dei passi delleliminazione di Gauss (8

, paragrafo 3). A questo punto losservazione che


conclude la dimostrazione `e il fatto che tramite i passi di Gauss (8

) `e possibile trasformare
qualsiasi matrice in una matrice che ha una riga di zeri oppure nella matrice identica. Nel
primo caso si ha F(A) = 0 (segue dalla multilinearit`a, il ragionamento `e quello fatto quando
abbiamo dimostrato la 38
d
). Nel secondo caso siamo ugualmente in grado di dire quanto
vale F(A) : basta che ci ricordiamo delle costanti (non nulle) che avremo fatto intervenire
nellapplicare lE.G. che trasforma A nella matrice identica e del numero degli eventuali
scambi di righe eettuati. Si osservi che usiamo lipotesi F(I
n
) = 1 . Poiche in entrambi
(tutti) i casi siamo stati capaci di calcolare F(A) utilizzando solo le propriet`a che avevamo
a disposizione, F `e unica.

Il determinante si comporta molto male rispetto alloperazione di somma di matrici,


rispetto al prodotto si comporta invece nel modo migliore possibile: vale il teorema che
segue.
Teorema 41 (Binet).
det
_
A B
_
= (detA) (detB) , A, B M
n,n
(R) .
20
Ci sono molte dimostrazioni di questo teorema. In questa sede non ne vedremo nessuna.
Comunque, non posso non dire che questo teorema `e essenzialmente ovvio alla luce di una
interpretazione geometrica del determinante della quale dar`o qualche cenno nel paragrafo
18. Naturalmente, visto che in n dei conti il determinante `e un polinomio che sappiamo
scrivere esplicitamente, ai ni della dimostrazione del teorema di Binet `e possibile fare un
conto che utilizza una delle denizioni o caratterizzazioni del determinante.
Osserviamo che, come conseguenza del teorema di Binet, una matrice il cui determinante
`e nullo non pu`o essere invertibile: se A fosse una matrice invertibile e si avesse detA = 0 ,
si avrebbe
1 = detI
n
= det
_
A A
1
_
=
_
detA
_

_
detA
1
_
= 0 .
Viceversa, se detA = 0 , allora A `e invertibile ed esiste una formula che ne calcola linversa.
Tale formula `e contenuta nel teorema che segue:
Teorema 42. Consideriamo A M
n,n
(R) . Si ha che A `e invertibile se e solo se
detA = 0 . In questo caso risulta
_
A
1
_
i,j
= (1)
i+j

detC
j,i
detA
,
dove come al solito C
j,i
`e la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna.
Attenzione! Non mi sono sbagliato: a sinistra delluguaglianza ho scritto i, j , a destra
ho scritto j, i.
Osservazione. La formula del teorema (42) ci dice che A
1
`e la trasposta della matrice
dei complementi algebrici (vedi def. 33, pag. 16) divisi per il determinante di A.
Avendo gi`a provato che se A `e invertibile allora detA = 0 , per concludere la di-
mostrazione del teorema `e suciente calcolare il prodotto di A per la matrice indicata
nel teorema e vericare che il risultato `e la matrice identica. Tale calcolo lo svolgiamo nel
paragrafo 18.
Esempio. Determiniamo linversa della matrice A =
_
_
1 12 4
3 1 0
4 5 2
_
_
.
Poiche detA = 2 , la matrice A `e invertibile. La matrice dei complementi algebrici `e la
matrice
_
_
_
_
_
_
_
_
_
_
_
_
_
det
_
1 0
5 2
_
det
_
3 0
4 2
_
det
_
3 1
4 5
_
det
_
12 4
5 2
_
det
_
1 4
4 2
_
det
_
1 12
4 5
_
det
_
12 4
1 0
_
det
_
1 4
3 0
_
det
_
1 12
3 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
2 6 19
4 14 43
4 12 37
_
_
.
Dividendo per detA si ottiene la matrice
_
_
1 3 19/2
2 7 43/2
2 6 37/2
_
_
. Inne, trasponendo
questultima matrice si ottiene
A
1
=
_
_
1 2 2
3 7 6
19/2 43/2 37/2
_
_
.
21
La formula del teorema (42) non `e molto pratica, per calcolare linversa di una matrice di
ordine tre abbiamo dovuto fare molte operazioni. Nel 8 vedremo che utilizzando lalgoritmo
di Gauss `e possibile calcolare linversa di una matrice abbastanza rapidamente.
Esercizio. Vericare che
_
_
1 12 4
3 1 0
4 5 2
_
_

_
_
1 2 2
3 7 6
19/2 43/2 37/2
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Esercizio. Si calcoli linversa della matrice
_
_
2 7 5
3 1 8
1 11 3
_
_
utilizzando la formula del
teorema (42). Si verichi la correttezza del risultato ottenuto svolgendo il prodotto righe
per colonne della matrice data per la matrice inversa trovata.
Esercizio. Calcolare il determinante delle matrici che seguono
_
7 3
2 8
_
;
_
_
3 271 583
0 1 49
0 0 2
_
_
;
_
_
2 0 0
4729 1 0
357 9041 5
_
_
;
_
_
0 0 1
0 3 237
2 795 9467
_
_
.
Esercizio. Calcolare il determinante (in funzione del parametro k) delle matrici che
seguono ed indicare per quali valori di k non sono invertibili.
_
k k+1
2k 3k5
_
;
_
_
k 3k k
1 2 1
5 6 1
_
_
;
_
_
k 1 5
3k 2 6
k 1 1
_
_
;
_
_
2k 3k7 k+71
0 k
2
11 23k
3
0 0 k8
_
_
.
Esercizio. Calcolare linversa delle matrici
_
7 2
3 5
_
,
_
_
2 0 2
7 1 8
4 8 9
_
_
,
_
_
2 2 0
7 8 1
1 6 7
_
_
,
_
_
3 3 3
4 4 5
3 2 7
_
_
,
_
_
_
2 1 3 1
6 2 6 2
5 0 3 1
4 3 1 0
_
_
_ ,
e vericare la correttezza dei risultati ottenuti (ricordiamo che per vericare che due ma-
trici sono luna linversa dellaltra `e suciente moltiplicarle tra loro, come risultato si deve
ottenere la matrice identica).
22
7. Teorema di Cramer.
Torniamo a considerare il sistema lineare
Ax =

b , A M
n,n
(R) .
Osservazione 43. Sia A M
n,n
(R) una matrice quadrata a scala. Dalla propriet`a
(38
e
), il determinante detA `e il prodotto degli elementi sulla diagonale. Inoltre, se a
k
0
,k
0
=
0 per un qualche indice k
0
, si ha anche a
k,k
= 0 per ogni k > k
0
(altrimenti A non
sarebbe a scala). Pertanto le condizioni
i) detA = 0 ; ii) a
n,n
= 0 ; iii) a
k,k
= 0 , k ;
sono equivalenti tra loro.
Lemma. Sia A M
n,n
(R) una matrice quadrata a scala. Il sistema lineare Ax =

b
ha una unica soluzione se e solo se detA = 0 .
Dimostrazione. Poiche A `e a scala, abbiamo a che fare con un sistema lineare a scala del
tipo
_

_
a
1,1
x
1
+ ... ... = b
1
a
2,2
x
2
+ ... = b
2
...
a
n,n
x
n
= b
n
.
Se detA = 0, per losservazione (43), tutti gli elementi sulla diagonale principale a
1,1
, ..., a
n,n
sono non nulli.
`
E evidente che tale sistema si risolve (partendo dallultima equazione e
tornando indietro) senza produrre parametri liberi ne incompatibilit`a.
Viceversa, nel caso risulti detA = 0 , e quindi a
n,n
= 0 (sempre per losservazione 43),
ci sono due possibilit`a: il sistema `e incompatibile oppure `e compatibile. Nellipotesi che
si verichi questo secondo caso, lultima equazione deve essere lequazione 0 = 0 (se fosse
b
n
= 0 il nostro sistema sarebbe incompatibile) ed il sistema in questione `e in realt`a un
sistema, compatibile per ipotesi, di al pi` u n 1 equazioni in n incognite; il metodo visto
nel paragrafo 3 di soluzione allindietro di un tale sistema a scala produce almeno un
parametro libero e quindi innite soluzioni.
In denitiva, abbiamo provato che nel caso risulti detA = 0 , il sistema `e incompatibile
oppure ammette innite soluzioni.

Teorema 44. Sia A M


n,n
(R) una matrice quadrata (non richiediamo che sia a
scala). Il sistema lineare Ax =

b ha una unica soluzione se e solo se detA = 0 .
In particolare, questo teorema ci dice che la propriet`a di avere una unica soluzione non
dipende da

b, cio`e basta conoscere la matrice incompleta A per poter dire quale delle due
seguenti eventualit`a si verica:
i) il sistema ammette una unica soluzione;
ii) il sistema `e incompatibile oppure ammette innite soluzioni.
Dimostrazione. Eettuando la riduzione a scala di un sistema lineare quadrato si ottiene,
in particolare, un sistema la cui matrice incompleta `e a scala. Il determinante della matrice
ottenuta `e non nullo se e solo se detA = 0 , infatti i passi dellE.G. non inciano lannullarsi
o meno del determinante. Per il lemma precedente abbiamo concluso.

23
Analizziamo le due possibilit`a da un altro punto di vista. Come prima, consideriamo il
sistema lineare A x =

b .
Caso 1: detA = 0 . Lesistenza e lunicit`a della soluzione del sistema lineare Ax =

b
segue anche
3
dal teorema (42): nel paragrafo 5 abbiamo osservato che lesistenza dellinversa
di A garantisce lesistenza e lunicit`a della soluzione del sistema lineare: si ha x = A
1

b .
Caso 2: detA = 0 . Per losservazioni (39), lannullarsi del determinante `e equivalente
a che una riga sia combinazione lineare delle altre. Di conseguenza, abbiamo la stessa
dicotomia incontrata nellesempio (3) del paragrafo 1 (vedi pag. 2): o il termine noto
corrispondente a quella riga di A non `e compatibile con la combinazione lineare, cosa
che rende il sistema lineare incompatibile, oppure tutta lequazione corrispondente a quella
riga `e combinazione lineare delle altre equazioni e questo, di fatto, signica avere meno di
n equazioni (il che signica avere innite soluzioni oppure, comunque, incompatibilit`a; di
sicuro, dalla stessa E.G. si evince che un sistema di meno di n equazioni in n incognite non
pu`o avere ununica soluzione).
Teorema 45 (Cramer). Consideriamo il sistema lineare Ax =

b ed assumiamo
detA = 0 . Sia quindi x =
_
_
x
1
.
.
.
x
n
_
_
la soluzione (che esiste ed `e unica per il teorema
precedente). Si ha
x
i
=
det A

b/col i
detA
,
dove A

b/col i
`e la matrice che si ottiene sostituendo la i
-esima
colonna di A con il vettore
dei termini noti

b .
Osservazione 46. Nel caso n = 2 , ad esempio nel caso del sistema (3) del paragrafo 1
_
a b
c d
__
x
y
_
=
_

_
,
questo teorema si riduce alla formula (6) del paragrafo 1:
x =
det
_
b
d
_
det
_
a b
c d
_ , y =
det
_
a
c
_
det
_
a b
c d
_ .
Esempio. Risolviamo il sistema lineare
_

_
3x + 3y + 4z = 19
5x + 6y 7z = 13
7x + 9y 17z = 31
.
Il determinante della matrice incompleta `e 3, quindi la soluzione esiste ed `e unica. Si ha
x =
det
_
_
19 3 4
13 6 7
31 9 17
_
_
3
, y =
det
_
_
3 19 4
5 13 7
7 31 17
_
_
3
, z =
det
_
_
3 3 19
5 6 13
7 9 31
_
_
3
.
3
Oltre che dal ragionamento nella dimostrazione del teorema (44).
24
Esercizio. Risolvere il sistema lineare (utilizzando il teorema di Cramer)
_

_
x + 2y 4z = 19
3x 5y + 7z = 13
2x 3y + 13z = 31
.
Del teorema di Cramer ne espongo due dimostrazioni.
Dimostrazione #1. Poiche x = A
1

b , abbiamo che x
i
`e il prodotto della i
-esima
riga
di A
1
per

b :
x
i
=

j
(A
1
)
i,j
b
j
=

j
(1)
i+j

detC
j,i
detA
b
j
,
dove la seconda uguaglianza segue dalla formula del teorema (42) (come al solito, C
j,i
`e
la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna). Lespressione
trovata `e esattamente il quoziente tra lo sviluppo di Laplace del determinante della matrice
A

b/col i
rispetto alla i
-esima
colonna (quella dove appare il vettore dei termini noti

b) e
detA.

Dimostrazione #2. Da A x = I

b (dove I denota la matrice identica) si ottiene


(47) A I
x/col i
= A

b/col i
,
dove I
x/col i
`e la matrice che si ottiene sostituendo la i
-esima
colonna della matrice identica
I con il vettore delle incognite x. Daltro canto det I
x/col i
= x
i
. Quindi prendendo
il determinante dellequazione (47) si ottiene
(detA) x
i
= (detA) (det I
x/col i
) = det
_
A I
x/col i
_
= det A

b/col i
.
Da (detA) x
i
= det A

b/col i
segue immediatamente luguaglianza di Cramer.

Esercizio 48. Risolvere il sistema lineare


_

_
x + 3y z = 1
2x + 7y + 2z = 2
x + 4y + 5z = 3
utilizzando
i) il metodo di Gauss;
ii) il calcolo dellinversa della matrice incompleta A nonche la formula (27);
iii) il teorema di Cramer.
Se il risultato che vi viene non `e sempre lo stesso ... rifate i conti!!!
25
8. Il calcolo dellinversa di una matrice mediante lalgoritmo di Gauss.
In questo paragrafo vediamo in che modo leliminazione di Gauss pu`o essere utilizzata
per calcolare linversa di una matrice. Sia A =
_
a
i,j
_
M
n,n
(R) una matrice invertibile,
la ricetta da seguire per calcolare A
1
consiste dei seguenti passi (per non appesantire le
notazioni, per descrivere questo procedimento considero il caso n = 4 ) :
i) si scrive la matrice n 2n costituita da due blocchi n n :
_
_
_
_
_
_
_
a
1,1
a
1,2
a
1,3
a
1,4
a
2,1
a
2,2
a
2,3
a
2,4
a
3,1
a
3,2
a
3,3
a
3,4
a
4,1
a
4,2
a
4,3
a
4,4

1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
;
ii) con i passi delleliminazione di Gauss si trasforma la matrice considerata no ad
ottenere la matrice identica al posto del primo blocco n n;
iii) si ricopia il secondo blocco n n : tale blocco `e linversa di A.
Esempio 49. Calcoliamo linversa della matrice
_
_
1 2 5
3 7 18
4 9 22
_
_
. A tal ne
scriviamo
_
_
1 2 5
3 7 18
4 9 22

1 0 0
0 1 0
0 0 1
_
_

(1)
_
_
1 2 5
0 1 3
0 1 2

1 0 0
3 1 0
4 0 1
_
_

(2)
_
_
1 2 5
0 1 3
0 0 1

1 0 0
3 1 0
1 1 1
_
_

(3)
_
_
1 2 5
0 1 0
0 0 1

1 0 0
6 2 3
1 1 1
_
_

(4)
_
_
1 0 0
0 1 0
0 0 1

8 1 1
6 2 3
1 1 1
_
_
,
dove: 1) alla seconda riga abbiamo sottratto il triplo della prima riga ed alla terza riga
abbiamo sommato il quadruplo della prima riga; 2) alla terza riga abbiamo sommato la
seconda; 3) alla seconda riga abbiamo sottratto il triplo della terza; 4) alla prima riga
abbiamo sottratto il doppio della seconda ed il quintuplo della terza. Linversa della matrice
data `e la matrice
_
_
8 1 1
6 2 3
1 1 1
_
_
.
Esercizio. Vericare luguaglianza
_
_
1 2 5
3 7 18
4 9 22
_
_

_
_
8 1 1
6 2 3
1 1 1
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Esercizio. Calcolare linversa delle matrici che seguono
_
1 1
3 2
_
,
_
_
1 0 1
3 1 3
2 8 1
_
_
,
_
_
1 6 3
7 1 0
1 6 3
_
_
,
_
_
3 0 3
4 2 6
3 7 3
_
_
,
_
_
_
2 5 3 1
4 7 9 3
1 0 3 1
1 0 0 1
_
_
_ .
26
Osservazione 50. Il motivo per cui questo metodo funziona `e abbastanza semplice: alla
matrice a blocchi (A| I ) , dove I denota la matrice identica, associamo il sistema lineare
A x = I

b ; ai passi che trasformano la matrice (A| I ) nella matrice (I | B) corrisponde


il fatto di trasformare il sistema lineare A x = I

b nel sistema lineare I x = B

b ;
poiche i passi delleliminazione di Gauss non cambiano la classe di equivalenza di un sistema
lineare, i due sistemi lineari A x = I

b e I x = B

b , cio`e
A x =

b e x = B

b ,
sono equivalenti. Poiche questa equivalenza vale per ogni scelta di

b , la matrice B deve
necessariamente essere linversa di A (questultima aermazione oltre ad essere molto ra-
gionevole si dimostra facilmente: dallequivalenza dei due sistemi lineari si deduce, sosti-
tuendo la seconda equazione nella prima, A B

b =

b , sempre per ogni scelta di

b; ne
segue che deve essere A B = I , cio`e che B `e linversa di A).
27
9. Spazi Vettoriali.
Accade spesso che oggetti molto diversi tra loro hanno una certa struttura matema-
tica comune, in questo caso ci si inventa un nome per quella struttura e la si studia. Tra i
vantaggi di questo modo di lavorare: in colpo solo si studiano pi` u oggetti, si impara a capire
cosa dipende da cosa il che consente una visione pi` u profonda.
In questo capitolo la struttura matematica che studiamo `e quella di spazio vettoriale
reale astratto. La denizione la dar`o dopo aver illustrato alcuni esempi, comunque voglio
anticipare che uno spazio vettoriale reale astratto non `e altro che un insieme, i cui elementi
verranno chiamati vettori, sul quale `e denita una somma tra vettori e sul quale `e denito
un prodotto per gli scalari (operazione che ad un numero reale ed a un vettore associa un
altro vettore). Naturalmente, per denizione, queste operazioni dovranno godere di alcune
propriet`a. Vogliamo procedere dal concreto allastratto, per cui ora non ci soermiamo su
tali propriet`a e passiamo subito agli esempi. Lo dico una volta per tutte: negli esempi che
seguono denoter`a sempre un numero reale.
Esempio 51. Spazio R
n
delle n
-ple
di numeri reali. In questo caso i vettori sono
elementi del tipo (x
1
, ..., x
n
) , la somma `e denita ponendo (x
1
, ..., x
n
) + (y
1
, ..., y
n
) :=
(x
1
+ y
1
, ..., x
n
+ y
n
) , ed il prodotto per gli scalari `e denito ponendo (x
1
, ..., x
n
) :=
(x
1
, ..., x
n
) . Questo esempio `e fondamentale perche nello studio degli spazi vettoriali di
dimensione nita ci si riconduce sempre ad esso. Pi` u avanti vedremo come e perche.
Nellindicare un elemento di R
n
abbiamo utilizzato una notazione per righe (x
1
, ..., x
n
) .
In realt`a la notazione giusta consiste nello scrivere le n
-ple
di numeri reali come vettori
colonna:
`e opportuno scrivere
_
_
x
1
.
.
.
x
n
_
_
invece di (x
1
, ..., x
n
) .
Si osservi che questa notazione diventa obbligata se si vuole che il prodotto righe per colonne
A v , dove A M
m,n
(R) e v R
n
, abbia senso.
Esempio 52. Spazio delle soluzioni di un sistema lineare omogeneo. In questo caso gli
elementi del nostro insieme, cio`e i vettori, sono le soluzioni del sistema lineare omogeneo
A x =

0 , dove A M
m,n
(R) , x =
_
_
x
1
.
.
.
x
n
_
_
e dove

0 :=
_
_
0
.
.
.
0
_
_
. Per la propriet`a
distributiva del prodotto tra matrici, se (s
1
, ..., s
n
) e (t
1
, ..., t
n
) sono soluzioni del sistema
dato, anche la somma (s
1
+t
1
, ..., s
n
+t
n
) nonche il prodotto ( s
1
, ..., s
n
) ne sono
soluzioni. Queste naturali operazioni di somma tra vettori e prodotto per uno scalare sono,
per denizione, le operazioni che deniscono la struttura di spazio vettoriale dellinsieme
considerato. Il lettore sagace avr`a intuito che questo spazio `e un sottospazio di R
n
(vedi
esempio 51).
Esempio 53. Spazio delle funzioni continue denite su un intervallo I . Nel corso di
analisi avete visto, o state per vedere, che la somma di due funzioni continue `e ancora una
funzione continua e che anche il prodotto f(x) ha senso ed `e una funzione continua,
dove R ed f(x) `e una funzione continua. Di nuovo, queste operazioni deniscono la
struttura di spazio vettoriale dellinsieme considerato.
Esempio 54. Spazio delle successioni. Chiaramente, se {a
n
}
nN
e {b
n
}
nN
sono
successioni, anche {a
n
+ b
n
}
nN
e {a
n
}
nN
sono successioni... .
Esempio 55. Spazio delle successioni convergenti. Di nuovo, la somma di successioni
convergenti `e una successione convergente, il prodotto per un numero reale di una successione
28
convergente `e una successione convergente. In eetti questo esempio `e un sottospazio
vettoriale del precedente.
Nellesempio che segue utilizzo la struttura di spazio vettoriale per risolvere un problema.
`
E opportuno che lo studente legga ora questo esempio, accettando le considerazioni che
inevitabilmente non hanno ancora una giusticazione formale, e che lo analizzi in maniera
pi` u critica dopo aver studiato gli spazi vettoriali in astratto.
Esempio 56. Spazio delle successioni di Fibonacci. Il problema `e il seguente: trovare
una formula per i termini della successione
(56.1) {1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, ...} ,
dove ogni numero `e la somma dei due numeri che lo precedono, e.g. 13 = 5+8, 55 = 21+34,
89 = 34 + 55 eccetera.
Soluzione. Per risolvere questo problema consideriamo lo spazio delle successioni, dette
successioni di Fibonacci, {a
0
, a
1
, a
2
, ... } che soddisfano la legge
(56.2) a
n+2
= a
n+1
+ a
n
, n 0 .
Non `e dicile vericare che questo `e uno spazio vettoriale, in particolare la somma di
successioni che soddisfano (56.2) `e ancora una successione che soddisfa (56.2) nonche il
prodotto per uno scalare di una tale successione soddisfa anchesso (56.2) . Linsieme,
o meglio lo spazio vettoriale, di tali soluzioni lo chiameremo V . Chiaramente (56.1) `e
un vettore di V . Premesso ci`o, dimentichiamoci di (56.1) e concentriamoci sullo spazio
vettoriale, o meglio, sulla legge (56.2) che ne denisce gli elementi. Qualche vettore di
V siamo in grado di trovarlo: tentiamo con una successione del tipo {a
n
:= x
n
} , con x
numero reale. La propriet`a (56.2) si traduce nella richiesta x
n+2
= x
n+1
+ x
n
, n 0 ,
cio`e nella richiesta (portiamo al primo membro x
n+1
+x
n
quindi raccogliamo x
n
a fattore
comune) (x
2
x+1) x
n
= 0 , n 0 . A questo punto, risolvendo lequazione di secondo
grado x
2
x + 1 = 0 troviamo x = (1

5)/2 e quindi troviamo che le due successioni


i)
_
b
n
:=
_
1 +

5
2
_
n
_
, ii)
_
c
n
:=
_
1

5
2
_
n
_
sono vettori di V , cio`e soddisfano (56.2). A questo punto non abbiamo certo risolto il
problema da cui siamo partiti. Lo ripeto, abbiamo semplicemente trovato due vettori di V .
Daltronde sappiamo che questi vettori li possiamo moltiplicare per degli scalari e sommare
tra loro. In termini pi` u espliciti, sappiamo che ogni successione del tipo
(56.3)
{b
n
} + {c
n
} = { b
n
+ c
n
}
=
_

_
1 +

5
2
_
n
+
_
1

5
2
_
n
_
, , R
`e un vettore di V . Ora che abbiamo a disposizione molti vettori di V siamo in grado
di risolvere il problema dal quale siamo partiti: la successione (56.1) del nostro problema
comincia con a
0
= a
1
= 1 , mentre la successione (56.3) comincia con a
0
= +, a
1
=
(1 +

5)/2 + (1

5)/2 . Imponendo luguaglianza, ovvero risolvendo il sistema


lineare di due equazioni in due incognite + = 1 , (1 +

5)/2 + (1

5)/2 = 1
(sistema che lo studente `e invitato a risolvere per esercizio), si trova = (5 +

5)/10 e
= (5

5)/10 . Poiche la successione di Fibonacci (56.1) `e univocamente individuata


dai valori iniziali a
0
= a
1
= 1 e dalla legge (56.2), abbiamo risolto il nostro problema: la
successione (56.1) deve necessariamente essere la successione
{a
n
} =
_
5 +

5
10

_
1 +

5
2
_
n
+
5

5
10

_
1

5
2
_
n
_
.
29
Lo studente scettico, ma anche quello che non lo `e, verichi ad esempio che per n = 6 questa
espressione vale 13 , che `e il termine a
6
della (56.1), e che per n = 8 questa espressione
vale 34 , che `e il termine a
8
della (56.1). ...sono rari i casi in cui calcolare qualche potenza
di un binomio ha fatto male a qualcuno!
Lesempio che abbiamo appena discusso `e importante perche lequazione (56.2) `e lanalogo
discreto di un tipo di equazioni che descrivono dei fenomeni sici: le equazioni dierenziali
lineari. Naturalmente non ho intenzione di studiare in questa sede tale tipo di equazioni, il
che `e oggetto di studio di un corso di analisi del secondo anno. Voglio comunque dire due
parole a riguardo.
Esempio 57. Spazio delle soluzioni di unequazione dierenziale lineare. Consideriamo un
punto che si muove lungo una retta, la sua posizione sar`a una funzione del tempo x(t) (dove
t indica il tempo trascorso). Questo punto sar`a soggetto a delle forze, ad esempio possiamo
supporre che c`e una molla ideale che lo spinge con una forza pari a 3xnewton (dove x
`e la coordinata sulla retta, relativa ad un sistema di riferimento la cui origine corrisponde
al punto di equilibrio della molla) e che c`e una resistenza che ne rallenta la velocit`a pari
a 2v newton, dove v denota la velocit`a del punto. Assumendo che il nostro punto ha
massa unitaria troviamo che la legge che ne descrive il moto `e data dallequazione
(57.1)
d
2
d
2
t
x(t) = 3x(t) 2
d
dt
x(t) .
Ricordiamo che la velocit`a `e la derivata della posizione rispetto al tempo e che laccelerazione
(derivata della velocit`a) `e la derivata seconda della posizione rispetto al tempo ed `e pari alla
somma delle forze applicate diviso la massa del corpo considerato. Il bello dellequazione che
abbiamo trovato `e che la somma di due sue soluzioni `e ancora una sua soluzione (la derivata
di una somma `e la somma delle derivate), nonche il prodotto per una scalare di una sua
soluzione `e anchesso una sua soluzione. In denitiva, linsieme delle soluzioni di (57.1) ha
la struttura di spazio vettoriale. Interrompo qui le mie considerazioni perche andare oltre
sarebbe oggetto di un corso di analisi sulle equazioni dierenziali.
`
E arrivato il momento di enunciare la denizione di spazio vettoriale reale
4
.
Denizione 58. Uno spazio vettoriale reale V `e un insieme sul quale `e denita una
operazione di somma ed una operazione di moltiplicazione per gli scalari
V V V R V V
(v , w) v + w (, v) v
che soddisfano le propriet`a che seguono
u + (v + w) = (u +v) + w, u, v, w V (associativit` a della somma);
u +v = v +u, u, v V (commutativit` a della somma);

0 V ed inoltre v V v V tali che

0 +v = v , v + (v) =

0, 0v =

0, 1v = v, (1)v = v
(in particolare, esistenza dellelemento neutro e degli opposti);
( + )v = v + v, (v + w) = v + w, (v) = ()v , v, w V , , R
(propriet`a distributive).
Osserviamo che sono tutte propriet`a molto naturali e che nei casi degli esempi discussi
sono tutte praticamente ovvie. Nello scrivere queste propriet`a non ci siamo preoccupati di
4
In realt`a, tutto quello che dico in questo capitolo e nei prossimi due capitoli, oltre a valere per spazi vettoriali
reali, vale anche per spazi vettoriali deniti sul campo dei numeri complessi nonche vale per spazi vettoriali
deniti su un campo astratto arbitrario.
30
evitare le ripetizioni, ad esempio la propriet`a 0v =

0 pu`o essere dedotta dalle altre:
(58.1) 0v = (1 1)v = 1v + (1)v = v + (v) =

0 .
Esercizio. Indicare, per ognuna delle uguaglianze in (58.1), quale propriet`a della
denizione (58) `e stata utilizzata.
Ora introduciamo la nozione di sottospazio vettoriale. Nella sostanza un sottospazio
vettoriale W di V `e uno spazio vettoriale W contenuto in V .
Denizione 59. Sia V uno spazio vettoriale e sia W un sottoinsieme di V . Se risulta
(59

)
w
1
+ w
2
W , w
1
, w
2
W ;
w W , w W .
allora diciamo che W `e un sottospazio vettoriale di V .
Osservazione 60. Si osservi che un tale W ha anchesso una naturale struttura di
spazio vettoriale: alla luce di (59

) , le due operazioni di somma e moltiplicazione per gli


scalari denite su V inducono altrettante operazioni su W (i vettori di W sono anche
vettori di V ), queste, per denizione, sono le due operazioni su W ; `e evidente che tali
operazioni soddisfano tutte le propriet`a richieste dalla denizione (58) perche le soddisfano
come operazioni su V (qui usiamo lipotesi che V `e uno spazio vettoriale).
Lo spazio dellesempio (52) `e un sottospazio vettoriale dello spazio dellesempio (51), quelli
degli esempi (55) e (56) sono sottospazi di quello dellesempio (54), quelli degli esempi (53)
e (57) sono sottospazi dello spazio vettoriale di tutte le funzioni (reali di variabile reale).
Esercizio. Suggerire altri esempi di spazi vettoriali e loro sottospazi.
Denizione 61. Sia V uno spazio vettoriale e siano v
1
, ..., v
k
vettori in V . Una
combinazione lineare dei vettori considerati `e una espressione del tipo

1
v
1
+ ... +
k
v
k
,
1
, ...,
k
R .
Denizione 62. Sia V uno spazio vettoriale e siano v
1
, ..., v
k
vettori in V . Diciamo
che i vettori considerati sono linearmente dipendenti se e solo se esistono
1
, ...,
k
R
non tutti nulli tali che
(62

)
1
v
1
+ ... +
k
v
k
=

0 .
Altrimenti, diciamo che sono linearmente indipendenti. Gli aggettivi dipendente e
indipendente possono riferirsi anche allinsieme dei vettori: `e corretto dire { ... } `e un
insieme dipendente (ovvero indipendente) di vettori.
Osservazione 63. Un insieme B di vettori `e un insieme indipendente di vettori se e solo
se nessun vettore v B `e combinazione lineare degli altri vettori di B .
La dimostrazione `e ovvia: si guardi la (62

).
Denizione 64. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Si denisce
SpanS linsieme di tutte le combinazioni lineari di vettori di S :
SpanS :=
_

1
v
1
+ ... +
k
v
k

1
, ...,
k
R
v
1
, ..., v
k
S
_
.
31
Proposizione 65. Si abbiamo V ed S come sopra. Si ha che SpanS `e un sottospazio
vettoriale di V .
Dimostrazione. Si deve vericare che SpanS soddisfa le propriet`a della denizione (59).
Chiaramente la somma di combinazioni lineari `e una combinazione lineare ed il prodotto di
una combinazione lineare per una costante `e una combinazione lineare. Ad esempio

_

1
v
1
+ ... +
k
v
k
_
= (
1
)v
1
+ ... + (
k
)v
k
.

Denizione 66. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Se SpanS = V
diciamo che S genera V .
Se esiste un insieme nito che genera V diciamo che V `e nitamente generato.
Studieremo esclusivamente gli spazi vettoriali nitamente generati. Dora in poi, con la
locuzione spazio vettoriale intender`o sempre spazio vettoriale nitamente generato.
Denizione 67. Sia V uno spazio vettoriale e sia S un suo sottoinsieme. Diciamo che
S `e una base di V se `e un insieme indipendente che genera V .
Osservazione 68. Sia B = {

b
1
, ...,

b
n
} una base di uno spazio vettoriale V . Poiche
per ipotesi B genera V , per ogni v V esistono dei coecienti
1
, ...,
n
tali che
v =
1

b
1
+ ... +
n

b
n
;
poiche B `e un insieme indipendente, tali coecienti sono unici: se
1

b
1
+ ... +
n

b
n
=
v =

b
1
+ ... +

b
n
, allora (
1

1
)

b
1
+ ... + (
n

n
)

b
n
=

0 e quindi, essendo B
un insieme indipendente, si deve avere
i
=

i
, i = 1, ..., n.
Denizione 69. I coecienti dellosservazione precedente
1
, ...,
n
si chiamano coordi-
nate del vettore v rispetto alla base B .
Esempio. Una base dello spazio vettoriale R
2
`e costituita dai vettori e
1
=
_
1
0
_
ed
e
2
=
_
0
1
_
. Infatti, `e chiaro che sono indipendenti e che generano R
2
: si ha
_

_
=
e
1
+ e
2
. La base B = {e
1
, e
2
} si chiama base canonica dello spazio vettoriale R
2
.
Si osservi che le coordinate del vettore
_

_
rispetto alla base canonica sono proprio i
coecienti e .
Generalizziamo quanto abbiamo appena visto: consideriamo lo spazio vettoriale R
n
. I
vettori e
1
:=
_
_
_
_
1
0
.
.
.
0
_
_
_
_
, e
2
=
_
_
_
_
0
1
.
.
.
0
_
_
_
_
, ... , e
n
=
_
_
_
_
0
.
.
.
0
1
_
_
_
_
, costituiscono una base, detta base
canonica, di R
n
. Anche in questo caso, le coordinate del vettore
_
_

1
.
.
.

n
_
_
rispetto alla base
canonica sono proprio i coecienti
1
, ...,
n
(lo studente verichi quanto abbiamo appena
aermato).
Esercizio. Sia B =
__
1
3
_
,
_
2
1
__
e sia v =
_
9
2
_
. Vericare che B `e una base di
R
2
, calcolare le coordinate di v rispetto alla base B .
32
Soluzione. I vettori di B sono chiaramente indipendenti e generano R
2
: il sistema lineare

1
_
1
3
_
+
2
_
2
1
_
=
_
x
y
_
ammette soluzioni per ogni
_
x
y
_
. Imponendo
1
_
1
3
_
+

2
_
2
1
_
=
_
9
2
_
si trovano le coordinate di v rispetto alla base B :
1
= 1,
2
= 5 .

Osservazione 70. Sia V uno spazio vettoriale. Nel momento in cui ssiamo una base
di V abbiamo a disposizione delle coordinate: associando ad ogni vettore v V la n
pla
delle sue coordinate (
1
, ...,
n
) otteniamo una identicazione di V con R
n
.
Lo studio della dipendenza lineare ed il problema della determinazione di una base di uno
spazio vettoriale si basano su tre osservazioni fondamentali.
Osservazione 71. Se S

S allora SpanS

SpanS .
Osservazione 71

. Se S `e un insieme indipendente di vettori e w SpanS , allora


linsieme S {w} `e anchesso un insieme indipendente di vettori.
Osservazione 71

. Sia w S e supponiamo che w `e combinazione lineare degli altri


vettori di S , cio`e supponiamo che esistono v
1
, ..., v
k
S e
1
, ...,
k
R tali che
w =
1
v
1
+ ... +
k
v
k
.
Sia S

:= S { w} linsieme ottenuto togliendo w dallinsieme S . Allora


SpanS

= SpanS .
Dimostrazione. Losservazione (71) `e assolutamente ovvia. La (71

) `e anchessa immediata.
Dimostriamo la (71

). A tal ne dobbiamo provare che ogni elemento di SpanS appartiene


anche a SpanS

(il viceversa segue da 71). Se u SpanS allora `e possibile scrivere


u =
1
u
1
+ ... +
r
u
r
, dove gli u
i
stanno in S . Se tra gli u
i
non c`e w non c`e nulla
da dimostrare perche la combinazione lineare scritta `e anche una combinazione lineare di
vettori di S

. Se tra gli u
i
c`e w, ad esempio u
1
= w, abbiamo
u =
1
u
1
+
2
u
2
+ ... +
r
u
r
,
=
1
(
1
v
1
+ ... +
k
v
k
) +
2
u
2
+ ... + u
r
.
Questultima espressione scritta `e una combinazione lineare di vettori di S

Supponiamo di avere un insieme nito di vettori S e di essere interessati esclusivamente


a SpanS ; losservazione (71

) ci consente di buttare via un vettore v S qualora sia


combinazione lineare degli altri vettori di S , quindi ci consente di trovare una base di
SpanS :
Algoritmo dellestrazione di una base 72. Consideriamo un primo vettore (non
nullo) di S ; scegliamo un secondo vettore, se questo `e un multiplo del primo lo scartiamo,
altrimenti lo teniamo; scegliamo un terzo vettore e se questo `e combinazione lineare dei
primi due lo scartiamo, altrimenti lo teniamo. Quindi iteriamo il procedimento di scegliere
un nuovo vettore e tenerlo solo se non `e combinazione lineare di quelli scelti precedentemente
(n.b.: per losservazione 71

, linsieme dei vettori che stiamo tenendo `e indipendente).


Terminati i vettori di S , avremo trovato la base cercata. Infatti, come gi`a osservato i
vettori scelti sono indipendenti, daltro canto generano anchessi SpanS (per losservazione
71

).
In particolare, lalgoritmo dellestrazione di una base ci assicura la seguente proposizione.
33
Proposizione 73. Sia V uno spazio vettoriale e sia S V un sottoinsieme nito che
genera V . Esiste una base B di V contenuta in S , per trovarla `e suciente applicare
lalgoritmo dellestrazione di una base.
Esempio. Consideriamo i vettori

b
1
=
_
_
_
3
2
2
4
_
_
_,

b
2
=
_
_
_
5
4
1
3
_
_
_,

b
3
=
_
_
_
8
6
3
7
_
_
_,

b
4
=
_
_
_
1
2
3
4
_
_
_ e
determiniamo una base di V := Span
_

b
1
,

b
2
,

b
3
,

b
4
_
R
4
:
prendiamo

b
1
, quindi consideriamo

b
2
e lo teniamo perche non `e un multiplo di

b
1
,
consideriamo

b
3
e lo eliminiamo perche `e combinazione lineare di

b
1
e

b
2
, consideriamo

b
4
e lo teniamo perche non `e combinazione lineare degli altri vettori scelti. In denitiva
abbiamo che linsieme B

:= {

b
1
,

b
2
,

b
4
} `e una base di SpanS .
Osservazione 74. Ogni spazio vettoriale ammette moltissime basi, pu`o accadere che
abbiamo bisogno di trovare una base contenente certi particolari vettori ssati a priori.
Una base di tale tipo si chiama completamento ad una base di un insieme indipendente
di vettori, per trovarla possiamo utilizzare lalgoritmo dellestrazione di una base (72):
dati dei vettori indipendenti v
1
, ..., v
k
di uno spazio vettoriale V , possiamo considerare
(in questo ordine) i vettori v
1
, ..., v
k
, w
1
, ..., w
m
, dove { w
1
, ..., w
m
} `e un insieme di
vettori che genera V (lesistenza di questinsieme di vettori `e garantita dallipotesi che V
`e nitamente generato, vedi denizione 66). Applicando lalgoritmo dellestrazione di una
base troviamo una base di V contenente i vettori v
1
, ..., v
k
(questo perche sono i primi che
scegliamo e sono indipendenti). In particolare, il ragionamento esposto dimostra il teorema
del completamento ad una base di un insieme indipendente di vettori:
Teorema 75 (del completamento). Sia V uno spazio vettoriale nitamente generato e
siano v
1
, ..., v
k
dei vettori indipendenti di V . Allora esiste una base di V contenente i
vettori dati.
Esercizio. Trovare una base di R
4
contenente i vettori

b
1
=
_
_
_
1
1
2
1
_
_
_ e

b
2
=
_
_
_
2
3
4
2
_
_
_ .
Suggerimento: utilizzare i vettori della base canonica per completare linsieme {

b
1
,

b
2
} ,
cio`e si applichi lalgoritmo (72) allinsieme dei vettori {

b
1
,

b
2
, e
1
, e
2
, e
3
, e
4
} .
Proposizione 76. Sia V uno spazio vettoriale nitamente generato (vedi denizione 66)
e sia B una base di V . Allora B `e costituita da un numero n nito di vettori, il numero
n dipende solo da V : se B

`e unaltra base di V allora anche B

ha n elementi. Inoltre,
ogni insieme di vettori S che ha pi` u di n elementi `e linearmente dipendente nonche ogni
insieme indipendente costituito da n vettori `e una base.
Lidea della dimostrazione `e che `e possibile sostituire uno alla volta i vettori di B con
quelli di B

mantenendo la propriet`a di avere una base di V .


Dimostrazione. Sia B = {

b
1
, ...,

b
n
} e sia B

= {

d
1
, ...,

d
k
} . Come primo passo
consideriamo i vettori {

d
1
,

b
1
, ...,

b
n
} , quindi applichiamo lalgoritmo dellestrazione di una
base. Iteriamo questo procedimento: ogni volta aggiungiamo un vettore di B

(inserendolo
allinizio) e applichiamo lalgoritmo. Alla ne arriveremo ad avere solamente i vettori di
B

. Quando aggiungiamo un vettore, passiamo da una base a un sistema dipendente di


generatori, quindi, quando applichiamo lalgoritmo togliamo almeno un vettore. Poiche ad
ogni passo aggiungiamo un vettore e ne togliamo almeno uno, i vettori di B

sono in numero
minore o uguale a quelli di B , cio`e risulta k n. Scambiando i ruoli tra B e B

si ottiene
34
n k . In denitiva n = k .

Denizione 77. Sia V uno spazio vettoriale nitamente generato e sia B una base. Si
denisce la dimensione di V ponendo
dimV := n = numero degli elementi di B .
Sottolineo che la denizione ha senso (`e ben posta) perche, in virt` u della proposizione
precedente, tale numero non dipende dalla particolare base B che abbiamo a disposizione.
Esercizio. Siano

b
1
=
_
_
_
1
4
2
3
_
_
_,

b
2
=
_
_
_
2
8
4
6
_
_
_,

b
3
=
_
_
_
8
1
3
7
_
_
_,

b
4
=
_
_
_
9
3
1
10
_
_
_ . Si determini
una base di V := Span
_

b
1
,

b
2
,

b
3
,

b
4
_
R
4
.
Esercizio. Si determini una base di R
3
contenente il vettore v =
_
_
0
4
3
_
_
.
Esercizio. Sia B =
_
_
_
_
_
2
3
5
_
_
,
_
_
1
4
1
_
_
_
_
_
una base di un sottospazio W di R
3
. Si
determini unaltra base di W .
Esercizio. Determinate le coordinate del vettore v R
3
rispetto alla base B =
_

b
1
,

b
2
,

b
3
_
quando:
a)

b
1
=
_
_
0
2
1
_
_
,

b
2
=
_
_
1
2
1
_
_
,

b
3
=
_
_
3
2
5
_
_
, v =
_
_
1
2
1
_
_
;
b)

b
1
=
_
_
3
2
1
_
_
,

b
2
=
_
_
3
5
1
_
_
,

b
3
=
_
_
3
7
5
_
_
, v =
_
_
3
2
1
_
_
;
c)

b
1
=
_
_
4
0
0
_
_
,

b
2
=
_
_
0
5
7
_
_
,

b
3
=
_
_
0
7
10
_
_
, v =
_
_
0
2
1
_
_
.
Esercizio. Si consideri lo spazio vettoriale V := Span{

b
1
,

b
2
,

b
3
} . Estrarre dallinsieme
{

b
1
,

b
2
,

b
3
} una base B
V
di V , vericare che v V e determinare le coordinate di v
rispetto alla base B
V
, quando:
a)

b
1
=
_
_
1
1
2
_
_
,

b
2
=
_
_
2
1
3
_
_
,

b
3
=
_
_
1
1
1
_
_
, v =
_
_
5
2
7
_
_
.
b)

b
1
=
_
_
1
0
2
_
_
,

b
2
=
_
_
2
1
1
_
_
,

b
3
=
_
_
1
1
3
_
_
, v =
_
_
3
2
4
_
_
.
c)

b
1
=
_
_
_
7
0
45
38
_
_
_,

b
2
=
_
_
_
473
189
32
18
_
_
_,

b
3
=
_
_
_
0
0
0
0
_
_
_, v =
_
_
_
473
189
32
18
_
_
_.
35
10. Sottospazi di uno spazio vettoriale e formula di Grassmann.
Denizione 78. Sia V uno spazio vettoriale e siano U e W due suoi sottospazi. Si
deniscono la loro somma e la loro intersezione ponendo
U + W :=
_
v = u + w

u U , w W
_
U W :=
_
v

v U , v W
_
Osservazione 79. Gli insiemi U + W e U W sono entrambi sottospazi vettoriali di
V . Lo studente verichi che soddisfano le propriet`a indicate nella denizione (59).
Esercizio. Sia V uno spazio vettoriale e U , W due suoi sottospazi. Provare che
U + W = Span{U W} , dove denota lunione di insiemi. Osservare che, in
particolare, U + W `e anchesso un sottospazio di V .
Teorema 80 (formula di Grassmann). Sia V uno spazio vettoriale e siano U , W
due suoi sottospazi. Le dimensioni di somma e intersezione di U e W sono legate dalla
seguente formula
dim
_
U + W
_
= dimU + dimW dim
_
U W
_
Questa formula non va imparata a memoria, `e intuitivamente ovvia: la dimensione dello
spazio somma `e uguale alla somma delle dimensioni meno un fattore correttivo che in un
certo senso tiene conto delle ripetizioni. Lo studente osservi lanalogia con lovvia formula
di insiemistica #(A B) = #A + #B #(A B) , dove A e B sono insiemi niti e
# indica il numero degli elementi di un insieme. Lanalogia `e ancora pi` u evidente alla
luce della seguente dimostrazione delle formula di Grassmann (che suggeriamo quindi di non
saltare).
Dimostrazione. Consideriamo una base {

b
1
, ...,

b
r
} di U W e la completiamo ad
una base {

b
1
, ...,

b
r
, u
1
, ..., u
s
} di U nonche ad una base {

b
1
, ...,

b
r
, w
1
, ..., w
t
} di W .
Il teorema segue dal fatto che {

b
1
, ...,

b
r
, u
1
, ..., u
s
, w
1
, ..., w
t
} `e una base di U + W :
`e chiaro che questi vettori generano U + W , daltro canto sono anche indipendenti per
lesercizio che segue.
Pertanto, dim(U+W) = r+s+t = (r+s) +(r+t) r = dimU + dimW dim
_
UW
_
.

Esercizio. Completare la dimostrazione del teorema precedente provando che se per


assurdo esiste una relazione di dipendenza lineare

b
1
+ ... +
r

b
r
+
r+1
u
1
+ ... +
r+s
u
s
+
r+s+1
w
1
+ ... +
r+s+t
w
t
=

0
si giunge ad una contraddizione.
Esempio. Consideriamo R
3
e due piani distinti U e W passanti per lorigine. Si osservi
che la loro intersezione deve essere una retta, quindi ha dimensione 1 . Si ha dim
_
U+W
_
=
3 nonche dimU + dimW dim
_
U W
_
= 2 + 2 1 = 3 .
Osservazione 81. Per determinare un insieme di generatori dello spazio somma U + W
`e suciente considerare lunione di un insieme di generatori di U ed un insieme di generatori
di W ; per determinarne una base `e quindi suciente applicare lalgoritmo dellestrazione
di una base (72) allinsieme considerato.
Osservazione 82. Per determinare lintersezione U W bisogna invece risolvere un
sistema di equazioni: se U = Span {u
1
, ..., u
h
} e W = Span { w
1
, ..., w
k
} , lintersezione
36
U W `e data dalle combinazioni lineari

h
i=1
x
i
u
i
_
ovvero dalle combinazioni lineari

k
i=1
y
i
w
i
_
, dove x
1
, ..., x
h
, y
1
, ..., y
k
sono le soluzioni del sistema lineare di n = dimV
equazioni (una per ogni coordinata) in h + k incognite
h

i=1
x
i
u
i
=
k

i=1
y
i
w
i
.
Esempio. Siano U = Span
_
_
_
_
_
3
5
7
_
_
,
_
_
2
1
1
_
_
_
_
_
e W = Span
_
_
_
_
_
4
3
8
_
_
,
_
_
1
2
1
_
_
_
_
_
due
sottospazi di R
3
. Risolvendo il sistema lineare
() x
1
_
_
3
5
7
_
_
+ x
2
_
_
2
1
1
_
_
= y
1
_
_
4
3
8
_
_
+ y
2
_
_
1
2
1
_
_
,
ovvero
_

_
3 x
1
+ 2 x
2
= 4 y
1
+ y
2
5 x
1
+ x
2
= 3 y
1
+ 2 y
2
7 x
1
x
2
= 8 y
1
+ y
2
, si trova
_

_
x
1
= t
x
2
= 2t
y
1
= t
y
2
= 3t
(dove t `e un parametro libero, vedi paragrafo 3). Ne segue che
U W =
_
_
_
v = t
_
_
3
5
7
_
_
2t
_
_
2
1
1
_
_

t R
_
_
_
= Span
_
_
_
_
_
1
3
5
_
_
_
_
_
.
Si osservi che avremmo potuto anche utilizzare le espressioni a destra delluguaglianza ():
U W =
_
_
_
v = t
_
_
4
3
8
_
_
+ 3t
_
_
1
2
1
_
_

t R
_
_
_
= Span
_
_
_
_
_
1
3
5
_
_
_
_
_
.
Esercizio. Sia V = R
4
, U = Span {u
1
, u
2
} , W = Span { w
1
, w
2
, w
3
} . Determinate
una base dello spazio somma U + W ed una base dellintersezione U W quando
a) u
1
=
_
_
_
0
2
1
2
_
_
_, u
2
=
_
_
_
1
2
1
2
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
1
2
4
_
_
_, w
3
=
_
_
_
2
2
3
2
_
_
_;
b) u
1
=
_
_
_
2
2
6
5
_
_
_, u
2
=
_
_
_
5
2
0
4
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
0
1
2
_
_
_, w
3
=
_
_
_
4
2
1
2
_
_
_;
c) u
1
=
_
_
_
5
4
11
8
_
_
_, u
2
=
_
_
_
1
0
0
0
_
_
_, w
1
=
_
_
_
3
2
5
3
_
_
_, w
2
=
_
_
_
1
0
1
2
_
_
_, w
3
=
_
_
_
1
2
7
7
_
_
_.
Inoltre, vericate che le dimensioni degli spazi trovati soddisfano la formula di Grassmann
(se non la soddisfano c`e un errore in quello che avete fatto).
...attenzione allesercizio (c)!
37
Esercizio. Siano U e W due sottospazi di R
19
. Determinate le possibili dimensioni
della loro intersezione sapendo che dimU = 9 , dimW = 14 .
Esercizio. Siano U e W due sottospazi di R
8
. Supponiamo che dim(U W) = 3 e
che dimU = 6 . Provare che 3 dimW 5 .
Soluzione. Per la formula di Grassmann abbiamo dimW = dim(U+W) + dim(UW)
dimU = dim(U+W) +3 6 = dim(U+W) 3 . Poiche 6 = dimU dim(U+W) 8 ,
si deve avere 3 dimW 5 .

Esercizio. Si considerino i seguenti sottospazi di R


4
.
U
k
= Span{
_
_
_
0
k + 1
1
0
_
_
_,
_
_
_
0
2
1
0
_
_
_,
_
_
_
2
0
0
7 k
_
_
_} , W = Span{
_
_
_
1
0
0
1
_
_
_,
_
_
_
1
3
0
1
_
_
_} .
a) Calcolare la dimensione di U
k
in funzione del parametro k ;
b) calcolare i valori del parametro k per i quali lintersezione U
k
W ha dimensione 0,
ovvero 1, ovvero 2.
c) scegliere un valore

k per il quale U

k
W ha dimensione 1 e scrivere esplicitamente
una base di U

k
W ;
d) completare la base di U

k
W trovata al punto c) a una base di U

k
.
Suggerimento: dopo aver risposto alla domanda a), determinare la dimensione dello spazio
somma U
k
+ W , quindi utilizzare la formula di Grassmann.
Esercizio. Si considerino i sottospazi U e V di R
4
ed il vettore v
k
R
4
(dipendente
dal parametro k) deniti come segue:
U = Span
_

_
_
_
_
1
3
2
1
_
_
_,
_
_
_
5
1
2
4
_
_
_
_

_
, V = Span
_

_
_
_
_
3
2
0
6
_
_
_,
_
_
_
2
6
4
9
_
_
_
_

_
, v
t
=
_
_
_
2
2t
4
3t
_
_
_.
a) determinare una base B
UV
dellintersezione U V ;
b) determinare i valori del parametro t per i quali v
t
appartiene allo spazio U nonche
i valori per i quali v
t
appartiene allintersezione U V ;
c) completare la base di U V trovata al punto a) a una base di U + V .
38
11. Rango di una matrice.
Sia A M
m,n
(R) una matrice.
Denizione 83. Un minore estratto da A `e una matrice quadrata ottenuta cancellando
alcune righe ed alcune colonne di A. Il rango di A, che indicheremo con rgA, `e lordine
5
massimo di un minore invertibile.
Esempio. Un minore di A =
_
_
14 -3 4 2
5 1 7 9
9 -4 11 7
_
_
`e la matrice B =
_
3 4
4 11
_
ottenuta cancellando la seconda riga, la prima colonna e la quarta colonna di A. Poiche
detB = 0 , il rango di A `e maggiore o uguale a 2. Daltro canto la terza riga di A `e uguale
alla somma delle prime due, ne segue che ogni minore di ordine 3 di A ha il determinante
uguale a zero e quindi non pu`o essere invertibile. In denitiva, rgA = 2 .
Osservazione. Essendo nullo il determinante di una matrice quadrata B le cui righe
(ovvero colonne) sono dipendenti, rgA non pu`o superare ne il numero massimo di righe
indipendenti di A ne il numero massimo di colonne indipendenti di A. Per lo stesso
motivo, inoltre, ai ni del calcolo del rango di una matrice, possiamo eliminare una riga
(ovvero colonna) se questa `e combinazione lineare delle altre.
Osservazione. Se A `e una matrice a scala, il suo rango `e uguale al numero delle righe
non nulle. Infatti, se A `e una matrice a scala, la matrice che si ottiene cancellando le righe
nulle e le colonne che non corrispondono ad alcun pivot
6
`e una matrice quadrata, triangolare
superiore, con gli elementi sulla diagonale che sono non nulli, e quindi invertibile. Lordine
di tale matrice quadrata, che `e uguale al numero delle righe non nulle di A, `e il rango di A.
Esempio. Consideriamo la matrice a scala
A =
_
_
_
_
_
_
_
_
_
_
0 1 2 3 4 5 6 7
0 0 8 9 10 11 12 13
0 0 0 0 -1 -2 3 4
0 0 0 0 0 -5 6 7
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
.
Le colonne seconda, terza, quinta e sesta sono quelle dei pivot. Cancellando la quinta riga,
la prima, la quarta, la settima e lottava colonna si ottiene il minore invertibile di ordine
massimo
_
_
_
1 2 4 5
0 8 10 11
0 0 1 2
0 0 0 5
_
_
_ .
Pertanto, si ha rgA = 4 .
Teorema 84. Il rango rgA di una matrice A M
m,n
(R) coincide con
i) il numero massimo di righe indipendenti di A;
ii) il numero massimo di colonne indipendenti di A.
Dimostrazione. Abbiamo gi`a visto che
rg(A) # max righe ind. , rg(A) # max col. ind.
5
Una matrice quadrata di ordine k `e una matrice in M
k,k
(R) .
6
Un pivot di una matrice a scala `e, per denizione, il primo elemento non nullo di una riga non nulla.
39
Daltro canto, posto k uguale al numero massimo di colonne indipendenti e indicata con
C la matrice ottenuta considerando un insieme massimale di colonne indipendenti di A,
dal fatto che il sistema lineare Cx =

0 non ha soluzioni non banali (non ci stanchiamo di
ripetere che il prodotto Cx non `e altro che la combinazione lineare di coecienti x
1
, ..., x
k
delle colonne di C ) e dalla teoria svolta studiando i sistemi lineari, segue che il sistema ha
k equazioni indipendenti, ovvero C ha almeno k righe indipendenti, e che il determinante
della matrice costituita da tali k righe di C `e non nullo. In particolare, rg(A) k . Stessa
cosa per il numero massimo di righe indipendenti: basta scambiare i ruoli di righe e colonne
(ovvero considerare la trasposta di A).

Osservazione 85. Chiaramente, il rango di una matrice `e invariante rispetto alle


operazioni delleliminazione di Gauss (8

del paragrafo 3). Quindi, un modo per calcolare


il rango di una matrice `e quello di eettuare la riduzione a scala e poi contare il numero dei
pivot (equivalentemente, delle righe non nulle).
Esercizio. Determinare il rango delle matrici che seguono.
_
_
4 3 1
1 1 2
1 3 1
_
_
,
_
_
1 2 3 1
4 4 5 3
2 0 1 1
_
_
,
_
_
1 0 0 4
3 0 2 0
1 2 0 0
_
_
,
_
_
_
1 3
0 0
3 9
2 6
_
_
_
_
_
_
0 2 3 9
0 0 2 2
0 0 1 1
0 0 0 0
_
_
_ ,
_
_
_
1 3 3 1
3 4 9 4
1 2 0 4
0 1 1 7
_
_
_ ,
_
0 0 0
0 0 0
_
,
_
_
2 1
0 0
4 2
_
_
_
0 0 1 1 3 9
1 0 1 1 3 9
_
,
_
1 3 4
2 6 8
_
,
_
_
_
_
_
_
_
0 7 1 2 4 9
0 0 1 2 4 9
0 0 0 2 4 9
0 0 0 0 4 9
0 0 0 0 0 9
0 0 0 0 0 0
_
_
_
_
_
_
_
.
Esercizio. Determinare il rango delle matrici che seguono al variare di k.
_
_
0 k 1
1 1 2
1 3 1
_
_
,
_
_
k 2 3 k + 2
4 4 5 3
2 0 1 0
_
_
,
_
_
1 0 0 4
k 1 0 2 0
3 0 1 0
_
_
,
_
_
_
k 3
0 0
3k 9
2k 6
_
_
_
_
_
_
0 k 1 3 9
0 0 2k 1 3
0 0 k 3k
0 0 0 0
_
_
_ ,
_
_
_
1 3 3 1
0 4 k 1 0
2 k + 2 5 4
0 4 3 5
_
_
_ ,
_
0 k 0
0 3k 0
_
,
_
0 0 k k 6 3k 2k + 12
0 0 1 k + 4 3 2k + 8
_
,
_
k 4 12
9 k 3k
_
,
_
_
_
_
_
_
_
0 k k k k k
0 0 k k k k
0 0 0 k k k
0 0 0 0 k k
0 0 0 0 0 k
0 0 0 0 0 0
_
_
_
_
_
_
_
,
_
_
_
0 0 0 0
0 0 0 1 k
0 0 5 0
0 1 k 0 0
_
_
_ ,
_
_
2 1 k
0 0
4 2
_
_
,
_
_
_
_
_
_
_
_
_
_
_
0
k
2
+ k
0
0
0
0
k
3
+ k
2
0
_
_
_
_
_
_
_
_
_
_
_
,
_
_
k k
k k
k k
_
_
.
40
12. Sottospazi di uno spazio vettoriale II.
In questo paragrafo indichiamo come calcolare la dimensione di uno spazio vettoriale
(teorema 86). Osserviamo che se conosciamo la dimensione di uno spazio vettoriale possiamo
eseguire lalgoritmo (72) in modo pi` u ecace: se sappiamo a priori che un certo Span
ha dimensione k , una volta trovati k vettori indipendenti interromperemo lesecuzione
dellalgoritmo.
Consideriamo W := Span
_

b
1
, ...,

b
k
_
R
n
. Possiamo disporre le coordinate dei
vettori

b
1
, ...,

b
k
in una matrice: deniamo una matrice in M
n,k
ponendo le coordinate del
vettore

b
i
nella i
esima
colonna. La matrice appena introdotta `e qualcosa del tipo
B :=
_
_
_
_
| |

b
1
...

b
k
| |
_
_
_
_
,
la chiameremo matrice associata ai vettori

b
1
, ...,

b
k
.
Teorema 86. Consideriamo W = Span
_

b
1
, ...,

b
k
_
R
n
e la matrice B associata
ai vettori

b
1
, ...,

b
k
. Si ha
dimW = rgB .
Inoltre, se i
1
, ..., i
r
sono le colonne di B individuate da un minore invertibile di rango
massimo r (vedi la denizione di rango), linsieme
_

b
i
1
, ...,

b
i
r
_
`e una base di W .
Dimostrazione. La dimensione di W `e il numero massimo di vettori indipendenti
dellinsieme
_

b
1
, ...,

b
k
_
. Per il teorema (84) questo numero `e uguale al rango r di B .
Inoltre, essendo le colonne di posto i
1
, ..., i
r
indipendenti, i corrispondenti vettori devono
costituire una base di W (si veda la parte nale della proposizione 76).

Esempio. Consideriamo il sottospazio V := Span


_

b
1
,

b
2
,

b
3
,

b
4
_
di R
3
, dove

b
1
=
_
_
3
2
5
_
_
,

b
2
=
_
_
1
3
3
_
_
,

b
3
=
_
_
7
7
7
_
_
,

b
4
=
_
_
2
1
1
_
_
. La matrice associata ai vettori

b
1
,

b
2
,

b
3
,

b
4
`e la matrice B =
_
_
3 1 7 2
2 3 7 1
5 3 7 1
_
_
. Poiche
_
_
3 1 2
2 3 1
5 3 1
_
_
`e un minore
invertibile di ordine tre (rgB = 3), linsieme di vettori
_

b
1
,

b
2
,

b
4
_
`e una base di V .
Si osservi che lo spazio V di questo esempio `e un sottospazio di R
3
di dimensione 3,
quindi V = R
3
.
`
E un errore non accorgersene! Comunque, in un caso come questo, se vi
viene chiesto di scrivere una base di V potete tranquillamente scrivere la base canonica di
R
3
.
Esercizio. Determinare la dimensione di Span
_

b
1
,

b
2
,

b
3
,

b
4
_
quando:
a)

b
1
=
_
_
1
3
2
_
_
,

b
2
=
_
_
2
6
4
_
_
,

b
3
=
_
_
4
5
8
_
_
,

b
4
=
_
_
0
0
0
_
_
;
b)

b
1
=
_
_
_
1
4
1
2
_
_
_,

b
2
=
_
_
_
2
4
5
3
_
_
_,

b
3
=
_
_
_
2
3
6
11
_
_
_,

b
4
=
_
_
_
1
1
1
1
_
_
_.
41
13. Sottospazi di uno spazio vettoriale: equazioni parametriche e cartesiane.
Consideriamo lo spazio R
n
ed un suo sottospazio W = Span
_

b
1
, ...,

b
r
_
. Possiamo
rienunciare la denizione di Span dicendo che lo spazio W `e linsieme delle n
ple
(x
1
, ..., x
n
) che soddisfano le equazioni
(87)
_

_
x
1
= b
1,1
t
1
+ ... + b
1,r
t
r
...
x
n
= b
n,1
t
1
+ ... + b
n,r
t
r
per qualche t
1
, ..., t
r
R. Qui, come al solito, B = (b
i,j
) `e la matrice associata ai
vettori

b
1
, ...,

b
r
: per denizione, b
i,j
`e la i
esima
coordinata di

b
j
.
Denizione 88. Assumiamo che
_

b
1
, ...,

b
r
_
sia una base di W . Le equazioni (87)
si chiamano equazioni parametriche dello spazio W e le variabili t
1
, ..., t
r
si chiamano
parametri o coordinate.
Consideriamo lo spazio R
n
ed una matrice di coecienti =
_

i,j
_
M
s,n
(R) .
Abbiamo visto (esempio 52, 9) che linsieme U delle soluzioni del sistema lineare omogeneo
(89) x =

0 , ovvero
_

1,1
x
1
+ ... +
1,n
x
n
= 0
...

s,1
x
1
+ ... +
s,n
x
n
= 0
,
`e un sottospazio di R
n
.
Denizione. Le equazioni del sistema lineare omogeneo (89) si chiamano equazioni
cartesiane dello spazio U .
Il passaggio da equazioni cartesiane a parametriche di un sottospazio W si eettua sem-
plicemente risolvendo il sistema lineare. Il passaggio inverso, ovvero quello da equazioni
parametriche a cartesiane si eettua eliminando i parametri. Nellesempio che segue ve-
diamo come si eliminano i parametri.
Esempio. Per determinare delle equazioni cartesiane del sottospazio di R
4
W := Span
_

b
1
,

b
2
_
, dove

b
1
:=
_
_
_
8
6
9
4
_
_
_,

b
2
:=
_
_
_
3
2
11
5
_
_
_,
dopo aver vericato che {

b
1
,

b
2
} `e una base di W , si scrive il sistema di equazioni
()
_

_
x
1
= 8t
1
+ 3t
2
x
2
= 6t
1
+ 2t
2
x
3
= 9t
1
+ 11t
2
x
4
= 4t
1
+ 5t
2
,
quindi dalle ultime due equazioni si determina t
1
= 5x
3
11x
4
, t
2
= 4x
3
+ 9x
4
.
Sostituendo inne le espressioni trovate nelle prime due equazioni del sistema (), si trovano
le equazioni cartesiane di W :
_
x
1
= 8(5x
3
11x
4
) + 3(4x
3
+ 9x
4
)
x
2
= 6(5x
3
11x
4
) + 2(4x
3
+ 9x
4
)
,
42
ovvero le equazioni
_
x
1
28x
3
+ 61x
4
= 0
x
2
22x
3
+ 48x
4
= 0
.
La correttezza del procedimento visto si spiega facilmente: lo spazio W `e lo spazio di
quei vettori di R
4
di coordinate x
1
, x
2
, x
3
, x
4
che soddisfano le realzioni (), essendo t
1
e t
2
parametri liberi. Le equazioni () sono equivalenti alle 4 equazioni
x
1
28x
3
+61x
4
= 0 , x
2
22x
3
+48x
4
= 0 , t
1
= 5x
3
11x
4
, t
2
= 4x
3
+9x
4
.
Questo signica che W (e lo faccio a posta a ripetermi!) `e lo spazio di quei vettori di R
4
di
coordinate x
1
, x
2
, x
3
, x
4
che soddisfano le equazioni qui sopra, essendo t
1
e t
2
parametri
liberi. Ma a questo punto `e chiaro che le equazioni t
1
= 5x
3
11x
4
e t
2
= 4x
3
+9x
4
le possiamo semplicemente cassare perche non aggiungono nulla: ci stanno dicendo che le
espressioni 5x
3
11x
4
e 4x
3
+ 9x
4
possono asumere qualsiasi valore (chiaramente `e
fondamentale il fatto che t
1
e t
2
non compaiono in nessuna altra equazione).
Esempio. Per determinare delle equazioni parametriche del sottospazio U di R
5
denito
dalle equazioni
_

_
2x
1
+ x
2
3x
3
+ x
4
x
5
= 0
6x
1
+ 3x
2
6x
3
+ 2x
4
x
5
= 0
2x
1
+ x
2
3x
3
+ 2x
4
+ 4x
5
= 0
,
si risolve il sistema lineare, quindi si scrivono le soluzioni nella forma (14), paragrafo 3:
_

_
x
1
, x
2
, x
3
, x
4
, x
5

x
1
= 3t
1
3t
2
x
2
= 6t
1
x
3
= 14t
2
x
4
= 30t
2
x
5
= 6t
2
_

_
.
Le equazioni appena trovate sono equazioni parametriche dello spazio U .
Osservazione. Sistemi diversi possono rappresentare lo stesso spazio, ad esempio il
sistema
_
2x 3y = 0
5x + z = 0
ed il sistema
_
9x 6y + z = 0
x + 9y + z = 0
deniscono
la stessa retta dello spazio R
3
.
Esercizio. Provare che i due sistemi dellosservazione precedente sono equivalenti, quindi
dedurre che deniscono la stessa retta. Risolvere i due sistemi, quindi trovare delle equazioni
parametriche della retta che deniscono.
Esercizio. Determinare delle equazioni cartesiane dei seguenti sottospazi di R
3
e di R
4
U = Span
_
_
_
_
_
2
3
1
_
_
,
_
_
4
2
1
_
_
_
_
_
; V = Span
_
_
_
_
_
1
5
1
_
_
_
_
_
;
W = Span
_
_
_
_
_
2
3
5
_
_
,
_
_
3
2
1
_
_
_
_
_
; H = Span
_

_
_
_
_
2
2
3
1
_
_
_,
_
_
_
4
4
2
1
_
_
_
_

_
;
K = Span
_

_
_
_
_
2
2
3
7
_
_
_,
_
_
_
4
4
1
9
_
_
_,
_
_
_
1
4
1
6
_
_
_
_

_
.
43
Esercizio. Determinare delle equazioni parametriche dei seguenti sottospazi di R
3
U =
_
x
1
2x
3
= 0
x
1
+ 2x
2
+ 3x
3
= 0
; V =
_
x
1
2x
3
= 0 ;
W =
_
2x
1
+ x
2
+ x
3
= 0 ; H =
_
x
1
+ x
2
+ x
3
= 0
2x
1
2x
2
2x
3
= 0
.
Esercizio. Determinare delle equazioni parametriche dei seguenti sottospazi di R
4
U =
_
x
1
2x
4
= 0
x
1
+ 2x
3
+ 3x
4
= 0
; V =
_

_
x
1
x
4
= 0
x
1
x
3
= 0
x
2
x
3
= 0
;
W =
_
3x
1
+ 7x
2
+ x
3
= 0
2x
1
x
2
x
3
= 0
; H =
_
x
1
2x
3
= 0 .
Abbiamo visto che la dimensione dello spazio W = Span
_

b
1
, ...,

b
r
_
`e uguale al rango
della matrice B associata ai vettori

b
1
, ...,

b
r
(teorema 86). Anche quando uno spazio `e
denito da equazioni cartesiane sappiamo calcolarne la dimensione. Se U R
n
`e denito
da s equazioni cartesiane, ci si aspetta che la sua dimensione sia dimU = n s ; questo
perche ogni equazione dovrebbe far scendere di uno la sua dimensione. Poiche potremmo
avere delle equazioni ripetute pi` u volte o che comunque non aggiungono nulla al sistema
perche possono essere dedotte dalle altre, a priori possiamo solamente aermare che risulta
dimU n s . Vale il teorema che segue.
Teorema 90. Sia U R
n
lo spazio vettoriale denito dalle equazioni cartesiane
x =

0 , ovvero
_

1,1
x
1
+ ... +
1,n
x
n
= 0
...

s,1
x
1
+ ... +
s,n
x
n
= 0
Si ha
dimU = n rg ,
dove =
_

i,j
_
M
s,n
(R) `e la matrice associata al sistema di equazioni.
Dimostrazione. Assodato che la dimensione di U `e uguale al numero dei parametri
liberi che compaiono in una risoluzione del sistema, il teorema segue da quello che sappiamo
sui sistemi lineari e dal fatto che il rango di `e uguale al numero massimo di equazioni
indipendenti (11, teorema 84).

Esercizio. Vericare che le dimensioni degli spazi dei due esercizi precedenti sono quelle
previste dal teorema (90).
Esercizio. Siano U e W due sottospazi di R
19
. Supponiamo che U sia denito da
4 equazioni cartesiane e che dimW = 10 . Provare che 6 dim(U W) 10 e che
15 dim(U + W) 19 .
Soluzione. La prima stima da eettuare riguarda la dimensione di U che deve essere
compresa tra 15 e 19, infatti U `e denito da 4 equazioni (che a priori potrebbero essere
tutte banali). La stessa stima vale per la dimensione dello spazio somma U +W . A questo
punto la stima 6 dim(U W) 10 segue dalla formula di Grassmann. Un altro modo
di ottenere questultima stima `e il seguente: U W si ottiene considerando i vettori di
W le cui coordinate soddisfano le equazioni che deniscono U ; i.e. `e un sottospazio di
uno spazio di dimensione 10, denito da 4 equazioni. Quindi la sua dimensione deve essere
compresa tra 6 = 10 4 e 10 .

44
14. Richiami di insiemistica.
Siano A e B due insiemi. Una applicazione o funzione da A a B `e una legge f che
ad ogni elemento di A associa un elemento di B . Una tale legge la denoteremo scrivendo
f : A B . In questo caso A e B si chiamano rispettivamente dominio e codominio della
funzione f .
Consideriamo unapplicazione f : A B . Dato a A, lelemento f(a) si chiama
immagine di a. Limmagine di f , che denotiamo scrivendo Imf , `e il sottoinsieme di B
costituito da tutti gli elementi del tipo f(a) (con a che varia tra gli elementi di A).
Denizione. Sia f : A B una applicazione
i) se Imf = B diciamo che f `e suriettiva;
ii) se elementi distinti di A hanno immagini distinte diciamo che f `e iniettiva;
iii) se f `e sia suriettiva che iniettiva, diciamo che `e biunivoca;
iv) ssato b B , linsieme degli elementi a A tali che f(a) = b si chiama bra (o
immagine inversa) di b e si denota con f
1
(b) ;
Si osservi che f `e iniettiva se e solo se ogni sua bra `e linsieme vuoto oppure `e costituita
da un solo elemento, f `e suriettiva se e solo se ogni sua bra `e non-vuota.
Se f `e biunivoca, tutte le bre sono costituite da un solo elemento, ovvero per ogni
b B esiste un unico elemento a A tale che f(a) = b . In questo caso si denisce
linversa di f (che si denota con f
1
), ponendo
f
1
: B A , f
1
(b) = lunico a tale che f(a) = b.
15. Applicazioni lineari.
Cominciamo brutalmente con due denizioni generali, subito dopo studiamo lesempio
delle applicazioni lineari da R
n
a R
m
.
Denizione 91. Siano V e W due spazi vettoriali. Una applicazione lineare
L : V W
v w
`e una legge che ad ogni vettore v V associa un vettore w = L(v) W , che soddisfa
le due propriet`a:
(91

)
L(v + u) = L(v) + L(u) , v , u V ;
L( v) = L(v) , v V , R.
Questa denizione ci dice che una applicazione lineare `e una funzione che rispetta le
operazioni su V e W : dati due vettori in V , limmagine della loro somma (operazione in
V ) `e uguale alla somma (operazione in W) delle loro immagini, limmagine di un multiplo
di un vettore `e quel multiplo dellimmagine del vettore.
Denizione 92. Sia L : V W una applicazione lineare. Si deniscono nucleo e
immagine di L, che si indicano rispettivamente scrivendo kerL (dallinglese kernel =
nucleo) ed ImL (dallinglese image = immagine), ponendo
kerL :=
_
v V

L(v) =

0
_
;
ImL :=
_
w W

w = L(v) per qualche v V


_
.
45
Voglio sottolineare che i vettori del nucleo di L sono quei vettori in V che vengono
mandati nel vettore nullo, quindi kerL = L
1
_

0
_
`e la bra del vettore nullo di W. I vettori
nellimmagine di L, come la parola stessa suggerisce (e coerentemente con la denizione
data nei richiami di insiemistica), sono quei vettori w W tali che c`e almeno un vettore
v V al quale L associa w.
Denizione 93. Consideriamo gli spazi vettoriali R
n
ed R
m
. Si denisce lapplicazione
L
A
associata ad una matrice A =
_
a
i,j
_
M
m,n
(R) ponendo
L
A
: R
n
R
m
_
_

1
.
.
.

n
_
_

_
_
_
a
1,1
... a
1,n
.
.
.
.
.
.
.
.
.
a
m,1
... a
m,n
_
_
_
_
_

1
.
.
.

n
_
_
dove, come sempre, denota il prodotto righe per colonne tra matrici.
Proposizione. La funzione L
A
appena introdotta `e lineare.
Dimostrazione. Infatti, per la propriet`a distributiva del prodotto righe per colonne,
L
A
(v + w) = A (v + w) = A v + A w = L
A
(v) + L
A
( w) ,
L
A
(v) = A (v) =
_
A v
_
= L
A
(v) .
per ogni v, w R
n
e R.

Esempio. Consideriamo lapplicazione lineare


L
A
: R
2
R
3
_

_

_
_
3 7
2 4
5 1
_
_

_
=
_
_
3 + 7
2 + 4
5 +
_
_
Osserviamo che svolgendo il prodotto righe per colonne si ottiene
L
A
_
1
0
_
=
_
_
3 7
2 4
5 1
_
_

_
1
0
_
=
_
_
3
2
5
_
_
nonche L
A
_
0
1
_
=
_
_
3 7
2 4
5 1
_
_

_
0
1
_
=
_
_
7
4
1
_
_
,
ovvero nelle colonne della matrice A ci sono scritte le coordinate delle immagini dei vettori
della base canonica di R
2
.
Esercizio. Sia L
A
lapplicazione lineare dellesempio. Calcolare L
A
_
2
3
_
.
Esempio. Determiniamo ora nucleo e immagine dellapplicazione lineare L
A
dellesempio
precedente. Per denizione,
kerL
A
=
_
_
_
_

_
R
2

L
A
(
_

_
) =
_
_
3 + 7
2 + 4
5 +
_
_
=
_
_
0
0
0
_
_
_
_
_
.
Risolvendo il sistema lineare
_

_
3 + 7 = 0
2 + 4 = 0
5 + = 0
,
46
troviamo = = 0, quindi il nucleo di L
A
`e costituito solo dal vettore nullo: kerL
A
=
_
0
0
_
.
I vettori dellimmagine di L
A
sono tutti i vettori in R
3
del tipo
_
_
3 + 7
2 + 4
5 +
_
_
, dove
e sono parametri liberi; pertanto, ricordando la denizione di Span, si ha
(94)
ImL
A
=
_
_
_
_
_
3 + 7
2 + 4
5 +
_
_

, R
_
_
_
=
_
_
_

_
_
3
2
5
_
_
+
_
_
7
4
1
_
_

, R
_
_
_
= Span
_
_
_
_
_
3
2
5
_
_
,
_
_
7
4
1
_
_
_
_
_
.
I risultati trovati nellesempio si generalizzano. Innanzi tutto, guardando la denizione
(93) `e del tutto evidente che vale losservazione che segue.
Osservazione 95. Si consideri L
A
: R
n
R
m
, A M
m,n
(R) . Le coordinate
dellimmagine dello i
-esimo
vettore e
i
della base canonica di R
n
sono scritte nella i
-esima
colonna di A.
Osservazione 96. Anche i conti della formula (94) si generalizzano: data L
A
: R
n
R
m
,
A M
m,n
(R) , si ha
(96

)
ImL
A
=
_

_
_
_
_
_
_

n
j=1

j
a
1,j
.
.
.

n
j=1

j
a
m,j
_
_
_
_
_


1
, ...,
n
R
_

_
=
_

1
_
_
_
a
1,1
.
.
.
a
m,1
_
_
_ + ... +
n
_
_
_
a
1,n
.
.
.
a
m,n
_
_
_


1
, ...,
n
R
_

_
= Span
_

_
_
_
_
a
1,1
.
.
.
a
m,1
_
_
_, ...,
_
_
_
a
1,n
.
.
.
a
m,n
_
_
_
_

_
.
Questo prova che limmagine di L
A
`e lo Span delle colonne della matrice A. In particolare,
per il teorema (86) del paragrafo 12, si ha
(97) dimImL
A
= rgA
Per quel che riguarda liniettivit`a e la suriettivit`a di L
A
vale la proposizione che segue.
Proposizione 98. Si consideri L
A
: R
n
R
m
, A M
m,n
(R) . Si ha che
i) L
A
`e iniettiva se e solo se kerL
A
= {

0} ;
ii) L
A
`e suriettiva se e solo se rgA = m (che `e la massima possibile).
Dimostrazione. Poiche L
A
(

0) =

0 , liniettivit`a di L
A
implica kerL
A
= {

0} .
Viceversa, se ci sono due vettori distinti v
1
e v
2
che hanno la stessa immagine w, si
47
ha L
A
(v
1
v
2
) = L
A
(v
1
) L
A
(v
2
) = w w =

0 , ovvero kerL
A
= {

0} .
Ora proviamo laermazione ii) . Per losservazione precedente, limmagine di L
A
`e lo
Span dei vettori costituiti dalle colonne di A e la dimensione di tale Span uguaglia il
rango di A per la formula (97). Inne, ImL
A
= R
m
se e solo se dimImL
A
= m.

Abbiamo visto che ImL


A
`e uno Span, in particolare `e un sottospazio di R
m
. Questo
risultato si generalizza allaermazione che limmagine di una applicazione lineare tra spazi
vettoriali (qualsiasi) `e un sottospazio vettoriale del codominio. Laermazione analoga vale
anche per il nucleo di una applicazione lineare. In denitiva, vale la proposizione che segue.
Proposizione 99. Sia L : V W una applicazione lineare. Si ha che
kerL `e un sottospazio di V ;
ImL `e un sottospazio di W .
Per dimostrare quanto aermato `e suciente vericare che sussistono le condizioni (59

)
del paragrafo 9. Questa verica `e veramente facile e la lascio per esercizio.
Proposizione. Sia L : V W una applicazione lineare. Si ha che
(100) dimV = dimImL + dimkerL
Losservazione (102) dimostra questa proposizione.
Osservazione 101. Nel caso di una applicazione lineare L
A
: R
n
R
m
questa
identit`a `e una rilettura dellidentit`a del teorema (90), paragrafo 13. Infatti, in questo caso
dimV = n, ImL = Span colonne di A, kerL = Spazio delle soluzioni del sistema
lineare Ax =

0.
Osservazione 102. Sia L : V W una applicazione lineare. Se completiamo una
base {

b
1
, ...,

b
s
} di kerL ad una base {

b
1
, ...,

b
s
, c
1
, ..., c
r
} di V , linsieme di vettori
{L(c
1
), ..., L(c
r
)} `e una base di ImL.
Dimostrazione. Chiaramente, Span{L(c
1
), ..., L(c
r
)} = Span{

0, ...,

0, L(c
1
), ..., L(c
r
)}
= Span{L(

b
1
), ..., L(

b
s
), L(c
1
), ..., L(c
r
)} = ImV , questo perche {

b
1
, ...,

b
s
, c
1
, ..., c
r
}
`e una base di V . Daltro canto, se i vettori L(c
1
), ..., L(c
r
) fossero linearmente dipendenti,
ovvero se esistessero dei coecienti (non tutti nulli)
1
, ...,
r
tali che

i
L(c
1
) =

0 , per
la linearit`a di L si avrebbe anche L
_

i
c
1
_
=

0 , quindi si avrebbe

i
c
1
kerL =
Span{

b
1
, ...,

b
s
} . Questo non `e possibile perche, per ipotesi, i vettori

b
1
, ...,

b
s
, c
1
, ..., c
r
sono indipendenti.

Esercizio. Si consideri lapplicazione lineare


L : R
4
R
3
_
_
_
z
1
z
2
z
3
z
4
_
_
_
_
_
1 2 1 3
1 1 2 1
1 1 4 3
_
_

_
_
_
z
1
z
2
z
3
z
4
_
_
_
Si determini una base di kerL, si completi la base trovata ad una base di R
4
, si veri-
chi che le immagini dei vettori che sono stati aggiunti per eettuare tale completamento
costituiscono una base dellimmagine di L.
48
Esercizio. Per ognuna delle matrici che seguono, si consideri lapplicazione lineare
associata e se ne determini una base del nucleo ed una base dellimmagine.
_
_
4 3 1
1 1 2
5 4 3
_
_
,
_
_
1 2 3 1
4 8 12 4
2 4 6 2
_
_
,
_
_
1 0 0 4
3 0 1 0
1 2 0 0
_
_
,
_
_
_
1 3
0 0
3 9
2 6
_
_
_
_
_
_
0 2 3 1
0 0 0 2
0 0 0 1
1 0 0 0
_
_
_ ,
_
_
_
1 3 3 1
3 4 9 4
1 2 0 4
0 1 1 7
_
_
_ ,
_
0 0 0
0 0 0
_
,
_
_
2 1
0 0
4 2
_
_
_
0 0 1 1 3 9
1 0 1 1 3 9
_
,
_
1 3 4
2 6 8
_
,
_
_
_
_
_
_
_
0 1 1 1 1 1
0 0 1 1 1 1
0 0 0 1 1 1
0 0 0 0 1 1
0 0 0 0 0 1
0 0 0 0 0 0
_
_
_
_
_
_
_
.
Osservazione. Dalluguaglianza (100) segue che dimImL = dimV se e solo se
dimkerL = 0 (ovvero se e solo se L `e iniettiva). Quindi, nellipotesi che si abbia dimV =
dimW , lapplicazione lineare L : V W `e suriettiva se e solo se `e iniettiva.
Proposizione 103. Consideriamo lapplicazione lineare di R
n
in se stesso associata alla
matrice A, L
A
: R
n
R
n
. Le aermazioni che seguono sono equivalenti tra loro:
i) L
A
`e suriettiva;
ii) L
A
`e iniettiva;
iii) rgA = n.
Ad una matrice A M
m,n
abbiamo associato una applicazione lineare L
A
: R
n
R
m
.
Viceversa, data una applicazione lineare L : R
n
R
m
`e possibile trovare una matrice che
la rappresenta (detta matrice associata ad L) : si ha L = L
A
, dove A `e la matrice le
cui colonne sono le immagini dei vettori della base canonica di R
n
. In denitiva c`e una
corrispondenza biunivoca
_
matrici in M
m,n
(R)
_

_
applicazioni lineari L : R
n
R
m
_
.
Gi`a osservammo (vedi osservazione 18, 4) che il prodotto righe per colonne tra matrici codi-
ca loperazione di sostituzione, pertanto, modulo lidenticazione qui sopra, il prodotto
righe per colonne tra matrici corrisponde alla composizione
7
di applicazioni lineari. Lo
ripetiamo:
Proposizione. Siano L
A
: R
n
R
m
ed L
B
: R
m
R
k
due applicazioni lineari.
Ha senso considerare la composizione
L
B
L
A
: R
n
R
m
R
k
.
Si ha
(104) L
B
L
A
= L
BA
.
7
La composizione di funzione si eettua sostituendo: siano A, B e C tre insiemi, f : A B e g : B C
due funzioni, sia quindi b = f(a) e c = g(b) , la composizione g f : A C viene denita ponendo
g f(a) = g(f(a)) = g(b) , cio`e sostituendo!
49
Esempio. Consideriamo le due applicazioni lineari (vedi lesempio 17 del paragrafo 4:
le matrici sono le stesse)
L : R
4
R
3
_
_
_
z
1
z
2
z
3
z
4
_
_
_
_
_
y
1
y
2
y
3
_
_
:=
_
_
1 2 0 3
0 7 2 1
3 0 1 1
_
_

_
_
_
z
1
z
2
z
3
z
4
_
_
_
M : R
3
R
2
_
_
y
1
y
2
y
3
_
_

_
x
1
x
2
_
:=
_
4 0 1
2 5 0
_

_
_
y
1
y
2
y
3
_
_
La composizione M L `e lapplicazione (vericarlo)
T : R
4
R
2
_
_
_
z
1
z
2
z
3
z
4
_
_
_
_
x
1
x
2
_
:=
_
7 8 1 11
2 31 10 1
_

_
_
_
z
1
z
2
z
3
z
4
_
_
_
La matrice di questa composizione coincide con il prodotto della matrice associata ad M
per la matrice associata ad L (vericarlo).
Esercizio. Sia A =
_
2 0
0 3
_
. Si calcoli, e si descriva esplicitamente (secondo le
notazioni della denizione 93),
L
A
, L
A
L
A
, L
A
L
A
L
A
,
_
L
A
_
k
= L
A
... L
A
(ripetuto k volte).
Esercizio. Sia A =
_
_
1 2 3
0 1 2
0 0 1
_
_
, B =
_
_
1 0 0
0 2 0
0 0 3
_
_
, C =
_
_
2 1 0
1 1 1
0 1 3
_
_
. Si
calcoli, e si descriva esplicitamente,
L
A
L
B
, L
B
L
A
, L
A
L
B
L
C
, L
A
L
A
L
A
, L
B
L
C
L
C
, L
C
L
(C
1
)
, L
(A
3
)
.
Esercizio. Per ognuna delle applicazioni dellesercizio precedente si determini limmagine
del vettore
_
_
2
1
3
_
_
.
Osservazione. Lidentit`a I : R
n
R
n
, denita ponendo I(x) = x, x, `e
chiaramente una applicazione lineare nonch`e `e rappresentata dalla matrice identica I
n
.
Osservazione 105. Supponiamo di avere una applicazione lineare L
A
: R
n
R
n
e
supponiamo che L
A
sia una funzione biunivoca. Allora, linversa (insiemistica), vedi 14,
della funzione L
A
`e una applicazione lineare nonch`e `e lapplicazione lineare associata alla
matrice A
1
(inversa di A). Infatti, per la (104),
L
A
L
A
1 = L
AA
1 = L
I
n
= I .
50
Osservazione 106. Consideriamo ora il sistema lineare Ax =

b e lapplicazione
lineare L
A
: R
n
R
m
, x y = Ax. Chiaramente, le soluzioni del sistema lineare
sono i vettori della bra (i.e. immagine inversa) di

b . In particolare, la compatibilit`a del
sistema equivale alla propriet`a

b ImL
A
. Alla luce di questa considerazione, del fatto che
limmagine di L
A
`e lo Span delle colonne della matrice A (osservazione 96) e del teorema
(84) del paragrafo 11, abbiamo il teorema che segue.
Teorema 107 (di Rouche-Capelli). Sia Ax =

b un sistema lineare di m equazioni in
n incognite. Indichiamo con

A la matrice completa associata a questo sistema lineare. Le
aermazioni che seguono sono equivalenti.
i) Ax =

b `e compatibile;
ii)

b ImL
A
;
iii)

b Span{colonne di A};
iv) rgA = rg

A.
Notazione. Sia A M
n, m
una matrice. In seguito, scriveremo anche:
kerA, intendendo kerL
A
;
ImA, intendendo ImL
A
.
Esercizio. Sia A =
_
2 1
3 5
_
. Calcolare L
A
L
A
_
7
4
_
.
Esercizio. Sia L : R
7
R
11
una applicazione lineare rappresentata da una matrice
A M
11,7
(R) di rango 5. Calcolare dimkerL e dimImL.
Esercizio. Sia L : R
8
R
5
una applicazione lineare e sia W R
8
un sottospazio di
dimensione 6. Provare che dim
_
kerL W
_
1 .
Soluzione. Per luguaglianza (100) abbiamo dimkerL = dimR
8
dimImL 8 5 = 3 .
Per la formula di Grassmann abbiamo
dim
_
kerL W
_
= dimkerL + dimW dim
_
kerL + W
_
3 + 6 8 = 1 .

51
16. Trasformazioni lineari di uno spazio vettoriale: autovalori e autovettori.
Concentriamo la nostra attenzione sulle applicazioni di R
n
in se stesso dette anche trasfor-
mazioni di R
n
.
Per cominciare con un esempio, consideriamo la seguente dilatazione
L : R
2
R
2
_
x
y
_

_
3 0
0 1
_

_
x
y
_
=
_
3x
y
_
`
E abbastanza chiaro cosa fa questa applicazione: prende il piano e lo dilata nella direzione
dellasse delle ascisse. Si osservi che il punto
_
1
0
_
ha per immagine il punto
_
3
0
_
, mentre
il punto
_
0
1
_
viene mandato in se stesso. Ma ora consideriamo lapplicazione
M : R
2
R
2
_
x
y
_

_
2 1
1 2
_

_
x
y
_
=
_
2x + y
x + 2y
_
Non `e aatto chiaro a priori come si comporta questa applicazione, ma basta accorgersi
del fatto che il punto
_
1
1
_
ha per immagine il punto
_
3
3
_
, mentre il punto
_
1
1
_
viene mandato in se stesso, per rendersi conto che questa applicazione `e molto simile alla
precedente. Infatti, esattamente come la precedente applicazione, anche M dilata il piano
in una direzione e lascia ssati i punti della retta ortogonale a tale direzione, solo che questa
volta la direzione lungo la quale stiamo dilatando il piano non `e quella dellasse delle ascisse
bens` `e quella della retta x = y .
Queste considerazioni suggeriscono che per comprendere la geometria di una trasfor-
mazione lineare L : R
n
R
n
`e importante vedere se ci sono delle direzioni privilegiate,
ovvero dei sottospazi di R
n
che vengono mandati in se stessi, pi` u precisamente `e importante
domandarsi se esistono dei sottospazi sui quali L agisce in un modo particolarmente sem-
plice: `e la moltiplicazione per una costante . Nei corsi di Fisica e di Ingegneria vedrete
che le direzioni privilegiate hanno un ruolo fondamentale, ad esempio possono rappre-
sentare assi di rotazione, direzioni privilegiate allinterno di un materiale e molto altro. Noi
non discuteremo le applicazioni, per mancanza di tempo e perche in questo corso vogliamo
concentrarci su questioni algebriche.
Denizione 108. Sia L : R
n
R
n
una trasformazione lineare e supponiamo che
esistono R e w
0
R
n
, con w
0
=

0 , tali che
(108

) L( w
0
) = w
0
.
In questo caso diciamo che `e un autovalore della trasformazione L e che lo spazio
W

:=
_
w R
n

L( w) = w
_
ne `e il relativo autospazio. I vettori (non nulli) w che soddisfano la (108

) si chiamano
autovettori (di L e di autovalore ).
Esercizio 109. Vericare che linsieme W

denito sopra `e un sottospazio vettoriale di


R
n
.
Suggerimento: si deve vericare la (59

).
52
Le denizioni di autovalore, autovettore e autospazio possono riferirsi anche ad una ma-
trice quadrata A : se `e un autovalore della trasformazione L
A
(vedi def. 93), `e lecito
dire (per denizione) che `e un autovalore della matrice A, eccetera.
In questo paragrafo discutiamo il problema della determinazione degli autovalori e dei
corrispondenti autospazi di una trasformazione di R
n
. Prima di procedere per`o osserviamo
che la denizione si pu`o dare pi` u in generale:
Denizione 110. Sia V uno spazio vettoriale e sia
T : V V
una trasformazione lineare. Se esistono v = 0 e R tali che
(110

) T(v) = v ,
Diciamo che v e sono rispettivamente un autovettore e un autovalore di T .
Osservazione/Denizione. Ovviamente, anche la tesi dellesercizio (109) si generalizza:
linsieme dei vettori che soddisfano la (110

) `e un sottospazio di V (lo studente se ne


convinca, per esercizio). Tale sottospazio si chiama autospazio associato allautovalore e
si denota con V

. Scrivendo la (110

) nella forma T(v)v = 0 , ovvero


_
T I
_
(v) = 0 ,
dove I : V V denota lidentit`a (che `e la trasformazione che manda ogni vettore in se
stesso), si evince che lautospazio V

`e il nucleo della trasformazione T I :


(111) V

= ker(T I) .
Voglio sottolineare che, in particolare, se v `e un autovettore, allora tutti i suoi multipli (non
nulli) sono anchessi autovettori, relativamente allo stesso autovalore.
Denizione 112. Linsieme degli autovalori di T si chiama spettro di T .
Osservazione 113. Alla luce della denizione (110) e di quanto appena osservato, il
valore `e un autovalore di T se e solo se il nucleo ker(T I) contiene almeno un vettore
non nullo, ovvero se e solo se tale nucleo ha dimensione strettamente positiva:
`e un autovalore di T dimker
_
T I
_
> 0 .
Abbiamo visto che un autovettore rappresenta una direzione privilegiata, ovvero una
direzione lungo la quale T `e una dilatazione. Il relativo autovalore `e il coecente di
tale dilatazione. E del tutto evidente che lo stesso vettore v non pu`o essere autovettore
per due autovalori distinti (lesercizio 116 vi chiede di dimostrare questa aermazione!). Un
po meno evidente `e la propriet`a secondo la quale autovettori corrispondenti a autovalori
distinti sono sicuramente indipendenti:
Teorema 114. Autospazi corrispondenti ad autovalori distinti sono indipendenti.
Inciso 115. Stiamo utilizzando laggettivo indipendente relativamente a dei sottospazi
di uno spazio vettoriale piuttosto che relativamente a dei vettori di uno spazio vettoriale.
Si tratta solo di una questione di linguaggio, la denizione `e quella ovvia: diciamo che i
sottospazi W
1
, ..., W
k
di uno spazio vettoriale V sono indipendenti se presi comunque dei
vettori non nulli w
i
1
W
i
1
, ..., w
i
r
W
i
r
si ha che w
i
1
, ..., w
i
r
sono vettori indipendenti.
Nel paragrafo 18 proponiamo un esercizio utile (esercizio 137).
Come gi`a accennato, il teorema (114) generalizza il risultato dellesercizio che segue.
Pu`o essere dimostrato per induzione sul numero degli autospazi che si considerano, la di-
mostrazione la svolgiano le 18.
53
Esercizio 116. Provare che due autospazi corrispondenti a due autovalori distinti sono
indipendenti (i.e. la loro intersezione `e il vettore nullo).
Torniamo a considerare L
A
: R
n
R
n
(in realt`a, tutto quello che stiamo per dire ha
perfettamente senso anche per le trasformazioni lineari di uno spazio vettoriale astratto).
Denizione 117. Il polinomio caratteristico di L
A
`e il polinomio
P
L
A
() := det
_
A I
_
= ()
n
+ ()
n1
tr(A) + ... + det(A) ,
dove I denota la matrice identica e dove trA, detta traccia di A, `e per denizione la
somma degli elementi sulla diagonale principale di A :
tr A := a
1,1
+ a
2,2
+ ... + a
n,n
.
Naturalmente, per denizione, si pu`o dire il polinomio caratteristico di A e si pu`o scrivere
P
A
() , intendendo sempre det(AI) .
Esempio. Se A =
_
_
2 1 0
5 1 1
0 0 3
_
_
, si ha
P
A
() = det
_
_
_
_
2 1 0
5 1 1
0 0 3
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
_
_
= det
_
_
2 1 0
5 1 1
0 0 3
_
_
=
3
+ 6
2
16 + 21 .
Esercizio. Calcolare il polinomio caratteristico delle seguenti matrici
_
1 2
3 4
_ _
3 2
3 1
_ _
1 1
3 3
_ _
1 0
0 1
_
_
_
1 1 0
1 1 1
2 0 2
_
_
_
_
1 1 0
0 2 1
0 0 2
_
_
_
_
0 0 0
0 0 0
0 0 0
_
_
_
5 7
3 4
_ _
2 1
1 2
_
Osservazione 118. Consideriamo sempre L
A
: R
n
R
n
. Losservazione (113) ci dice
che il valore `e un autovalore di L
A
se e solo se il nucleo della trasformazione L
A
I ha
dimensione strettamente positiva. Daltro canto, poiche la matrice associata allapplicazione
lineare L
A
I `e la matrice AI
n
(questo `e ovvio, se non vi sembra ovvio dimostratelo!
...e scrivete qualche esempio), il valore `e un autovalore di L
A
se e solo se il determinante
della matrice AI
n
vale zero. In altri termini, lo spettro di L
A
(denizione 112) `e
linsieme delle radici del polinomio caratteristico:
spettro
_
L
A
_
= insieme delle radici del polinomio caratteristico.
Questo signica che abbiamo uno strumento per determinare gli autovalori di una trasfor-
mazione lineare: scriviamo il polinomio caratteristico e ne troviamo le radici. Una volta
trovati gli autovalori, `e facile determinarne i relativi autospazi: basta usare la (111).
Nellesempio che segue determiniamo autovalori e autospazi di una trasformazione di R
2
.
Prima per`o introduciamo due numeri associati a un autovalore.
54
Denizione 119. Sia L
A
: R
n
R
n
una trasformazione lineare e sia un autovalore
di L
A
. Si pone

g
() := dimker(L
A
I
d
) = dimV

a
() := molteplicit`a di come soluzione di P
A
() = 0 .
Queste due quantit`a si chiamano, per denizione, rispettivamente molteplicit` a geometrica
e molteplicit` a algebrica dellautovalore . Vale il seguente risultato fondamentale.
Teorema 120.
g
()
a
() .
Questo teorema lo dimostriamo nel paragrafo 18.
Esempio. Consideriamo la trasformazione lineare, associata alla matrice A =
_
1 2
1 4
_
,
L : R
2
R
2
_
x
y
_

_
1 2
1 4
_

_
x
y
_
=
_
x + 2y
x + 4y
_
e calcoliamone gli autovalori ed i relativi autospazi. Per prima cosa scriviamo il polinomio
caratteristico:
P
L
() := det
__
1 2
1 4
_

_
1 0
0 1
__
= det
_
1 2
1 4
_
=
2
5 + 6 ;
poi ne calcoliamo le radici, che sono
1
= 2 e
2
= 3 . A questo punto determiniamo
il nucleo della matrice (ovvero della corrispondente trasformazione) A 2I =
_
1 2
1 2
_
e della matrice A 3I =
_
2 2
1 1
_
. Si ha ker
_
1 2
1 2
_
= Span
__
2
1
__
nonche
ker
_
2 2
1 1
_
= Span
__
1
1
__
. Quindi, ci sono due autovalori: 2 e 3; i relativi autospazi
sono lautospazio V
2
= Span
__
2
1
__
e lautospazio V
3
= Span
__
1
1
__
.
Entrambi gli autovalori hanno molteplicit`a algebrica e geometrica uguale a uno.
Esercizio. Calcolare autovalori e autospazi delle matrici che seguono (calcolare anche le
molteplicit`a algebrica e geometrica di ogni autovalore)
_
1 1
2 2
_ _
3 2
2 1
_ _
1 1
1 2
_ _
4 0
0 7
_
_
_
4 3 0
3 2 0
0 0 5
_
_
_
_
4 0 5
0 2 0
5 0 3
_
_
_
_
2 0 0
0 2 0
0 0 7
_
_
_
_
2 1 0
0 2 0
0 0 7
_
_
_
0 0
1 0
_ _
1 1
1 1
_
Osservazione 121. Supponiamo che v sia un autovettore di A e che ne sia il relativo
autovalore. Per ogni intero k 0 si ha
A
k
v = A ... A
. .
k volte
v = A ... A
. .
k1 volte
v = ... =
k
v
Esercizio. Vericare che v =
_
3
2
_
`e un autovettore della matrice A =
_
0 3
2 1
_
.
Calcolarne il relativo autovalore e determinare A
2
v , A
3
v , A
5
v , A
14
v .
55
17. Problema della diagonalizzazione.
Consideriamo uno spazio vettoriale V ed una trasformazione lineare T : V V .
Abbiamo visto che se ssiamo una base B = {

b
1
, ...,

b
n
} di V , corrispondentemente
abbiamo delle coordinate su V ( 9, osservazione 68 e denizione 69). Diciamo che T `e
rappresentata dalla matrice A (rispetto alla base B) se
T
_
n

i=1

b
i
_
=
n

i=1

b
i
, dove
_
_
_

1
.
.
.

n
_
_
_ := A

,
cio`e se A

`e il vettore delle coordinate di T(v) , essendo



`e il vettore delle coordinate
di v. In altre parole, premesso che una base B di V determina un sistema di coordinate
su V , ovvero una identicazione di V con R
n
, si ha che T `e rappresentata dalla matrice
A se accade che T , vista come trasformazione di R
n
, `e la moltiplicazione per la matrice
A. Di nuovo, in altre parole: visto che R
n
`e lo spazio delle coordinate di V , si ha che
T `e rappresentata dalla matrice A se la legge che alle coordinate di un vettore associa le
coordinate dellimmagine di quel vettore `e data dalla moltiplicazione per la matrice A.
Ovviamente, quando V = R
n
e {

b
1
, ...,

b
n
} `e la base canonica di R
n
, la trasformazione
T `e rappresentata dalla matrice A se e solo se T = L
A
(vedi 15, def. 93).
Il problema della diagonalizzazione `e il seguente: dati V e T come sopra, trovare (se
possibile) una base di V rispetto alla quale la matrice che rappresenta T `e una matrice
diagonale. Prima di procedere caratterizziamo le trasformazioni rappresentate da una ma-
trice diagonale:
Osservazione 122. Siano V e T come sopra e sia B = {

b
1
, ...,

b
n
} una base di V .
Si ha che T `e rappresentata dalla matrice diagonale
(
1
, ...,
n
) :=
_
_
_
_

1
0 ... 0
0
2
... 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 ...
n
_
_
_
_
.
se e solo se
T(

b
i
) =
i

b
i
, i .
Si noti che, nella situazione indicata, in particolare i vettori

b
1
, ...,

b
n
sono autovettori
della trasformazione T (di autovalori
1
, ...,
n
).
Quanto appena osservato dimostra la proposizione che segue.
Proposizione 123. Siano V e T come sopra. La trasformazione T `e diagonalizzabile
se e solo se esiste una base di autovettori.
Questa proposizione e losservazione che la precede inquadrano geometricamente il pro-
blema della diagonalizzazione: lo esibiscono come problema della ricerca di una base di
autovettori, problema che sappiamo arontare con gli strumenti visti nel paragrafo prece-
dente. Prima di andare avanti col problema della diagonalizzazione ci poniamo un obbiettivo
di natura pi` u algebrica. Consideriamo due matrici che rappresentano la stessa trasformazione
(rispetto a basi diverse) e ci chiediamo: cosa hanno in comune? `e possibile scrivere una for-
mula che le lega (cos` il problema della diagonalizzazione diventa il problema della ricerca
delle eventuali matrici diagonali legate a una matrice data)?
56
La proposizione (124) e le osservazioni che seguono rispondono alle nostre domande. In
inciso, nel paragrafo 18 vedremo, in generale, come cambia la matrice rappresentativa di una
applicazione lineare L : V W quando si cambia la base
8
del dominio e/o del codominio.
Ora, consideriamo una trasformazione lineare di uno spazio vettoriale V e scriviamo la
formula che lega le matrici rappresentative rispetto a basi diverse di V . Per rendere un
po meno astratta la trattazione e per semplicare il discorso consideriamo V = R
n
ed
assumiamo che una delle due basi in questione sia la base canonica di R
n
. Dunque, vale il
risultato che segue.
Proposizione 124. Sia L = L
A
: R
n
R
n
una trasformazione lineare (quindi A `e
la matrice rappresentativa di L rispetto alla base canonica di R
n
). Sia B = {

b
1
, ...,

b
n
}
unaltra base di R
n
. Sia B la matrice associata ai vettori

b
1
, ...,

b
n
. La matrice che
rappresenta L rispetto alla base B `e la matrice
(124

) X = B
1
A B
Come gi`a accennato, nel paragrafo 18 generalizziamo questa proposizione.
La dimostrazione di questa proposizione `e molto importante perche aiuta a capire.
Dimostrazione. Per denizione di matrice rappresentativa, trovare X signica descrivere
la legge che alle coordinate di un vettore v rispetto a B associa le coordinate di L(v) ,
sempre rispetto a B . Siano dunque
1
, ...,
n
le coordinate di v rispetto alla base B e
determiniamo le coordinate di L(v) , sempre rispetto a B . Il nostro primo passo `e quello
di trovare v , cio`e di determinare le coordinate di v rispetto alla base canonica. Questo
obbiettivo si ottiene moltiplicando per la matrice B . Infatti, il prodotto B
_
_

1
.
.
.

n
_
_
`e
la combinazione lineare di coecienti
1
, ...,
n
delle colonne di B (che rappresentano i
vettori della base B rispetto alla base canonica). Osserviamo che il ragionamento eettuato
ci insegna una cosa: il passaggio da coordinate rispetto a B a coordinate rispetto alla base
canonica si eettua moltiplicando per la matrice B . A questo punto, e questo `e il nostro
secondo passo, moltiplichiamo per A, ottenendo cos` L(v) ; diciamo meglio, ottenendo
cos` le coordinate di L(v) rispetto alla base canonica. Ora che abbiamo trovato L(v) , ne
determiniamo le coordinate rispetto alla base B . A tale ne sar`a suciente moltiplicare per
B
1
. Infatti, come `e vero che il passaggio da coordinate rispetto a B a coordinate rispetto
alla base canonica si eettua moltiplicando per la matrice B , `e anche vero che il passaggio
inverso (da coordinate canoniche a coordinate rispetto a B ) si eettua moltiplicando per
linversa di B . Riassumendo, siamo partiti dalle coordinate di v rispetto a B ed abbiamo
i) trasformato le coordinate di v rispetto a B nelle coordinate di v rispetto alla base
canonica (questo passaggio lo abbiamo realizzato moltiplicando per la matrice B);
ii) moltiplicato per A il risulato ottenuto, ottenendo cos` le coordinate di L(v) rispetto
alla base canonica;
iii) trasformato le coordinate di L(v) rispetto alla base canonica nelle coordinate di
L(v) rispetto alla base B (passaggio realizzato moltiplicando per la matrice B
1
);
In denitiva, la legge che a
_
_

1
.
.
.

n
_
_
associa B
1
A B
_
_

1
.
.
.

n
_
_
`e la legge cercata (il primo
prodotto che si eettua `e quello pi` u a destra). Pertanto, si deve avere X = B
1
A B .

8
Nel caso delle trasformazioni lineari si ha V = W , in questo caso si sceglie sempre la stessa base per
dominio e codominio (questo non tanto perche sceglierle diverse e peraltro cambiarle signicherebbe gestire
quattro basi per lo stesso spazio vettoriale, ma perche altrimenti si arriverebbe a matrici geometricamente
poco signicative).
57
Abbiamo considerato R
n
ed abbiamo assunto che una delle due basi era quella canonica.
In eetti anche nel caso generale di una trasformazione di uno spazio vettoriale astratto V
la formula che lega le matrici rappresentative rispetto a basi diverse `e identica alla (124

):
consideriamo uno spazio vettoriale V , una trasformazione lineare T e due basi di V ,
che chiameremo vecchia e nuova (e chiamiamo vecchie e nuove le corrispondenti
coordinate), sia X la matrice che rappresenta T rispetto alla nuova base (la legge che alle
nuove coordinate di un vettore associa le nuove coordinate dellimmagine di quel vettore
`e data dalla moltiplicazione per X) e sia A la matrice che rappresenta T rispetto alla
vecchia base (la legge che alle vecchie coordinate di un vettore associa le vecchie coordinate
dellimmagine di quel vettore `e data dalla moltiplicazione per A). Supponiamo che il pas-
saggio da nuove a vecchie coordinate si eettua moltiplicando per la matrice B . Allora
si deve avere X = B
1
A B . La spiegazione della formula `e quella vista dimostrando
il teorema (124) e si pu`o riassumere con lo schemino che segue (nu, ve e co stanno
rispettivamente per nuove, vecchie e coordinate, la freccia indica il passaggio):
X
nu.co.(v)
..

. .
nu.co.(T(v))
= B
1
A B
nu.co.(v)
..

. .
ve.co.(v)
. .
ve.co.(T(v))
. .
nu.co.(T(v))
Naturalmente a questo punto si deve identicare meglio la matrice B (sappiamo cosa fa,
moltiplicare per B fa passare da nuove a vecchie coordinate, ma non abbiamo detto chi `e):
riettenoci un istante `e chiaro che la matrice B `e la matrice delle coordinate dei vettori
della nuova base rispetto alla vecchia: infatti, se

`e il vettore delle nuove coordinate di
v , essendo B

la combinazione lineare di coecienti


1
, ...,
n
delle colonne di B ed
essendo B la matrice delle coordinate dei vettori della nuova base rispetto alla vecchia, si
ha che B

`e il vettore delle vecchie coordinate di v .


Attenzione: La formula X = B
1
A B pu`o anche essere scritta nella forma A =
BXB
1
, come pure nella forma A = C
1
XC , e quindi X = CAC
1
, essendo ora
C la matrice di passaggio da vecchie a nuove coordinate, cio`e essendo C = B
1
. Tutto
questo pu`o creare molta confusione, ma non ci si deve spaventare: una volta compresa
lessenza della formula, lunico dubbio che pu`o venire riguarda lo scrivere una matrice (che
rappresenta un cambiamento di base) o la sua inversa. Bene, le possibilit`a sono due e, al di
l`a del ragionamento che in sede desame potremmo non essere abbastanza lucidi per farlo, c`e
un trucco per non sbagliarsi mai, quello di identicare il tipo di vettori che sono o linput o
output natuarale della matrice in questione. Ad esempio, se, come dicevo, B `e la matrice
delle coordinate dei vettori della nuova base rispetto alla vecchia, linterpretazione naturale
dei numeri che leggiamo nelle colonne di B `e quella di essere vecchie coordinate, visto
che la moltiplicazione per B produce come output una combinazione lineare di colonne
di B , la moltiplicazione per B fa passare a vecchie coordinate, e quindi rappresenta il
passaggio da nuove a vecchie coordinate. Di nuovo (ora ragioniamo utilizzando laltro punto
di vista), i coecienti di una combinazione lineare dei vettori della nuova base sono
9
nuove
coordinate, quindi il cibo (linput) naturale per B `e fatto di nuove coordinate, e pertanto
la moltiplicazione per B fa passare da nuove a vecchie coordinate.
Osservazione 125. Siamo partiti da una trasformazione lineare T : V V ed abbiamo
visto che la formula che lega le due matrici rappresentative A ed X (rispetto a due basi
diverse) `e la formula X = B
1
AB . Naturalmente la stessa formula ha unaltra chiave
di lettura: data T : V V , di matrice rappresentativa A rispetto a una base ssata, si
ha che X = B
1
AB `e la matrice rappresentativa di T rispetto a unaltra base (la base
corrispondente al cambio di coordinate associato alla moltiplicazione per B ).
9
O meglio, si interpretano in modo naturale come.
58
Pertanto possiamo aermare che due matrici rappresentano la stessa trasformazione li-
neare rispetto a basi diverse se e solo se sono coniugate (proposizione 126 e denizione 127
seguenti):
Proposizione 126. Due matrici A, A

M
n,n
(R) rappresentano la stessa trasfor-
mazione lineare rispetto a basi diverse se e solo se esiste una matrice invertibile C tale
che
(126

) A

= C
1
A C
Denizione 127. Due matrici A, A

M
n,n
(R) come nella (126

) si dicono coniugate.
Torniamo al problema della diagonalizzazione. Alla luce di quanto abbiamo visto, e in
particolare della proposizione (126), abbiamo la seguente osservazione
Osservazione 128. La trasformazione lineare L = L
A
: R
n
R
n
`e diagonalizzabile
se e solo se la matrice A `e coniugata a una matrice diagonale, cio`e se e solo se esiste una
matrice invertibile C tale che C
1
A C `e una matrice diagonale.
Il problema della diagonalizzazione di una matrice A `e il problema di trovare una matrice
invertibile C tale che A

= C
1
AC `e diagonale. Risolviamo il seguente problema:
Problema 129. Trovare una matrice invertibile B che diagonalizza la matrice
A =
_
3 3
1 5
_
.
Soluzione. Scriviamo il polinomio caratteristico di A
P
A
() = det
_
A I
_
= det
_
3 3
1 5
_
=
2
8 + 12 ,
ne calcoliamo le due radici
1
= 2,
2
= 6, quindi determiniamo i due autospazi V
2
e V
6
:
V
2
= ker
_
A 2I
_
= ker
_
1 3
1 3
_
= Span
_
_
3
1
_
_
;
V
6
= ker
_
A 6I
_
= ker
_
3 3
1 1
_
= Span
_
_
1
1
_
_
.
La matrice B , associata agli autovettori trovati, `e la matrice che diagonalizza A : si ha
B
1
A B =
_

1
0
0
2
_
,
o meglio,
(129

)
_
3 1
1 1
_
1

_
3 3
1 5
_

_
3 1
1 1
_
=
_
2 0
0 6
_
.

Osservazione. Sia T la trasformazione lineare di R


2
associata alla matrice A, e sia
la matrice che rappresenta T rispetto alla base di autovettori
_
v
2
, v
6
_
. La spiegazione
geometrica del risultato ottenuto `e la seguente: si ha =
_
2 0
0 6
_
(infatti T(v
2
) =
2v
2
+ 0v
6
e T(v
6
) = 0v
2
+ 6v
6
), daltro canto, per la proposizione (124) si ha anche
= B
1
AB .
59
Avvertenza. Nel risolvere il problema posto abbiamo eettuato delle scelte: abbiamo
scelto di considerare = 2 come primo autovalore e = 6 come secondo autovalore;
relativamente ai due autovalori trovati, abbiamo scelto gli autovettori
v
2
=
_
3
1
_
, v
6
=
_
1
1
_
.
Naturalmente avremmo potuto considerare = 6 come primo autovalore e = 2 come
secondo autovalore, nonche, ad esempio, v
6

=
_
4
4
_
, v
2

=
_
3
1
_
. Seguendo queste
scelte avremmo trovato
(129

)
_
4 3
4 1
_
1

_
3 3
1 5
_

_
4 3
4 1
_
=
_
6 0
0 2
_
.
Esercizio. Vericare le uguaglianze (129

) e (129

).
Ora enuncio un lemma molto importante.
Lemma 130. Se A ed A

sono due matrici coniugate (e.g. A

= B
1
A B), hanno
lo stesso polinomio caratteristico.
Dimostrazione. Si ha P
A
() = det
_
A

I
_
= det
_
B
1
A B I
_
=
det
_
B
1
A B B
1
I B
_
= det
_
B
1
(AI) B

= detB
1
det
_
AI)
_
detB =
det
_
A I) = P
A
() .

In particolare, tutti i coecienti del polinomio caratteristico sono invarianti per coniugio.
Poiche il termine noto ed il coeciente di ()
n1
sono rispettivamente determinante e
traccia, infatti det
_
A I
_
= ()
n
+ ()
n1
tr(A) + ... + det(A) , si ha il seguente
corollario.
Corollario 131. Se A ed A

sono due matrici coniugate, si ha


detA = detA

; trA = trA

(ricordiamo che la traccia di una matrice `e la somma degli elementi sulla diagonale).
Nel paragrafo precedente sostanzialmente abbiamo introdotto il polinomio caratteristico
come oggetto associato a una matrice (denizione 117). Il lemma (130) `e importante perche
ci consente di vedere il polinomio caratteristico come oggetto associato a una trasformazione
lineare. Vediamo meglio:
Osservazione 132. Data una trasformazione lineare T di uno spazio vettoriale V ,
possiamo scegliere una base di V . Corrispondentemente possiamo considerare la matrice
A rappresentativa di T rispetto alla base scelta, quindi possiamo considerare il polinomio
caratteristico di A. Se eettuiamo una scelta diversa, o, se preferite, se cambiamo la nostra
scelta, otteniamo una matrice A

coniugata alla matrice A. Ora, il lemma (130) ci dice che


matrici coniugate hanno lo stesso polinomio caratteristico. Questo signica che il polinomio
caratteristico non dipende dalla base di V che abbiamo scelto:
Data una trasformazione lineare T di uno spazio vettoriale V , ha perfettamente
senso parlare di polinomio caratteristico di T , quindi scrivere P
T
() , pur senza
avere in mente la scelta di una base.
Il fatto che P
T
() ha senso e dipende solo dalla geometria di T (lo ripeto, non dipende
dalla base di V che scegliamo per calcolarlo) ci dice che tutti i coecienti di P
T
() devono
avere una interpretazione geometrica. In particolare, determinante e traccia devono avere
una interpretazione geometrica (cfr cor. 131, vedi anche 18):
ha senso scrivere detT , come pure ha senso scrivere trT , pur senza avere in
mente la scelta di una base.
60
Torniamo al problema della diagonalizzazione. Facciamo una premessa. Se
(
1
, ...,
n
) :=
_
_

1
. . . 0
.
.
.
0 . . .
n
_
_
`e una matrice diagonale, i
i
sono gli autovalori di e determinante e traccia di sono
rispettivamente uguali a prodotto e somma degli autovalori
i
:
det =
1
...
n
, tr =
1
+ ... +
n
.
Inoltre, le molteplicit`a algebrica e geometrica di ogni autovalore coincidono, e sono uguali
al numero di volte che il valore compare tra i valori
1
, ...,
n
(questo `e evidente, se non
vi sembra evidente dimostratelo per esercizio).
Corollario 133. Se A `e una matrice diagonalizzabile,
i) il determinante detA `e uguale al prodotto degli autovalori di A;
ii) la traccia trA `e uguale alla somma degli autovalori di A;
iii) le molteplicit`a algebrica e geometrica di ogni autovalore coincidono.
Dimostrazione. Per ipotesi, la matrice A `e coniugata ad una matrice diagonale .
Per la premessa, la matrice soddisfa i), ii) e iii). Daltro canto A e hanno lo
stesso polinomio caratteristico, in particolare, hanno stessi autovalori e relative molteplicit`a
algebriche e geometriche (queste ultime coincidono per ragioni geometriche: perche A e
rappresentano la stessa trasformazione lineare), stessa traccia e stesso determinante. Ne
segue che anche A soddisfa i), ii) e iii).

Avvertenza 134. E bene ripeterlo: se un autovalore ha molteplicit`a , deve essere


ripetuto volte.
Il polinomio caratteristico di una matrice A `e un polinomio di grado uguale allordine
di A, trovarne le radici pu`o essere dicile (e spesso `e anche faticoso il solo scrivere il
polinomio caratteristico). Quindi, trovare gli autovalori di A, pu`o essere un problema.
Nelle applicazioni pratiche questo problema viene spesso aggirato usando il corollario (133).
Vediamo un esempio (esercio #1 dellappello del 12/9/06):
Esercizio. Sia A =
_
_
7 3 1
4 11 2
2 3 6
_
_
e sia v
t
=
_
_
4
2
t
_
_
.
a) trovare un valore per il quale il vettore v

`e un autovettore di A; b) determinare
il corrispondente autovalore nonche le molteplicit`a algebrica e geometrica di ;
c) trovare, se sistono, una matrice C M
3, 3
(R) ed una matrice diagonale M
3, 3
(R)
tali che C
1
A C = .
Soluzione. Calcoliamo il prodotto A v
t
:
_
_
7 3 1
4 11 2
2 3 6
_
_
_
_
4
2
t
_
_
=
_
_
t 22
2t 6
2 6t
_
_
.
Il vettore v
t
`e un autovettore di A se esiste un valore per il quale risulti
_
_
t 22
2t 6
2 6t
_
_
=
_
_
4
2
t
_
_
.
Risolvendo il sistema indicato troviamo = 5 , = 2 .
Lautospazio associato allautovalore = 5 `e il nucleo della matrice
A + 5I =
_
_
2 3 1
4 6 2
2 3 1
_
_
,
61
ovvero `e lo spazio delle soluzioni dellequazione 2x 3y z = 0 (le tre righe della
matrice indicata sono chiaramente proporzionali tra loro, quindi il sistema omogeneo as-
sociato si riduce ad una sola equazione). Risolvendo questa equazione troviamo una base
dellautospazio V
5
: si ha B
V
5
=
_
_
_
_
_
3
2
0
_
_
,
_
_
1
0
2
_
_
_
_
_
.
Questo signica che V
5
ha dimensione 2 (quindi, per denizione di molteplicit`a geome-
trica, la molteplicit`a geometrica dellautovalore = 5 vale 2.
Se la matrice A `e diagonalizzabile, anche la molteplicit`a algebrica dellautovalore = 5
deve essere uguale a 2 nonche la somma degli autovalori deve essere uguale a -24 (che `e
la traccia della matrice A) . In questo caso c`e un altro autovalore, che indicheremo con
, ed `e dato dallequazione 24 = 5 5 + , dalla quale troviamo = 14 , quindi
-14 avr`a molteplicit`a algebrica e geometrica uguale a 1 e -5 avr`a eettivamente molteplicit`a
algebrica uguale a 2 (la somma delle molteplicit`a, di quelle algebriche come pure di quelle
geometriche, non pu`o superare 3). In questo caso lautospazio V
14
associato allautovalore
= 14 `e lo spazio delle soluzioni del sistema lineare (A+14I)x =

0 , ovvero `e lo spazio
delle soluzioni del sistema lineare
_
_
7 3 1
4 3 2
2 3 8
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Tale sistema lineare ammette innite soluzioni, questo conferma che -14 `e eettivamente un
autovalore e che la situazione `e quella descritta.
Risolvendo tale sistema troviamo che {
_
_
1
2
1
_
_
} `e una base dellautospazio V
14
.
Inne, C e sono le matrici della diagonalizzazione di A, ovvero sono rispettivamente
la matrice di una base di autovettori e la matrice diagonale dei corrispondenti autovalori:
C =
_
_
3 1 1
2 0 2
0 2 1
_
_
, =
_
_
5 0 0
0 5 0
0 0 14
_
_
.

Esercizio. Per ognuna delle matrici che seguono, determinare gli autovalori e calcolarne
le relative molteplicit`a algebriche e geometriche. Osservare che nessuna soddisfa la propriet`a
iii) del corollario (133), quindi dedurre che sono tutte matrici non diagonalizzabili.
_
1 1
0 1
_
,
_
2 1
0 2
_
,
_
3 4
1 7
_
,
_
_
3 1 0
0 3 1
0 0 3
_
_
,
_
_
2 1 0
0 2 0
0 0 3
_
_
,
_
_
11 0 8
0 7 0
2 0 3
_
_
,
_
_
2 6 2
2 5 1
2 3 3
_
_
( sapendo che 2 `e un autovalore),
_
_
0 0 1
0 0 0
0 0 0
_
_
,
_
_
1 5 3
0 1 4
0 0 1
_
_
.
Esercizio. Svolgere le prove desame indicate (si possono trovare nella sezione Area
Esami della mia pagina web): 13/12/04, #3; 18/2/04, #6; 25/2/04, #5; 8/9/04, #5;
21/2/05, #4; 24/2/05, #3; 20/2/06, #4; 22/2/06, #2; 1/3/06, #1; 12/9/06, #1;
27/9/06, #3.
La diagonalizzazione di una matrice pu`o essere utilizzata per calcolare la potenza A
n
di
una matrice A. Nellesercizio che segue vediamo come.
62
Esercizio . Sia A =
_
11 6
18 10
_
. Calcolare A
80
.
Soluzione. Naturalmente potremmo armarci di pazienza e svolgere semplicemente il
prodotto di A per se stessa 80 volte. No, percorriamo unaltra strada: consideriamo la
trasformazione lineare L
A
: R
2
R
2
e ne troviamo le direzioni privilegiate, utilizzando
queste calcoliamo la composizione L
A
... L
A
(80-volte), inne scriviamo la matrice
rappresentativa di questa composizione.
Il polinomio caratteristico della trasformazione L
A
`e il polinomio
det
_
11 6
18 10
_
=
2
2 = ( 2)( + 1) ,
quindi gli autovalori di L
A
sono i valori = 2 e = 1 . I corrispondenti autospazi
sono
V
2
= ker(A2I) = ker
_
9 6
18 12
_
= Span{
_
2
3
_
} ;
V
1
= ker(A + I) = ker
_
12 6
18 9
_
= Span{
_
1
2
_
} .
Rispetto alla base degli autovettori B = {
_
2
3
_
,
_
1
2
_
} , la trasformazione L
A
`e rap-
presentata dalla matrice diagonale degli autovalori =
_
2 0
0 1
_
, quindi la composizione
L
A
... L
A
(80-volte) `e rappresentata (sempre rispetto alla base degli autovettori) dalla
matrice
80
=
_
2
80
0
0 1
80
_
(vedi esercizio 135).
A questo punto, eettuando un cambiamento di base troviamo la matrice che rappresenta
L
A
... L
A
(80-volte) rispetto alla base canonica di R
2
(tale matrice `e A
80
):
A
80
=
_
2 1
3 2
_

_
2
80
0
0 (1)
80
_

_
2 1
3 2
_
1
=
_
2
82
3 2
81
2
32
81
+6 32
80
+4
_

Non ho voluto dirlo prima... ma da un punto di vista algebrico quello che abbiamo
fatto `e assolutamente elementare: diagonalizzando A si trova = B
1
A B , dove
B =
_
2 1
3 2
_
`e la matrice di una base di autovettori, =
_
2 0
0 1
_
`e la matrice
diagonale dei corrispondenti autovalori. Quindi,
A = B B
1
,
i.e.
_
11 6
18 10
_
=
_
2 1
3 2
_

_
2 0
0 1
_

_
2 1
3 2
_
1
.
Dallequazione A = B B
1
ricaviamo A
80
:
A
80
=
_
B B
1
_
80
= B
_
B
1

_
B
_
B
1

_
B
_
B
1
...
_
B B
1
= B
80
B
1
(il vantaggio `e che, essendo una matrice diagonale, la potenza
80
la sappiamo calcolare:
basta elevare alla 80 gli elementi sulla diagonale).
Esercizio 135. Vericare che la potenza
n
di una matrice diagonale `e la la matrice
(sempre diagonale) delle potenze n
-esime
degli elementi di .
Interpretare questo risultato alla luce dellosservazione (121).
63
18. Approfondimenti:.
Sullinversa di una matrice.
Nel paragrafo 5 abbiamo enunciato la seguente proposizione (proposizione 25).
Proposizione. Siano A e B due matrici quadrate di ordine n. Si ha che A B = I
n
se e solo se B A = I
n
. Linversa di una matrice, se esiste, `e unica.
Ora la dimostriamo utilizzando solamente gli strumenti che avevamo a disposizione a quel
punto della trattazione.
Dimostrazione. Innanzi tutto osserviamo che, potendo scambiare i ruoli di A e B , `e
suciente dimostrare che se AB = I
n
allora BA = I
n
. Questo segue da tre aermazioni:
i) se A B = I
n
, allora B A w = w per ogni w del tipo w = B x;
ii) ogni elemento w M
n,1
(R) `e del tipo indicato;
iii) se X w = w per ogni w allora X `e la matrice identica I
n
.
La i) `e facile: si ha B A (B x) = B (A B) x = B I
n
x = B x.
La ii) `e pi` u sottile: si deve dimostrare che, per ogni w M
n,1
(R) , il sistema lineare
B x = w `e necessariamente compatibile. Ora, immagginiamo di eettuare la riduzione a
scala di B . Se per assurdo il sistema in questione `e incompatibile, la riduzione a scala di B
(matrice incompleta associata al sistema) deve produrre una riga di zeri. Daltro canto B `e
quadrata, quindi avendo una riga di zeri ha meno di n pivot, quindi le soluzioni del sistema
omogeneo B x =

0 dipendono da almeno un parametro libero. Ma questo `e assurdo
perche il sistema B x =

0 ammette al pi` u una sola soluzione, infatti B x =

0 implica
x = A

0 =

0 (abbiamo moltiplicato a sinistra per A e usato lipotesi A B = I
n
).
Inne, la iii) `e ovvia.

Ora rileggiamo il tutto in termini di applicazioni lineari. Interpretiamo A e B come


trasformazioni lineari di R
n
, dunque consideriamo
L
A
: R
n
R
n
, L
B
: R
n
R
n
,
(vedi denizione 93). La condizione A B = I
n
si traduce nella condizione che la compo-
sizione L
A
L
B
`e lapplicazione identica. La proposizione, oltre a valere per R
n
, continua
a valere per spazi vettoriali dei quali R
n
ne `e un modello (cio`e per gli spazi vettoriali
nitamente generati, che sono gli unici che abbiamo studiato):
Proposizione 136. Siano T ed S due trasformazioni lineari di uno spazio vettoriale
V nitamente generato. Indichiamo con I : V V lidentit` a. Si ha che
T S = I se e solo se S T = I .
Anche la dimostrazione di questa proposizione `e una rilettura della dimostrazione vista
sopra. Si osservi che i

), ii

) e iii

) sono la traduzione di i), ii) e iii).


Dimostrazione. Potendo scambiare i ruoli di T ed S , `e suciente dimostrare che se
T S = I allora S T = I . Questo segue da tre aermazioni:
i

) se T S = I allora la restrizione di S T allimmagine di S `e lidentit`a;


ii

) S `e suriettiva;
iii

) se
_
S T
_
(v) = v per ogni v V , allora S T = I .
64
La i

) `e facile: se u appartiene allimmagine di S , e.g. u = S(v) , si ha


(S T)(u) =
_
S T
_
(S(v)) = S
_
(T S)(v)
_
= S
_
I(v)
_
= S(v) = u .
La ii

) `e pi` u sottile: essendo T S lidentit`a, abbiamo che S `e iniettiva (se per assurdo
esistesse v =

0 tale che S(v) =

0 si avrebbe anche v = I(v) = T(S(v)) =



0 ). Poiche S
`e iniettiva, deve essere necessariamente anche suriettiva (vedi losservazione a pagina 48).
La iii

) `e una tautologia.

Abbiamo sempre lavorato con spazi vettoriali di dimensione nita (nitamente generati,
denizione 66). Enunciando la proposizione (136) ho voluto sottolineare questa ipotesi
perche nel caso degli spazi vettoriali di dimensione innita la tesi della proposizione `e falsa.
In eetti, in dimensione innita i

) e iii

) continuano a valere (e le dimostrazioni sono


quelle indicate). Ma la ii

) non vale pi` u, si pu`o solamente dire che S `e iniettiva e T


`e suriettiva. In dimensione innita linvertibilit`a a destra non implica linvertibilit`a a
sinistra. E non `e dicile fornire un controesempio: sia V lo spazio vettoriale di tutti i
polinomi, T : V V la trasformazione che al polinomio p(x) associa la sua derivata, sia
inoltre S : V V la trasformazione che al polinomio p(x) associa lintegrale
_
x
0
p() (che `e
anchesso un polinomio). Le trasformazioni T ed S sono entrambe lineari (vedi denizione
91). Si ha T S = I (se prima integro e poi derivo ritrovo il polinomio dal quale ero
partito), ma la composizione S T fa fuori le costanti, infatti S T `e lapplicazione che al
polinomio p(x) associa il polinomio p(x) p(0) (`e facile, vericatelo!!!).
Vale la pena osservare che questo discorso appartiene a un contesto pi` u ampio, quello
dellinsiemistica: siamo A e B due insiemi e siamo f : A B e g : B A due funzioni.
Supponiamo che la composizione g f sia lidentit`a su A. Allora:
f `e iniettiva; g `e suriettiva; la restrizione di f g allimmagine di f `e lidentit`a.
Se inoltre B `e un insieme nito
10
di cardinalit`a non superiore a quella di A, allora f e
g sono entrambe biunivoche nonche sono luna linversa dellaltra, in particolare f g `e
lidentit`a su B.
Esercizio. Dimostrare le aermazioni fatte (un po di insiemistica non fa mai male).
Nel 6 abbiamo detto che (teorema 42) una matrice A M
n,n
(R) `e invertibile se e solo
se detA = 0 e che, se A `e invertibile, si ha
()
_
A
1
_
i,j
= (1)
i+j

detC
j,i
detA
,
dove C
j,i
`e la matrice ottenuta da A sopprimendo la j
-esima
riga e la i
-esima
colonna. Ora
dimostriamo quanto aermato.
Dimostrazione. Come gi`a osservato nel 6, il non annullarsi del determinante `e una
condizione necessaria per linvertibilit`a di A. Quindi, sar`a suciente dimostrare che il
prodotto di A per la matrice indicata in () `e la matrice identica. Verichiamo quindi che
A X = I
n
, essendo X la matrice X
i, j
= (1)
i+j

det C
j,i
det A
. Lelemento di posto i, j
10
Lipotesi di nitezza `e necessaria, non basterebbe neanche supporre B = A. Riettete sullesempio
A = B = Z (linsieme dei numeri interi), f(x) = 2x, g(x) = x/2 se x `e pari, g(x) = 0 se x `e dispari.
65
della matrice in questione `e
_
A X
_
i, j
=
n

t=1
A
i, t
X
t, j
=
n

t=1
A
i, t

_
(1)
t+j

detC
j,t
detA
_
=
1
detA
n

t=1
A
i, t

_
(1)
t+j
detC
j,t
_
Ora, guardando meglio lespressione trovata ci accorgiamo che questa ha la faccia uno
sviluppo di Laplace, pi` u precisamente, sotto il segno di sommatoria c`e lo sviluppo di Laplace
del determinante della matrice ottenuta sostituendo la j
esima
riga di A con la i
esima
riga
di A!!! Qunidi,
se j = i si ottiene
det A
det A
= 1 ; se j = i si ottiene
11 0
det A
= 0 .
...questa non `e altro che la denizione della matrice identica!

Sullindipendenza lineare degli autospazi.


Nel paragraso 16 abbiamo aermato che autospazi corrispondenti ad autovalori distinti
sono indipendenti (teorema 114). Ora dimostriamo quanto aermato.
Dimostrazione. Eettuiamo una dimostrazione per induzione sul numero degli autospazi
in questione. Siano dunque v
1
, ..., v
k
autovettori corrispondenti ad autovalori
1
, ...,
k
distinti. Assumiamo k 2 (per k = 1 la tesi `e banale) e che ogni insieme costituito da k1
autovettori `e un insieme indipendente di vettori (ipotesi induttiva). Si vuole dimostrare che
v
1
, ..., v
k
sono indipndenti. Ragionaniamo per assurdo, supponiamo che esista una relazione
non banale di coecienti tutti non nulli (altrimenti abbiamo anche una relazione non banale
tra meno di k autovettori e questo contraddice lipotesi induttiva)
() c
1
v
1
+ ... + c
k
v
k
=

0
Poiche T(c
1
v
1
+ ... + c
k
v
k
) =
1
c
1
v
1
+ ... +
k
c
k
v
k
, si ha anche
(

)
1
c
1
v
1
+ ... +
k
c
k
v
k
=

0
Sottraendo alla relazione (

) la relazione () moltiplicata per


k
troviamo
(
1

k
)c
1
v
1
+ ... + (
k1

k
)c
k1
v
k1
=

0
Essendo i
i
distinti ed essendo i c
i
non nulli, anche i prodotti (
i

k
)c
i
(per i < k) sono
non nulli. In particolare si ha una relazione non banale tra i vettori v
1
, ..., v
k1
. Questo
contraddice il fatto che per ipotesi induttiva tali vettori sono indipendenti.

Esercizio 137. Sia V uno spazio vettoriale e siano W


1
, ..., W
k
sottospazi di V .
Dimostrare che i sottospazi W
1
, ..., W
k
sono indipendenti (secondo la denizione data
nellinciso 115) se e solo se vale luguaglianza che segue
dim
_
W
1
+ ... + W
k
_
= dimW
1
+ ... + dimW
k
,
dove W
1
+ ... + W
k
`e lo spazio somma (cfr. def. 78):
W
1
+ ... + W
k
:=
_
w
1
+ ... + w
k

w
i
W
i
_
V .
Si noti che alcuni dei sottospazi W
i
possono anche essere di dimensione zero, cio`e costituiti
solamente dal vettore nullo.
11
Viene 0 perche si tratta dello sviluppo del determinante di una matrice che ha due righe uguali.
66
Sulla disuguaglianza
g
()
a
() .
Come promesso nel 16, dimostriamo il teorema (120). Stabiliamo una premessa.
La denizione di molteplicit`a algebrica di un autovalore (def. 119), `e stata data per
le trasformazioni di R
n
, ma alla luce dellosservazione (132) `e chiaro che si estende alle
trasformazioni di uno spazio vettoriale astratto: data una trasformazione lineare T di uno
spazio vettoriale astratto V , scriviamo la matrice rappresentativa di T rispetto a una
base qualsiasi di V , quindi deniamo la molteplicit`a algebrica di un autovalore ponen-
dola uguale alla sua molteplicit`a come radice del polinomio caratteristico. Come dicevo,
per losservazione (132), il polinomio caratteristico, e a maggior ragione la molteplicit`a in
questione, non dipende dalla base di V che abbiamo scelto per scrivere la matrice rappre-
sentativa di T . Ovviamente, anche la denizione di molteplicit`a geometrica si estende al
caso di una trasformazione di uno spazio vettoriale astratto: la molteplicit`a geometrica di
un autovalore `e la dimensione del corrispondente autospazio.
Sia dunque V uno spazio vettoriale di dimensione n, sia T : V V una trasformazione
lineare e sia un autovalore. Si vuole dimostrare la disuguaglianza che segue (teorema 120):

g
()
a
() .
Dimostrazione. Posto d =
g
() , sia {v
1
, ..., v
d
} una base dellautospazio V

e sia
B = {v
1
, ..., v
d
,

b
d+1
, ...,

b
n
}
un completamento di tale base a una base di V . Aermiamo che, rispetto alla base B , la
trasformazione T `e rappresentata da una matrice del tipo
A =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 ... 0 ...
0 0 ... 0 ...
0 0 ... 0 ...
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... ...
0 0 0 ... 0 ...
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 ... 0 ...
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
,
dove gli asterischi indicano numeri che non conosciamo e dove il blocco in alto a sinis-
tra, quello dove appare lungo la diagonale principale, `e una matrice quadrata d d
(sotto questo blocco ci sono tutti zeri, le ultime n d colonne di A non le conosciamo).
Laermazione fatta si giustica facilmente ricordando che nelle colonne di A troviamo
le coordinate delle immagini dei vettori della base: nella prima colonna di A ci sono le
coordinate di T(v
1
) = v
1
, eccetera.
A questo punto `e chiaro che il polinomio caratteristico di A, `e un polinomio del tipo
indicato nella formula che segue:
det
_
AI
_
= ( ) ... ( )
. .
d volte
q() ,
dove q() `e un polinomio di grado n d (del quale non sappiamo dire nulla). Questo ci
garantisce che la molteplicit`a algebrica dellautovalore `e maggiore o uguale a d .

67
Sulle applicazioni lineari e sulluso delle matrici.
Siano V e W spazi vettoriali e sia T : V W una applicazione lineare. Sia inoltre
A la matrice rappresentativa di T relativa alle basi {v
1
, ..., v
n
} di V e { w
1
, ..., w
m
}
di W . In termini delle coordinate associate a tali basi, il fatto che A rappresenta T , per
denizione, signica che T `e caratterizzata dalla propriet`a che segue
La legge che alle coordinate di un vettore v associa le coordinate della sua immagine
T(v) `e la moltiplicazione per la matrice A
(si osservi che, conseguentemente, le coordinate dellimmagine del vettore v
i
sono scritte
nella i
-esima
colonna di A).
Apriamo una breve parentesi per introdurre una nuova notazione. Il vettore v V di
coordinate
1
, ...,
n
e il vettore w W di coordinate
1
, ...,
m
, per denizione, sono
rispettivamente i vettori
(138) v =
n

i=1

i
v
i
,

W =
m

i=1

i
w
i
Queste espressioni la scriviamo utilizzando il formalismo del prodotto righe per colonne
(capisco che possa dare fastidio scrivere una matrice i cui elementi sono vettori... ma qual `e
il problema! si tratta semplicemente di una notazione che mi consente di evitare di scrivere
fastidiose sommatorie):
(139) v = v

, w = w

,
dove abbiamo posto
v := (v
1
, ..., v
n
) ,

:=
_
_

1
.
.
.

n
_
_
, w := ( w
1
, ..., w
m
) ,

:=
_
_
_

1
.
.
.

m
_
_
_ ,
e dove tutti i prodotti sono prodotti righe per colonne. Lo ripeto: v = (v
1
, ..., v
n
) e
w = ( w
1
, ..., w
m
) sono matrici vettoriali (risp. 1 n ed 1 m), mentre

e

sono
matrici numeriche (risp. n 1 ed m1).
Ora, per denizione di matrice rappresentativa, il fatto che A rappresenta T si traduce
dicendo che il vettore w := T(v) `e il vettore di coordinate

= A

Quindi, usando la notazione (139), lidentit`a T(v) = w la possiamo riscrivere come segue:
(140) T
_
v

_
= w A

, .
Ora che abbiamo scritto in termini pi` u intrinseci chi `e lapplicazione T , il problema
di trovare la matrice rappresentativa A

di T rispetto a delle basi { v



1
, ..., v

m
} di V e
{ w

1
, ..., w

m
} di W `e ridotto ad un semplice conto formale che coinvolge il prodotto tra
matrici. Ricaveremo A

confrontando le due equazioni


(141) T
_
v

_
= w A

, T
_
v

_
= w

.
Siano B = (b
i,j
) e C = (c
i,j
) le matrici che rispettivamente rappresentano il cambiamento
di base su V e quello su W , i.e. v

j
=

n
i=1
b
i,j
v
i
, w

j
=

n
i=1
c
i,j
w
i
. Questo signica
che posto v

= ( v

1
, ..., v

m
) , e posto w

= ( w

1
, ..., w

m
) , abbiamo
v

= v B , w

= w C .
68
Si noti che nella i
-esima
colonna di B ci sono le coordinate di v

i
rispetto alla vecchia base
{v
1
, ..., v
m
} ; in particolare la moltiplicazione B trasforma le nuove coordinate di un
vettore nelle vecchie. Laermazione analoga vale per C .
Tramite queste uguaglianze e la 1
a
delle equazioni (141) otteniamo
T
_
v

_
= T
_
(v B)

_
= T
_
v (B

)
_
= w A (B

)
= (w

C
1
) A (B

) = w


_
C
1
A B
_

.
Pertanto, confrontando lequazione ottenuta con la 2
a
delle equazioni (141) otteniamo
(142) A

= C
1
A B .
In eetti la (142) pu`o essere dedotta anche da un semplice ragionamento (confronta con
la dimostrazione della proposizione 124). Innanzi tutto ricordiamo che la moltiplicazione
per A

`e loperazione che associa alle nuove coordinate di un vettore v V , le nuove


coordinate di T(v) W . Ora, analogamente a quanto visto nel 17, loperazione appena
descritta pu`o essere eettuata nel modo che segue: consideriamo nuove coordinate di v e
i) trasformiamo tali coordinate nelle vecchie coordinate di v (moltiplicazione per B );
ii) moltiplichiamo quanto ottenuto per A (si ottengono le vecchie coordinate di T(v));
iii) moltiplichiamo per C
1
al ne di ottenere le nuove coordinate di T(v) .
Dal fatto che lesecuzione di i), ii) e iii) `e la moltiplicazione per la matrice C
1
A B
otteniamo la (142).
Naturalmente, se W = V , si sceglie la stessa base su dominio e codominio di T (i.e.
si sceglie w = v nonche w

= v

). Pertanto si ha C = B e luguaglianza (142) diventa


luguaglianza gi`a nota
(143) A

= B
1
A B .
Inciso 144. Abbiamo visto (17, prop. 126, vedi anche oss. 132) che matrici coniugate
rappresentano la stessa applicazione lineare rispetto a basi diverse e viceversa. Di con-
seguenza, gli invarianti per coniugio dello spazio delle matrici corrispondono alle propriet`a
geometriche intrinseche delle trasformazioni lineari di uno spazio vettoriale.
In particolare questo vale per il determinante di una trasformazione lineare (oss. 132). Una
discussione dellinterpretazione geometrica del determinante non `e oggeto di questo corso,
comunque due parole le voglio dire. Linterpretazione geometrica del determinante `e la
seguente: il determinante misura di quanto la trasformazione in questione dilata i volumi
(lo spazio). Questo, addirittura, indipendentemente da come misuriamo le distanze (e i
volumi): sia V uno spazio vettoriale e sia T : V V una trasformazione lineare, sia
dato anche un prodotto scalare denito positivo (che non `e altro che un oggetto algebrico
che ci consente di misurare
12
le distanze e gli angoli, quindi i volumi), e sia V il volume
di una regione misurabile , allora il volume della immagine T() `e uguale al prodotto
V detT ; questo indipendentemente dal prodotto scalare a disposizione, cio`e da come misu-
riamo distanze e angoli, quindi possiamo dire che detT `e il coeciente di dilatazione del
volume della regione (pur senza avere in mente un modo di misurare distanze e angoli,
quindi volumi). Attenzione, quanto detto vale solamente per i volumi, ad esempio non vale
per la misura delle lunghezze: se v `e un vettore, la lunghezza di T(v) , dipende anche dal
prodotto scalare in questione, cio`e da come misuriamo le distanze, oltre che dalla lunghezza
di v e dalla trasformazione T .
12
O meglio, denire la misura delle distanze e degli angoli, quindi dei volumi.
69
Capitolo 7.
1. Geometria Euclidea del piano.
In questo capitolo discutiamo alcune applicazioni dellalgebra lineare alla geometria euclidea.
Consideriamo un piano H (quello che avete conosciuto alle scuole superiori e del quale
ne allora ne mai vedrete una denizione formale), ssiamo un sistema di riferimento ed una
unit`a di misura (vedi gura 1). Ad ogni punto P H possiamo associare le sue coordinate
_
x
y
_
R
2
e viceversa (vedi gura 1). In questo modo i punti del piano vengono messi in
corrispondenza biunivoca con gli elementi di R
2
.
(g. 1)
asse (y)
asse (x)

P =
_
3
2
_
3
2
u
Per ragioni che saranno pi` u chiare in seguito conviene introdurre la nozione di vettore
geometrico, oggetto che in un certo senso rappresenta uno spostamento e che viene denito
nel modo che segue.
Denizione 2. Un segmento orientato QP `e un segmento che ha un estremo iniziale
Q ed un estremo nale P . Dichiariamo equivalenti due segmenti orientati QP e Q

se
coincidono a meno di una traslazione del piano (cio`e se sono due lati opposti di un paralle-
logramma). Per denizione, un vettore geometrico del piano `e una classe di equivalenza di
segmenti orientati.
Si osservi che, per denizione, i due segmenti orientati indicati nella gura (4) rappresen-
tano lo stesso vettore geometrico.
Denizione 3. Siano
_
q
x
q
y
_
e
_
p
x
p
y
_
le coordinate di due punti Q e P . Per denizione,
le coordinate del vettore rappresentato dal segmento orientato QP sono
_
p
x
q
x
p
y
q
y
_
.
Osserviamo che la denizione `e ben posta: le coordinate di un vettore geometrico non
dipendono dal segmento orientato scelto per rappresentarlo (vedi gura 4).
(g. 4)

Q
P
chiaramente,
_
p
x
q
x
p
y
q
y
_
=
_
p

x
q

x
p

y
q

y
_
.
Osservazione/Denizione. Linsieme dei vettori geometrici `e in corrispondenza biuni-
voca con R
2
. Deniamo la somma di due vettori geometrici ed il prodotto di un vettore
geometrico per uno scalare utilizzando le corrispondenti operazioni denite per lo spazio vet-
toriale R
2
. Chiaramente, queste operazioni arricchiscono linsieme dei vettori geometrici di
70
una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58). Gracamente, la somma di due
vettori geometrici `e loperazione rappresentata nella gura (5).
(g. 5)

v
w
v + w
Osserviamo che gli elementi di R
2
possono essere interpretati sia come punti del piano
H che come vettori geometrici di H. Ci stiamo complicando inutilmente la vita? Forse si,
ma `e estremamente utile mantenere le due nozioni punti e vettori geometrici distinte.
Dora in poi dir`o semplicemente vettore invece di vettore geometrico.
Denizione 6. Siano v =
_
v
x
v
y
_
e w =
_
w
x
w
y
_
due vettori. Si denisce il loro prodotto
scalare mediante la formula
v w := v
x
w
x
+ v
y
w
y
.
Si denisce inoltre la norma, o lunghezza, di un vettore ponendo
|| v || :=

v v =
_
(v
x
)
2
+ (v
y
)
2
Osservazione 7. Per il teorema di Pitagora, la norma del vettore v coincide con la
lunghezza di un segmento orientato che lo rappresenta:
v
v
x
v
y
Osservazione 7

. Sia c R una costante e sia v un vettore. Si ha


|| cv || = |c| || v ||
dove |c| denota il valore assoluto di c .
Osservazione 8.
`
E facilissimo vericare che valgono le propriet`a che seguono:
i) v w = w v (propriet`a commutativa);
ii) v ( w + u) = v w + v u (propriet`a distributiva);
iii) (v w) = (v) w = v ( w) (omogeneit`a).
Proposizione (disuguaglianza di Cauchy-Schwarz). Si ha
|v w| ||v|| || w||
71
Dimostrazione. Si deve vericare che
|v
x
w
x
+ v
y
w
y
|
_
(v
x
)
2
+ (v
y
)
2

_
(w
x
)
2
+ (w
y
)
2
.
Questa verica la lasciamo per esercizio.

Proposizione 9. Siano v e w due vettori del piano. Si ha


13
(9

) v w = ||v|| || w|| cos


dove `e langolo compreso tra v e w.
Dimostrazione. Alle scuole superiori abbiamo visto che se a, b, c sono le misure dei lati
di un triangolo e `e langolo indicato nella gura, allora
a
c
b

a b cos =
1
2
_
a
2
+ b
2
c
2
_
Applicando questa regola al triangolo individuato da v e w (per rappresentare i vettori v
e w usiamo dei segmenti orientati che hanno origine nello stesso punto, non importa quale
esso sia)
v
v w
w

a = ||v||
b = || w||
c = ||v w||
troviamo
||v|| || w|| cos =
1
2
_
||v||
2
+ || w||
2
||v w||
2
_
= v w .
La verica dellultima uguaglianza `e un facile esercizio: basta fare il conto esplicito.

Osservazione 10. In particolare, due vettori sono perpendicolari se e solo se il loro


prodotto scalare `e nullo.
Proposizione (disuguaglianza triangolare). Si ha ||v + w|| ||v|| +||w|| .
Dimostrazione. Infatti, ||v + w||
2
=
_
v + w
_

_
v + w
_
= ||v||
2
+ || w||
2
+ 2v w
||v||
2
+ || w||
2
+ 2 ||v|| || w|| =
_
||v|| + || w||
_
2
(la disuguaglianza al centro segue dalla
disuguaglianza di Cauchy-Schwarz).

13
Non abbiamo mai denito langolo compreso tra due vettori; rispetto al nostro modo di procedere, sarebbe
pi` u corretto denire langolo compreso tra due vettori non nulli v e w come larco-coseno di v w

||v|||| w||
(numero che per la disuguaglianza di Cauchy-Schwarz ha valore assoluto minore o uguale ad uno).
72
Osserviamo che la disuguaglianza triangolare ci dice che la lunghezza di un lato di un
triangolo non pu`o superare la somma delle lunghezze degli altri due lati:

v
w
v + w
||v + w|| ||v|| +||w||
Losservazione (10) ci consente di calcolare le proiezioni ortogonali (vedi gura). Siano
v e w due vettori del piano ed assumiamo w = 0 . La proiezione del vettore v lungo la
direzione individuata da w, che denoteremo con
w
(v) , `e il vettore
(11)
w
(v) =
_
v w
|| w||
2
_
w
(si osservi che tra le parentesi c`e un numero reale).

v
w
u

w
(v)
Dimostrazione. Il vettore
_
v w
|| w||
2
_
w `e un multiplo del vettore w, quindi `e suciente
vericare che il vettore dierenza u := v
_
v w
|| w||
2
_
w `e eettivamente perpendicolare al
vettore w. Eettuiamo tale verica (calcoliamo il prodotto scalare w u) : si ha w u =
w
_
v
_
v w
|| w||
2
_
w
_
= v w
_
v w
|| w||
2
_
( w w) = v w
_
v w
|| w||
2
_
|| w||
2
= v w v w = 0.

Un altro corollario della proposizione (9) `e la proposizione che segue.


Proposizione 12. Siano v e w due vettori del piano e sia A larea del parallelogramma
che individuano (vedi gura). Si ha
A = | det
_
v
x
w
x
v
y
w
y
_
| ,
dove le barre verticali denotano la funzione modulo (valore assoluto).
v
w
73
Dimostrazione. Alle scuole superiori abbiamo imparato che A = ||v|| || w|| sen ; quindi
`e suciente provare che
||v||
2
|| w||
2
sen
2
=
_
det
_
v
x
w
x
v
y
w
y
__
2
.
Si ha ||v||
2
|| w||
2
sen
2
= ||v||
2
|| w||
2
(1 cos
2
) = ||v||
2
|| w||
2
||v||
2
|| w||
2
cos
2
=
||v||
2
|| w||
2

_
v w
_
2
, dove questultima uguaglianza segue dalla proposizione (9). A questo
punto resta da provare che
||v||
2
|| w||
2

_
v w
_
2
=
_
det
_
v
x
w
x
v
y
w
y
__
2
.
Per vericare questa formula `e suciente calcolare esplicitamente ambo i membri dell ugua-
glianza (il conto algebrico non ha nulla di interessante quindi lo omettiamo; lo studente lo
svolga per esercizio).

Esercizio. Dire quali sono le coordinate del vettore che `e rappresentato dal segmento
orientato il cui estremo iniziale `e il punto P =
_
5
11
_
ed il cui estremo nale `e il punto
Q =
_
6
7
_
. Disegnare i due punti ed il vettore.
Esercizio. Determinare la distanza tra i punti P =
_
2
3
_
, Q =
_
5
1
_
.
Esercizio. Dire quali sono le coordinate dellestremo nale di un segmento orientato
che rappresenta il vettore v =
_
4
5
_
ed il cui estremo iniziale `e il punto P =
_
3
2
_
.
Disegnare i due punti ed il vettore.
Esercizio. Determinare lestremo iniziale del segmento orientato che rappresenta il vettore
v =
_
7
18
_
e che ha per estremo nale il punto P =
_
5
2
_
.
Esercizio. Trovare il coseno dellangolo compreso tra i vettori v =
_
3
4
_
e w =
_
5
12
_
.
Esercizio. Trovare un vettore di norma uno.
Esercizio. Trovare un vettore di norma uno parallelo al vettore v =
_
1
2
_
Suggerimento: si utilizzi losservazione 7.
Esercizio. Trovare un vettore ortogonale al vettore v =
_
2
5
_
.
Esercizio. Trovare un vettore di norma 52 ed ortogonale al vettore v =
_
12
5
_
.
Esercizio. Calcolare larea del parallelogramma individuato da v =
_
3
7
_
e w =
_
5
8
_
.
Esercizio. Calcolare larea del parallelogramma individuato da v =
_
31
7
_
e w =
_
13
3
_
.
Disegnare i vettori v e w.
Esercizio. Siano v =
_
4
7
_
e w =
_
5
3
_
. Determinare la proiezione del vettore v
lungo la direzione individuata dal vettore w.
Esercizio. Siano v =
_
2
5
_
, u
1
=
_
6
15
_
, u
2
=
_
6
15
_
e w =
_
10
4
_
. Determinare
a) la proiezione del vettore v lungo la direzione individuata dal vettore w;
b) la proiezione del vettore v lungo la direzione individuata dal vettore u
1
;
c) la proiezione del vettore v lungo la direzione individuata dal vettore u
2
.
74
2. Rette nel piano.
Denizione. Una retta r del piano H `e il luogo dei punti P =
_
x
y
_
H che
soddisfano unequazione di primo grado, i.e. unequazione del tipo
(13) ax + by + c = 0 ,
con a e b non entrambi nulli. Tale equazione si chiama equazione cartesiana della retta r.
Esiste un modo equivalente di introdurre la nozione di retta:
Denizione. Una retta r del piano H `e il luogo dei punti P =
_
x
y
_
H del tipo
(14)
_
x = x
0
+ t
y = y
0
+ t
,
_

_
=
_
0
0
_
,
dove
_
x
0
y
0
_
`e un punto ssato,
_

_
`e un vettore ssato e t R `e un parametro (ad
ogni valore di t corrisponde un punto di r ).
Tale equazione prende il nome di equazione parametrica della retta r .
Lequivalenza delle due denizioni enunciate segue immediatamente dalla possibilit`a di
passare da unequazione cartesiana a equazioni parametriche e viceversa. Risolvendo il
sistema lineare costituito dallequazione (13) con i metodi visti nel capitolo 1 otteniamo,
in particolare, equazioni del tipo (14) (dove t `e un parametro libero, vedi cap. 1, 3). Il
passaggio da equazioni parametriche a cartesiane si eettua semplicemente eliminando il
parametro libero t , i.e. ricavando t da una delle due equazioni e sostituendo lespressione
trovata nellaltra.
Esempio. Se r `e la retta di equazioni parametriche
_
x = 2 + 5t
y = 3 2t
,
dalla prima equazione troviamo t = (x2)/5 , sostituendo questa espressione nella seconda
equazione troviamo y = 3 2(x 2)/5 = (19 2x)/5 , ovvero 2x + 5y 19 = 0 ;
questultima `e unequazione cartesiana di r .
Esercizio. Determinare unequazione cartesiana della retta di equazioni parametriche
_
x = 18 15t
y = 11 + 6t
.
Se avete svolto correttamente lesercizio, avete ritrovato la retta dellesempio precedente.
Chiaramente, equazioni diverse possono rappresentare la stessa retta.
Osservazione. Dalle equazioni parametriche (14) si vede immediatamente qual `e la
posizione della retta nel piano. Infatti, chiaramente il punto P
0
=
_
x
0
y
0
_
appartiene alla
retta, mentre il vettore v =
_

_
`e un vettore parallelo alla retta:
75
(y)
(x)

P
0
v
r
La retta dellesempio `e la retta passante per il punto P
0
=
_
2
3
_
e parallela al vettore
v =
_
5
2
_
.
Proposizione 15. Si ha la seguente interpretazione geometrica: se ax + by + c = 0
`e lequazione cartesiana di una retta r , il vettore
_
a
b
_
`e ortogonale alla retta r .
Dimostrazione. La retta r `e parallela alla retta r

di equazione ax + by = 0
(dimostratelo per esercizio!), quindi `e suciente vericare che il vettore
_
a
b
_
`e ortogonale
alla retta r

. Poiche la retta r

passa per lorigine, i punti


_
x
y
_
che ne soddisfano
lequazione rappresentano anche vettori paralleli ad essa. Daltro canto, poiche lespressione
ax + by coincide con quella del prodotto scalare
_
a
b
_

_
x
y
_
, i punti
_
x
y
_
di r

sono
i punti del piano le cui coordinate annullano tale prodotto scalare. Inne, per losservazione
(10) lannullarsi del prodotto scalare `e la condizione di ortogonalit`a, pertanto lequazione di
r

denisce la retta passante per lorigine ed ortogonale al vettore


_
a
b
_
.

Osservazione 16. La retta r ortogonale al vettore v =


_
a
b
_
e passante per il punto
P =
_
p
x
p
y
_
ha equazione cartesiana
ax + by ap
x
bp
y
= 0 .
Infatti, lequazione indicata rappresenta una retta parallela alla retta r (questo segue dalla
proposizione precedente) nonche rappresenta una retta passante per il punto P .
Esempio. La retta r ortogonale al vettore v =
_
2
5
_
e passante per il punto
P =
_
8
1
_
ha equazione cartesiana
2x + 5y 23 = 0 .
Osservazione 17. La retta passante per i punti P =
_
p
x
p
y
_
e Q =
_
q
x
q
y
_
`e descritta
dalle equazioni parametriche
_
x = p
x
+ t
y = p
y
+ t
, dove
_

_
= QP =
_
p
x
q
x
p
y
q
y
_
76
Esempio. La retta passante per i punti P =
_
4
2
_
e Q =
_
1
3
_
`e descritta dalle
equazioni parametriche
_
x = 4 + 3t
y = 2 + 5t
Si noti che
_
3
5
_
`e il vettore rappresentato dal segmento orientato QP .
Esercizio. Determinare unequazione cartesiana della retta r passante per il punto
P =
_
6
7
_
e parallela alla retta s di equazione 2x 3y + 1 = 0 .
Soluzione. Le rette parallele alla retta s sono descritte da equazioni del tipo 2x 3y +
c = 0 (convincersene per esercizio). Imponendo il passaggio per il punto P troviamo
2 6 3 7 + c = 0 , quindi c = 9 . In denitiva, 2x 3y + 9 = 0 `e unequazione
cartesiana della retta r .

Esercizio. Determinare unequazione cartesiana della retta r passante per il punto


P =
_
8
5
_
e parallela alla retta s di equazioni parametriche
_
x = 4 + 2t
y = 3 + 7t
.
Soluzione #1.
`
E suciente trovare unequazione cartesiana di s e procedere come
nellesercizio precedente.

Soluzione #2. Il vettore


_
2
7
_
`e un vettore parallelo ad s , ovvero ad r . Quindi
_
7
2
_
`e un vettore ortogonale ad r . Per la proposizione (15), r ha unequazione del tipo
7x 2y + c = 0 . Imponendo il passaggio per il punto P troviamo c = 46 .

Soluzione #3. La retta r `e descritta dalle equazioni parametriche


_
x = 8 + 2t
y = 5 + 7t
.
Unequazione cartesiana la troviamo eliminando il parametro t .

Lintersezione di due rette si determina mettendo a sistema le equazioni. Ad esempio,


se r ed s sono le rette di equazioni cartesiane 2x y + 5 = 0 e 3x + y 10 = 0 ,
risolvendo il sistema lineare
_
2x y + 5 = 0
3x + y 10 = 0
si trova che si intersecano nel punto
_
1
7
_
. Chiaramente, se il sistema ha innite soluzioni le rette coincidono, se il sistema `e
incompatibile le rette sono parallele e distinte.
Esercizio. Determinare lintersezione della retta r di equazione cartesiana 4x3y+8 = 0
con la retta s di equazione parametrica
_
x = 3 t
y = 8 2t
.
Soluzione. Naturalmente potremmo trovare unequazione cartesiana di s e procedere nel
modo gi`a visto. Un altro modo di procedere `e il seguente: P(t) =
_
3 t
8 2t
_
`e il punto
generico di s , sostituendone le coordinate nellequazione di r troviamo
77
4(3 t) 3(8 2t) + 8 = 0 , quindi t = 2 .
Questo signica che il punto di s che corrisponde al valore del parametro t = 2 appartiene
anche ad r . In denitiva r s = P(2) =
_
1
4
_
.

Il caso in cui entrambe le rette sono data in forma parametrica si tratta in modo analogo.
Proposizione. Sia r la retta di equazione ax + by + c = 0 e sia P =
_
p
x
p
y
_
un punto del piano. La distanza di P da r , che per denizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di r , `e data dalla formula
(18) dist
_
P, r
_
=
| ap
x
+ bp
y
+ c |

a
2
+ b
2
,
dove le barre verticali denotano la funzione modulo (valore assoluto).
r

dist{P, r}
Un modo per dimostrare questa proposizione `e quello di eettuare il calcolo esplicito: la
retta s passante per P ed ortogonale ad r ha equazioni parametriche (cfr prop. 15)
_
x = p
x
+ at
y = p
y
+ bt
sostituendo queste equazioni nellequazione cartesiana di r si ottiene lequazione
a(p
x
+ at) + b(p
y
+ bt) + c = 0 ,
quindi si trova che lintersezione r s `e data dal punto Q =
_
p
x
+ at
0
p
y
+ bt
0
_
, dove
t
0
= (ap
x
bp
y
c)/(a
2
+ b
2
) . Inne, calcolando la distanza tra i punti P e Q (che
`e anche la distanza del punto P dalla retta r) si ottiene il risultato annunciato:
dist{P, r} = || PQ|| = ||
_
at
0
bt
0
_
|| = |t
0
| ||
_
a
b
_
|| =
| ap
x
bp
y
c|

a
2
+ b
2
.
Unaltra dimostrazione si basa sulle seguenti considerazioni (non discuter`o alcuni dettagli
formali). Lespressione ap
x
+bp
y
+c si annulla sui punti di r , quindi denisce una funzione
che si annulla proprio sui punti che hanno distanza nulla dalla retta, ed `e una funzione di
primo grado in x ed y . Ora, restringiamo la nostra attenzione ad uno dei due semipiani in
cui r divide il piano. Modulo tale restrizione, anche la nostra funzione distanza deve essere
rappresentata da una funzione di primo grado in x ed y e poiche anchessa si annulla su r ,
deve essere proporzionale alla funzione ap
x
+ bp
y
+ c . Pertanto, la distanza cercata deve
soddisfare unequazione del tipo
(18

) dist
_
P, r
_
= | ap
x
+ bP
y
+ c | ,
78
dove `e una costante opportuna. Che la costante vale proprio
1

a
2
+b
2
pu`o essere
vericato con un conto esplicito. Tale conto lo ometto per`o voglio far notare che tale scelta
di rende lespressione (18

) invariante per cambiamenti dellequazione cartesiana scelta


per rappresentare r ...ed una formula che si rispetti deve soddisfare tale condizione di
invarianza!
Esercizio. Determinare unequazione cartesiana della retta di equazioni parametriche
_
x = 3 + 2t
y = 4 + 5t
Esercizio. Determinare equazioni parametriche della retta di equazione cartesiana
5x 2y 7 = 0 .
Esercizio. Determinare unequazione cartesiana della retta di equazioni parametriche
_
x = 7 4t
y = 14 10t
Esercizio. Determinare equazioni parametriche della retta di equazione cartesiana
x 2 = 0 .
Esercizio. Determinare equazioni parametriche della retta di equazione cartesiana
y = 0 .
Esercizio. Determinare la distanza del punto P =
_
0
4
_
dalla retta r di equazione
5x 2y 7 = 0 .
Esercizio. Determinare la distanza del punto P =
_
1
3
_
dalla retta r di equazione
4x + y + 11 = 0 .
79
3. Geometria Euclidea del piano: applicazioni ed esercizi.
I risultati del paragrafo precedente ci consentono di risolvere vari problemi elementari; in
questo paragrafo ne vediamo alcuni.
Esercizio 19. Determinare unequazione cartesiana che descrive la retta r passante per
i punti P =
_
2
1
_
, Q =
_
8
5
_
.
Soluzione. Essendo v = P Q =
_
6
4
_
un vettore parallelo alla retta passante per i punti
dati, questultima `e descritta dalle equazioni parametriche
_
x = 2 + 6t
y = 1 + 4t
Eliminando il parametro t troviamo lequazione cartesiana 2x 3y 1 = 0 .

Esercizio. Determinare unequazione cartesiana della retta s passante per il punto


P =
_
6
7
_
e parallela alla retta r di equazione 2x 3y 4 = 0 .
Esercizio. Determinare delle equazioni parametriche che descrivono la retta passante per
i punti P =
_
1
4
_
e Q =
_
2
3
_
.
Esercizio. Determinare delle equazioni parametriche che descrivono la retta passante per
il punto P =
_
1
3
_
ed ortogonale al vettore v =
_
1
3
_
.
Esercizio. Determinare unequazione cartesiana della retta s passante per il punto
P =
_
1
1
_
e parallela al vettore v =
_
1
2
_
.
Esercizio. Determinare unequazione cartesiana della retta s passante per il punto
P =
_
4
5
_
ed ortogonale al vettore v =
_
3
3
_
.
Esercizio 20. Determinare la distanza tra i punti P =
_
2
1
_
, Q =
_
8
5
_
.
Soluzione. Tale distanza `e la lunghezza del vettore v = P Q =
_
6
4
_
. Si ha
dist{P, Q} = ||v|| = ||
_
6
4
_
|| =
_
6
2
+ 4
2
=

52 .

Esercizio. Determinare la distanza tra i punti P =


_
2
1
_
, Q =
_
6
5
_
.
80
Esercizio 21. Calcolare larea Adel triangolo di vertici P =
_
2
1
_
, Q =
_
8
5
_
, K =
_
7
2
_
.
Soluzione. Consideriamo i vettori v := P Q =
_
Q
x
P
x
Q
y
P
y
_
=
_
8 2
5 1
_
=
_
6
4
_
e
w := P K =
_
K
x
P
x
K
y
P
y
_
=
_
7 2
2 1
_
=
_
5
1
_
(vedi gura).
(y)
(x)

P =
_
2
1
_

Q =
_
8
5
_

K =
_
7
2
_
v
w
Si ha
A =
1
2
| det
_
v
x
w
x
v
y
w
y
_
| =
1
2
| det
_
6 5
4 1
_
| = 7 .

Esercizio. Calcolare larea del triangolo di vertici A =


_
3
7
_
, B =
_
3
5
_
, C =
_
4
9
_
.
Esercizio. Calcolare larea Adel triangolo di vertici P =
_
1
4
_
, Q =
_
13
8
_
, K =
_
7
11
_
.
Esercizio. Calcolare larea A del triangolo di vertici P =
_
3
1
_
, Q =
_
6
5
_
, K =
_
1
8
_
.
Esercizio 22. Determinare la proiezione del vettore v =
_
4
3
_
lungo la direzione
individuata dal vettore w =
_
1
2
_
.
Soluzione. Basta applicare la formula (11):

w
(v) =
v w
|| w||
2
w =
10
5

_
1
2
_
=
_
2
4
_
.

Esercizio. Determinare la proiezione del vettore v =


_
2
7
_
lungo la direzione
individuata dal vettore w =
_
1
3
_
.
81
Esercizio 23. Determinare la proiezione K del punto P =
_
0
4
_
sulla retta r di
equazione x + 2y 3 = 0 .
Soluzione #1. La retta r `e descritta dalle equazioni parametriche (vericare!)
_
x = 3 2t
y = t
In particolare, il punto Q :=
_
3
0
_
appartiene ad r nonche il vettore w =
_
2
1
_
`e un vettore parallelo ad r . Proiettando il vettore v = QP =
_
3
4
_
sulla direzione
individuata da w otteniamo
u =
w
(v) =
v w
|| w||
2
w =
10
5

_
2
1
_
=
_
4
2
_
.
Poiche il punto K `e lestremo nale di un segmento orientato rappresentante il vettore u
e che ha origine nel punto Q (vedi gura), abbiamo
K =
_
3
0
_
+
_
4
2
_
=
_
1
2
_
.
`
E opportuno vericare che le coordinate del punto K soddisfano lequazione che denisce
la retta r e che il vettore KP =
_
0 (1)
4 2
_
=
_
1
2
_
`e perpendicolare al vettore
w =
_
2
1
_
(il loro prodotto scalare `e nullo). Queste due veriche garantiscono la
correttezza del risultato trovato.
(y)
(x)
Q =
_
3
0
_

P =
_
0
4
_

K =
_
1
2
_
v
u
r

Soluzione #2. Il punto K `e il punto di intersezione della retta r con la retta ortogonale
ad r passante per P . Questultima ha equazioni parametriche
()
_
x = t
y = 4 + 2t
Sostituendo queste equazioni nellequazione di r troviamo t + 2(4 + 2t) 3 = 0 , quindi
t = 1 . Sostituendo il valore t = 1 nelle equazioni () troviamo K =
_
1
2
_
.

82
Esercizio. Determinare la distanza del punto P =
_
0
4
_
dalla retta r di equazione
x + 2y 3 = 0 .
Soluzione. Applicando la formula della distanza si trova
dist
_
P, r
_
=
| 0 + 2 4 3 |

1
2
+ 2
2
=
5

5
=

5

Si osservi che dist


_
P, r
_
= dist
_
P, K
_
, dove K =
_
1
2
_
`e la proiezione ortogonale
di P su r (vedi esercizio 23).
Esercizio. Determinare la proiezione K del punto P =
_
1
8
_
sulla retta r di
equazione 3x + 2y 13 = 0 .
Esercizio. Determinare la proiezione K del punto P =
_
1
8
_
sulla retta r di
equazione x + 5y + 39 = 0 .
Esercizio. Determinare la proiezione K del punto P =
_
2
8
_
sulla retta r di
equazione 4x y 4 = 0 .
Esercizio. Determinare unequazione cartesiana della retta s passante per il punto
P =
_
1
5
_
ed ortogonale alla retta r di equazione 2x 3y 4 = 0 .
Esercizio. Determinare unequazione cartesiana della retta s passante per i punti
P =
_
1
5
_
e Q =
_
6
3
_
.
Esercizio. Calcolare larea A del quadrilatero (irregolare) di vertici P =
_
3
1
_
,
Q =
_
6
5
_
, K =
_
1
3
_
, W =
_
4
5
_
.
Suggerimento: dividetelo in due triangoli, quindi procedete come nellesercizio 21.
Esercizio. Calcolare larea A del pentagono (irregolare) di vertici P =
_
3
1
_
,
Q =
_
1
5
_
, K =
_
1
3
_
, W =
_
4
5
_
, E =
_
6
1
_
.
Suggerimento: dividetelo in tre triangoli.
83
4. Geometria Euclidea dello spazio.
Molte denizioni e risultati che vedremo in questo paragrafo generalizzano quelli visti
studiando il piano. Consideriamo lo spazio S e ssiamo un sistema di riferimento ed una
unit`a di misura (vedi gura 24). Ad ogni punto P S possiamo associare le sue coordinate
_
_
x
y
z
_
_
R
3
e viceversa (vedi gura 24). In questo modo i punti dello spazio vengono messi
in corrispondenza biunivoca con gli elementi di R
3
.
(g. 24)
asse (x) asse (y)
asse (z)

P =
_
_
x
y
z
_
_
Denizione. Un segmento orientato `e un segmento che ha un estremo iniziale Q ed un
estremo nale P . Dichiariamo equivalenti due segmenti orientati QP e Q

se coincidono
a meno di una traslazione dello spazio (cio`e se sono due lati opposti di un parallelogramma).
Per denizione, un vettore geometrico dello spazio `e una classe di equivalenza di segmenti
orientati.
Denizione. Siano
_
_
q
x
q
y
q
z
_
_
e
_
_
p
x
p
y
p
z
_
_
le coordinate di due punti Q e P . Per denizione,
le coordinate del vettore rappresentato dal segmento orientato QP sono
_
_
p
x
q
x
p
y
q
y
p
z
q
z
_
_
.
Osserviamo che la denizione `e ben posta: le coordinate di un vettore geometrico non
dipendono dal segmento orientato scelto per rappresentarlo (vedi 1).
Osservazione/Denizione. Linsieme dei vettori geometrici dello spazio `e in corrispon-
denza biunivoca con R
3
. Deniamo la somma di due vettori geometrici ed il prodotto di
un vettore geometrico per uno scalare utilizzando le corrispondenti operazioni denite per
lo spazio vettoriale R
3
. Chiaramente, queste operazioni arricchiscono linsieme dei vettori
84
geometrici dello spazio S di una struttura di spazio vettoriale (vedi cap. 1, 9 def. 58).
La somma di due vettori geometrici `e loperazione analoga a quella vista studiando il piano
(vedi 1).
Denizione 25. Siano v =
_
_
v
x
v
y
v
z
_
_
e w =
_
_
w
x
w
y
w
z
_
_
due vettori. Si denisce il loro
prodotto scalare mediante la formula
v w := v
x
w
x
+ v
y
w
y
+ v
z
w
z
.
Si denisce inoltre la norma, o lunghezza, di un vettore ponendo
||v|| :=

v v =
_
(v
x
)
2
+ (v
y
)
2
+ (v
z
)
2
Osservazione. Analogamente a quanto accadeva per i vettori del piano, la norma del
vettore v coincide con la lunghezza di un segmento orientato che lo rappresenta (vedi oss.
7, 1). Inoltre, se c R `e una costante e v `e un vettore si ha
|| cv || = |c| || v ||
(vedi oss. 7

, 1). Continuano a valere anche le propriet`a (8), la disuguaglianza di Cauchy-


Schwarz, la disuguaglianza triangolare e la proposizione (9). Questultima la ricordiamo:
(26) v w = ||v|| || w|| cos
dove `e langolo compreso tra v e w.
Osservazione. Di nuovo, due vettori sono ortogonali (i.e. formano un angolo di

2
radianti) se e solo se il loro prodotto scalare vale zero.
Losservazione precedente ci consente di calcolare le proiezioni ortogonali: se v e w sono
due vettori dello spazio (assumiamo w =

0), la proiezione del vettore v lungo la direzione
individuata da w, che denoteremo con
w
(v) , `e il vettore
(27)
w
(v) =
_
v w
|| w||
2
_
w
(la dimostrazione `e identica a quella vista nel 1.)
Passando dal piano allo spazio, la proposizione (12) diventa pi` u complicata:
Proposizione 28. Siano u, v e w tre vettori dello spazio e sia V il volume del
parallelepipedo (sghembo) che individuano. Si ha
V = | det
_
_
u
x
u
y
u
z
v
x
v
y
v
z
w
x
w
y
w
z
_
_
| ,
dove, come al solito, le barre verticali denotano il valore assoluto.
La dimostrazione di questa proposizione la vedremo pi` u avanti.
85
Nello spazio, esiste una nuova operazione tra vettori.
Denizione 29. Dati due vettori v =
_
_
v
x
v
y
v
z
_
_
e w =
_
_
w
x
w
y
w
z
_
_
, il prodotto vettoriale di
v con w, che si denota scrivendo v w, `e il vettore
v w :=
_
_
v
y
w
z
v
z
w
y
v
x
w
z
+ v
z
w
x
v
x
w
y
v
y
w
x
_
_
.
C`e un modo per ricordarsi questa denizione. Infatti si ha
v w = det
_
_
e
1
e
2
e
3
v
x
v
y
v
z
w
x
w
y
w
z
_
_
dove e
1
=
_
_
1
0
0
_
_
, e
2
=
_
_
0
1
0
_
_
, e
3
=
_
_
0
0
1
_
_
sono i vettori della base canonica di R
3
.
Si noti che nella matrice indicata ci sono dei vettori nella prima riga e dei numeri nelle
altre righe, questo non `e un problema: il determinante `e una formula e per come sono
disposti vettori e numeri dentro la matrice in questione tale formula pu`o essere applicata.
Ma vediamo cosa si ottiene. Sviluppando il determinante rispetto alla prima riga si ottiene
v w = e
1
det
_
v
y
v
z
w
y
w
z
_
e
2
det
_
v
x
v
z
w
x
w
z
_
+ e
3
det
_
v
x
v
y
w
x
w
y
_
= (v
y
w
z
v
z
w
y
)e
1
+ (v
x
w
z
+ v
z
w
x
)e
2
+ (v
x
w
y
v
y
w
x
)e
3
,
che `e proprio lespressione della denizione (29).
Da un punto di visto geometrico, il prodotto vettoriale `e caratterizzato dalle propriet`a
che seguono.
(30
a
) v w =

0 , se e solo se v e w sono dipendenti;
(30
b
) v w `e ortogonale al piano individuato da v e w (se tale piano non `e denito,
allora v e w sono dipendenti e, in accordo con la (30
a
), si ha v w = 0)
(30
c
) la norma di v w `e uguale allarea del parallelogramma individuato da v e
w;
(30
d
) il verso di v w, se non siamo nelle condizioni di (30
a
), `e quello che rende
positiva lorientazione della terna {v, w, v w} (la posizione nello spazio dei
tre vettori, nellordine indicato, appare come quella di pollice indice e medio
della mano destra).
In realt`a (30
a
) segue da (30
c
), ma repetita iuvat. Non dimostreremo queste propriet`a.
Lo studente dimostri, per esercizio, la (30
a
) e la (30
b
).
Si osservi che il prodotto vettoriale non `e commutativo, infatti risulta
v w = w v
86
Alla luce di quanto abbiamo visto siamo ora in grado di provare la proposizione (28).
Dimostrazione (della Proposizione 28). Sia P il parallelogramma individuato da v e w,
sia A la sua area e sia langolo compreso tra il vettore u ed il piano del parallelogramma
P . Si osservi che langolo compreso tra u e la retta ortogonale al parallelogramma P `e
pari a /2 e che questa retta rappresenta la direzione individuata dal vettore v w
(vedi 30
b
). Si ha
V = A ||u|| |sen| = A ||u|| | cos
_
/2
_
|
= ||v w|| ||u|| | cos
_
/2
_
|
= |u (v w)|
= |det
_
_
u
x
u
y
u
z
v
x
v
y
v
z
w
x
w
y
w
z
_
_
|
dove la 1
a
uguaglianza segue dal fatto che laltezza relativa alla base P del nostro paralle-
lepipedo vale ||u|| |sen| , la 2
a
uguaglianza `e ovvia, la 3
a
uguaglianza segue da (30
c
), la
4
a
uguaglianza segue dalla formula (26), lultima uguaglianza si verica immediatamente
scrivendo esplicitamente ambo i membri.

Esercizio. Determinare lestremo iniziale del segmento orientato che rappresenta il vettore
v =
_
_
7
18
5
_
_
e che ha per estremo nale il punto P =
_
_
5
2
1
_
_
.
Esercizio. Determinare la distanza tra i punti P =
_
_
4
2
1
_
_
, Q =
_
_
1
7
2
_
_
.
Esercizio. Determinare il coseno dellangolo compreso tra i vettori v =
_
_
5
2
1
_
_
, w =
_
_
1
2
1
_
_
.
Sia ora v il vettore
_
_
3
6
2
_
_
.
Esercizio. Trovare un vettore di norma uno parallelo al vettore v .
Esercizio. Trovare un vettore ortogonale al vettore v . Trovare un altro vettore ortogonale
al vettore v .
Esercizio. Trovare due vettori indipendenti ortogonali al vettore v .
Esercizio. Trovare un vettore di norma 21 ed ortogonale al vettore v .
Esercizio. Trovare due vettori ortogonali tra loro ed ortogonali al vettore v .
Esercizio. Calcolare i prodotti vettoriali che seguono
_
_
1
1
2
_
_

_
_
2
3
1
_
_
,
_
_
5
5
5
_
_

_
_
2
3
1
_
_
,
_
_
4
7
8
_
_

_
_
2
1
1
_
_
,
_
_
1
0
2
_
_

_
_
3
1
1
_
_
.
Esercizio. Vericare, per ogni prodotto vettoriale dellesercizio precedente, che v w `e
ortogonale sia a v che a w.
87
Esercizio. Siano v =
_
_
1
1
2
_
_
e w =
_
_
2
3
1
_
_
due vettori. Calcolare larea A del
parallelogramma individuato dai vettori v e w.
Soluzione #1. Si ha v w =
_
_
5
5
5
_
_
. Pertanto, per la propriet`a (30
c
), si ha A = 5

3 .

Soluzione #2. Indichiamo con langolo tra v e w. Applicando la formula del coseno
(vedi 26) troviamo cos =
v w
||v|||| w||
=
3

84
. Quindi, |sen| =

1 cos
2
=
_
75
84
.
Inne, A = |sen| ||v|| || w|| =
_
75
84

84 =

75 = 5

3 .

Esercizio. Determinare, utilizzando entrambi i metodi appena discussi, larea A del


parallelogramma individuato dai vettori v =
_
_
5
1
2
_
_
e w =
_
_
2
1
3
_
_
.
88
5. Rette e piani nello spazio.
Denizione. Un piano dello spazio S `e il luogo dei punti P =
_
_
x
y
z
_
_
S che
soddisfano unequazione di primo grado, i.e. unequazione del tipo
ax + by + cz + d = 0 ,
con a, b, c non tutti nulli.
Proposizione 31. Il vettore
_
_
a
b
c
_
_
`e un vettore ortogonale al piano .
La dimostrazione di questa proposizione `e analoga a quella della proposizione (15) del 2.
Analogamente a ci`o che accadeva nel caso delle rette nel piano (vedi 2), come conseguenza
di quanto imparato sui sistemi lineari, abbiamo che un piano pu`o essere anche descritto da
equazioni parametriche, ovvero da equazioni del tipo
(32)
_

_
x = x
0
+
1
t +
1
s
y = y
0
+
2
t +
2
s
z = z
0
+
3
t +
3
s
,
dove t ed s sono parametri liberi.
Il punto P
0
=
_
_
x
0
y
0
z
0
_
_
appartiene al piano; i vettori v =
_
_

3
_
_
e w =
_
_

3
_
_
sono
vettori paralleli al piano nonche sono vettori indipendenti.
Osservazione 33. Per trovare unequazione cartesiana del piano denito dal sistema (32)
si pu`o procedere in due modi: i) si eliminano i parametri; ii) si denisce
14
_
_
a
b
c
_
_
= v w,
vedi (30
b
) e (31), quindi si trova la costante d imponendo il passaggio per il punto P
0
,
ovvero si pone d = ax
0
by
0
cz
0
.
Esercizio. Siano P, Q, K tre punti dello spazio. Vericare che sono allineati se e solo
se i due vettori PQ e PK sono dipendenti.
Osservazione. Siano P =
_
_
p
x
p
y
p
z
_
_
, Q =
_
_
q
x
q
y
q
z
_
_
e K =
_
_
k
x
k
y
k
z
_
_
tre punti non
allineati. Il piano passante per essi `e descritto dalle equazioni parametriche
_

_
x = P
x
+
1
t +
1
s
y = P
y
+
2
t +
2
s
z = P
y
+
3
t +
3
s
, dove
_
_

3
_
_
= P Q ,
_
_

3
_
_
= P K .
14 `
E sottinteso che le costanti a, b, c, d che sto per denire vanno sostituite nellequazione ax+by+cz+d = 0 .
89
Esempio. Il piano passante per i punti P =
_
_
2
0
1
_
_
, Q =
_
_
6
5
7
_
_
e K =
_
_
4
9
8
_
_
`e
descritto dalle equazioni parametriche
_

_
x = 2 + 4t + 2s
y = 0 + 5t + 9s
z = 1 + 6t + 7s
.
Per quel che riguarda la distanza di un punto da un piano, vale una formula analoga alla
(18). Si ha infatti quanto segue.
Proposizione. Sia il piano di equazione ax + by + cz + d = 0 e sia P =
_
_
p
x
p
y
p
z
_
_
un punto dello spazio. La distanza di P da , che per denizione `e la distanza minima,
cio`e il minimo tra le distanze di P dai punti di , `e data dalla formula
(34) dist
_
P,
_
=
| ap
x
+ bp
y
+ cp
z
+ d |

a
2
+ b
2
+ c
2
,
dove le barre verticali denotano la funzione modulo (valore assoluto).
La dimostrazione di questa formula `e del tutto identica alla dimostrazione della (18).
Osservazione 34

. Il punto Q che ha distanza minima da P `e il punto di


intersezione di con la retta r passante per P ed ortogonale a . Vedremo pi` u avanti
come si determina Q.
Intersecando due piani non paralleli
15
si ottiene una retta, intersecare corrisponde a met-
tere a sistema le equazioni: se
1
e
2
sono due piani, deniti rispettivamente dalle
equazioni f
1
= 0 ed f
2
= 0 , un punto P appartiene allintersezione
1

2
se e
solo se soddisfa il sistema di equazioni
_
f
1
= 0
f
2
= 0
. Quanto osservato suggerisce la seguente
denizione.
Denizione. Una retta r dello spazio S `e il luogo dei punti P =
_
_
x
y
z
_
_
S che
soddisfano un sistema lineare del tipo
(35)
_
ax + by + cz + d = 0
a

x + b

y + c

z + d

= 0
, rg
_
a b c
a

_
= 2 .
Tali equazioni si chiamano equazioni cartesiane della retta r .
Si osservi che la condizione rg
_
a b c
a

_
= 2 `e, da un punto di vista geometrico,
la condizione di non parallelismo tra i piani che stiamo intersecando ed `e, da un punto di
vista algebrico (vedi i capitoli precedenti sui sistemi lineari), la condizione che assicura che
il sistema lineare (35) `e compatibile ed ha uno spazio delle soluzioni che dipende da un
15
In particolare, non coincidenti.
90
parametro libero. Analogamente ai casi delle rette nel piano e dei piani nello spazio, ci`o che
sappiamo sui sistemi lineari ci consente di osservare quanto segue.
Osservazione. Una retta r dello spazio S `e il luogo dei punti P =
_
_
x
y
z
_
_
S del tipo
(36)
_

_
x = x
0
+ t
y = y
0
+ t
z = z
0
+ t
,
_
_

_
_
=
_
_
0
0
0
_
_
dove,
_
_
x
0
y
0
z
0
_
_
`e un punto ssato,
_
_

_
_
`e un vettore non-nullo ssato e, come al solito,
t `e un parametro libero.
Le intersezioni tra piani, oppure tra rette, oppure tra rette e piani, si determinano met-
tendo a sistema le equazioni degli oggetti geometrici in questione. Negli esercizi che seguono
vediamo qualche esempio.
Esercizio. Determinare il punto P di intersezione della retta r di equazioni
_

_
x = 2 + 7t
y = 5 + 2t
z = 8 + 3t
con il piano H di equazione x 3y + 5z 43 = 0 .
Soluzione. Sostituendo x = 2 + 7t, y = 5 + 2t, z = 8 + 3t nellequazione di H troviamo
(2 + 7t) 3(5 + 2t) + 5(8 + 3t) 43 = 0 , quindi t = 1 . Pertanto P =
_
_
9
7
11
_
_
.

Esercizio. Determinare unequazione parametrica della retta r ottenuta intersecando i


piani H :=
_

_
x = 2 + 7t + 2s
y = 4 + 2t 6s
z = 8 + 3t + 5s
ed H

:=
_
8x 3y 7z 4 = 0
_
.
Soluzione #1. Si trova unequazione cartesiana anche per il piano H (utilizzando uno
dei due metodi indicati nellosservazione 33), quindi si risolve, con i metodi visti nei capitoli
sui sistemi lineari, il sistema costituito da questa equazione e dallequazione di H

Soluzione #2. Imponendo che le espressioni 2+7t +2s, 4+2t 6s, 8+3t +5s soddisno
lequazione di H

si trovano le coordinate del generico punto di H che appartiene anche


ad H

. Queste sono le coordinate del generico punto della retta r . Operativamente, questo
signica che si procede come segue: sostituendo le espressioni di cui sopra nellequazione di
H

si trova 8(2 +7t +2s) 3(4 +2t 6s) 7(8 +3t +5s) 4 = 0 , quindi s = 29t 56 .
Pertanto,
_

_
x = 2 + 7t + 2(29t 56) = 110 + 65t
y = 4 + 2t 6(29t 56) = 340 172t
z = 8 + 3t + 5(29t 56) = 272 + 148t
sono equazioni parametriche della retta r .

91
Torniamo alla proposizione (34) ed allosservazione (34

). Abbiamo visto che Q = r ,


dove r `e la retta ortogonale a passante per P . Per la proposizione (31), si ha che r ha
equazioni parametriche
_

_
x = p
x
+ at
y = p
y
+ bt
z = p
z
+ ct
,
dove a, b, c sono proprio i coecienti che appaiono nellequazione di , ax+by+cz+d = 0 .
Si osservi inoltre che Q `e la proiezione ortogonale di P sul piano .
6. Geometria Euclidea dello spazio: applicazioni ed esercizi.
Nello spazio, la proiezione ortogonale K di un punto P su una retta r pu`o essere
determinata con metodi analoghi a quelli visti nellesercizio (23) del 3:
i) si sceglie un punto Q di r , si proietta il vettore QP su un vettore parallelo ad r ,
si determina K come estremo nale di un segmento orientato che ha Q come estremo
iniziale e che rappresenta il vettore proiezione trovato;
ii) si interseca r con il piano passante per P ed ortogonale a r .
Esercizio 37. Determinare la proiezione K del punto P =
_
_
3
3
10
_
_
sulla retta r di
equazioni
_

_
x = 5 + 3t
y = 3 + t
z = 7 2t
Soluzione #1. Il punto Q :=
_
_
5
3
7
_
_
appartiene ad r nonche il vettore w =
_
_
3
1
2
_
_
`e un vettore parallelo ad r . Proiettando il vettore v = QP =
_
_
2
0
3
_
_
sulla direzione
individuata da w otteniamo
u =
w
(v) =
v w
|| w||
2
w =
12
14

_
_
3
1
2
_
_
=
_
_
18/7
6/7
12/7
_
_
.
Poiche il punto K `e lestremo nale di un segmento orientato rappresentante il vettore u
e che ha origine nel punto Q, abbiamo
K =
_
_
5
3
7
_
_
+
_
_
18/7
6/7
12/7
_
_
=
_
_
17/7
15/7
61/7
_
_
.

`
E opportune eettuare veriche analoghe a quelle svolte risolvendo lesercizio (23) del 3.
Soluzione #2. Il punto K `e il punto di intersezione della retta r con il piano ortogonale
ad r passante per P . Questultimo ha equazione cartesiana (qui usiamo la proposizione
92
31, quindi imponiamo il passaggio per P )
() 3 x + y 2 z + 8 = 0
Sostituendo le equazioni di r nellequazione () troviamo 3(5+3t) +(3+t) 2(72t) +8 =
0 , quindi 12 + 14t = 0 . Sostituendo inne il valore t = 6/7 nelle equazioni di r
troviamo K =
_
_
17/7
15/7
61/7
_
_
.

La proiezione ortogonale di un punto P su un piano si determina intersecando


con la retta passante per P ed ortogonale a .
Esercizio 38. Sia P =
_
_
2
1
4
_
_
un punto e sia il piano di equazione 3x+y+7z+4 =
0 . Determinare la proiezione K di P su .
Soluzione. Per la proposizione (31), il vettore
_
_
3
1
7
_
_
`e ortogonale al piano . Ne segue
che la retta r di equazioni parametriche
_

_
x = 2 + 3t
y = 1 + t
z = 4 + 7t
`e la retta ortogonale a nonche passante per P . Si ha K = r (il calcolo di questa
intersezione lo lasciamo per esercizio).

Osservazione 39. Nello spazio, per calcolare la distanza di un punto P da una retta
r , conviene determinare la proiezione Q di P su r . Naturalmente si ha dist{P, r} =
dist{P, Q} . I metodi pi` u rapidi per trovare le coordinate Q sono i seguenti:
i) si procede come nella soluzione #1 dellesercizio 37;
ii) si procede come nella soluzione #2 dellesercizio 37.
Esercizio. Sia P =
_
_
2
5
4
_
_
e sia r la retta di equazioni
_

_
x = 11 + 5t
y = 3 12t
z = 2 + 3t
.
Determinare la distanza dist{P, r} .
Esercizio. Sia P =
_
_
2
1
3
_
_
e sia r la retta di equazioni
_
x 3y + z = 0
2x + z 5 = 0
.
Calcolare la distanza dist{P, r} .
93
Concludiamo questo paragrafo con il calcolo della distanza tra due rette nello spazio.
Denizione 40. Siano r ed s due rette nello spazio, si pone
dist{r, s} = min
_
dist(P, Q)
_
Pr, Qs
.
Supponiamo che r ed s non siano parallele (se lo sono, la distanza cercata `e uguale alla
distanza di un punto qualsiasi di r da s e si calcola con i metodi suggeriti nellosservazione
39). Supponiamo inoltre che r ed s siano date in forma parametrica, e.g. siano
16
r =
_
_
_
_
_
x
y
z
_
_
= P
0
+ v t
_
_
_
s =
_
_
_
_
_
x
y
z
_
_
= Q
0
+ wt
_
_
_
Sia H il piano contenente r e parallelo ad s , sia H

il piano contenente s e parallelo ad


r . Chiaramente (convincersene, per esercizio),
(41) dist{r, s} = dist{H, H

} = dist{Q, H} ,
dove Q `e un punto qualsiasi di H

(si pu`o scegliere il punto Q


0
, che `e un punto di s ).
Si osservi che non stiamo dicendo che Q
0
`e il punto di s che realizza il minimo della
denizione (40), in generale possiamo solamente dire che dist{Q
0
, r} dist{r, s} . Comun-
que valgono le uguaglianze (41) e queste ci consentono di risolvere il nostro problema.
Per trovare i punti che realizzano il minimo della denizione (40), si deve lavorare un po
di pi` u:
(continuiamo ad assumere che r ed s non siano parallele) la proiezione della retta s sul
piano H (che `e il luogo dei punti ottenuti proiettando su H i punti di s ) `e una retta s
che incontra r . Sia

P = s r e sia

Q il punto di s la cui proiezione `e il punto

P . Si ha
(42) dist{r, s} = dist{H, H

} = dist{

P,

Q} ,
Si noti che la prima uguaglianza viene dalle relazioni (41), la seconda uguaglianza segue dal
fatto che

Q `e stato ottenuto proiettando

P (che `e un punto di H ) sul piano H

(`e
opportuno ricordare che i due piani sono paralleli per costruzione).
Inne, poiche

P e

Q sono punti di r ed s rispettivamente, abbiamo che sono proprio i
punti che realizzano il minimo della denizione (40).
Esercizio. Calcolare la distanza tra le rette (si osservi che non sono parallele)
r :
_

_
x = 2 + 3t
y = 1 + 4t
z = 4 + 7t
s :
_

_
x = 5 + 6t
y = 1 + 3t
z = 2 + 7t
Soluzione. Il piano H contenente r e parallelo ad s ha equazioni parametriche
_

_
x = 2 + 3t + 6t

y = 1 + 4t + 3t

z = 4 + 7t + 7t

16
Si osservi che, a parte la notazione un minimo pi` u compatta, queste equazioni sono equazioni parametriche
di rette; le si confrontino con quelle dellosservazione (36).
94
Passando da equazioni parametriche a cartesiane troviamo che
7 x + 21 y + 15 z 53 = 0
`e unequazione cartesiana di H. Per le osservazioni viste, posto Q
0
=
_
_
5
1
2
_
_
si ha
dist{r, s} = dist{ Q
0
, H} =
|7 5 + 21 1 + 15 2 53|

49 + 441 + 225
=
33

715

Esercizio. Trovare i due punti



P r e

Q s tali che
dist{r, s} = dist{

P,

Q} ,
dove r ed s sono le rette dellesercizio precedente.
Soluzione. Una volta determinato il piano H contenente r e parallelo ad s (si veda la
soluzione dellesercizio precedente), calcoliamo la proiezione s di s su H :
la retta s si ottiene intersecando il piano H con il piano

H
s
contenente s ed ortogonale
ad H, che `e il piano di equazioni (convincersene)
_

_
x = 5 + 6t + 7t

y = 1 + 3t + 21t

z = 2 + 7t + 15t

Si ha pertanto

P = s r =

H
s
r (nonche

Q =

H
r
s , dove

H
r
`e il piano contenente
r ed ortogonale ad H).
Il calcolo esplicito delle intersezioni

H
s
r e

H
r
s lo lasciamo per esercizio.

95
Indice
Capitolo 1
1 Introduzione ai sistemi lineari 1
2 Sistemi lineari e matrici 3
3 Leliminazione di Gauss 5
4 Matrici 10
5 Matrici quadrate 13
6 Determinante 14
7 Teorema di Cramer 22
8 Il calcolo dellinversa di una matrice mediante lalgoritmo di Gauss 25
9 Spazi vettoriali 27
10 Sottospazi di uno spazio vettoriale e formula di Grassmann 35
11 Rango di una matrice 38
12 Sottospazi di uno spazio vettoriale II 40
13 Sottospazi di uno spazio vettoriale: equazioni parametriche e cartesiane 41
14 Richiami di insiemistica 44
15 Applicazioni lineari 44
16 Trasformazioni lineari di uno spazio vettoriale: autovalori e autovettori 51
17 Problema della diagonalizzazione 55
18 Approfondimenti 63
Capitolo 2
1 Geometria Euclidea del piano 69
2 Rette nel piano 74
3 Geometria Euclidea del piano: applicazioni ed esercizi 79
4 Geometria Euclidea dello spazio 83
5 Rette e piani nello spazio 88
6 Geometria Euclidea dello spazio: applicazioni ed esercizi 91
Compiti desame (in gran parte svolti) e altri esercizi si trovano nella sezione
Area Esami
della mia pagina web
www.mat.uniroma2.it/marini

Vous aimerez peut-être aussi