Vous êtes sur la page 1sur 205

Algebra Lineare e Geometria

Carlo Petronio
Primavera 2012
iii
Indice
1 Motivazioni 1
1.1 Forze applicate . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Trasformazioni piane . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Traslazioni . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Omotetie . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Rotazioni . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Intersezione tra rette . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Numeri di Fibonacci . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Preliminari algebrici e logici 13
2.1 Numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Numeri naturali e interi . . . . . . . . . . . . . . . . . . 13
2.1.2 Numeri razionali e reali . . . . . . . . . . . . . . . . . . 14
2.1.3 Campi e gruppi commutativi . . . . . . . . . . . . . . . 16
2.2 Polinomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3 Dimostrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Principio di induzione . . . . . . . . . . . . . . . . . . . 18
2.3.2 Dimostrazioni per assurdo . . . . . . . . . . . . . . . . . 19
3 Spaz vettoriali 21
3.1 Denizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.1.1 Conseguenze della denizione . . . . . . . . . . . . . . . 22
3.1.2 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Sottospaz vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4 Dimensione 29
4.1 Sottospazio generato e combinazioni lineari . . . . . . . . . . . 29
4.2 Indipendenza lineare e basi . . . . . . . . . . . . . . . . . . . . 32
iv
4.3 Dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.4 Estrazione e completamento . . . . . . . . . . . . . . . . . . . . 38
4.5 Formula di Grassmann . . . . . . . . . . . . . . . . . . . . . . . 41
5 Applicazioni lineari 43
5.1 Denizione, esempi, nucleo, immagine . . . . . . . . . . . . . . 43
5.2 Somme dirette e proiezioni . . . . . . . . . . . . . . . . . . . . . 47
5.3 Matrici e applicazioni associate . . . . . . . . . . . . . . . . . . 50
5.4 Spazio delle applicazioni lineari e matrice di una applicazione . 53
5.5 Cambiamenti di base e inversione . . . . . . . . . . . . . . . . . 59
6 Sistemi lineari, rango, determinante 63
6.1 Rango e soluzioni di un sistema . . . . . . . . . . . . . . . . . . 64
6.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.3 Matrice inversa e rango . . . . . . . . . . . . . . . . . . . . . . 73
7 Sottospaz ani 79
7.1 Equazioni cartesiane e parametriche . . . . . . . . . . . . . . . 79
7.2 Rette nel piano, rette e piani nello spazio . . . . . . . . . . . . 82
7.3 Somma di sottospaz . . . . . . . . . . . . . . . . . . . . . . . . 85
8 Numeri complessi 89
8.1 Il campo complesso . . . . . . . . . . . . . . . . . . . . . . . . . 89
8.2 Il piano complesso . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3 Forma polare ed esponenziale complessa . . . . . . . . . . . . . 93
8.4 Equazioni polinomiali . . . . . . . . . . . . . . . . . . . . . . . 95
8.5 Spaz vettoriali complessi . . . . . . . . . . . . . . . . . . . . . 97
9 Prodotti scalari e hermitiani 101
9.1 Prodotti scalari . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
9.2 Norma e ortogonalit`a . . . . . . . . . . . . . . . . . . . . . . . . 105
9.3 Decomposizioni ortogonali e proiezioni . . . . . . . . . . . . . . 109
9.4 Matrici simmetriche e ortogonali . . . . . . . . . . . . . . . . . 112
9.5 Il caso complesso . . . . . . . . . . . . . . . . . . . . . . . . . . 114
10 Autovalori e diagonalizzazione 117
10.1 Matrici coniugate e diagonalizzabilit`a . . . . . . . . . . . . . . . 118
10.2 Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . 122
10.2.1 Teorema spettrale e matrice hessiana . . . . . . . . . . . 125
10.2.2 Versione complessa del teorema spettrale . . . . . . . . 126
v
10.2.3 Forma canonica di matrici antisimmetriche e ortogonali 127
11 Coniche metriche e ani 129
11.1 Modelli metrici delle coniche . . . . . . . . . . . . . . . . . . . . 129
11.1.1 Piano euclideo, isometrie e
trasformazioni ani . . . . . . . . . . . . . . . . . . . . 129
11.1.2 Equazioni metriche di circonferenza,
ellisse, parabola e iperbole . . . . . . . . . . . . . . . . . 131
11.2 Matrice di una conica e classicazione
ane delle coniche non degeneri . . . . . . . . . . . . . . . . . . 133
12 Spaz proiettivi 139
12.1 Relazioni di equivalenza e insiemi quoziente . . . . . . . . . . . 139
12.2 Denizione di spazio proiettivo . . . . . . . . . . . . . . . . . . 141
12.2.1 La retta proiettiva reale . . . . . . . . . . . . . . . . . . 142
12.2.2 Il piano proiettivo reale . . . . . . . . . . . . . . . . . . 143
12.2.3 Superci ottenute incollando lati di una gura piana . . 144
12.2.4 La retta proiettiva complessa . . . . . . . . . . . . . . . 145
12.2.5 Spazio proiettivo come completamento allinnito dello
spazio ane . . . . . . . . . . . . . . . . . . . . . . . . . 146
12.3 Coordinate omogenee e sottospaz proiettivi . . . . . . . . . . . 147
12.4 Cambiamenti di coordinate ani e proiettivi . . . . . . . . . . 149
13 Coniche e quadriche ani e proiettive 151
13.1 Completamento proiettivo e punti allinnito . . . . . . . . . . 151
13.2 Classicazione delle coniche
proiettive e ani . . . . . . . . . . . . . . . . . . . . . . . . . . 153
13.3 Modelli ani delle quadriche . . . . . . . . . . . . . . . . . . . 156
13.3.1 Insieme vuoto, ellissoide, paraboloide ellittico . . . . . . 156
13.3.2 Iperboloidi a una e due falde . . . . . . . . . . . . . . . 156
13.3.3 Paraboloide iperbolico . . . . . . . . . . . . . . . . . . . 157
13.3.4 Punti allinnito . . . . . . . . . . . . . . . . . . . . . . 158
13.4 Classicazione ane
delle quadriche non degeneri . . . . . . . . . . . . . . . . . . . . 159
14 Curve nel piano e nello spazio 163
14.1 Curve parametrizzate e regolari . . . . . . . . . . . . . . . . . . 163
14.1.1 Cambiamento di parametro . . . . . . . . . . . . . . . . 165
14.1.2 Lunghezza . . . . . . . . . . . . . . . . . . . . . . . . . . 166
14.1.3 Integrale su una curva di una funzione . . . . . . . . . . 167
vi
14.1.4 Parametro darco . . . . . . . . . . . . . . . . . . . . . . 168
14.1.5 Teorema di Jordan . . . . . . . . . . . . . . . . . . . . . 168
14.1.6 Graci locali e teorema del Dini . . . . . . . . . . . . . 169
14.2 Curvatura di una curva piana . . . . . . . . . . . . . . . . . . . 171
14.2.1 Circonferenza osculatrice e curvatura . . . . . . . . . . . 171
14.2.2 Segno della curvatura . . . . . . . . . . . . . . . . . . . 173
14.2.3 Calcolo della curvatura . . . . . . . . . . . . . . . . . . 173
14.3 Curvatura e torsione di una curva nello spazio . . . . . . . . . . 173
15 Integrazione su curve 175
15.1 1-forme e loro integrali . . . . . . . . . . . . . . . . . . . . . . . 175
15.2 Forme chiuse ed esatte . . . . . . . . . . . . . . . . . . . . . . . 175
15.3 Formula di Gauss-Green . . . . . . . . . . . . . . . . . . . . . . 175
16 Isometrie del piano 177
16.1 Il gruppo delle isometrie . . . . . . . . . . . . . . . . . . . . . . 177
16.1.1 Il piano euclideo e il gruppo delle isometrie . . . . . . . 177
16.1.2 Tipi di isometria . . . . . . . . . . . . . . . . . . . . . . 178
16.1.3 Composizioni di isometrie . . . . . . . . . . . . . . . . . 178
16.1.4 Il gruppo delle isometrie del piano . . . . . . . . . . . . 184
16.2 Descrizione analitica delle isometrie . . . . . . . . . . . . . . . . 185
16.2.1 Riessioni e glissoriessioni . . . . . . . . . . . . . . . . 186
16.2.2 Composizione di isometrie descritte analiticamente . . . 189
17 Pavimentazioni del piano 191
Motivazioni 1
Capitolo 1
Motivazioni
Lo scopo fondamentale di questo corso `e lintroduzione di tecniche di manipo-
lazione di tipo algebrico per oggetti di natura non algebrica (come sarebbero,
ad esempio, numeri, polinomi, espressioni), bens` geometrica (come punti, ret-
te, piani). Svilupperemo un linguaggio astratto e dei metodi che si prestano a
trattare in modo unicato (e a risolvere!) problemi apparentemente molto di-
versi tra loro. Questi problemi hanno tutti importanti motivazioni nel mondo
reale (ad esempio in questioni provenienti dallingegneria), ma noi non avremo
tempo di insistere su di esse: lasciamo ai corsi successivi lillustrazione delle
applicazioni della teoria qui descritta.
In questo capitolo anticipiamo alcuni dei temi di cui ci occuperemo.
1.1 Forze applicate
Nella sica del punto materiale rappresentiamo una forza F applicata a un
punto p come una freccia (vettore) che parte da p (si veda Fig. 1.1). La freccia
indica direzione e verso di F, e la sua lunghezza `e proporzionale allintensit`a di
F. Se due forze sono applicate allo stesso p, leetto sul moto di p `e quello di
una singola forza, detta risultante e costruita con la regola del parallelogrammo,
come illustrato in Fig. 1.2. Valgono le propriet`a:
ris(F
1
, F
2
) = ris(F
2
, F
1
);
ris
_
F
1
, ris(F
2
, F
3
)
_
= ris
_
ris(F
1
, F
2
), F
3
_
.
(La prima `e facile; vericare per esercizio la seconda). Inoltre se chiamiamo
0 la forza di intensit`a nulla applicata a p (della quale non contano direzione e
verso, naturalmente) abbiamo anche:
2 Capitolo 1
F
p
Figura 1.1: Una forza F applicata a un punto p
2
ris( )
1
F ,F
p
F
F
2
1
Figura 1.2: Risultante di due forze F
1
e F
2
Motivazioni 3
ris(0, F) = F;
ris(F,

F) = 0 se

F `e la forza che ha direzione e intensit`a uguali a quelle
di F, ma verso opposto.
Esaminando le quattro propriet`a elencate ci si accorge che sono perfettamente
analoghe a quelle delloperazione + (addizione) tra numeri:
x +y = y +x;
x + (y +z) = (x +y) +z;
0 +x = x;
x + (x) = 0.
Facciamo allora la scommessa di indicare ris(F
1
, F
2
) con F
1
+F
2
, sperando che
lanalogia con loperazione + tra numeri dia frutti. Bisogna fare attenzione:
scrivendo F
1
+ F
2
stiamo dando un nuovo signicato al simbolo +, cio`e
stiamo denendo una nuova operazione, poiche essa si applica a oggetti che
non sono pi` u numeri (sono forze). Lo stiamo facendo sulla base dellanalogia
delle propriet`a delloperazione risultante tra forze con quelle delloperazione
addizione tra numeri.
Ci sono altre operazioni che possiamo fare con le forze. Ad esempio, data
una forza F possiamo raddoppiarne, triplicarne o dimezzarne lintensit`a, senza
modicare direzione e verso, oppure possiamo cambiarne il verso.
`
E naturale
interpretare questo come la moltiplicazione della forza per un fattore 2, 3, 1/2
e 1, rispettivamente. Pi` u in generale `e chiaro che senso dare alla forza F
se `e un numero. Osserviamo che, come sopra con il +, abbiamo introdotto
una nuova operazione che ha come input una coppia di oggetti del tipo
numeroforza e ha come output una forza. Naturalmente luso dello stesso
simbolo impiegato per la moltiplicazione tra numeri ha senso se sono analoghe
le propriet`a algebriche. E di fatto si possono facilmente vericare le identit`a
seguenti:
(
1

2
) F =
1
(
2
F)
(si osservi che dei quattro che compaiono in questa formula, il primo rap-
presenta la moltiplicazione tra numeri, mentre gli altri tre rappresentano la
nuova operazione introdotta);
(
1
+
2
) F =
1
F +
2
F
4 Capitolo 1
y
0
x
0
y
0
x
0
y
v
T(p)
p
T(p)
p
x
Figura 1.3: Un vettore nel piano, la traslazione a esso associata, e la corrispondente
trasformazione delle coordinate
(in questo caso il primo + `e quello tra numeri, mentre laltro + e i tre
hanno il nuovo signicato);
(F
1
+F
2
) = F
1
+ F
2
;
0 = 0 F = 0
(nellultima formula il primo e il terzo 0 rappresentano la forza di intensit`a
nulla, mentre il secondo `e il numero zero). Sulla base di queste propriet`a
sar`a lecito manipolare espressioni contenenti le nuove operazioni introdotte
cos` come si sarebbe fatto per le corrispondenti espressioni algebriche.
1.2 Trasformazioni piane
1.2.1 Traslazioni
Una classe di trasformazioni del piano cartesiano che molti dovrebbero avere
incontrato `e quella delle traslazioni. Una traslazione T `e determinata da un
vettore v avente certe componenti (x
0
, y
0
), come in Fig. 1.3-sinistra. Essa agisce
su un generico punto p come indicato in Fig. 1.3-centro. Esaminiamo ora come
si esprimano le coordinate (x

, y

) del punto trasformato T(p) in funzione delle


coordinate (x, y) del punto iniziale p. La relazione, che si deduce facilmente da
Fig. 1.3-destra, `e la seguente:
()
_
x

= x +x
0
y

= y +y
0
.
Interpretiamo ora le coordinate di un punto o le componenti di un vettore,
che sono una coppia di numeri, come un oggetto unico, che scriviamo come
Motivazioni 5
colonna (questa scelta si riveler`a molto utile, come vedremo gi`a in questo primo
capitolo) e che indichiamo con il simbolo stesso che denota il punto o il vettore:
p

=
_
x

_
, p =
_
x
y
_
, v =
_
x
0
y
0
_
.
`
E allora naturale scrivere la relazione () semplicemente come:
p

= p +v .
In altre parole stiamo denendo ancora un nuovo signicato per il simbolo
+. Ora abbiamo come input della nuova operazione due colonne di numeri
_
x
y
_
e
_
z
w
_
, e come output una nuova colonna
_
x +z
y +w
_
. Come sopra,
`e sensato denotare con + la nuova operazione poiche valgono le seguenti
propriet`a algebriche analoghe a quelle delladdizione tra numeri:
0 +p = p
dove 0 indica la colonna
_
0
0
_
;
p + (p) = 0
dove p indica la colonna
_
x
y
_
se p =
_
x
y
_
;
p
1
+p
2
= p
2
+p
1
;
p
1
+ (p
2
+p
3
) = (p
1
+p
2
) +p
3
.
In realt`a possiamo ricondurre questa nuova operazione + a quella introdotta
sopra tra forze. Se infatti interpretiamo p come la forza applicata allorigi-
ne delle coordinate e avente testa nel punto di coordinate p, abbiamo una
completa coerenza, come illustrato in Fig. 1.4.
Per concludere con le traslazioni osserviamo anche che, interpretando sia i
punti del piano cartesiano che i vettori come colonne di due numeri, abbiamo
di fatto abbandonato la distinzione tra questi tipi di oggetto. La coerenza di
questo fatto si spiega con la costruzione appena vista: un punto p determina
il vettore che ha coda nellorigine degli assi e testa in p. Viceversa un
vettore v determina un punto se si trasporta la coda di v nellorigine e se ne
considera la testa.
6 Capitolo 1
x
F
1 2
2
1
F
F +F
y
2
y
x
y +y
x +x
1 2
1
2 1 1 2
Figura 1.4: Risultante tra forze espressa in coordinate
1.2.2 Omotetie
Consideriamo ora unaltra operazione elementare sui punti del piano cartesiano,
vale a dire lomotetia di ragione = 0 centrata nellorigine O. Geometricamen-
te tale trasformazione mantiene ogni punto p sulla retta che contiene O e p,
ma modica la distanza tra O e p di un fattore ||, riettendo inoltre rispetto
allorigine il punto risultante se < 0. Se
_
x
y
_
sono le coordinate di p, `e
facile vedere che le coordinate del suo trasformato sono
_
x
y
_
.
`
E ora natu-
rale denotare tale colonna di coordinate come
_
x
y
_
, introducendo dunque
una nuova operazione che ha come input un numero e una colonna con
due coordinate e come output unaltra colonna con due coordinate. Come al
solito questa scelta `e giusticata dalle propriet`a algebriche delloperazione.
`
E
anzi facile vedere che essa corrisponde esattamente alla moltiplicazione tra un
numero e una forza, introdotta sopra, interpretando un punto p come il vettore
con coda nellorigine e testa in p.
Motivazioni 7

p
p
Figura 1.5: La rotazione di angolo
1.2.3 Rotazioni
Consideriamo ora una nuova classe di trasformazioni del piano cartesiano, quel-
la delle rotazioni intorno allorigine degli assi. Una rotazione `e determinata da
un angolo , e agisce come suggerito in Fig. 1.5.
Determiniamo come si ricavino le coordinate
_
x

_
del punto ruotato p

in
funzione delle coordinate
_
x
y
_
del punto iniziale p. Si tratta di un esercizio di
trigonometria, svolto in Fig. 1.6: sono qui mostrati il triangolo avente vertici in
O, in p e nella proiezione di p sullasse delle ascisse, il ruotato di tale triangolo,
e le lunghezze di var segmenti, dalle quali la conclusione segue facilmente. Si
trovano dunque le relazioni seguenti:
()
_
x

= cos x sin y
y

= sin x + cos y.
Avendo interpretato le coordinate come un unico oggetto
_
x
y
_
, `e naturale
tentare di riscrivere le equazioni () come ununica equazione
_
x

_
= R

_
x
y
_
dove tanto loggetto R

che il signicato di sono da inventare. Per R

inventiamo la tabella
R

=
_
cos sin
sin cos
_
8 Capitolo 1
p
x
cos( ) y
ysin( )
x
y
cos( ) x
p
sin( )

x
y

Figura 1.6: Coordinate di un punto ruotato di angolo


Motivazioni 9
che rispecchia le posizioni dei coecienti cos e sin nelle equazioni (). A
questo punto inventiamo la regola di moltiplicazione tra una tabella con due
righe e due colonne e una colonna di altezza due in modo che risulti quello che
desideriamo:
_
a b
c d
_

_
x
y
_
=
_
a x +b y
c x +d y
_
.
Ancora una volta, ha senso usare il simbolo per loperazione introdotta in
virt` u delle sue propriet`a algebriche, che vedremo oltre.
Illustriamo ora un primo elemento di utilit`a delle nuove operazioni (che
altrimenti potrebbero sembrare pure invenzioni formali, prive di scopo). Ri-
cordiamo che la tabella R

labbiamo associata alla rotazione di angolo , nel


senso che la rotazione di un punto di angolo si esegue moltiplicando (a si-
nistra) le coordinate del punto per la R

. Se ora consideriamo due angoli e


, possiamo considerare due modi di moltiplicare tra loro le corrispondenti
R

e R

. Da un lato, geometricamente, abbiamo le rotazioni di angoli e


, che possiamo comporre, cio`e eseguire prima una e poi laltra, ottenendo la
rotazione di angolo + . Dallaltro lato, possiamo facilmente inventare una
ragionevole regola di moltiplicazione tra tabelle con due righe e due colonne.
Date
_
a b
c d
_
e
_
x z
y w
_
, interpretiamo la seconda tabella come la scrittu-
ra, una di anco allaltra, delle due colonne
_
x
y
_
e
_
z
w
_
, e decidiamo che
moltiplicando a sinistra per
_
a b
c d
_
si ottengono, una di anco allaltra, le
due colonne
_
a b
c d
_

_
x
y
_
e
_
a b
c d
_

_
z
w
_
, ovvero:
_
a b
c d
_

_
x z
y w
_
=
_
a x +b y a z +b w
c x +d y c z +d w
_
.
Con questa regola abbiamo allora:
R

=
_
cos sin
sin cos
_

_
cos sin
sin cos
_
=
_
cos cos sin sin cos sin sin cos
cos sin + sin cos cos cos sin sin
_
mentre avevamo osservato che la composizione di R

ed R

conduceva a:
R
+
=
_
cos( +) sin( +)
sin( +) cos( +)
_
.
10 Capitolo 1
Le regole trigonometriche di calcolo per cos( + ) e sin( + ) comportano
ora che R

= R
+
. Dunque abbiamo il fatto notevole che la regola di
moltiplicazione algebrica tra tabelle, inventata senza particolare motivazione
geometrica, in realt`a traduce esattamente la nozione geometrica di composizio-
ne delle due rotazioni. Alternativamente, dando per assodata la corrispondenza
tra moltiplicazione e composizione, la relazione R

= R
+
ci consente
di ricavare in modo facile le regole trigonometriche di calcolo per cos( + )
e sin( + ): basta ricordare come si associa R

a e la moltiplicazione tra
tabelle.
Concludiamo osservando che, quando abbiamo parlato della composizione
delle due rotazioni di angoli e , non abbiamo avuto bisogno di specicare
quale delle due trasformazioni sia eseguita prima dellaltra, poiche in questo
caso luna scelta o laltra conducono allo stesso risultato. Si osservi che ci`o non
`e aatto vero per funzioni qualsiasi: ad esempio, se f(t) = t
2
e g(t) = 2t, si ha
(f g)(t) = 4t
2
e (g f)(t) = 2t
2
.
1.3 Intersezione tra rette
Nel piano cartesiano con coordinate x e y, una retta `e il luogo denito da
una equazione del tipo ax + by = k con a, b, k numeri ssati, purche a e b
non siano entrambi nulli (altrimenti viene tutto il piano per k = 0 e linsieme
vuoto per c = k). Date due rette di equazioni ax + by = k e cx + dy = h,
loperazione geometrica di ricerca della loro intersezione (se esiste) corrisponde
algebricamente alla ricerca delle soluzioni del sistema:
_
ax +by = k
cx +dy = h.
Usando le grae e le operazioni introdotte in precedenza possiamo ora scrivere
questo sistema come una singola equazione
_
a b
c d
_

_
x
y
_
=
_
k
h
_
.
Naturalmente il solo fatto di avere scritto le equazioni in maniera pi` u sintetica
non aiuta di per se a risolverle. Vedremo per`o che al linguaggio introdotto si
accompagneranno strumenti molto ecienti per la soluzione di una equazione
come quella appena scritta.
Motivazioni 11
(1)
(2)
(3)
(4)
(5)
(6)
(7)
1
1
2
3
5
8
13
Figura 1.7: Un albero che cresce come la successione di Fibonacci
1.4 Numeri di Fibonacci
Menzioniamo ora un argomento che non pare a prima vista avere alcuna rela-
zione con le nozioni di natura geometrica (vettori e coordinate) di cui ci si `e
occupati nora, ma che invece sar`a possibile trattare con il linguaggio generale
che ci avviamo a introdurre.
Supponiamo di piantare oggi (allinizio del mese numero 1) un alberello con
un solo ramo, che per tutto il mese cresce senza gettare nuovi rami e poi si
sviluppa secondo queste regole:
nessun ramo muore mai;
alla met`a di ogni nuovo mese, tutti i rami che non siano neonati (ovvero
che non siano spuntati il mese precedente) gettano un nuovo ramo.
Supponendo che a ogni mese ogni ramo cresca verso lalto della stessa altezza,
laspetto dellalbero al settimo mese sar`a quello in Fig. 1.7. Ci chiediamo ora
quale sia il numero di rami f
n
dellalbero allinizio del mese n-esimo (tale f
n
si
chiama n-esimo numero di Fibonacci). Dalla Fig. 1.7 si desume che i valori di
f
n
per n = 1, . . . , 7 sono 1, 1, 2, 3, 5, 8, 13. Mostriamo ora che vale la seguente
formula:
() f
n
= f
n1
+f
n2
, per ogni n 3.
12 Capitolo 1
Infatti allinizio del mese n sopravvivono tutti i rami che esistevano allinizio
del mese n1, che sono nel numero di f
n1
, e in pi` u vi sono tutti i rami buttati
alla met`a del mese n 1 dai rami non neonati, cio`e da quelli che esistevano
gi`a allinizio del mese n 2. Questi ultimi sono nel numero di f
n2
, onde la
().
La () `e una formula cosiddetta ricorsiva, poiche consente di calcolare
tutti i valori di f
n
ripetendo ricorsivamente la stessa procedura a partire dai
termini iniziali f
1
= 1 e f
2
= 1, ovvero:
f
1
= 1,
f
2
= 1,
f
3
= f
2
+f
1
= 1 + 1 = 2,
f
4
= f
3
+f
2
= 2 + 1 = 3,
f
5
= f
4
+f
3
= 3 + 2 = 5
.
.
. .
In qualsiasi linguaggio di programmazione `e molto semplice implementare que-
sta procedura ricorsiva, ma il programma ottenuto `e molto dispendioso in ter-
mini di tempo, poiche il calcolo di ciascun f
n
richiede il calcolo di tutti gli f
m
con m < n. Esiste tuttavia un metodo alternativo e molto eciente di calcolo
per f
n
, basato sulla seguente (sorprendente) identit`a:
() f
n
=
1

__
1 +

5
2
_
n

_
1

5
2
_
n
_
.
(Gi`a la sola verica che il termine destro di questa relazione `e intero per ogni
n non `e del tutto banale). Vedremo che la formula () si pu`o non solo di-
mostrare facilmente, ma anche spiegare perfettamente, con il linguaggio che
introdurremo a partire dal Capitolo 3.
Preliminari algebrici e logici 13
Capitolo 2
Preliminari algebrici e logici
In questo capitolo richiamiamo le propriet`a algebriche delle operazioni sui prin-
cipali insiemi numerici e illustriamo, esemplicandole, due tecniche di dimo-
strazione.
2.1 Numeri
Questo paragrafo `e dedicato gli insiemi dei numeri naturali, degli interi, dei
razionali e dei reali.
2.1.1 Numeri naturali e interi
Useremo (senza denirlo) linsieme dei numeri naturali N = {0, 1, 2, 3, . . .} e il
fatto che sui numeri naturali `e denita una operazione di addizione + binaria
e interna (cio`e che ha come input due naturali e come output un nuovo
naturale), che soddisfa le seguenti propriet`a:
1. 0 +n = n per ogni n;
3. n + (m+k) = (n +m) +k per ogni n, m, k;
4. n +m = m+n per ogni n, m.
Abbiamo intenzionalmente omesso il numero 2 elencando le propriet`a, per una
ragione che sar`a subito chiara. Se consideriamo, dato n N, lequazione
n +x = 0 ,
14 Capitolo 2
osserviamo che essa non ha soluzioni x N, ad eccezione che nel caso in cui
n `e 0, nella quale ipotesi si ha la soluzione x = 0. Per sopperire a que-
sto inconveniente si estende linsieme N dei numeri naturali a quello Z =
{. . . , 2, 1, 0, 1, 2, . . .} dei numeri interi. Anche su questo insieme `e denita
una operazione binaria interna di somma, che estende quella su N, e che gode,
oltre che delle propriet`a (1), (3) e (4) elencate sopra, anche della seguente:
2. Per ogni n Z esiste (n) Z tale che n + (n) = 0.
Un utile esercizio: usando solo le propriet`a elencate, provare che per ogni n
lequazione n+x = 0 ha ununica soluzione x Z, indicata appunto con (n).
2.1.2 Numeri razionali e reali
Sullinsieme Z degli interi, oltre alla somma abbiamo una seconda operazione
binaria interna, indicata con e detta prodotto, che soddisfa le seguenti
propriet`a:
5. 1 n = n per ogni n;
7. n (m k) = (n m) k per ogni n, m, k;
8. n m = m n per ogni n, m.
9. n (m+k) = n m+n k per ogni n, m, k;
Di nuovo abbiamo intenzionalmente omesso la propriet`a (6). La ragione `e che,
dato n Z, lequazione
n x = 1
non ha soluzioni x in Z, a meno che n non sia +1 oppure 1, nel qual caso
la soluzione `e n. Si passa dunque dallinsieme dei numeri interi a quello Q dei
numeri razionali, ovvero alle frazioni del tipo p/q con p, q Z e q = 0. In realt`a,
poiche sappiamo che i numeri razionali si possono scrivere come frazioni in pi` u
modi, formalmente si dovrebbe denire Q come linsieme delle scritture del
tipo p/q come sopra, dove per`o p/q `e identicata a p

/q

quando p q

= p

q
(il che, naturalmente, corrisponde al fatto che p/q e p

/q

hanno lo stesso
valore). Analogamente, identichiamo la frazione n/1 allintero n, deducendo
che Q contiene Z. Inoltre, le operazioni di somma e prodotto denite su Z si
estendono a Q, e soddisfano su Q le propriet`a seguenti:
1. 0 +x = x per ogni x;
Preliminari algebrici e logici 15
2. Per ogni x esiste (x) tale che x + (x) = 0;
3. x + (y +z) = (x +y) +z per ogni x, y, z;
4. x +y = y +x per ogni x, y;
5. 1 x = x per ogni x;
6. Per ogni x = 0 esiste x
1
tale che x x
1
= 1;
7. x (y z) = (x y) z per ogni x, y, z;
8. x y = y x per ogni x, y;
9. x (y +z) = x y +x z per ogni x, y, z.
Nella propriet`a (6) `e necessario ipotizzare x = 0 perche dalle altre propriet`a `e
possibile dedurre che 0 y = 0 per ogni y.
Estendiamo ora ulteriormente linsieme Q dei razionali allinsieme, indicato
con R, dei numeri reali. La motivazione dellestensione `e questa volta di natura
geometrico-analitica, piuttosto che algebrica come per i passaggi da N a Z e
poi da Z a Q. Per spiegarla, consideriamo una retta e ssiamo su questa
retta due punti distinti che facciamo corrispondere ai numeri razionali 0 e 1.
Possiamo allora estendere questa corrispondenza, associando a ogni numero
un punto. Ad esempio il numero 3/2 corrisponder`a al punto che sta dalla
parte opposta di 1 rispetto a 0 e che ha distanza da 0 una volta e mezza
quella che 1 ha da 0. La funzione cos` denita da Q alla retta risulta allora
iniettiva (cio`e numeri diversi danno punti diversi). Essa non `e per`o surgettiva,
ovvero ci sono punti che non corrispondono ad alcun numero razionale. Un
esempio `e il punto x costruito nella Fig. 2.1, la cui distanza da 0 `e uguale alla
lunghezza della diagonale del quadrato unitario. Per il Teorema di Pitagora,
se x corrispondesse a un numero razionale esso dovrebbe soddisfare lidentit`a
x
2
= 2, mentre `e possibile vedere (lo faremo pi` u avanti in questo capitolo) che
lequazione x
2
= 2 non ha soluzioni in Q.
Avendo scoperto che Q rappresenta alcuni ma non tutti i punti della retta,
deniamo R semplicemente come linsieme dei punti della retta, e usiamo (senza
dimostrarlo), il fatto che le operazioni + e denite su Q si estendono a R
e continuano a soddisfare le propriet`a (1)-(9) che abbiamo elencato sopra per
Q.
16 Capitolo 2
0 1
Figura 2.1: Un punto non razionale della retta
2.1.3 Campi e gruppi commutativi
Avendo incontrato due insiemi (cio`e Q e R) che possiedono due operazioni
soddisfacenti lo stesso lungo elenco di propriet`a, introduciamo ora un singo-
lo termine, quello di campo, per indicare un insieme siatto. Nel Capitolo 8
incontreremo un altro esempio di campo, quello C dei numeri complessi. Osser-
vando inoltre che le propriet`a (1)-(4) della denizione di campo riguardano la
sola operazione +, mentre le (5)-(8) riguardano solo e sono formalmente
pressoche analoghe alle (1)-(4), introduciamo ora unaltra nuova terminologia.
Chiamiamo gruppo commutativo un insieme sul quale `e denita una operazione
(binaria e interna) tale che esiste un elemento neutro, ogni elemento ammette
un opposto, e valgono le propriet`a associativa e commutativa. Notiamo che,
per essere del tutto precisi, un gruppo commutativo non `e il solo insieme, bens`
la terna insiemeoperazioneelemento neutro. Dalla discussione sugli insiemi
numerici n qui svolta segue allora che possediamo gi`a i seguenti esempi di
gruppo commutativo:
(Z, +, 0);
(Q, +, 0);
(R, +, 0);
(Q \ {0}, , 1), mentre, `e importante osservarlo, non `e un gruppo com-
mutativo linsieme (Q, , 1), poiche lelemento 0 non ammette opposto
rispetto alla moltiplicazione (cio`e, non ammette inverso); `e questa lu-
nica ma sostanziale dierenza tra la propriet`a (6) e la (2) tra quelle di
campo;
Preliminari algebrici e logici 17
(R \ {0}, , 1).
2.2 Polinomi
Avremo spesso a che fare con i polinomi, ovvero con le scritture del tipo a
0
+
a
1
x +a
2
x
2
+. . . +a
k
x
k
, dove k N, a
0
, . . . , a
k
R, e x `e un simbolo che
non appartiene a R (detto indeterminata). Sottolineiamo che un polinomio per
noi `e una espressione del tipo a
0
+a
1
x+a
2
x
2
+. . . +a
k
x
k
, non la funzione
polinomiale da R a R che eventualmente gli si pu`o associare. Deniamo ora
R[x] come linsieme di tutti i polinomi, ovvero delle espressioni del tipo appena
descritto, avendo per`o una piccola accortezza che ora illustriamo. Notiamo che
formalmente lespressione 1/2 7x
2
non `e del tipo descritto, mentre 1/2 + 0
x7x
2
lo `e. Inoltre, entrambe le espressioni 3/4+2x e 3/4+2x+0 x
2
sono del
tipo descritto, e sono diverse. Tuttavia noi certamente vogliamo considerare
1/27x
2
un polinomio, e vogliamo considerare 3/4+2x e 3/4+2x+0x
2
uguali
tra loro. Adottiamo quindi la convenzione che nella scrittura di un polinomio
`e possibile introdurre o cancellare a piacimento monomi del tipo 0 x
h
.
Ad un polinomio p(x) = a
0
+ a
1
x + a
2
x
2
+ . . . + a
k
x
k
che non sia il
polinomio nullo si associa un intero deg(p(x)), detto grado, denito come
deg(p(x)) = max{h : a
h
= 0} .
Al polinomio nullo si pu`o convenzionalmente assegnare il grado , oppure
1, oppure nessun grado.
Anche sullinsieme dei polinomi sono denite due operazioni naturali +
e . Per descriverle in termini generali conviene introdurre una ulteriore
convenzione. Osserviamo intanto che una espressione a
0
+ a
1
x + a
2
x
2
+
. . . + a
k
x
k
pu`o essere descritta dalla sommatoria
k

n=0
a
n
x
n
. Inoltre, se
h k e si pone a
n
= 0 per n = k + 1, . . . , h, la stessa espressione `e uguale
a
h

n=0
a
n
x
n
. Poiche nellultima sommatoria il valore di h `e arbitrariamente
grande, `e ragionevole ora convenire che un polinomio `e una espressione del tipo

n=0
a
n
x
n
, dove i coecienti a
n
sono tutti nulli ad eccezione che per un numero
nito di indici n. Le formule per la somma ed il prodotto di polinomi sono
18 Capitolo 2
allora date da:
_

n=0
a
n
x
n
_
+
_

n=0
b
n
x
n
_
=

n=0
(a
n
+b
n
) x
n
,
_

n=0
a
n
x
n
_

n=0
b
n
x
n
_
=

n=0
_
n

k=0
a
k
b
nk
_
x
n
.
Si pu`o vericare per esercizio che queste operazioni soddisfano le propriet`a
(1)-(5) e (7)-(9) della denizione di campo, ma non la (6).
2.3 Dimostrazioni
Illustriamo ed esemplichiamo in questo paragrafo due tecniche dimostrative
alle quali faremo spesso ricorso nel seguito.
2.3.1 Principio di induzione
Questo principio `e utile quando si voglia dimostrare che una certa proposizione
P(n), relativa a un numero naturale n, vale per ogni n N. A questo ne `e
suciente dimostrare che:
(passo base) vale la P(0), ovvero la proposizione P(n) per n = 0;
(passo induttivo) se vale la proposizione P(n) per un generico n N
(ipotesi induttiva), allora vale anche la P(n + 1).
`
E facile convincersi che questo davvero `e suciente: vale infatti la P(0) per
il passo base; applicando allora il passo induttivo per n = 0 si trova che vale
P(1); di nuovo per il passo induttivo, ora con n = 1, si ha la P(2), e si procede
deducendo che P(n) vale per ogni n.
`
E importante osservare che nel passo
induttivo la validit`a di P(n) `e una ipotesi, ovvero non bisogna dimostrarla.
Quello che bisogna fornire `e un argomento che sia valido per ogni generico n e
che consenta di far discendere la P(n + 1) dalla P(n). Un esempio di questo
ragionamento `e il seguente:
Proposizione 2.3.1.
n

k=0
k =
n(n+1)
2
n N.
Dimostrazione. Chiamiamo P(n) laermazione che
n

k=0
k vale n(n + 1)/2, e
dimostriamola per induzione su n. Il passo base dellinduzione, ovvero P(0), `e
Preliminari algebrici e logici 19
certamente valido, poiche i due numeri di cui bisogna vericare luguaglianza
sono entrambi nulli.
Sia dunque n N generico, e supponiamo che P(n) sia vera, cio`e che
n

k=0
k valga n(n + 1)/2. Vogliamo dedurne che `e vera la P(n + 1), cio`e che
n+1

k=0
k vale (n + 1)((n + 1) + 1)/2, ovvero (n + 1)(n + 2)/2. Infatti
n+1

k=0
k vale
_
n

k=0
k
_
+(n+1), e per ipotesi induttiva il primo addendo di questa somma vale
n(n+1)/2. Si conclude ora semplicemente con un calcolo: n(n+1)/2+(n+1) =
(n + 1)(n + 2)/2.
2.3.2 Dimostrazioni per assurdo
Unaltra tecnica che capita spesso di usare `e la seguente. Volendo dimostra-
re, sotto opportune ipotesi, una proposizione P, si suppone che P sia falsa
(ipotesi dellassurdo) e, usando le ipotesi e fatti noti, si sviluppa un argomen-
to che conduca alla negazione di una delle ipotesi o di un altro fatto noto
(contraddizione). Dimostriamo ad esempio il fatto gi`a annunciato sopra:
Proposizione 2.3.2. Lequazione x
2
= 2 non ha soluzioni x Q.
Dimostrazione. Supponiamo per assurdo che una soluzione x esista. Utilizzia-
mo ora il fatto noto che x, appartenendo a Q, pu`o essere scritto come una
frazione n/m dove n, m sono interi privi di fattori comuni (e m = 0). Per
lipotesi dellassurdo abbiamo allora (n/m)
2
= 2, dunque n
2
= 2m
2
. Ora, se
n fosse dispari, anche n
2
sarebbe dispari, mentre 2m
2
`e pari, perci`o n `e pari,
ovvero n = 2k con k intero. Sostituendo nellidentit`a n
2
= 2m
2
e semplicando
un 2 troviamo allora m
2
= 2k
2
. Per lo stesso argomento appena esposto, ne
deduciamo che anche m `e pari. Questo per`o `e assurdo, perche n e m li avevamo
supposti privi di fattori comuni, mentre avrebbero in comune il fattore 2.
20 Capitolo 2
Spaz vettoriali 21
Capitolo 3
Spaz vettoriali
In questo capitolo introduciamo la classe di oggetti dei quali ci occuperemo
principalmente, e forniamo numerosi esempi.
3.1 Denizione
Uno spazio vettoriale reale (o su R) `e un insieme V (i cui elementi sono detti
vettori ) per il quale siano denite due operazioni + e che soddisfano
certi assiomi che andiamo ora a elencare. Loperazione + `e binaria e interna,
ovvero `e una funzione da V V in V , che associa a una coppia di vettori (v, w)
un terzo vettore v + w, detto somma di v e w. Loperazione `e invece una
funzione da RV in V , la quale dunque associa ad una coppia (, v), costituita
da un numero reale ed un vettore v, un nuovo vettore v, detto prodotto di
v per lo scalare . Le propriet`a che devono essere soddisfatte sono le seguenti:
1. Esiste 0 V tale che 0 +v = v per ogni v in V ;
2. Per ogni v in V esiste (v) V tale che v + (v) = 0;
3. v + (w +u) = (v +w) +u per ogni v, w, u in V ;
4. v +w = w +v per ogni v, w in V ;
5. (v +w) = v + w per ogni in R e v, w in V ;
6. ( +) v = v + v per ogni , in R e v in V ;
7. ( ) v = ( v) per ogni , in R e v in V ;
22 Capitolo 3
8. 1 v = v e 0 v = 0 per ogni v in V .
Notiamo che le propriet`a (1)-(4) signicano precisamente che V ha una ope-
razione + di gruppo commutativo con elemento neutro 0. Sia la (5) che la
(6) sono leggi distributive, entrambe necessarie perche nel prodotto c`e una
asimmetria dei due argomenti: quello sinistro `e uno scalare, quello destro `e
un vettore.
`
E un utile esercizio indagare nelle propriet`a (5)-(8) la natura di
ciascuno dei simboli +, e 0 (ovvero dire se il loro signicato sia quello
consueto in R oppure quello relativo allo spazio vettoriale V ).
Formalmente uno spazio vettoriale non `e il solo insieme V , ma la quaterna
(V, +, , 0), ma nella pratica conviene riassumere nella sola scrittura V sia le
operazioni di somma e prodotto per scalare relative a V sia lelemento neutro
della somma.
3.1.1 Conseguenze della denizione
Illustriamo ora come dagli assiomi della denizione di spazio vettoriale si pos-
sano far discendere altre naturali propriet`a algebriche, analoghe a quelle note
per le operazioni tra numeri. Innanzitutto le propriet`a (3) e (7) rispettivamente
ci consentono di dare un signicato non ambiguo a espressioni del tipo:
v
1
+v
2
+. . . +v
n
,
1

2
. . .
n
v .
Inoltre, la (2) ci consente di semplicare le identit`a: se v +w = v +u allora
(v)+v+w = (v)+v+u, dunque 0+w = 0+u, onde w = u (qui, come anche
nel seguito, usiamo la propriet`a commutativa (4) senza neppure menzionarla).
Dalla possibilit`a di semplicare identit`a del tipo v + w = v + u segue anche
subito lunicit`a dellopposto (v).
Dimostriamo ora che (1)v = (v), specicando a ogni passaggio lassioma
usato:
(1) v =
(1)
0 + (1) v =
(2)
(v) +v + (1) v
=
(8)
(v) + 1 v + (1) v =
(6)
(v) + (1 1) v
= (v) + 0 v =
(8)
(v) + 0 =
(1)
(v) .
Possiamo inoltre provare che 0 = 0 per ogni , notando che
0 =
(1)
(0 + 0) =
(5)
0 + 0
e semplicando. Inne, verichiamo che se = 0 e v = 0 allora v = 0:
0 =
1
0 =
1
v = 1 v = v .
Spaz vettoriali 23
3.1.2 Esempi
Come gi`a sottolineato, fanno parte della struttura di spazio vettoriale non solo
linsieme V , ma anche le operazioni + e e lelemento neutro 0 di +.
Per descrivere un esempio dovremo dunque specicare tutti questi elementi.
Vettori colonna Cominciamo con lo spazio R
n
, ottenuto prendendo il pro-
dotto cartesiano di n copie di R, dove n 1 `e un intero qualsiasi. Per ragioni
che saranno chiare nel Capitolo 5 (e sono state anticipate nel Capitolo 1),
scriviamo un elemento x di R
n
come vettore colonna
x =
_
_
_
x
1
.
.
.
x
n
_
_
_
e chiamiamo x
i
la i-esima coordinata di x. Deniamo le operazioni di spazio
vettoriale coordinata per coordinata, ponendo cio`e:
_
_
_
x
1
.
.
.
x
n
_
_
_
+
_
_
_
y
1
.
.
.
y
n
_
_
_
=
_
_
_
x
1
+y
1
.
.
.
x
n
+y
n
_
_
_
,

_
_
_
x
1
.
.
.
x
n
_
_
_
=
_
_
_
x
1
.
.
.
x
n
_
_
_
, 0 =
_
_
_
0
.
.
.
0
_
_
_
.
Tutti gli assiomi si vericano immediatamente.
Matrici Dati interi n, m 1 deniamo ora lo spazio M
nm
(R) delle matrici
reali n m, ovvero delle tabelle rettangolari di numeri reali aventi n righe e
m colonne. Dunque M
nm
(R) `e linsieme seguente:
_

_
_
_
_
a
11
a
1m
.
.
.
.
.
.
.
.
.
a
n1
a
nm
_
_
_
: a
ij
R per i = 1, . . . , n, j = 1, . . . , m
_

_
.
Chiamiamo posto (i, j) della matrice quello sulla riga i-esima e colonna j-esima.
Nella matrice generica scritta nella denizione, al posto (i, j) sta il coeciente
a
ij
, e useremo sempre la convenzione di scrivere prima lindice di riga (in
questo caso i) e poi lindice di colonna (in questo caso j). Utilizzeremo anche
24 Capitolo 3
una singola lettera, generalmente maiuscola, per denotare una intera matrice.
Cos` ad esempio la matrice generica che compare nella denizione la scriveremo
anche come
A =
_
a
ij
_
i = 1, . . . , n
j = 1, . . . , m
.
Unaltra graa utile `e quella di indicare con (A)
ij
il coeciente di posto (i, j)
della matrice A (cosicche per la nostra A si ha (A)
ij
= a
ij
semplicemente).
Introduciamo ora loperazione di somma tra matrici usando posto per
posto la somma consueta in R:
_
_
_
a
11
a
1m
.
.
.
.
.
.
.
.
.
a
n1
a
nm
_
_
_
+
_
_
_
b
11
b
1m
.
.
.
.
.
.
.
.
.
b
n1
b
nm
_
_
_
=
_
_
_
a
11
+b
11
a
1m
+b
1m
.
.
.
.
.
.
.
.
.
a
n1
+b
n1
a
nm
+b
nm
_
_
_
.
Impiegando le grae alternative introdotte possiamo anche scrivere la somma
come segue:
se A =
_
a
ij
_
i = 1, . . . , n
j = 1, . . . , m
e B =
_
b
ij
_
i = 1, . . . , n
j = 1, . . . , m
allora A+B =
_
a
ij
+b
ij
_
i = 1, . . . , n
j = 1, . . . , m
;
oppure ancora, pi` u facilmente: (A + B)
ij
= (A)
ij
+ (B)
ij
per i = 1, . . . , n e
j = 1, . . . , m.
Denendo anche ( A)
ij
= (A)
ij
e (0)
ij
= 0 per i = 1, . . . , n e
j = 1, . . . , m, `e ora molto semplice osservare che resta denita su M
nm
(R)
una struttura di spazio vettoriale reale. Notiamo che M
n1
(R) si identica
naturalmente a R
n
.
Funzioni Sia ora S un insieme non vuoto, e consideriamo linsieme F(S, R)
di tutte le funzioni da S in R. Vogliamo denire su F(S, R) una struttura
di spazio vettoriale. Cominciamo con la somma. Abbiamo dunque una due
funzioni f e g da S in R, e vogliamo denire una funzione f + g. Ricordiamo
che una funzione F : S R `e una legge che associa ad ogni generico elemento
s di S un determinato elemento F(s) di R, detto il valore di F nel punto s.
Una funzione `e dunque determinata precisamente quando se ne conoscano i
valori su tutti i punti. Volendo denire una funzione f + g, si tratta dunque
di specicare quale sia il suo valore (f +g)(s) su un generico elemento s di S.
Lo facciamo ponendo (f + g)(s) = f(s) + g(s). Analogamente, dati R e
Spaz vettoriali 25
f : S R, deniamo f : S R ponendo ( f)(s) = f(s) per ogni s in
S. Deniamo inne 0 F(S, R) ponendo 0(s) = 0 per ogni s in S.
Verichiamo in questo esempio che valgono le propriet`a di spazio vettoriale,
limitandoci alla (5). Vogliamo cio`e vericare che, dati R e f, g F(S, R), si
ha (f +g) = f + g. Dalla denizione di funzione appena ricordata segue
che due funzioni sono uguali precisamente quando hanno lo stesso valore su ogni
punto. Basta e bisogna dunque vericare che ( (f +g))(s) = ( f + g)(s)
per ogni s in S. Fissato un generico s, usando le denizioni delle operazioni, i
due membri dellidentit`a da vericare si possono riscrivere come:
( (f +g))(s) = ((f +g)(s)) = (f(s) +g(s))
( f + g)(s) = ( f)(s) + ( g)(s) = f(s) + g(s) .
Si conclude allora usando la distributivit`a delle operazioni su R.
Osserviamo che, assegnato un qualsiasi spazio vettoriale V , si pu`o denire
una struttura di spazio vettoriale su F(S, V ) procedendo in modo del tutto
analogo a quanto fatto per F(S, R). Notiamo anche che se S = {1, . . . , n} c`e
una corrispondenza naturale, che rispetta le operazioni, tra F(S, R) e R
n
. Ad
una funzione f si associa il vettore la cui coordinata i-esima `e f(i).
Polinomi Anche linsieme R[x] dei polinomi reali nella indeterminata x `e
uno spazio vettoriale reale. Basta utilizzare come somma quella gi`a denita
tra polinomi, che ha il polinomio nullo come elemento neutro, e il prodotto per
scalare
(a
0
+a
1
x +. . . +a
k
x
k
) = ( a
0
) + ( a
1
) x +. . . + ( a
k
) x
k
.
Si osservi che in questo caso abbiamo anche una operazione di prodotto tra
elementi di R[x], ma essa non fa parte della struttura di spazio vettoriale su
R[x].
3.2 Sottospaz vettoriali
Unampia classe di esempi di spazio vettoriale si ottiene considerando quei
sottoinsiemi di uno spazio vettoriale che lo sono a loro volta rispetto alle ope-
razioni ereditate dallo spazio in cui sono contenuti. Pi` u precisamente, dato
uno spazio vettoriale V , diciamo che un sottoinsieme W di V `e un sottospazio
vettoriale di V se valgono le propriet`a seguenti:
1. W contiene 0;
26 Capitolo 3
2. Se w
1
, w
2
sono in W, allora w
1
+w
2
`e in W;
3. Se `e in R e w `e in W, allora w `e in W.
Queste propriet`a sono sucienti a garantire che una operazione di somma ed
una di prodotto per scalare sono denite su W. Poiche queste operazioni
provengono da quelle di V , ed esse soddisfacevano le propriet`a (1)-(8) della
denizione di spazio vettoriale, le stesse propriet`a continuano a valere per le
operazioni di W. Quindi in eetti W `e a sua volta uno spazio vettoriale.
Osserviamo che, supponendo valida la propriet`a (3), la (1) pu`o essere
sostituita dalla seguente pi` u debole:
1

. W `e non vuoto.
Tuttavia nei casi pratici, volendo provare che un assegnato W `e un sottospazio,
conviene sempre partire dalla verica che W contiene 0. Osserviamo anche che,
supponendo valida la (1

), la congiunzione delle propriet`a (2) e (3) `e equivalente


alla seguente:
Se
1
,
2
sono in R e w
1
, w
2
sono in W, allora
1
w
1
+
2
w
2
`e in W.
3.2.1 Esempi
Elenchiamo ora numerosi esempi e non esempi di sottospazio vettoriale, sugge-
rendo al lettore di vericare gli assiomi oppure individuare quali di essi siano
violati. Solo alla ne dellelenco specicheremo quali sottoinsiemi siano sotto-
spaz e quali non lo siano. Cominciamo considerando i seguenti sottoinsiemi di
R
n
:
1. {x R
n
: x
1
= 0};
2. {x R
n
: x
1
+x
2
+. . . +x
n
= 0};
3. {x R
n
: x
1
= 1};
4. Z
n
R
n
;
5. {x R
n
: x
1
Z};
6. {x R
2
: x
2
= x
2
1
};
7. {x R
2
: x
1
x
2
= 0}.
Passiamo quindi a sottoinsiemi di R[x], ssando un intero d 0:
Spaz vettoriali 27
8. {p(x) R[x] : deg(p(x)) d}, insieme denotato nel seguito con R
d
[x];
9. {p(x) R[x] : deg(p(x)) = d};
10. {p(x) R[x] : p(1) = 0}, dove p(1) `e il valore reale che si ottiene
sostituendo il valore 1 alla indeterminata x;
11. {p(x) R[x] : p(0) = 1},
12. {p(x) R[x] : p(x) `e multiplo di x
3
};
13. {p(x) R[x] : la divisione di p(x) per x
3
ha resto 1 + 2x
2
};
14. {p(x) R[x] : x
2
p

(x) = 20p(x)}, dove p

(x) rappresenta il polinomio


derivata seconda di p(x).
Sia adesso S un insieme non vuoto, ed s
0
un suo elemento ssato. Consideriamo
in F(S, R) i sottoinsiemi:
15. {f F(S, R) : f(s
0
) = 0};
16. {f F(S, R) : f(s
0
) = 1};
17. {f F(S, R) : f(s) 0 s S}.
Concludiamo con i seguenti sottoinsiemi dello spazio delle funzioni reali sul-
lintervallo [0, 1] di R e dello spazio F(N, R) delle successioni reali:
18. {f F([0, 1], R) : f `e continua};
19. {a F(N, R) : a
n+2
= a
n+1
+a
n
n N}.
Sono esempi di sottospazi gli insiemi elencati ai punti 1, 2, 8, 10, 12, 14,
15, 18, 19. Tutti gli altri non lo sono.
Concludiamo il capitolo con un commento che si allaccia alle motivazioni
anticipate nel Capitolo 1. Con la nozione di spazio vettoriale abbiamo svi-
luppato un linguaggio unicato per trattare oggetti di natura ovviamente
geometrica (come i punti dello spazio R
n
) e oggetti pi` u complicati (come poli-
nomi o funzioni). Questo approccio `e molto utile perche consente di applicare
ragionamenti e intuizioni di natura geometrica anche a questi oggetti pi` u com-
plicati, che possono avere origine anche da problemi dellingegneria. Un caso
tipico, ad esempio, `e quello in cui si considera come spazio vettoriale uno spazio
di funzioni che rappresentano onde elettromagnetiche.
28 Capitolo 3
Dimensione 29
Capitolo 4
Dimensione
In questo capitolo introduciamo una nozione chiave che consente di stabilire
quali spaz vettoriali sono tra loro diversi e quali sono uguali dal punto di
vista delle operazioni di spazio vettoriale.
4.1 Sottospazio generato e
combinazioni lineari
Fissiamo per tutto questo paragrafo uno spazio vettoriale reale V . Cominciamo
con il seguente semplice:
Lemma 4.1.1. Se W, Z sono sottospaz vettoriali di V , anche W Z lo `e.
Dimostrazione. A titolo di esempio dimostriamo la propriet`a (2) della deni-
zione, le altre sono ugualmente elementari. Siano x, y W Z. Dobbiamo
vericare che x+y WZ. Poiche x, y W, si ha x+y W per la propriet`a
(2) della denizione di sottospazio, che per ipotesi vale per W. Analogamente
x, y Z, dunque x + y Z. Abbiamo provato che x + y W e x + y Z,
perci`o x +y W Z, come richiesto.
Osservazione 4.1.2. Se W e Z sono sottospaz vettoriali di V , linsieme WZ
pu`o non esserlo, come si vede considerando V = R
2
, W = R{0} e Z = {0}R.
Si pu`o anzi vericare per esercizio che W Z `e un sottospazio precisamente
quando W Z oppure Z W.
Enunciamo ora, dando soltanto unidea della dimostrazione formale, la
seguente:
30 Capitolo 4
Proposizione 4.1.3. Se S `e un sottoinsieme di V esiste W V tale che:
1. W `e un sottospazio vettoriale di V ;
2. W contiene S;
3. Se Z `e un altro sottospazio vettoriale di V che contiene S, allora Z
contiene W.
Il sottospazio W descritto da questa proposizione si pu`o dunque descrivere
come il pi` u piccolo sottospazio vettoriale di V contenente S, ed `e molto semplice
vericare che esso `e univocamente determinato da S. Infatti, se W e W

soddisfano le propriet`a elencate, si deduce che W W

e W

W, dunque
W = W

. Il sottospazio W sar`a denotato con Span(S) e chiamato il sottospazio


generato da S. Diremo anche che S genera Span(S) oppure che S `e un insieme
di generatori per Span(S).
Diamo dunque, come annunciato, lidea di come si dimostri la Proposizio-
ne 4.1.3. Il punto `e quello di usare il Lemma 4.1.1. Infatti:
Esistono dei W che soddisfano le propriet`a (1) e (2), infatti basta pren-
dere W = V ;
Se W
1
e W
2
soddisfano (1) e (2), anche W
1
W
2
le soddisfa, ed `e pi` u
piccolo di entrambi (o eventualmente uguale).
Perci`o si continua a intersecare, no a che non si trova il W pi` u piccolo pos-
sibile. Formalmente per`o, per dare signicato a questa idea, bisogna denire
Span(S) come lintersezione di tutti i sottospaz vettoriali di V che contengono
S, osservando preliminarmente che la famiglia dei sottospaz che contengono S
non `e vuota, dato che contiene il sottospazio banale V stesso, ed estendendo
il Lemma 4.1.1 allintersezione di una famiglia qualsiasi di sottospazi. Poiche
vedremo a breve una caratterizzazione alternativa molto concreta di Span(S),
non ci soermiamo oltre sulla dimostrazione della Proposizione 4.1.3.
Osservazione 4.1.4.
Span() = {0};
Span(Span(S)) = Span(S) per ogni S;
S `e un sottospazio vettoriale di V se e soltanto se Span(S) = S.
Dimensione 31
Chiamiamo ora combinazione lineare una scrittura del tipo
()
1
v
1
+. . . +
n
v
n
dove n 1 `e un intero,
1
, . . . ,
n
R e v
1
, . . . , v
n
V . I numeri
i
sono detti
coecienti della combinazione lineare. Osserviamo che la scrittura (), grazie
allassociativit`a della somma in V , determina in modo non ambiguo un vettore
di V , e di fatto si usa il termine combinazione lineare tanto per lespressione
() che per il vettore che essa determina.
Mostriamo ora che Span(S) pu`o essere caratterizzato come linsieme di tutte
le possibili combinazioni lineari di elementi di S:
Proposizione 4.1.5. Se S = si ha
Span(S) = {
1
s
1
+. . . +
n
s
n
: n 1,
1
, . . . ,
n
R, s
1
, . . . , s
n
S} .
Dimostrazione. Indichiamo con W linsieme descritto a destra del segno di
uguaglianza nellenunciato, e dimostriamo che soddisfa le propriet`a (1)-(3) che
caratterizzano Span(S), cio`e quelle della Proposizione 4.1.3. Cominciamo con
la (2). Volendo provare che S W, dobbiamo prendere un generico elemento
s di S e provare che sta in W. Basta infatti prendere n = 1,
1
= 1 e s
1
= s,
e si ha s =
1
s
1
W. Provata la (2), che comporta in particolare che
W = , per dimostrare la (1) basta vedere che se ,

R e w, w

W, allora
w +

W. Per ipotesi si ha:


w =
1
s
1
+. . . +
n
s
n
, w

1
s

1
+. . . +

n
s

dunque
w +

= (
1
) s
1
+. . . + (
n
) s
n
+ (

1
) s

1
+. . . + (

n
) s

n
.
Da questa espressione `e evidente che w +

`e una combinazione lineare


di n +n

elementi di S, dunque appartiene a W.


32 Capitolo 4
Resta da vericare la propriet`a (3). Supponiamo dunque che Z sia un
sottospazio vettoriale che contiene S, e proviamo che contiene W. Per fare ci`o
prendiamo un generico elemento w =
1
s
1
+. . . +
n
s
n
di W e dimostriamo
che sta in Z. Infatti Z contiene S, dunque contiene s
1
, . . . , s
n
. Inoltre Z,
essendo un sottospazio, contiene anche
1
s
1
, . . . ,
n
s
n
, e la loro somma w.
Il nostro argomento `e completo.
Corollario 4.1.6.
Span
_
{v
1
, . . . , v
n
}
_
=
_

1
v
1
+. . . +
n
v
n
:
1
, . . . ,
n
R
_
.
4.2 Indipendenza lineare e basi
Il Corollario 4.1.6 aerma che se S = {v
1
, . . . , v
n
} `e un insieme nito di vettori,
il sottospazio generato da S consiste delle combinazioni lineari di v
1
, . . . , v
n
.
Possono per`o accadere due fenomeni qualitativamente ben distinti: lespressio-
ne di un elemento di S come combinazione lineare di v
1
, . . . , v
n
pu`o essere unica
oppure non esserlo, e vedremo a breve che la stessa situazione si d`a per tutti
i vettori di Span(S). Concentrandoci sul vettore nullo siamo dunque condotti
alla denizione seguente: i vettori v
1
, . . . , v
n
si dicono linearmente indipenden-
ti se lunica loro combinazione lineare che ha come risultato il vettore nullo `e
quella con coecienti tutti nulli.
Per chiarire la denizione discutiamo due esempi. Consideriamo in R
2
i
vettori
v
1
=
_
2
1
_
, v
2
=
_
1
3
_
, v
3
=
_
5
1
_
.
Aermiamo che v
1
, v
2
sono linearmente indipendenti mentre v
1
, v
2
, v
3
non lo
sono. Per provare la prima aermazione dobbiamo considerare una combina-
zione lineare generica
1
v
1
+
2
v
2
, supporre che essa dia il vettore nullo, e
vericare che allora
1
e
2
sono per forza nulli. Infatti per ipotesi si ha
_
0
0
_
=
1
v
1
+
2
v
2
=
1

_
2
1
_
+
2

_
1
3
_
=
_
2
1

1
+ 3
2
_
.
Da questo segue che
2
= 2
1
e 7
1
= 0, dunque
1
=
2
= 0. Ci`o prova
lindipendenza lineare di v
1
, v
2
. Per vericare invece che v
1
, v
2
, v
3
sono linear-
mente dipendenti (lopposto che indipendenti) basta vedere che lequazione

1
v
1
+
2
v
2
+
3
v
3
= 0 ha qualche soluzione (
1
,
2
,
3
) diversa da (0, 0, 0).
`
E facile vedere che una tale soluzione `e ad esempio (2, 1, 1).
Dimensione 33
Tornando alla questione che ha motivato la denizione di indipendenza
lineare, ssiamo v
1
, . . . , v
n
e denotiamo per semplicit`a il loro generato con
Span(v
1
, . . . , v
n
), omettendo il simbolo di insieme.
Proposizione 4.2.1. I vettori v
1
, . . . , v
n
sono linearmente indipendenti se e
soltanto se ogni vettore di Span(v
1
, . . . , v
n
) ha una espressione unica come
combinazione lineare di v
1
, . . . , v
n
.
Dimostrazione. Se ogni vettore ha una espressione unica, in particolare 0 ha
una espressione unica, dunque v
1
, . . . , v
n
sono linearmente indipendenti. Vice-
versa, supponiamo che v
1
, . . . , v
n
siano linearmente indipendenti, e per assurdo
che un elemento di Span(v
1
, . . . , v
n
) abbia due espressioni distinte a
1
v
1
+. . . +
a
n
v
n
e b
1
v
1
+. . . +b
n
v
n
. Allora
(a
1
b
1
) v
1
+. . . + (a
n
b
n
) v
n
= 0
e non tutti i coecienti della combinazione lineare sono nulli. Questo contrad-
dice lindipendenza lineare di v
1
, . . . , v
n
e conclude la dimostrazione.
Chiameremo base dello spazio vettoriale V un insieme nito e ordinato
(v
1
, . . . , v
n
) di vettori che generino V e che siano linearmente indipendenti. Il
Corollario 4.1.6 e la Proposizione 4.2.1 comportano la seguente caratterizza-
zione:
Proposizione 4.2.2. Sia B = (v
1
, . . . , v
n
) un insieme nito e ordinato di
vettori di V . Sono fatti equivalenti:
B `e una base di V ;
ogni vettore v V si scrive in uno e un solo modo come combinazione
lineare degli elementi di B.
Spieghiamo subito la ragione per la quale, nella denizione di base, insistia-
mo sulla richiesta che linsieme sia ordinato, cio`e ad esempio che (v
1
, v
2
, . . . , v
n
)
sia da considerare distinto da (v
n
, . . . , v
2
, v
1
), a meno che n = 1. La proposizio-
ne precedente garantisce che se B = (v
1
, . . . , v
n
) `e una base di V allora ogni vet-
tore v di V si scrive in modo unico come combinazione lineare x
1
v
1
+. . .+x
n
v
n
.
Chiamiamo ora x =
_
_
_
x
1
.
.
.
x
n
_
_
_
R
n
il vettore delle coordinate di v rispetto alla
base B, e lo indichiamo con [v]
B
. Naturalmente, se la base B non avesse uno
specicato ordine, non si potrebbe denire [v]
B
se non a meno di ambiguit`a
nellordine delle coordinate.
34 Capitolo 4
Proposizione 4.2.3. Data una base B di V lapplicazione : V R
n
data
da (v) = [v]
B
`e bigettiva e trasforma le operazioni di spazio vettoriale di V in
quelle di R
n
.
Dimostrazione. La bigettivit`a segue subito dalla Proposizione 4.2.2: linversa
`e data da
1
(x) = x
1
v
1
+. . . +x
n
v
n
. La seconda aermazione signica che:
(0) = 0;
(v +v

) = (v) +(v

) per ogni v, v

V ;
( v) = (v) per ogni R e v V .
Proviamo ad esempio il secondo fatto. Se (v) = x e (v

) = x

allora v =
x
1
v
1
+. . . +x
n
v
n
e v

= x

1
v
1
+. . . +x

n
v
n
, dunque v +v

= (x
1
+x

1
) v
1
+
. . . + (x
n
+x

n
) v
n
, pertanto [v +v

]
B
= x +x

, ovvero (v +v

) = x +x

.
A titolo di esempio, si pu`o vericare che in R
2
i vettori v
1
=
_
2
1
_
e
v
2
=
_
1
3
_
sopra considerati costituiscono una base B = (v
1
, v
2
). Inoltre le
coordinate del vettore v
3
risultano come segue:
__
5
1
__
B
=
_
2
1
_
.
Su diversi degli spaz vettoriali che abbiamo nora considerato `e denita
una base canonica, ovvero una base che riteniamo la pi` u naturale e quindi
privilegiata. Cominciamo con R
n
, nel quale abbiamo la base canonica E
n
=
(e
1
, . . . , e
n
) denita come segue:
e
1
=
_
_
_
_
_
_
_
1
0
.
.
.
0
0
_
_
_
_
_
_
_
, e
2
=
_
_
_
_
_
_
_
0
1
.
.
.
0
0
_
_
_
_
_
_
_
, . . . , e
n1
=
_
_
_
_
_
_
_
0
0
.
.
.
1
0
_
_
_
_
_
_
_
, e
n
=
_
_
_
_
_
_
_
0
0
.
.
.
0
1
_
_
_
_
_
_
_
.
Talvolta, per sottolineare che il vettore e
i
fa parte della base di R
n
, dunque ha
n componenti, scriveremo e
(n)
i
invece che semplicemente e
i
.
Ci rivolgiamo ora allo spazio M
nm
(R) delle matrici con n righe e m
colonne. Per introdurre su M
nm
(R) una base canonica, chiamiamo E
ij
la
matrice che ha coeciente 1 al posto (i, j), cio`e sulla riga i-esima e colonna
Dimensione 35
j-esima, e 0 altrove. Deniamo quindi E
nm
come linsieme delle matrici E
ij
per i = 1, . . . , n e j = 1, . . . , m, ordinate in modo lessicograco (ovvero come
in un dizionario) rispetto alla coppia (i, j).
Consideriamo inne lo spazio dei polinomi R
d
[x] di grado al pi` u d nella
indeterminata x. In esso scegliamo la base canonica 1, x, x
2
, . . . , x
d
. Conclu-
diamo il paragrafo provando che R[x] non ammette invece alcuna base, anzi
dimostrando il seguente pi` u forte fatto:
Proposizione 4.2.4. Lo spazio R[x] non ammette alcun insieme nito di
generatori.
Dimostrazione. Supponiamo per assurdo che R[x] sia generato da polinomi
p
1
(x), . . . , p
k
(x). Indichiamo con d
i
il grado di p
i
(x), e poniamo d = max{d
1
, . . . , d
k
}.
Aermiamo che x
d+1
non appartiene allo spazio generato da p
1
(x), . . . , p
k
(x),
il che `e assurdo perche x
d+1
R[x]. Infatti ogni polinomio che sta nello spazio
generato da p
1
(x), . . . , p
k
(x) `e della forma
1
p
1
(x) +. . . +
k
p
k
(x), dunque
ha grado al pi` u d, mentre x
d+1
ha grado d + 1.
4.3 Dimensione
In questo paragrafo dimostriamo il seguente risultato:
Teorema 4.3.1. Se V `e uno spazio vettoriale che ammette basi, due qualsiasi
basi di V hanno lo stesso numero di elementi.
Ricordando che una base consiste di un insieme (ordinato) di generatori
linearmente indipendenti, `e molto facile dedurre questo teorema dalla seguente
proposizione, che invece ha dimostrazione non immediata:
Proposizione 4.3.2. Sia V uno spazio vettoriale e siano dati n, m 0 e
vettori w
1
, . . . , w
m
, v
1
, . . . , v
n
in V tali che:
w
1
, . . . , w
m
sono linearmente indipendenti;
w
1
, . . . , w
m
Span(v
1
, . . . , v
n
).
Allora m n.
Dimostrazione. Proviamo il risultato per induzione su m, introducendo la se-
guente aermazione P(m) relativa a un intero m generico: dati w
1
, . . . , w
m
linearmente indipendenti in V , un intero n 0 e vettori v
1
, . . . , v
n
tali che
w
1
, . . . , w
m
Span(v
1
, . . . , v
n
), si ha m n.
36 Capitolo 4
Per il passo base potremmo iniziare dimostrando P(m) per m = 0, nel qual
caso la conclusione `e ovvia perche n 0 = m per ipotesi, ma dimostriamo
direttamente anche P(m) per m = 1 per meglio illustrare il ragionamento. In
questo caso linsieme di vettori contenente il solo w
1
`e linearmente indipenden-
te, il che signica precisamente che w
1
`e non nullo. Ora, dovendo mostrare
che n 1, supponiamo per assurdo che n = 0. In questo caso linsieme dei v
i
`e vuoto, dunque il suo generato `e {0}. Tuttavia per ipotesi w
1
appartiene al
generato dei v
i
, e questo `e assurdo poiche w
1
`e non nullo.
Ci rivolgiamo ora al passo induttivo, supponendo nota P(m) per un generico
m 1. Dobbiamo dimostrare P(m + 1), dunque consideriamo m + 1 vettori
linearmente indipendenti x
0
, . . . , x
m
che stanno nel generato di altri vettori
y
1
, . . . , y
k
. Si noti che stiamo per comodit`a usando gli indici tra 0 e m per
gli m + 1 vettori x
0
, . . . , x
m
. Stiamo inoltre usando nuovi simboli x
i
, y
j
e k,
per avere a disposizione v
i
, w
j
e n per quando useremo lipotesi induttiva.
Dobbiamo provare che m+ 1 k.
Poiche x
0
, . . . , x
m
Span(y
1
, . . . , y
k
) esistono coecienti
ij
R tali che
x
i
=
k

j=1

ij
y
j
, i = 0, . . . m .
Ora osserviamo che x
0
non `e il vettore nullo, altrimenti x
0
, . . . , x
m
non po-
trebbero essere linearmente indipendenti. Perci`o qualcuno dei coecienti
0j
`e non nullo. Poiche lordine dei vettori y
1
, . . . , y
k
non ha alcuna rilevanza ai
ni della propriet`a da vericare, possiamo modicare questo ordine e supporre
per comodit`a che sia
0k
il coeciente non nullo. Deniamo ora:
w
1
= x
1


1k

0k
x
0
, . . . , w
m
= x
m


mk

0k
x
0
.
Poniamo inoltre n = k 1 e v
1
= y
1
, . . . , v
n
= y
k1
, e aermiamo che lipotesi
induttiva si applica ai vettori w
1
, . . . , w
m
e v
1
, . . . , v
n
. Questo `e suciente
per concludere, dato che P(m) garantisce che m n, ma n = k 1 dunque
m+ 1 k, come dovevasi dimostrare.
Resta pertanto da provare che w
1
, . . . , w
m
sono linearmente indipendenti
e stanno nel generato di v
1
, . . . , v
n
. Cominciamo con la prima aermazione,
considerando una combinazione lineare che dia il vettore nullo:
0 = a
1
w
1
+. . . +a
m
w
m
= a
1

_
x
1


1k

0k
x
0
_
+. . . +a
m

_
x
m


mk

0k
x
0
_
= a
0
x
0
+a
1
x
1
+. . . +a
m
x
m
Dimensione 37
dove a
0
`e un coeciente che dipende dagli altri a
i
e dai
ik
. Poiche per ipotesi
x
0
, . . . , x
m
sono linearmente indipendenti, concludiamo che gli a
i
, in particolare
a
1
, . . . , a
m
come dovevamo dimostrare, sono nulli.
Proviamo ora che w
i
Span(v
1
, . . . , v
n
). Infatti
w
i
= x
i


ik

0k
x
0
=
k

j=1

ij
y
j


ik

0k

j=1

0j
y
j
=
k1

j=1
_

ij


ik

0k

0j
_
y
j
+
_
_

ik


ik

0k

0k
. .
_
_
y
k
.
0
Poiche v
1
= y
1
, . . . , v
n
= y
k1
la dimostrazione `e conclusa.
Grazie al teorema appena dimostrato `e lecito, quando V ammette basi,
chiamare dimensione di V il numero di elementi di una sua qualsiasi base. Per
sottolineare che stiamo parlando di spaz vettoriali su R, mentre pi` u avanti
considereremo anche spaz su C, chiamiamo pi` u precisamente dimensione rea-
le di V lintero appena introdotto, e lo indichiamo con dim
R
(V ). Gli spaz
vettoriali che ammettono basi saranno nel seguito detti di dimensione nita.
Corollario 4.3.3. Sia V uno spazio vettoriale di dimensione nita n e siano
v
1
, . . . , v
k
vettori di V . Si ha:
Se v
1
, . . . , v
k
sono linearmente indipendenti, allora k n;
Se v
1
, . . . , v
k
generano V , allora k n.
Concludiamo il paragrafo provando come annunciato che `e la dimensione
che consente di decidere quando due spaz distinti siano uguali o meno dal
punto di vista delle operazioni di spazio vettoriale:
Proposizione 4.3.4. Siano V e W spaz vettoriali reali di dimensione nita.
Allora sono fatti equivalenti:
1. Esiste una applicazione bigettiva : V W che rispetta le operazioni;
2. dim
R
(V ) = dim
R
(W).
38 Capitolo 4
Dimostrazione. Supponiamo che valga la propriet`a (1) e consideriamo una base
(v
1
, . . . , v
n
) di V . Aermiamo che ((v
1
), . . . , (v
n
)) `e una base di W, il che
comporta la (2). Per provarlo, verichiamo che ogni vettore di w di W si
esprime in uno e un solo modo come combinazione lineare degli elementi di
((v
1
), . . . , (v
n
)). Infatti
1
(w) ha ununica espressione come a
1
v
1
+. . . +
a
n
v
n
, da cui segue che w = a
1
(v
1
) +. . . +a
n
(v
n
), ed `e facile vedere che
lespressione `e ancora unica.
Supponiamo ora la (2) e proviamo la (1). La Proposizione 4.2.3 compor-
ta che abbiamo applicazioni bigettive
V
: V R
n
e
W
: W R
n
che
rispettano le operazioni. Basta allora porre =
1
W

V
.
4.4 Estrazione e completamento
Ricordiamo che una base di uno spazio V `e un insieme nito e ordinato di vet-
tori che hanno le due propriet`a di generare e di essere linearmente indipendenti.
In questo paragrafo spieghiamo come si pu`o modicare un insieme che abbia
una sola di queste propriet`a a un altro che le abbia entrambe. Cominciamo
con il semplice ma fondamentale:
Lemma 4.4.1. Siano dati v
0
, v
1
, . . . , v
n
V con v
1
, . . . , v
n
linearmente indi-
pendenti. Sono fatti equivalenti:
1. v
0
, v
1
, . . . , v
n
sono linearmente indipendenti;
2. v
0
Span(v
1
, . . . , v
n
).
Dimostrazione. Supponiamo che valga la (1) e proviamo la (2) per assurdo,
ipotizzando che v
0
=
1
v
1
+. . .+
n
v
n
. Allora (1)v
0
+
1
v
1
+. . .+
n
v
n
= 0,
il che `e assurdo.
Supponiamo ora invece la (2) e consideriamo una combinazione lineare

0
v
0
+
1
v
1
+ . . . +
n
v
n
che dia il vettore nullo. Dobbiamo provare
che allora per forza tutti gli
i
sono nulli. Se
0
= 0 naturalmente tutti gli
altri
i
sono nulli, perche v
1
, . . . , v
n
sono linearmente indipendenti per ipotesi.
Supponiamo invece che
0
sia non nullo. Allora
v
0
=
_

0
_
v
1
+. . . +
_

0
_
v
n
.
Ci`o contraddice la (2) e conclude la dimostrazione.
Dimensione 39
Corollario 4.4.2. Se V non ha dimensione nita allora in V esistono insiemi
di vettori linearmenti indipendenti con un numero arbitrariamente grande di
elementi.
Dimostrazione. Supponiamo per assurdo che il numero massimo di elementi di
un insieme di vettori di V linearmente indipendenti sia nito, e chiamiamolo
k. Se v
1
, . . . , v
k
sono linearmente indipendenti, la massimalit`a di k e il lemma
precedente comportano che v
1
, . . . , v
k
generano, dunque V ha dimensione k.
Assurdo.
Proviamo ora che un insieme di vettori linearmente indipendenti in uno
spazio di dimensione nita si pu`o sempre completare a una base, e che da un
insieme di generatori `e possibile estrarre una base. Lo facciamo nel caso pi` u
generale di un sottospazio:
Teorema 4.4.3. Sia V uno spazio vettoriale di dimensione nita n e sia W
un suo sottospazio vettoriale diverso da {0}. Allora:
1. W ha dimensione nita m; inoltre m n e se m = n si ha W = V ;
2. Dati w
1
, . . . , w
k
in W linearmente indipendenti, esistono w
k+1
, . . . , w
m
tali che (w
1
, . . . , w
m
) sia una base di W;
3. Dati w
1
, . . . , w
h
generatori di W, esistono indici i
1
, . . . , i
m
con 1 i
1
<
i
2
< . . . < i
m1
< i
m
h tali che (w
i
1
, . . . , w
i
m
) sia una base di W.
Dimostrazione. Cominciamo dal punto (1). Il fatto che W abbia dimensione
nita segue dal Corollario 4.4.2. Infatti se W avesse dimensione innita allora
conterrebbe insiemi di vettori linearmente indipendenti con pi` u di n elementi,
il che contraddice il Corollario 4.3.3. La successiva aermazione segue ancora
dal Corollario 4.3.3. Infatti se (w
1
, . . . , w
m
) `e una base di W in particolare
w
1
, . . . , w
m
sono linearmente indipendenti, dunque m n. Inoltre se m = n
ma W `e diverso dallintero V , si pu`o applicare il Lemma 4.4.1 deducendo
lassurdo che in V ci sono n + 1 vettori linearmente indipendenti.
Rivolgiamoci dunque al punto (2). Se w
1
, . . . , w
k
sono gi`a un insieme di
generatori di W non c`e nulla da dimostrare. Supponiamo dunque che esi-
sta w
k+1
W \ Span(w
1
, . . . , w
k
). Il lemma precedente garantisce allora che
w
1
, . . . , w
k
, w
k+1
sono linearmente indipendenti, e possiamo applicare di nuo-
vo il medesimo ragionamento, trovando che o w
1
, . . . , w
k
, w
k+1
generano o `e
possibile estenderli a un sistema w
1
, . . . , w
k
, w
k+1
, w
k+2
di vettori linearmente
indipendenti. Literazione di questo ragionamento ha in ogni caso termine, e
40 Capitolo 4
dunque conduce a una base di W, dato che in W non si possono trovare pi` u di
m vettori linearmente indipendenti, grazie al Corollario 4.3.3.
Passiamo al punto (3). Lidea `e in questo caso di esaminare uno dopo
laltro i vettori w
1
, . . . , w
h
decidendo per ciascuno se vada tenuto o debba essere
scartato. Andranno scartati quei w
i
che appartengono al generato dei vettori
gi`a tenuti, mentre andranno tenuti quelli che sono linearmente indipendenti
dai precedenti. Pi` u precisamente, procediamo come segue:
Scartiamo tutti i primi vettori w
1
, w
2
, . . . nche non troviamo il primo
vettore w
i
1
non nullo; naturalmente se gi`a w
1
`e non nullo si pone i
1
= 1
e non si scarta nessun vettore;
Dopo w
i
1
, scartiamo tutti i vettori w
i
1
+1
, w
i
1
+2
, . . . che appartengono al
generato di w
i
1
, nche non ne troviamo uno w
i
2
che non appartiene al
generato di w
i
1
. Il Lemma 4.4.1 garantisce che w
i
1
, w
i
2
sono linearmente
indipendenti. Naturalmente pu`o succedere che gi`a w
i
1
+1
non stia nel
generato di w
i
1
, oppure che scorriamo tutta la lista senza trovare vettori
che non stiano nel generato di w
i
1
. Nel primo caso non scartiamo alcun
vettore e poniamo i
2
= i
1
+ 1, nel secondo (w
i
1
) `e gi`a la base cercata;
Procediamo similmente, considerando il primo vettore w
i
3
dopo w
i
2
che
non appartiene al generato di w
i
1
, w
i
2
, oppure fermandoci se non ne
troviamo, e cos` via.
`
E chiaro dalla costruzione che i vettori w
i
1
, . . . , w
i
m
risultanti sono linearmente
indipendenti. Inoltre `e facile vedere che w
j
Span(w
i
1
, . . . , w
i
p
) se w
i
p
`e
lultimo vettore non scartato con i
p
j. Questo comporta che w
i
1
, . . . , w
i
m
generano tutti i w
j
, dunque lintero W, perci`o sono una base di W.
Osservazione 4.4.4. Il procedimento di estrazione di una base da un insieme
nito di generatori, come descritto nella dimostrazione del punto (3) del teore-
ma precedente, ha una natura algoritmica, cio`e pu`o essere facilmente eseguito
da un calcolatore.
Deduciamo ora dal Teorema 4.4.3 che, avendo gi`a il numero giusto di vetto-
ri, `e suciente richiedere mezza denizione di base per avere anche laltra
mezza:
Corollario 4.4.5. Sia V uno spazio vettoriale di dimensione n. Per un
insieme v
1
, . . . , v
n
di vettori sono fatti equivalenti:
1. v
1
, . . . , v
n
sono linearmente indipendenti;
Dimensione 41
2. v
1
, . . . , v
n
generano V .
Dimostrazione. Se sono linearmente indipendenti ma non generano, possiamo
completarli a una base. Se generano ma non sono linearmente indipenden-
ti, possiamo estrarne una base. In entrambi i casi sarebbe contraddetto il
Corollario 4.3.3.
4.5 Formula di Grassmann
Sia ssato uno spazio vettoriale V e siano W e Z suoi sottospaz vettoriali.
Abbiamo gi`a osservato che W Z non `e un sottospazio vettoriale, a meno
che non sia uguale a W oppure a Z. Chiamiamo allora somma di W e Z,
e indichiamo con W + Z, il sottospazio Span(W Z), ovvero il pi` u piccolo
sottospazio vettoriale che contiene sia W che Z. La notazione `e giusticata dal
seguente:
Lemma 4.5.1. W +Z = {w +z : w W, z Z}.
Dimostrazione. Basta osservare che linsieme descritto a destra del segno di
uguaglianza `e un sottospazio vettoriale, che contiene W Z, e che `e contenuto
in Span(W Z).
Supponiamo ora che V abbia dimensione nita. Allora W, Z, W Z, W +
Z hanno tutti una ben denita dimensione. La seguente uguaglianza, detta
formula di Grassmann, stabilisce un legame tra le dimensioni di questi quattro
sottospaz:
Teorema 4.5.2. dim
R
(W) + dim
R
(Z) = dim
R
(W Z) + dim
R
(W +Z).
Dimostrazione. Indichiamo con k la dimensione di W Z e notiamo che W e
Z contengono W Z, dunque hanno dimensione almeno k. Poniamo dunque
dim
R
(W) = k +p e dim
R
(Z) = k +q, dove p, q 0. Dobbiamo allora provare
che Z +W ha dimensione k +p +q.
Fissiamo ora una base (y
1
, . . . , y
k
) di Z W. Notando che y
1
, . . . , y
k
so-
no vettori linearmente indipendenti e stanno in W, utilizziamo il punto (2)
del Teorema 4.4.3 ottenendo una base (y
1
, . . . , y
k
, w
1
, . . . , w
p
) di W. Simil-
mente costruiamo una base (y
1
, . . . , y
k
, z
1
, . . . , z
q
) di Z. Aermiamo ora che
(y
1
, . . . , y
k
, w
1
, . . . , w
p
, z
1
, . . . , z
q
) `e una base di W + Z, il che comporta la
conclusione desiderata.
42 Capitolo 4
Cominciamo col mostrare che y
1
, . . . , y
k
, w
1
, . . . , w
p
, z
1
, . . . , z
q
generano W+
Z. Consideriamo un generico elemento di W+Z, che grazie al lemma preceden-
te si pu`o scrivere come w+z con w W e z Z. Dobbiamo provare che w+z
si pu`o esprimere come combinazione lineare di y
1
, . . . , y
k
, w
1
, . . . , w
p
, z
1
, . . . , z
q
.
Ora y
1
, . . . , y
k
, w
1
, . . . , w
p
generano W, dunque
w =
1
y
1
+. . . +
k
y
k
+
1
w
1
+. . . +
p
w
p
per costanti
i
e
j
opportune. Similmente
z =

1
y
1
+. . . +

k
y
k
+
1
z
1
+. . . +
q
z
q
.
Dunque
w+z = (
1
+

1
)y
1
+. . .+(
k
+

k
)y
k
+
1
w
1
+. . .+
p
w
p
+
1
z
1
+. . .+
q
z
q
ed abbiamo ottenuto quanto voluto.
Passiamo a dimostrare che y
1
, . . . , y
k
, w
1
, . . . , w
p
, z
1
, . . . , z
q
sono linearmen-
te indipendenti. Supponiamo dunque di avere una combinazione lineare con
risultato nullo
()
1
y
1
+. . .+
k
y
k
+
1
w
1
+. . .+
p
w
p
+
1
z
1
+. . .+
q
z
q
= 0.
Dobbiamo provare che tutti gli
i
,
j
e
l
sono nulli. Dallidentit`a precedente
deduciamo che

1
y
1
+. . . +
k
y
k
+
1
w
1
+. . . +
p
w
p
=
1
z
1
. . .
q
z
q
.
Ora in questa identit`a il membro sinistro descrive un elemento di W, mentre
il membro destro descrive un elemento di Z. Lidentit`a comporta dunque che
entrambi i membri appartengono a W Z. In particolare il membro destro si
pu`o scrivere come combinazione lineare dei vettori y
1
, . . . , y
k
, che costituiscono
una base di W Z:

1
z
1
. . .
q
z
q
=

1
y
1
+. . . +

k
y
k

1
y
1
+. . . +

k
y
k
+
1
z
1
+. . . +
q
z
q
= 0 .
Ne segue che tutti i coecienti

i
e
l
sono nulli, poiche y
1
, . . . , y
k
, z
1
, . . . , z
q
sono linearmente indipendenti (costituiscono una base di Z). La () allora
comporta che

1
y
1
+. . . +
k
y
k
+
1
w
1
+. . . +
p
w
p
= 0
dunque anche gli
i
e
j
sono nulli, poiche y
1
, . . . , y
k
, w
1
, . . . , w
q
sono linear-
mente indipendenti (costituiscono una base di W). La dimostrazione `e com-
pleta.
Applicazioni lineari 43
Capitolo 5
Applicazioni lineari
Abbiamo gi`a incontrato, nel capitolo precedente, applicazioni tra spaz vetto-
riali che rispettano le operazioni. Questo capitolo `e dedicato per intero alle
applicazioni aventi questa propriet`a.
5.1 Denizione, esempi, nucleo, immagine
Siano ssati in questo paragrafo spaz vettoriali reali V e W. Una applicazione
f : V W `e detta lineare se:
f(0) = 0;
f(v
1
+v
2
) = f(v
1
) +f(v
2
) per ogni v
1
, v
2
V ;
f( v) = f(v) per ogni R e v V .
Osservazione 5.1.1. In realt`a la prima delle tre propriet`a `e conseguenza di
ciascuna delle altre due, ma di fatto `e conveniente, per vericare la linearit`a di
una f assegnata, partire dalla verica che f(0) = 0.
Osservazione 5.1.2. Una applicazione f : V W `e lineare se e soltanto se
rispetta le combinazioni lineari, ovvero:
f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) per ogni
1
,
2
R e v
1
, v
2
V .
Elenchiamo subito diversi esempi di applicazioni che sono (oppure non sono)
lineari, specicandone la natura solo alla ne della lista:
1. f : R R, f(x) = 7x;
44 Capitolo 5
2. f : R R, f(x) =
_
x se x Q,
0 altrimenti;
3. f : R
2
R, f
_
x
y
_
= sgn(x)

|x y|, dove sgn(x) `e il segno di x, dato


da
sgn(x) =
_
_
_
+1 se x > 0,
0 se x = 0,
1 se x < 0;
4. f : R
2
R
3
, f
_
x
y
_
=
_
_
x
2
y
2
x y
_
_
;
5. f : R
2
R
3
, f
_
x
y
_
=
_
_
x y
y + 2x
x 3y
_
_
;
6. f : R
2
R
2
, f
_
x
y
_
=
_
|x|
|y|
_
;
7. f : F(S, R) R, f(x) = x(s
0
) dove s
0
S `e ssato;
8. f : F(S, R) R, f(x) = x(s
0
) x(s
1
) dove s
0
, s
1
S sono ssati e
distinti;
9. f : F(S, R) R, f(x) = x(s
0
) + 1 dove s
0
S `e ssato;
10. f : {x F([0, 1], R) : x continua} R, f(x) =
1

0
x(t)dt;
11. f : R[x] R[x], f
_
d

k=0
a
k
x
k
_
=
d

k=1
k a
k
x
k1
, ovvero la derivazione
di polinomi;
12. tr : M
nn
(R) R, tr(A) =
n

i=1
(A)
ii
(tale applicazione `e detta traccia, e
associa a una matrice quadrata la somma degli elementi sulla diagonale
principale);
13. M
nm
(R) M
mn
(R), A
t
A, dove
_
t
A
_
ij
= (A)
ji
. Tale applicazione
`e detta trasposizione, e la
t
A `e detta trasposta di A.
Applicazioni lineari 45
Sono lineari le applicazioni descritte ai punti (1), (5), (7), (8), (10), (11), (12),
(13). Non lo sono le altre (ma `e consigliabile vericare per ciascuna quali siano
gli assiomi violati).
Prima di procedere abbiamo un risultato molto semplice, da dimostrare per
esercizio:
Proposizione 5.1.3. Date applicazioni f : V W e g : W Z lineari, la
loro composizione g f : V Z `e lineare.
Ad una applicazione lineare f : V W associamo ora due sottospaz
vettoriali, luno di V e laltro di W:
Il nucleo di f, denito come Ker(f) = {v V : f(v) = 0};
Limmagine di f, denotata con Im(f).
Un primo facile risultato consente di dare una chiara interpretazione, in
termini delle propriet`a di f, del fatto che uno di questi sottospaz sia banale:
Proposizione 5.1.4. Sia f : V W lineare. Allora:
f `e iniettiva se e soltanto se Ker(f) = {0};
f `e surgettiva se e soltanto se Im(f) = W;
f `e lapplicazione identicamente nulla se e soltanto se Ker(f) = V ,
oppure equivalentemente Im(f) = {0}.
Dimostrazione. Solo la prima aermazione non `e evidente. Se f `e iniettiva,
essendo f(0) = 0, si ha f
1
(0) = {0}, dunque Ker(f) = {0}. Viceversa, siano
v, v

V tali che f(v) = f(v

). Allora f(v v

) = 0, dunque v v

Ker(f).
Se questultimo sottospazio `e quello banale {0}, ne segue che v = v

, dunque
f `e iniettiva.
Corollario 5.1.5. Sia f : V W lineare con V e W di dimensione nita.
Allora:
f `e iniettiva se e soltanto se dim
R
(Ker(f)) = 0;
f `e surgettiva se e soltanto se dim
R
(Im(f)) = dim
R
(W).
Abbiamo ora un risultato, chiamato formula della dimensione, che lega tra
loro la dimensione del nucleo, quella dellimmagine e quella dello spazio di
partenza.
46 Capitolo 5
Teorema 5.1.6. Sia f : V W una applicazione lineare con V di dimensione
nita. Allora:
dim
R
(Ker(f)) + dim
R
(Im(f)) = dim
R
(V ) .
Dimostrazione. Poiche V ha dimensione nita e Ker(f) ne `e un sottospazio,
anche questultimo ha dimensione nita, che indichiamo con k. Possiamo
dunque scegliere una base (v
1
, . . . , v
k
) di Ker(f), e completarla a una base
(v
1
, . . . , v
n
) di V . Asseriamo ora che (f(v
k+1
), . . . , f(v
n
)) `e una base di Im(f),
il che comporta immediatamente la tesi.
Proviamo dunque che f(v
k+1
), . . . , f(v
n
) generano Im(f) e sono linearmente
indipendenti.
Supponiamo che una combinazione lineare
k+1
f(v
k+1
) +. . . +
n
f(v
n
)
sia il vettore nullo. Dalla linearit`a di f deduciamo che
f(
k+1
v
k+1
+. . . +
n
v
n
) = 0 ,
dunque

k+1
v
k+1
+. . . +
n
v
n
Ker(f) .
Avendo scelto (v
1
, . . . , v
k
) come base di Ker(f), ne deduciamo che esistono
coecienti
1
, . . . ,
k
tali che

k+1
v
k+1
+. . . +
n
v
n
=
1
v
1
+. . . +
k
v
k
(
1
) v
1
+. . . + (
k
) v
k
+
k+1
v
k+1
+. . . +
n
v
n
= 0

1
= . . . =
k
=
k+1
= . . . =
n
= 0 .
Ci`o prova lindipendenza lineare di f(v
k+1
), . . . , f(v
n
). Per dimostrare che
generano Im(f), consideriamo un vettore w Im(f) generico. Per denizione
di immagine, esiste v V tale che f(v) = w. Ora, (v
1
, . . . , v
n
) `e una base di
V , dunque
v =
1
v
1
+. . . +
n
v
n
.
Usiamo ora la linearit`a di f e il fatto che v
1
, . . . , v
k
Ker(f), deducendo che
w = f(v) =
k+1
f(v
k+1
) +. . . +
n
f(v
n
)
e dunque la conclusione desiderata.
Corollario 5.1.7. Sia f : V W lineare con V e W di dimensione nita.
Se f `e iniettiva allora dim
R
(V ) dim
R
(W);
Applicazioni lineari 47
Se f `e surgettiva allora dim
R
(V ) dim
R
(W);
Se f `e bigettiva allora dim
R
(V ) = dim
R
(W).
Inoltre, se V e W hanno la stessa dimensione, sono fatti equivalenti:
f `e iniettiva;
f `e surgettiva;
f `e bigettiva.
Mostreremo nel prossimo capitolo che la conoscenza della dimensione del-
limmagine di una assegnata applicazione lineare f (un numero intero che chia-
meremo rango di f) ha cruciale importanza in molti problemi (ad esempio quel-
lo della risoluzione dei sistemi lineari). Illustreremo anche un metodo ecace
di calcolo del rango.
5.2 Somme dirette e proiezioni
Se V `e uno spazio vettoriale e W, Z sono sottospaz di V tali che W +Z = V
e W Z = {0}, diremo che V `e decomposto nella somma diretta di W e Z e
scriveremo V = W Z.
Lemma 5.2.1. Se V = W Z allora ogni vettore v di V si scrive in uno e
un solo modo come v = w +z con w W e z Z.
Dimostrazione. Per la caratterizzazione di W + Z data nel Lemma 4.5.1 sap-
piamo che almeno una espressione v = w + z esiste. Supponiamo che ce ne
siano due:
v = w
1
+z
1
, v = w
2
+z
2
.
Ne deduciamo che w
1
w
2
= z
2
z
1
. Lespressione sinistra di questo vettore
comporta che esso appartiene a W, mentre quella destra comporta che appar-
tiene a Z. Tuttavia per ipotesi si ha WZ = {0}, dunque w
1
w
2
= z
2
z
1
= 0.
Ne segue che w
1
= w
2
e z
1
= z
2
, dunque le due espressioni di v erano in realt`a
uguali.
Nella situazione del lemma precedente, ponendo p(v) = w e q(v) = z,
si deniscono due applicazioni p, q : V V , dette proiezioni relative alla
decomposizione in somma diretta V = W Z. Vale la seguente:
Proposizione 5.2.2. 1. p e q sono lineari;
48 Capitolo 5
2. Im(p) = Ker(q) = W, Im(q) = Ker(p) = Z;
3. p q = q p = 0;
4. p p = p, q q = q;
5. p +q = Id
V
.
Dimostrazione. Per il primo punto, verichiamo ad esempio che p(v
1
+ v
2
) =
p(v
1
) +p(v
2
). Per denizione di p si ha p(v
1
) = w
1
e p(v
2
) = w
2
se w
1
, w
2
W
ed esistono z
1
, z
2
Z tali che v
1
= w
1
+z
1
e v
2
= w
2
+z
2
. Da queste relazioni
segue che v
1
+v
2
= (w
1
+w
2
) + (z
1
+z
2
). Inoltre w
1
+w
2
W e z
1
+z
2
Z.
Ancora dalla denizione di p segue allora che p(v
1
+ v
2
) = w
1
+ w
2
, ovvero la
conclusione desiderata.
`
E chiaro dalla denizione che Im(p) W. Inoltre se w W si ha w = w+0
e 0 Z, dunque p(w) = w. Ne segue che Im(p) = W. Se z Z si ha z = 0 +z
e 0 W, dunque p(z) = 0, cio`e z Ker(p). Viceversa se p(v) = 0 allora
v = p(v) + z = 0 + z = z Z. Dunque Ker(p) = Z. Per Im(q) e Ker(q) si
procede analogamente. Il terzo punto segue immediatamente dal secondo.
Se v V si ha (p p)(v) = p(p(v)) = p(v) poiche p(v) W e abbiamo gi`a
osservato che p(w) = w se w W. Ci`o prova il quarto punto.
Lultimo punto segue immediatamente dalla denizione. (Si noti che stiamo
usando qui loperazione di somma tra applicazioni a valori in V ; torneremo
ampiamente su questo concetto nella Sezione 5.4).
Osservazione 5.2.3. La proiezione p da V sul fattore W della decomposizione
V = W Z dipende non dal solo W, ma anche da Z. Ad esempio se V = R
2
e W = Span(e
1
), Z
1
= Span(e
2
), Z
2
= Span(e
1
+ e
2
), abbiamo V = W
Z
1
= W Z
2
, e le due proiezioni su W relative alle diverse decomposizioni si
esprimono come segue:
p
1
_
x
1
x
2
_
=
_
x
1
0
_
, p
2
_
x
1
x
2
_
=
_
x
1
x
2
0
_
.
Nella Sezione 9.3 vedremo che in presenza di una ulteriore struttura su V (un
prodotto scalare) si pu`o associare a un singolo sottospazio una ben denita
proiezione.
Il seguente risultato, insieme alla Proposizione 5.2.2, caratterizza le proie-
zioni.
Applicazioni lineari 49
Proposizione 5.2.4. Sia V uno spazio vettoriale di dimensione nita. Data
p : V V lineare tale che p p = p, posto W = Im(p) e Z = Ker(p), si ha
V = W Z e la proiezione su W associata a questa decomposizione `e p.
Dimostrazione. Sia x W Z. Poiche x W si ha x = p(v). Dato che
p p = p abbiamo allora p(x) = p(p(v)) = p(v), dunque x = p(x). Ma x Z,
dunque p(x) = 0, perci`o x = 0. Resta provato che WZ = {0}, e dalla formula
della dimensione insieme alla formula di Grassmann segue che V = W Z.
Se v = w + z `e la decomposizione di un generico v V , dalle denizioni
di W e Z e dalla relazione p p = p segue che p(w) = w e p(z) = 0, dunque
p(v) = w e la dimostrazione `e completa.
Descriviamo ora un esempio importante di decomposizione in somma diret-
ta. Consideriamo lo spazio M
nn
(R) delle matrici reali quadrate con n righe
e n colonne. Diciamo che A M
nn
(R) `e simmetrica se i coecienti di A
con posti simmetrici rispetto alla diagonale principale sono uguali, ovvero se
(A)
ij
= (A)
ji
per ogni i e j, ovvero ancora, pi` u sinteticamente, se A =
t
A.
Diciamo invece che A `e antisimmetrica se A =
t
A. Indichiamo ora con S
linsieme delle matrici A M
nn
(R) simmetriche, e con A quello delle an-
tisimmetriche. La linearit`a della funzione trasposizione comporta facilmente
che S e A sono sottospazi di M
nn
(R). Inoltre se A S A si ha A =
t
A
e A =
t
A, dunque A = A, da cui segue che A = 0. Abbiamo provato che
S A = {0}. Asseriamo ora che in realt`a S + A = M
nn
(R), dunque che si
ha una somma diretta M
nn
(R) = S A.
Proviamo che S + A = M
nn
(R) con due metodi. Il primo si basa sulla
formula di Grassmann, grazie alla quale, sapendo che S A = {0}, basta
vedere che dim
R
(S)+dim
R
(A) = dim
R
(M
nn
(R)). Sappiamo che questultima
dimensione vale n
2
, ed `e facile vericare (usando la Proposizione 2.3.1) che
dim
R
(S) =
n(n + 1)
2
, dim
R
(A) =
n(n 1)
2
,
da cui la conclusione.
Il secondo metodo che usiamo per provare che M
nn
(R) = S A consiste
nellesibire, per ogni matrice A M
nn
(R), una sua espressione come A =
X+Y con X simmetrica e Y antisimmetrica. Dalla linearit`a della trasposizione
e dal fatto che una matrice trasposta due volte torna uguale a se stessa segue
subito che una tale espressione si ha con
X =
1
2
(A+
t
A), Y =
1
2
(A
t
A) .
50 Capitolo 5
Questo argomento ci consente anche di esibire le proiezioni p, q relative alla
decomposizione M
nn
(R) = S A, che sono le seguenti:
p(A) =
1
2
(A+
t
A), q(A) =
1
2
(A
t
A) .
Il lettore `e invitato per esercizio a vericare direttamente da queste espressioni
che p p = p, q q = q, p q = q p = 0.
5.3 Matrici e applicazioni associate
Fissiamo in questo paragrafo interi n ed m. Se A M
mn
(R) e x R
n
,
deniamo ora il prodotto A x come
(A x)
i
=
n

j=1
(A)
ij
x
j
, i = 1, . . . , m .
Consideriamo dunque lapplicazione R
n
R
m
che a un vettore x R
n
associa
il vettore A x R
m
. Aermiamo che questa applicazione `e lineare. Si tratta
di vericare le seguenti identit`a:
A (x +y) = A x +A y per ogni x, y R
n
;
A ( x) = (A x) per ogni R e x R
n
.
La verica di queste propriet`a, una volta che le si sia scritte in coordinate, `e
pressoche immediata. La faremo tra poco, in un contesto pi` u generale. Lappli-
cazione x A x appena descritta `e detta applicazione associata alla matrice
A e viene indicata con f
A
oppure, quando non si rischia di fare confusione, con
la stessa lettera A, per ragioni che saranno spiegate ben presto.
Supponiamo ora dato un terzo intero k e matrici A M
mn
(R) e B
M
nk
(R). Deniamo allora una nuova matrice A B M
mk
(R) come segue:
_
A B
_
ij
=
n

p=1
a
ip
b
pj
, i = 1, . . . , m, j = 1, . . . , k .
Loperazione ora introdotta `e detta prodotto righe per colonne, poiche il coef-
ciente di posto (i, j) della matrice prodotto si ottiene moltiplicando tra loro
la riga i-esima della matrice di sinistra e la colonna j-esima della matrice di
destra. Il prodotto di una riga (a sinistra) per una colonna (a destra) si ot-
tiene moltiplicando tra loro i coecienti di posto corrispondente, e sommando
Applicazioni lineari 51
i risultati. Questa operazione ha naturalmente senso solo quando la lunghez-
za della riga coincide con la altezza della colonna. In particolare, come
si desume comunque dalla denizione che abbiamo dato, ha senso eseguire il
prodotto A B solo quando il numero delle colonne di A `e uguale a quello delle
righe di B. Si osservi dunque che, anche quando il prodotto A B ha senso,
pu`o non averlo B A. I prodotti hanno entrambi senso solo quando sia A che B
sono matrici quadrate n n, ed `e importante notare che anche in tal caso non
`e in generale vero che A B = B A (a meno che non si abbia n = 1). Siamo
dunque in presenza di una operazione binaria di prodotto su M
nn
(R) che non
gode della propriet`a commutativa. Mostriamo ora che questa operazione gode
invece di molte delle altre ragionevoli propriet`a di un prodotto, cominciando
dalle propriet`a distributive:
Proposizione 5.3.1.
Dati A M
mn
(R), B
1
, B
2
M
nk
(R) e
1
,
2
R, si ha:
A (
1
B
1
+
2
B
2
) =
1
(A B
1
) +
2
(A B
2
) ;
Dati A
1
, A
2
M
mn
(R), B M
nk
(R) e
1
,
2
R, si ha:
(
1
A
1
+
2
A
2
) B =
1
(A
1
B) +
2
(A
2
B) .
Dimostrazione. Proviamo la prima proriet`a, laltra `e analoga. Luguaglianza
da provare `e tra due matrici mk, dunque per vericarla basta vedere che esse
hanno lo stesso coeciente nel posto (i, j) per ogni i = 1, . . . , m e j = 1, . . . , k.
Usando le denizioni delle varie operazioni coinvolte si trova infatti:
_
A (
1
B
1
+
2
B
2
)
_
ij
=
n

p=1
(A)
ip

1
B
1
+
2
B
2
_
pj
=
n

p=1
(A)
ip
(
1
(B
1
)
pj
+
2
(B
2
)
pj
)
=
1

p=1
(A)
ip
(B
1
)
pj
+
2

p=1
(A)
ip
(B
2
)
pj
=
1
(A B
1
)
ij
+
2
(A B
2
)
ij
=
_

1
(A B
1
) +
2
(A B
2
)
_
ij
.
52 Capitolo 5
Il risultato appena provato si interpreta, nel nostro contesto degli spaz vet-
toriali, come linearit`a del prodotto righe per colonne in entrambi gli argomenti.
Ci`o signica che ssata B M
nk
(R), lapplicazione
M
mn
(R) M
mk
(R)
A A B
`e lineare. Analogamente, ssata una matrice A M
mn
(R), `e lineare la
M
nk
(R) M
mk
(R)
B A B
Questo fatto si applica in particolare quando k = 1 e comporta la linearit`a
dellapplicazione f
A
: R
n
R
m
associata a una matrice A M
mn
(R).
Veniamo ora agli elementi neutri e allassociativit`a del prodotto righe per
colonne. Per ogni n deniamo la matrice identit`a di ordine n come la ma-
trice quadrata I
n
M
nn
(R) che ha coecienti 1 sulla diagonale principale
e 0 altrove. Specichiamo meglio tale matrice introducendo la funzione di
Kronecker, che ha come argomenti due indici i e j e restituisce il valore:

ij
=
_
1 se i = j,
0 se i = j.
Abbiamo allora che (I
n
)
ij
`e dato esattamente da
ij
.
Proposizione 5.3.2. Data A M
mn
(R) si ha
A I
n
= I
m
A = A ;
Date A M
mn
(R), B M
nk
(R) e C M
kh
(R) si ha
A (B C) = (A B) C .
Dimostrazione. La prima aermazione `e un semplice esercizio. La seconda
asserisce luguaglianza tra due matrici mh. Basta allora vericare che in un
generico posto (i, j) le matrici hanno il medesimo coeciente:
_
A (B C)
_
ij
=
n

p=1
(A)
ip

_
B C
_
pj
=
n

p=1
(A)
ip

_
k

q=1
(B)
pq
(C)
qj
_
=
n

p=1
k

q=1
(A)
ip
(B)
pq
(C)
qj
=
k

q=1
_
n

p=1
(A)
ip
(B)
pq
_
(C)
qj
=
k

q=1
_
A B
_
iq
(C)
qj
=
_
(A B) C
_
ij
.
Applicazioni lineari 53
Si osservi che, tra le propriet`a del prodotto righe per colonne di matrici
analoghe a quelle del prodotto tra numeri, non discutiamo per ora lesistenza
dellinverso. Lo faremo in parte nella Sezione 5.5 e pi` u diusamente nel capitolo
successivo.
5.4 Spazio delle applicazioni lineari e
matrice di una applicazione
Torniamo in questo paragrafo alla situazione generale di due spaz vettoriali
qualsiasi V e W. Abbiamo gi`a osservato nel Capitolo 3 che linsieme F(V, W)
delle applicazioni da V in W pu`o essere dotato di una naturale struttura di spa-
zio vettoriale, utilizzando punto per punto le operazioni di W. Ricordiamo
infatti che questa struttura non richiede a V di essere uno spazio vettoriale: un
semplice insieme sarebbe gi`a suciente. Quando per`o V `e uno spazio vettoria-
le, tra le applicazioni da V in W possiamo selezionare quelle lineari. Indichiamo
dunque con L
R
(V, W) linsieme che consiste di tutte tali applicazioni:
L
R
(V, W) = {f : V W : f lineare} .
Proposizione 5.4.1. L
R
(V, W) `e un sottospazio vettoriale di F(V, W).
Dimostrazione. Si tratta di vedere che una combinazione lineare di applicazioni
lineari `e lineare. Siano dunque
1
,
2
R e f
1
, f
2
: V W lineari. Per vedere
che
1
f
1
+
2
f
2
`e lineare dobbiamo valutarla su una combinazione lineare di
vettori. Siano dunque
1
,
2
R e v
1
, v
2
V . Usando il fatto che le operazioni
tra funzioni sono punto per punto quelle di W e la linearit`a di f
1
e f
2
abbiamo
ora:
_

1
f
1
+
2
f
2
__

1
v
1
+
2
v
2
_
=
1
f
1
_

1
v
1
+
2
v
2
_
+
2
f
2
_

1
v
1
+
2
v
2
_
=
1

1
f
1
(v
1
) +
1

2
f
1
(v
2
) +
2

1
f
2
(v
1
) +
2

2
f
2
(v
2
)
=
1

1
f
1
(v
1
) +
2
f
2
(v
1
)
_
+
2

1
f
1
(v
2
) +
2
f
2
(v
2
)
_
=
1

1
f
1
+
2
f
2
_
(v
1
) +
2

1
f
1
+
2
f
2
_
(v
2
) .
54 Capitolo 5
Uno degli scopi di questo paragrafo `e quello di dimostrare il seguente:
Teorema 5.4.2. Se dim
R
(V ) = n e dim
R
(W) = m si ha
dim
R
(L
R
(V, W)) = n m .
Proveremo questo fatto in ben tre modi distinti (se pur strettamente collega-
ti tra loro), che servono a chiarire meglio la struttura di L
R
(V, W). Nel caso in
cui V e W sono spazi di vettori numerici abbiamo intanto una caratterizzazio-
ne molto esplicita di L
R
(V, W), che enunciamo ricordando che ad una matrice
A M
mn
(R) avevamo associato una applicazione lineare f
A
: R
n
R
m
:
Proposizione 5.4.3. Lapplicazione
M
mn
(R) L
R
(R
n
, R
m
)
A f
A
`e lineare e bigettiva.
Dimostrazione. Per la linearit`a, dobbiamo vericare che
f
(
1
A
1
+
2
A
2
)
=
1
f
A
1
+
2
f
A
2
.
Due applicazioni R
n
R
m
coincidono se hanno lo stesso valore su ogni x R
n
,
dunque dobbiamo vedere che
(
1
A
1
+
2
A
2
) x =
1
(A
1
x) +
2
(A
2
x)
il che `e stato visto nella Proposizione 5.3.1.
Proviamo liniettivit`a dimostrando che il nucleo `e il sottospazio banale {0}.
Supponiamo dunque che f
A
sia lapplicazione nulla, e proviamo che A `e la
matrice nulla. Per ipotesi abbiamo A x = 0 per ogni x R
n
. In particolare
A e
i
= 0 se e
i
`e il vettore i-esimo della base canonica di R
n
. Ma `e facile vedere
che A e
i
non `e altro che la colonna i-esima di A, dunque deduciamo subito
che A = 0.
Per la surgettivit`a ssiamo f : R
n
R
m
lineare e cerchiamo una matrice
A tale che f
A
sia f. Per largomento appena esposto, la A non pu`o essere altro
che la matrice la cui colonna i-esima `e il vettore f(e
i
). Proviamo che tale A
eettivamente va bene. Per come abbiamo denito A, indicando (A)
ji
con a
ji
,
si ha
f(e
i
) =
m

j=1
a
ji
e
j
.
Applicazioni lineari 55
Se x R
n
`e qualsiasi, notando che x =

n
i=1
x
i
e
i
, abbiamo allora:
f(x) = f
_
n

i=1
x
i
e
i
_
=
n

i=1
x
i
f(e
i
) =
n

i=1
x
i

j=1
a
ji
e
j
=
m

j=1
_
n

i=1
a
ji
x
i
_
e
j
=
m

j=1
_
A x
_
j
e
j
= A x .
Corollario 5.4.4. dim
R
(L
R
(R
n
, R
m
)) = n m.
Dimostrazione. dim
R
(M
mn
(R)) = n m e le applicazioni lineari bigettive
conservano la dimensione.
Prima dimostrazione del Teorema 5.4.2. Fissiamo basi B di V e C di W,
dunque abbiamo applicazioni lineari bigettive
B
: V R
n
e
C
: W R
m
date da v [v]
B
e w [w]
C
rispettivamente. Deniamo allora lapplicazione
L
R
(V, W) L
R
(R
n
, R
m
)
f
C
f
1
B
.
`
E facile vedere che tale mappa `e lineare e bigettiva, onde la conclusione per il
corollario precedente.

Il prossimo semplice risultato giustica, insieme alla Proposizione 5.4.3, la


scelta, gi`a fatta nel paragrafo precedente, di indicare con A stessa lapplicazio-
ne lineare f
A
: R
n
R
m
associata ad una matrice A M
mn
(R). Infatti al
livello delle matrici abbiamo una operazione di moltiplicazione (il prodotto
righe per colonne), mentre al livello delle applicazioni lineari abbiamo la mol-
tiplicazione data dalla composizione. Anche lidenticazione di f
A
con A
sia ragionevole, occorre dunque che la moltiplicazione di due matrici A e B
corrisponda precisamente alla moltiplicazione delle corrispondenti f
A
ed f
B
.
(Questo tema era gi`a stato anticipato nella Sezione 1.2). Il prossimo risultato
asserisce esattamente che ci`o in eetti avviene:
Proposizione 5.4.5. Date A M
mn
(R) e B M
nk
(R) si ha
f
AB
= f
A
f
B
.
56 Capitolo 5
Dimostrazione. Luguaglianza da vericare `e quella tra due applicazioni da R
k
in R
m
. Proviamo dunque esse hanno lo stesso valore su ogni x R
k
:
f
AB
(x) = (A B) x = A (B x) = f
A
(f
B
(x)) = (f
A
f
B
)(x) .
Arontiamo ora la questione di come si possa denire una applicazione
lineare tra due spaz vettoriali qualsiasi, ottenendo una seconda e pi` u esplicita
dimostrazione del Teorema 5.4.2.
Proposizione 5.4.6. Se (v
1
, . . . , v
n
) `e una base di V e sono assegnati vettori
w
1
, . . . , w
n
W qualsiasi, esiste una e una sola applicazione lineare f : V W
tale che f(v
i
) = w
i
per i = 1, . . . , n.
Dimostrazione. Se f esiste il suo valore su un vettore del tipo
1
v
1
+. . .+
n
v
n
deve risultare
1
w
1
+ . . . +
n
w
n
. Poiche ogni vettore di V si scrive come

1
v
1
+. . . +
n
v
n
, lunicit`a di f `e provata. Per dimostare che f esiste, usiamo
il fatto che ogni v in V si scrive in modo unico come v =
1
v
1
+. . . +
n
v
n
,
e poniamo f(v) =
1
w
1
+. . . +
n
w
n
. Si tratta ora di provare che tale f `e
lineare.
Siano ,

R e v, v

V . Vogliamo provare che f( v +

) =
f(v) +

f(v

). Supponiamo dunque che v =


1
v
1
+ . . . +
n
v
n
e
v

1
v
1
+. . . +

n
v
n
. Allora
v +

= (
1
+

1
) v
1
+. . . + (
n
+

n
) v
n
dunque per denizione
f(v) =
1
w
1
+. . . +
n
w
n
f(v

) =

1
w
1
+. . . +

n
w
n
f( v +

) = (
1
+

1
) w
1
+. . . + (
n
+

n
) w
n
e la tesi segue subito.
Seconda dimostrazione del Teorema 5.4.2. Siano (v
1
, . . . , v
n
) e (w
1
, . . . , w
m
)
basi di V e W rispettivamente. Deniamo applicazioni lineari f
ij
: V W
per i = 1, . . . , m e j = 1, . . . , n con la scelta:
f
ij
(v
p
) =
jp
w
i
, p = 1, . . . , n .
Applicazioni lineari 57
La proposizione precedente garantisce appunto che tali condizioni determina-
no f
ij
univocamente. Aermiamo ora che linsieme {f
ij
: i = 1, . . . , m, j =
1, . . . , n} opportunamente ordinato (ad esempio in modo lessicograco) costi-
tuisce una base di L
R
(V, W). Ci`o naturalmente implica la conclusione.
Dobbiamo dunque provare che ogni applicazione f : V W lineare si
esprime in modo unico come combinazione lineare delle f
ij
. Non `e dicile
vedere che, data f, si ha f =

m
i=1

n
j=1
a
ij
f
ij
, dove i coecienti a
ij
sono
quelli univocamente determinati dalle condizioni:
f(v
p
) =
m

i=1
a
ip
w
i
.

Secondo quanto visto nella dimostrazione appena conclusa, se f : V W


`e lineare e sono date basi B = (v
1
, . . . , v
n
) e C = (w
1
, . . . , w
m
) di V e W
rispettivamente, resta univocamente determinata una matrice m n. Questa
idea avr`a nel seguito una certa importanza, quindi ripetiamo la costruzione e
introduciamo una notazione per la matrice.
Essendo C una base di W, esistono e sono uniche costanti a
ij
R per
i = 1, . . . , m e j = 1, . . . , n tali che:
f(v
1
) = a
11
w
1
+. . . +a
m1
w
m
.
.
.
f(v
n
) = a
1n
w
1
+. . . +a
mn
w
m
.
Consideriamo dunque la matrice A = (a
ij
) M
mn
(R) che, essendo univo-
camente determinata da f e dalle basi B e C, possiamo denotare con [f]
C
B
e
chiamare la matrice associata allapplicazione f rispetto alle basi B (in parten-
za) e C (in arrivo). Possiamo anche descrivere [f]
C
B
ecacemente se pur solo
a parole: nella colonna i-esima di [f]
C
B
si trovano le coordinate rispetto a C
dellimmagine tramite f delli-esimo elemento di B.
Osservazione 5.4.7. Sia A M
mn
(R), siano E
n
, E
m
le basi canoniche di R
n
e R
m
, e sia f
A
: R
n
R
m
lapplicazione lineare associata ad A. Allora [f
A
]
E
m
E
n
`e data da A stessa. Questo `e un ulteriore motivo per indicare f
A
con A stessa,
quando non si rischi di fare confusione.
58 Capitolo 5
Lutilit`a e naturalit`a della matrice associata ad una applicazione rispetto a
basi assegnate risiede nel seguente teorema, di cui diamo prima due enunciati
informali e poi uno formale (seguito dalla facile dimostrazione):
lazione di f sui vettori corrisponde esattamente allazione della moltipli-
cazione a sinistra per [f]
C
B
sulle coordinate dei vettori (rispetto alle basi
B in partenza e C in arrivo);
identicando V a R
n
tramite la base B e W a R
m
tramite C, la f viene
identicata allapplicazione associata alla matrice [f]
C
B
.
Teorema 5.4.8. [f(v)]
C
= [f]
C
B
[v]
B
per ogni v V .
Dimostrazione. Sia [v]
B
= x, dunque v = x
1
v
1
+. . . +x
n
v
n
. Allora:
f(v) =
n

j=1
x
j
f(v
j
) =
n

j=1
x
j

_
m

i=1
a
ij
w
i
_
=
m

i=1
_
_
n

j=1
a
ij
x
j
_
_
w
i
=
m

i=1
_
[f]
C
B
x
_
i
w
i
[f(v)]
C
= [f]
C
B
x .
Una terza dimostrazione del Teorema 5.4.2 segue ora immediatamente dalla
seguente:
Proposizione 5.4.9. Se B e C sono basi di V e W rispettivamente, lapplica-
zione
L
R
(V, W) M
mn
(R)
f [f]
C
B
`e lineare e bigettiva.
Dimostrazione. La linearit`a della mappa segue facilmente dalla denizione di
matrice associata. Per vericare la bigettivit`a basta esibire linversa. Grazie
al teorema precedente, linversa `e la mappa che associa ad una matrice A la
mappa
1
C
f
A

B
, dove
B
: V R
n
e
C
: W R
m
sono le bigezioni date
da v [v]
B
e w [w]
C
.
Applicazioni lineari 59
5.5 Cambiamenti di base e inversione
Discuteremo in questo paragrafo come cambino le coordinate di un vettore e la
matrice associata a una applicazione lineare quando cambiano le basi rispetto
a cui sono calcolate. Per fare ci`o introdurremo una simbologia che consente di
denire coordinate e matrice associata in modo sintetico e incisivo. Daremo
inoltre la denizione di inversa di una matrice e di una applicazione lineare,
lasciando al capitolo successivo la discussione su come si possano determinare
in pratica linvertibilit`a e leventuale inversa di una matrice o applicazione
assegnate.
Cominciamo ricordando che se `e data una base B = (v
1
, . . . , v
n
) di uno
spazio vettoriale V , il vettore x =
_
_
_
x
1
.
.
.
x
n
_
_
_
delle coordinate di v rispetto a
B, che denotiamo con [v]
B
, `e denito dallidentit`a v = x
1
v
1
+ . . . + x
n
v
n
.
Rammentiamo anche che abbiamo denito il prodotto di un vettore numerico
riga con un vettore numerico colonna, che ha come risultato un numero. Se
applichiamo la stessa denizione alla riga B = (v
1
, . . . , v
n
), i cui elementi sono
ora vettori e non pi` u numeri, e alla colonna x =
_
_
_
x
1
.
.
.
x
n
_
_
_
, troviamo esatta-
mente x
1
v
1
+ . . . + x
n
v
n
(la convenzione per il prodotto tra uno scalare
e un vettore `e che lo scalare vada sempre scritto prima). Possiamo dunque
esprimere in maniera alternativa la denizione delle coordinate: il vettore [v]
B
delle coordinate di v rispetto a B `e quel vettore numerico x tale che v = B x.
Oppure, in forma pi` u concisa:
v = B [v]
B
.
In modo analogo possiamo ora ridenire [f]
C
B
se f : V W `e lineare
e B = (v
1
, . . . , v
n
), C = (w
1
, . . . , w
m
) sono basi di V , W rispettivamente.
Ricordiamo che si ha [f]
C
B
=
_
a
ij
_
se f(v
j
) =

a
ij
w
i
, ovvero:
() (f(v
1
), . . . , f(v
n
))
=
_
a
11
w
1
+. . . +a
m1
w
m
, . . . , a
1n
w
1
+. . . +a
mn
w
m
_
.
Per ipotesi la f `e lineare, cio`e si distribuisce sulle combinazioni lineari dei
vettori, e allora `e ragionevole interpretare lapplicazione di f a un vettore v
come un prodotto f v (cos` come accade quando V e W sono spazi di vettori
60 Capitolo 5
numerici ed f `e associata a una matrice). Possiamo allora scrivere il primo
membro della () come (f v
1
, . . . , f v
n
), ovvero f (v
1
, . . . , v
n
), cio`e f B
(si noti che abbiamo qui ancora esteso il signicato delloperazione , sempre
avendo in mente il caso in cui f `e associata a una matrice). Passando al
secondo membro della (), possiamo ora interpretarlo come il prodotto tra la
riga C = (w
1
, . . . , w
m
) e la matrice [f]
C
B
=
_
a
ij
_
che ha m righe e n colonne.
Abbiamo dunque la seguente denizione sintetica di [f]
C
B
:
f B = C [f]
C
B
.
Illustriamo lutilit`a della denizione sintetica di matrice associata a una ap-
plicazione dimostrando in modo molto semplice un risultato che richiederebbe
invece qualche sforzo in pi` u se si usasse la denizione originale.
Proposizione 5.5.1. Se f : V W e g : W Z sono applicazioni lineari e
sono date basi B, C, D di V, W, Z rispettivamente, si ha:
[g f]
D
B
= [g]
D
C
[f]
C
B
.
Dimostrazione. (g f) B = g (f B) = g C [f]
C
B
= D [g]
D
C
[f]
C
B
.
Prima di arontare la questione di come cambino le coordinate e le matrici
cambiando basi, dobbiamo ricordare una denizione e analizzarla nel contesto
degli spaz vettoriali . Una applicazione f : A B tra insiemi si dice invertibile
se esiste una g : B A tale che f g sia lidentit`a di B e g f sia lidentit`a
di f. Tale g se esiste `e unica, `e denotata con f
1
ed `e detta inversa di f.
Notiamo che f `e invertibile se e soltanto se `e bigettiva. Per le applicazioni
lineari, abbiamo la seguente:
Osservazione 5.5.2.
Se f : V W `e lineare e invertibile, la f
1
`e lineare;
Se f : V W `e lineare e invertibile e V ha dimensione nita, allora W
ha dimensione nita e uguale a quella di V ;
Se V e W hanno dimensioni nite e uguali tra loro, allora esiste f : V
W invertibile;
Se V e W hanno dimensioni nite e uguali tra loro ed `e data f : V W
lineare, allora sono fatti equivalenti:
f `e invertibile;
Applicazioni lineari 61
f `e iniettiva;
f `e surgettiva;
Se V e W hanno dimensioni nite e uguali tra loro e sono date f : V W
e g : W V lineari, allora sono fatti equivalenti:
f `e invertibile e g `e la sua inversa;
g f `e lidentit`a di V ;
f g `e lidentit`a di W.
Passando agli spaz di vettori numerici, notiamo intanto che lidentit`a di R
n
`e lapplicazione lineare associata alla matrice I
n
gi`a introdotta in precendenza.
Diciamo ora che una matrice A M
nn
(R) `e invertibile se lo `e lapplicazione
lineare a essa associata, ovvero se esiste una matrice A
1
tale che A A
1
= I
n
oppure equivalentemente A
1
A = I
n
. Nel prossimo capitolo vedremo un
criterio semplice ed ecace per stabilire se una data matrice ammetta inversa,
e per trovarla quando esiste.
Rivolgiamoci dunque alla questione di come siano legate tra loro le coor-
dinate [v]
B
e [v]
B
di uno stesso vettore v rispetto a due basi diverse B =
(v
1
, . . . , v
n
) e B

= (v

1
, . . . , v

n
) di uno spazio vettoriale V . Poiche B `e base,
possiamo scrivere gli elementi di B

come combinazioni lineari degli elementi


di B, ovvero esistono costanti a
ij
tali che:
v

j
=
n

i=1
a
ij
v
i
j = 1, . . . , n .
Introducendo la matrice A = (a
ij
) possiamo ora scrivere questa identit`a sinte-
ticamente come B

= B A. Si noti che A non `e altro che la matrice [Id


V
]
B
B

che
rappresenta lidentit`a di V rispetto alle basi B

in partenza e B in arrivo.
Lemma 5.5.3. Se B

= B A allora esiste A
1
e si ha B = B

A
1
.
Dimostrazione. Sia

A la matrice per la quale si ha B = B


A. Allora:
A

A = [Id
V
]
B
B
[Id
V
]
B

B
= [Id
V
]
B
B
= I
n
.
Possiamo ora ricavare la regola di cambiamento delle coordinate:
v = B [v]
B
= B

A
1
[v]
B
[v]
B
= A
1
[v]
B
.
Riassumendo:
62 Capitolo 5
B

= B A [v]
B
= A
1
[v]
B
.
Altrettanto facile `e ora discutere come cambia la matrice di una applica-
zione. Supponiamo di avere f : V W lineare e basi B, B

di V e C, C

di
W. Allora esistono matrici invertibili A e M tali che B

= B A e C

= C M.
Usando la denizione sintetica di matrice associata abbiamo:
f B

= f B A = C [f]
C
B
A = C

M
1
[f]
C
B
A
[f]
C

B
= M
1
[f]
C
B
A .
Dunque:
B

= B A, C

= C M [f]
C

= M
1
[f]
C
B
A.
Sistemi lineari, rango, determinante 63
Capitolo 6
Sistemi lineari, rango,
determinante
Un sistema lineare di m equazioni nelle n incognite x
1
, . . . , x
n
`e uno del tipo
seguente
_

_
a
11
x
1
+. . . +a
1n
x
n
= b
1
.
.
.
a
m1
x
1
+. . . +a
mn
x
n
= b
m
,
dove le a
ij
e b
i
sono costanti reali assegnate. Introducendo la matrice A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
m1
a
mn
_
_
_
M
mn
(R) e il vettore b =
_
_
_
b
1
.
.
.
b
m
_
_
_
R
m
, ed interpre-
tando le incognite x
1
, . . . , x
n
come un vettore x =
_
_
_
x
1
.
.
.
x
n
_
_
_
, possiamo riscrivere
il sistema nella forma
A x = b .
Ricordando che la matrice A rappresenta anche una applicazione da R
n
a R
m
,
la teoria gi`a discussa comporta i seguenti semplici fatti:
Il sistema A x = b ha soluzione se e soltanto se b Im(A);
Se m = n ed esiste la matrice A
1
inversa di A, allora la soluzione esiste
ed `e unica, ed `e data da x = A
1
b.
Emergono quindi in modo naturale le questioni seguenti:
64 Capitolo 6
Come determinare se un dato vettore appartiene allimmagine dellappli-
cazione associata a una matrice assegnata?
Come determinare se una matrice assegnata `e invertibile e, se lo `e, come
trovarne linversa?
Queste domande avranno nelle prossime pagine risposte complete e di natura
algoritmica (cio`e facilmente traducibili in programmi di un calcolatore).
6.1 Rango e soluzioni di un sistema
Se f : V W `e una applicazione lineare tra spaz vettoriali ed Im(f) ha dimen-
sione nita, chiamiamo tale dimensione rango di f e la indichiamo con rank(f).
Notiamo che se almeno uno tra V e W ha dimensione nita, automaticamente
anche Im(f) ha dimensione nita, dunque si pu`o denire rank(f).
Se A`e una matrice, chiamiamo rango di Ae indichiamo con rank(A) il rango
della applicazione lineare associata. Notiamo ora che i vettori che costituiscono
le colonne di A sono certamente un sistema di generatori per Im(A). Dal
procedimento di estrazione di una base da un insieme di generatori deduciamo
allora la seguente semplice caratterizzazione del rango di una matrice:
Proposizione 6.1.1. Il rango di una matrice A `e il numero massimo di
colonne di A che costituiscono un sistema di vettori linearmente indipendenti.
`
E ora semplice provare il seguente risultato, detto Teorema di Rouche-
Capelli:
Teorema 6.1.2. Dati A M
mn
(R) e b R
m
, il sistema A x = b ha
soluzioni x R
n
se e soltanto se la matrice A e la matrice (A b), ottenuta da
A aggiungendo la colonna b, hanno lo stesso rango.
Dimostrazione. Ognuno dei fatti seguenti `e facilmente equivalente al successi-
vo:
Esiste una soluzione;
b appartiene allimmagine di A;
b `e combinazione lineare delle colonne di A;
Aggiungendo b alle colonne di A la dimensione del generato rimane la
stessa;
Sistemi lineari, rango, determinante 65
A e (A b) hanno lo stesso rango.
Introduciamo ora un ulteriore elemento di terminologia. Un sistema lineare
si dice omogeneo se `e del tipo A x = 0, ovvero se il vettore b dei termini noti
`e nullo. Naturalmente un sistema omogeneo ammette sempre la soluzione
x = 0, ovvero x
1
= . . . = x
n
= 0. Pi` u esattamente, usando la formula
della dimensione, si verica che linsieme delle soluzioni di un sistema lineare
omogeneo A x = 0 in n incognite `e lo spazio vettoriale Ker(A) di dimensione
n rank(A).
Il prossimo risultato si pu`o esprimere nel modo seguente: se un sistema
lineare ammette soluzioni, la sua generica soluzione `e la somma di una qual-
siasi ssata soluzione particolare e della generica soluzione del sistema lineare
omogeneo avente la stessa matrice.
Proposizione 6.1.3. Dati A M
mn
(R), b R
m
e x
0
R
n
tale che A x
0
=
b, si ha
_
x R
n
: A x = b
_
=
_
x
0
+u : A u = 0
_
.
Dimostrazione. Dato x R
n
si ha:
A x = b A x = A x
0
A (x x
0
) = 0
x x
0
= u con A u = 0
x = x
0
+u con A u = 0 .
Un sistema lineare di m equazioni in n incognite si dice:
quadrato se m = n;
sovradeterminato se m > n;
sottodeterminato se m < n.
Dallultimo risultato e la discussione che lo precede sui sistemi omogenei
deduciamo ora che:
un sistema lineare non omogeneo quadrato oppure sovradeterminato pu`o
avere una sola soluzione, innite soluzioni, oppure nessuna soluzione;
66 Capitolo 6
un sistema lineare non omogeneo sottodeterminato pu`o avere innite
soluzioni oppure nessuna soluzione.
Per leettiva risoluzione di un sistema lineare sono disponibili semplici
algoritmi, che non descriviamo qui esplicitamente. Essi sono basati sul fatto
che da un sistema se ne possono ricavare altri equivalenti (cio`e aventi le stesse
soluzioni) con operazioni del tipo seguente:
riordino delle equazioni;
sostituzione dellequazione i-esima con una combinazione lineare delle
equazioni nella quale la i-esima abbia coeciente non nullo.
6.2 Determinante
Il teorema di Rouche-Capelli traduce il problema della risolubilit`a di un sistema
lineare in un calcolo di rango di matrici. In questo paragrafo arontiamo il
problema del calcolo del rango in un caso particolare, mostrando come si possa
stabilire se una matrice quadrata nn abbia rango n. Nello prossimo paragrafo
vedremo come trattare il caso generale.
Notiamo intanto che una matrice A quadrata nn ha rango n se e soltanto
se `e invertibile, e cominciamo a esaminare il caso 2 2. Sia dunque data
A =
_
a b
c d
_
. La A `e invertibile se e soltanto se per ogni , il sistema
_
a x +b y =
c x +d y =
ammette soluzione unica x, y. Se a d = 0 e b c = 0 `e
immediato vedere che la soluzione o non esiste o non `e unica. Altrimenti il
sistema `e equivalente al seguente:
_
d (a x +b y) b (c x +d y) = d b
c (a x +b y) +a (c x +d y) = c +a .
(Abbiamo sostituito la prima equazione con d volte se stessa pi` u b volte
la seconda, e la seconda con a volte se stessa pi` u c volte la prima; stiamo
supponendo che a d = 0 oppure b c = 0, dunque il sistema `e equivalente al
precedente).
Abbiamo allora il sistema:
_
(a d b c) x = d b
(a d b c) y = c +a .
Sistemi lineari, rango, determinante 67
a
a
b
b
d
c
c
d
Figura 6.1: Area di un parallelogrammo
Scopriamo dunque che
_
a b
c d
_
`e invertibile se e soltanto se a d b c `e non
nullo (infatti tale condizione implica che a d = 0 oppure b c = 0). Anzi, dalla
forma della soluzione del sistema deduciamo che se a d b c `e non nullo si
ha
_
a b
c d
_
1
=
1
a d b c

_
d b
c a
_
.
La quantit`a a db c trovata `e detta determinante della matrice A, e indicata
con det(A) oppure det
2
(A) quando si voglia sottolineare che A `e una matrice
2 2.
Possiamo ora dare una interpretazione geometrica del determinante, che ci
suggerir`a come generalizzare la sua denizione ad una dimensione qualsiasi.
Ricordiamo infatti che la matrice
_
a b
c d
_
`e invertibile se e soltanto se le
sue colonne
_
a
c
_
e
_
b
d
_
sono linearmente indipendenti. Due vettori sono
linearmente dipendenti se e soltanto se sono multipli luno dellaltro, dunque
una quantit`a geometrica che misura se i due vettori siano indipendenti `e larea
del parallelogrammo che ha tali vettori come lati. Usando la Fig. 6.1 possiamo
ora calcolare larea di tale parallelogrammo come
(a +b) (c +d) 2 b c 2
1
2
a c 2
1
2
b d = a d b c .
68 Capitolo 6
Figura 6.2: Un solido determinato da tre vettori
Troviamo dunque precisamente il determinante, gi`a ottenuto algebricamente.
Osserviamo anche che il determinante, potendo assumere valore negativo,
non `e esattamente larea, ma una sorta di area con segno, che possiamo
interpretare come segue. Dati vettori u, v R
2
il numero det(u v) ha valore
assoluto uguale allarea del parallelogrammo di lati u e v; il suo segno `e positivo
se langolo minore di da u a v `e diretto in senso antiorario, negativo altrimenti.
Passando ora alla dimensione tre, abbiamo una naturale denizione della
nozione di determinante di una matrice con colonne u, v, w, ovvero il volume
del solido determinato da u, v, w come in Fig. 6.2. Un calcolo analogo a quello
fatto nel caso bidimensionale prova che tale volume `e dato da
u
1
v
2
w
3
+ u
2
v
3
w
1
+ u
3
v
1
w
2
u
1
v
3
w
2
u
2
v
1
w
3
u
3
v
2
w
1
.
Questa espressione sar`a allora chiamata determinante della matrice (u v w) ed
indicata con det(u v w) oppure det
3
(u v w). La propriet`a fondamentale, che
segue subito dallinterpretazione geometrica, `e che det(u v w) `e non nullo se e
solo se u, v, w costituiscono una base di R
3
.
In realt`a anche in questo caso stiamo calcolando un volume con segno.
Il segno sar`a positivo se `e possibile disporre il dito pollice, lindice ed il medio
della mano destra rispettivamente nelle direzioni di u, v e w.
Sistemi lineari, rango, determinante 69
vericare graa Sarrus C`e una regola mnemonica per il calcolo del deter-
minante di una matrice 3 3, detta regola di Sarrus, che funziona come segue.
Data A M
33
(R) si ricopiano le prime due colonne di A alla sua destra:
A =
_
a
ij
_
i,j=1,2,3

a
11
a
12
a
13
a
11
a
12
a
21
a
22
a
23
a
21
a
22
a
31
a
32
a
33
a
31
a
32
.
Quindi si prendono, con segno positivo, i prodotti dei termini sulle tre dia-
gonali nord-ovest/sud-est e, con segno negativo, i prodotti dei termini sulle
diagonali nord-est/sud-ovest, ottenendo:
det(A) = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32

_
a
13
a
22
a
31
+a
11
a
23
a
32
+a
12
a
21
a
33
_
.
Procedendo in modo analogo in ogni dimensione si pu`o denire una funzione
det
n
: M
nn
(R) R
con la propriet`a che A M
nn
(R) `e invertibile se e soltanto se det
n
(A) = 0.
Per evitare di dover fare riferimento al calcolo del volume n-dimensionale
di un oggetto in R
n
si possono per`o utilizzare altri metodi per costruire la
funzione determinante, che conducono tra laltro a esplicite regole di calcolo.
Il primo metodo `e di tipo assiomatico, cio`e basato sullindividuazione di alcune
propriet`a fondamentali che bastano a caratterizzare la funzione determinante.
Si pu`o stabilire il seguente:
Teorema 6.2.1. Per ogni n 1 esiste una e una sola funzione
det
n
: M
nn
(R) R
tale che:
1. ssati arbitrariamente v
2
, . . . , v
n
R
n
, la funzione
R
n
v
1
det
n
_
v
1
v
2
. . . v
n
_
`e lineare;
2. scambiando tra loro due colonne di una matrice n n, il determinante
cambia di segno;
3. det
n
(I
n
) = 1.
70 Capitolo 6
La dimostrazione di questo risultato `e lunga e dicile, e non la faremo.
`
E per`o un utile esercizio la verica che per n = 2, 3 le propriet`a elencate
nellenunciato valgono per la funzione det
n
costruita esplicitamente sopra.
Il secondo metodo di costruzione della funzione det
n
si basa sullesame della
formula algebrica di tale funzione per n = 2, 3 e sullestensione della formula
per ogni n. Si osserva infatti per n = 2, 3 che det
n
`e la somma di n! termini,
ognuno dei quali `e, a meno del segno, il prodotto di n coecienti della matrice
A, che stanno su righe e colonne diverse. Per descrivere con precisione quando
il segno sia positivo e quando sia negativo dobbiamo fare una breve digressione
sulle permutazioni.
Una permutazione dellinsieme {1, . . . , n} `e una funzione
: {1, . . . , n} {1, . . . , n}
bigettiva. Ogni permutazione ha una segnatura sgn() {1, +1} denita
come
sgn() =

1i<jn
(j) (i)
j i
.
Questo numero `e 1 perche si pu`o scrivere come una frazione in cui sia de-
nominatore che numeratore sono prodotto di n(n 1)/2 interi, e i fattori al
denominatore e al numeratore sono gli stessi salvo che per il segno (sempre po-
sitivo al denominatore, variabile al numeratore); dunque sgn() `e il prodotto
di n(n 1)/2 fattori ciascuno uguale 1.
La segnatura gode della seguente propriet`a fondamentale, che non dimo-
striamo:
sgn( ) = sgn() sgn() .
Questa formula serve anche per calcolare pi` u facilmente la segnatura di una
assegnata. Ricordiamo intanto che si chiama trasposizione una permutazione
che consista nel solo scambio tra loro di una coppia di elementi di {1, . . . , n}.
`
E ora un fatto, facile, che ogni permutazione `e composizione di trasposizioni,
dunque avremo che sgn() `e +1 se `e composizione di un numero pari di
trasposizioni, 1 altrimenti. Nella pratica quindi per calcolare sgn() si parte
dalla stringa ((1), . . . , (n)) e si eseguono delle trasposizioni no a ricondurla
a (1, . . . , n), quindi si contano le trasposizioni eseguite.
`
E importante osservare che ogni permutazione si pu`o esprimere in pi` u modi
come prodotto di trasposizioni, ma la parit`a del numero di trasposizioni che
compaiono `e sempre la stessa. Facciamo un esempio con una permutazione su
Sistemi lineari, rango, determinante 71
cinque elementi:
(4, 5, 1, 2, 3) (1, 5, 4, 2, 3) (1, 3, 4, 2, 5) (1, 2, 4, 3, 5) (1, 2, 3, 4, 5)

(4, 1, 5, 2, 3) (1, 4, 5, 2, 3) (1, 4, 2, 5, 3) (1, 2, 4, 5, 3) (1, 2, 4, 3, 5).
La permutazione in questione ha dunque segnatura +1.
Tornando al determinante, si pu`o vericare che per n = 2, 3 ciascuno degli
n! termini che compaiono nellespressione di det
n
(A) `e della forma
a
1,(1)
. . . a
n,(n)
e che il segno `e esattamente uguale a sgn(). Lo stesso fatto vale in generale:
Teorema 6.2.2. Data A =
_
a
ij
_
i,j=1,...,n
M
nn
(R) si ha
det
n
(A) =

sgn()
n

i=1
a
i,(i)
dove la somma `e estesa a tutte le n! permutazioni di {1, . . . , n}.
Di nuovo non dimostriamo questo risultato. Enunciamo per`o una sua
conseguenza non dicile:
Proposizione 6.2.3. det
n
(
t
A) = det
n
(A) per ogni A M
nn
(R).
Una seconda importante conseguenza `e la validit`a delle formule di sviluppo
di Laplace:
Teorema 6.2.4. Data A M
nn
(R) sia A
ij
M
(n1)(n1)
(R) la matrice
ottenuta da A cancellando la riga i-esima e la colonna j-esima. Allora per ogni
k {1, . . . , n} si ha:
det
n
(A) =
n

j=1
(1)
k+j
a
kj
det
n1
(A
kj
)
=
n

i=1
(1)
i+k
a
ik
det
n1
(A
ik
) .
Le formule precedenti sono dette rispettivamente di sviluppo lungo la riga
k-esima e di sviluppo lungo la colonna k-esima. Osserviamo che su di esse si
potrebbe basare una denizione di tipo induttivo del determinante det
n
, dopo
averlo denito per n = 1 come det
1
(a) = a.
72 Capitolo 6
Illustriamo ora altre propriet`a fondamentali del determinante, riconducen-
dole (quando non sia troppo complicato) alle propriet`a caratterizzanti (Teore-
ma 6.2.1) oppure alla formula esplicita (Teorema 6.2.2). Dora in poi scriveremo
sempre det(A) in luogo di det
n
(A).
Proposizione 6.2.5. Se le colonne di A M
nn
(R) sono linearmente dipen-
denti allora det(A) = 0.
Dimostrazione. Una delle colonne `e combinazione lineare delle altre. A meno
di scambiare tra loro le colonne, il che cambia eventualmente il segno del de-
terminante ma non il fatto che esso sia o meno nullo, possiamo supporre che
sia la prima colonna v
1
ad essere una combinazione lineare
2
v
2
+. . . +
n
v
n
delle altre v
2
, . . . , v
n
. Ora per la linearit`a nel primo argomento abbiamo
det(v
1
v
2
. . . v
n
) =
2
det(v
2
v
2
v
3
. . . v
n
)
+
3
det(v
3
v
2
v
3
. . . v
n
) +. . .
+
n
det(v
n
v
2
v
3
. . . v
n
) .
Siccome scambiando tra loro due colonne il determinante cambia segno, il de-
terminante di una matrice con due colonne uguali `e nullo. Tutte le matrici che
compaiono a destra nellespressione precedente hanno questa caratteristica,
onde la conclusione.
Vale anche il viceversa della proposizione precedente, ma la dimostrazione
`e pi` u complicata e la omettiamo:
Teorema 6.2.6. Se le colonne di A M
nn
(R) sono linearmente indipendenti
allora det(A) = 0.
Ne deduciamo allora che una matrice quadrata `e invertibile se e soltanto se
ha determinante non nullo. Ammettendo questo risultato, dimostriamo invece
il prossimo fondamentale teorema di Binet:
Teorema 6.2.7. Date A, B M
nn
(R) si ha det(A B) = det(A) det(B).
Dimostrazione. Se det(B) = 0, cio`e se B non `e invertibile, certamente non
`e invertibile A B (perche come applicazione lineare non `e iniettiva), dun-
que det(A B) = 0 e il teorema vale. Supponiamo invece che det(B) = 0 e
consideriamo lapplicazione
D
B
: M
nn
(R) A
det(A B)
det(B)
R .
Sistemi lineari, rango, determinante 73
`
E immediato vericare che la D
B
soddisfa le propriet`a caratterizzanti della
funzione det
n
elencate nel Teorema 6.2.1, dunque D
B
= det
n
e la conclusione
segue subito.
Dal fatto che il determinante non cambia per trasposizione otteniamo invece
la seguente:
Proposizione 6.2.8. Sia A una matrice quadrata. Allora le righe di A sono
linearmente indipendenti se e soltanto se lo sono le colonne.
Lo stesso fatto insieme alle propriet`a assiomatiche comporta anche subito il
seguente risultato sul quale conviene spesso basare il calcolo del determinante:
Proposizione 6.2.9. Se in una matrice quadrata si scambiano tra loro
due colonne (oppure due righe) il determinante cambia segno.
Se in una matrice quadrata si sostituisce una colonna (o riga) con se stes-
sa pi` u un multiplo di unaltra colonna (o riga), il valore del determinante
non cambia.
Se in una matrice quadrata si sostituisce una colonna (o riga) con
volte se stessa, il nuovo valore del determinante risulta volte il vecchio
valore.
6.3 Matrice inversa e rango
Il determinante ci consente non solo di stabilire se una matrice sia invertibile,
ma anche di calcolarne linversa. Ricordiamo che si indica con A
ij
la matrice
ottenuta da A cancellando la riga i-esima e la colonna j-esima.
Proposizione 6.3.1. Se A `e quadrata e det(A) = 0 allora
_
A
1
_
ij
=
(1)
i+j
det(A)
det
_
A
ji
_
.
Dimostrazione. Sia b
ij
il coeciente descritto nellenunciato, e sia B = (b
ij
).
Dobbiamo vericare che B = A
1
ovvero che

n
j=1
b
ij
a
jk
=
ik
, dove la `e
la funzione di Kronecker. Se i = k abbiamo infatti:
n

j=1
b
kj
a
jk
=
1
det(A)

n

j=1
(1)
j+k
a
jk
det
_
A
jk
_
74 Capitolo 6
che risulta 1 per la formula di sviluppo del determinante lungo la colonna
k-esima. Se invece i = k abbiamo
n

j=1
b
ij
a
jk
=
1
det(A)

n

j=1
(1)
j+i
a
jk
det
_
A
ji
_
.
Questa formula descrive lo sviluppo lungo la colonna i-esima del determinante
di una matrice ottenuta da A sostituendo la colonna i-esima con la k-esima.
Sistemi lineari, rango, determinante 75
Poiche tale matrice ha due colonne uguali il suo determinante `e nullo, e la
dimostrazione `e completa.
Una conseguenza della formula dellinversa `e il seguente teorema di Cramer:
Teorema 6.3.2. Se A `e una matrice quadrata e det(A) = 0 allora la soluzione
del sistema A x = b `e data da
x
i
=
det(A
i
)
det(A)
dove A
i
`e ottenuta da A sostituendo la colonna i-esima con b.
Dimostrazione. Si tratta di un calcolo:
x
i
=
_
A
1
b
_
i
=
n

j=1
_
A
1
_
ij
b
j
=
n

j=1
(1)
i+j
det(A)
det
_
A
ji
_
b
j
=
1
det(A)

n

j=1
(1)
i+j
b
j
det
_
A
ji
_
.
Nellultima formula si riconosce lo sviluppo di det(A
i
) lungo la colonna i-esima
(quella nella quale si trova il vettore b) e la tesi segue subito.
Veniamo ora al calcolo del rango. Data una matrice A (quadrata o rettan-
golare) chiamiamo sottomatrice di A una matrice ottenuta da A cancellando
alcune righe e alcune colonne. Diciamo che una sottomatrice A

`e una orlata
di una sottomatrice A

se A

si ottiene da A

cancellando una ulteriore riga e


una ulteriore colonna. Osserviamo che se A M
mn
(R), una sua sottomatrice
k h ha (mk) (n h) orlate.
Il seguente risultato, detto teorema degli orlati, consente di ricondurre la
determinazione del rango di una matrice a un calcolo di determinanti:
Teorema 6.3.3. Sia A M
mn
(R) e sia r 1 un intero tale che:
esiste una sottomatrice A

di A con r righe ed r colonne avente determi-


nante non nullo;
tutte le orlate di A

hanno determinante nullo.


Allora rank(A) = r.
76 Capitolo 6
Dimostrazione. Ricordiamo che il rango `e la dimensione dello spazio generato
dalle colonne, dunque non cambia permutando le colonne. Inoltre una per-
mutazione delle righe trasforma A nella matrice della composizione f A dove
f : R
m
R
m
`e una funzione lineare bigettiva (permutazione delle coordi-
nate). Poiche A ed f A hanno lo stesso rango, ne deduciamo che anche le
permutazioni di righe non modicano il rango.
Possiamo perci`o supporre che la sottomatrice r r invertibile sia quella
delle prime r righe ed r colonne. Scriviamo allora la matrice A nella forma
A =
_
_
_
_
_
_
_
_
v
1
v
r
v
r+1
v
n
y
r+1
1
y
r+1
r
y
r+1
r+1
y
r+1
n
.
.
.
.
.
.
.
.
.
.
.
.
y
n
1
y
n
r
y
n
r+1
y
n
n
_
_
_
_
_
_
_
_
.
Per ipotesi v
1
, . . . , v
r
costituiscono una base di R
r
. Ne segue subito che le
prime r colonne di A sono linearmente indipendenti, dunque rank(A) r.
Per stabilire la disuguaglianza inversa dobbiamo mostrare che per i > k la
colonna i-esima di A `e linearmente dipendente dalle prime r. Fissiamo tale i.
Consideriamo ora un qualsiasi j > r e ricordiamo che per ipotesi la sottomatrice
di A ottenuta orlando la A

= (v
1
. . . v
r
) con la colonna i-esima e la riga j-
esima ha determinante nullo. Poiche le prime r colonne di questa matrice sono
linearmente indipendenti, `e lultima colonna che deve essere una combinazione
lineare delle precedenti. Esistono dunque costanti
j
1
, . . . ,
j
r
tali che:
_
v
i
=
j
1
v
1
+. . . +
j
r
v
r
y
j
i
=
j
1
y
j
1
+. . . +
j
r
y
j
r
.
Abbiamo sottolineato che le costanti dipendono a priori da j, perche i `e stato
ssato mentre j `e uno qualsiasi degli interi maggiori di r. Dalle formule segue
tuttavia che le costanti
j
k
in realt`a non dipendono da j, perche lespressione
di v
i
come combinazione lineare di v
1
, . . . , v
r
`e unica.
Dal fatto che gli scalari
j
k
sono indipendenti da j segue subito che la
colonna i-esima di A `e combinazione lineare con coecienti
1
, . . . ,
r
delle
prime r colonne. Ci`o conclude il nostro argomento.
Spieghiamo ora come il teorema degli orlati si utilizzi in pratica per trovare
il rango di una matrice A:
Sistemi lineari, rango, determinante 77
Se tutti i coecienti di A sono nulli, il rango di A `e nullo. Altrimenti
si ssa una sottomatrice A
1
di A che contenga un solo coeciente non
nullo e si procede;
Si esaminano tutte le orlate di A
1
, cio`e le sottomatrici 22 che contengo-
no il coeciente ssato; se tutte queste matrici hanno determinante nullo,
il rango di A `e 1; altrimenti, alla prima che si trova con determinante
non nullo, la si ssa chiamandola A
2
, e si procede;
Si esaminano le orlate di A
2
e si procede allo stesso modo.
Osservazione 6.3.4. Nel corso dellesecuzione del procedimento appena de-
scritto, al passo p-esimo si devono considerare solo le sottomatrici (p + 1)
(p + 1) che sono orlate di una ssata p p, non tutte le (p + 1) (p + 1). Il
vantaggio numerico di questo fatto `e consistente. Ad esempio per una matrice
in M
65
(R) le orlate di una 2 2 sono 4 3 = 12, mentre tutte le 3 3 sono
_
6
3
_

_
5
3
_
= 20 10 = 200.
Una conseguenza notevole del teorema degli orlati e del fatto che il deter-
minante non cambia per trasposizione `e il seguente:
Corollario 6.3.5. In ogni matrice, il numero massimo di righe linearmente
indipendenti `e uguale al numero massimo di colonne linearmente indipendenti.
78 Capitolo 6
Sottospaz ani 79
Capitolo 7
Sottospaz ani
Abbiamo visto nel capitolo precedente che linsieme delle soluzioni di un sistema
lineare `e ottenuto da un sottospazio vettoriale di R
n
per traslazione. Questo
capitolo `e dedicato a uno studio sistematico degli insiemi di questo tipo.
7.1 Equazioni cartesiane e parametriche
Sia V uno spazio vettoriale su R. Un sottoinsieme E di V si dice sottospazio
ane se esistono un vettore v
0
in V ed un sottospazio vettoriale W di V tali
che
E = {v
0
+w : w W} ,
che scriveremo anche come E = v
0
+ W. Si osservi che per denizione un
sottospazio ane `e non vuoto.
Proposizione 7.1.1. Se E = v
0
+ W allora W `e univocamente determinato
da E, mentre v
0
pu`o essere sostituito da un qualsiasi punto di E.
Dimostrazione. Supponiamo che v
0
+ W = v

0
+ W

. Allora v

0
= v
0
+ w
0
per
qualche w
0
W. Inoltre dato w

qualsiasi si ha v

0
+ w

= v
0
+ w per
qualche w W, dunque w

= v
0
+ w (v
0
+ w
0
) = w w
0
W. Ci`o prova
che W

W, e per simmetria si ha W

= W. Inoltre:
v

0
+W = v
0
+W v

0
v
0
W v

0
v
0
+W = E .
Se E `e un sottospazio ane di V ed E = v
0
+ W, diciamo che W `e il
sottospazio vettoriale associato a E. Deniamo inoltre la dimensione dim
R
(E)
di E come quella di W.
80 Capitolo 7
La proposizione precedente comporta subito la seguente:
Osservazione 7.1.2. Se E `e un sottospazio ane di V sono fatti equivalenti:
V contiene 0;
`e un sottospazio vettoriale di V .
Come gi`a annunciato, vale anche la:
Osservazione 7.1.3. Se non `e vuoto, linsieme delle soluzioni di un sistema
lineare `e un sottospazio ane di R
n
.
Diremo ora che un sottospazio ane E di R
n
`e presentato in forma carte-
siana se `e descritto come insieme delle soluzioni di un sistema, cio`e come
E = {x R
n
: A x = b}
per qualche m 1, A M
mn
(R) e b R
m
. In tal caso, diremo anche che
E ha equazioni cartesiane A x = b (si tratta di m equazioni in n incogni-
te). Vedremo tra poco che ogni sottospazio ane di R
n
pu`o essere descrit-
to tramite equazioni cartesiane, ma pu`o accadere che alcune equazioni siano
sovrabbondanti. Notiamo intanto che si ha
dim
R
(E) = dim
R
(Ker(A)) = n rank(A)
(si ricordi che E `e non vuoto per ipotesi).
Diremo invece che E `e presentato in forma parametrica (ovvero tramite
equazioni parametriche) se `e descritto come
E = {x
0
+B t : t R
p
}
per qualche x
0
R
n
, p 1 e B M
np
(R). La ragione di questa terminologia
`e che, se v
1
, . . . , v
p
sono le colonne di B, luguaglianza E = {x
0
+B t : t R
p
}
si riscrive come
E = {x
0
+t
1
v
1
+. . . +t
p
v
p
: t
1
, . . . , t
p
R} ,
dunque al fatto che un punto di E `e descritto dai parametri t
1
, . . . , t
p
. Vedremo
che ogni sottospazio ane di R
n
pu`o essere descritto in forma parametrica,
ma pu`o accadere che alcuni parametri siano sovrabbondanti. Notiamo che
dim
R
(E) = rank(B).
Sottospaz ani 81
Proposizione 7.1.4. Sia E R
n
un sottospazio ane di dimensione d.
Allora:
Esistono A M
(nd)n
(R) e b R
nd
tali che
E = {x R
n
: A x = b} ,
ovvero E ammette una presentazione tramite nd equazioni cartesiane;
Esistono x
0
R
n
e B M
nd
(R) tali che
E = {x
0
+B t : t R
d
} ,
ovvero E ammette una presentazione parametrica con d parametri.
Dimostrazione. Sia E = x
0
+ W e scegliamo una base w
1
, . . . , w
d
di W. Per
la presentazione parametrica basta allora porre B = (w
1
w
d
). Per quella
cartesiana dobbiamo esibire una matrice A M
n(nd)
(R) tale che Ker(A) =
Span(w
1
, . . . , w
d
), perche trovata tale A baster`a scegliere b come A x
0
. De-
niamo la matrice completando w
1
, . . . , w
d
ad una base w
1
, . . . , w
n
di R
n
e
ponendo A = [f]
E
nd
E
n
dove f : R
n
R
nd
`e denita dalle relazioni
f(w
i
) =
_
0 per i = 1, . . . , d
e
(nd)
id
per i = d + 1, . . . , n.
Questa proposizione dimostra che un sottospazio ane denito da equazioni
cartesiane Ax = b con A M
mn
(R) e rank(A) < m pu`o essere denito anche
da meno di m equazioni, vale a dire esattamente da rank(A) = n dim
R
(E)
equazioni.
`
E inoltre facile vericare che si possono semplicemente scartare
mrank(A) delle equazioni A x = b, scegliendo un insieme di rank(A) righe di
A linearmente indipendenti. Si osservi tuttavia che bisogna dapprima vericare
che il sottospazio ane sia non vuoto, cio`e che il sistema di equazioni abbia
soluzioni.
Analogamente, se E = {x
0
+B t : t R
p
} con B M
np
(R) e rank(B) <
p, si pu`o sostituire B con una matrice avente rank(B) colonne. Baster`a in
questo caso scegliere rank(B) colonne di B che siano linearmente indipendenti.
82 Capitolo 7
7.2 Rette nel piano,
rette e piani nello spazio
Con il linguaggio introdotto nel paragrafo precedente, risolvere un sistema li-
neare signica passare da una presentazione cartesiana a una parametrica di un
sottospazio ane di R
n
(dopo avere vericato che il sistema ammette soluzio-
ni). In questo paragrafo ci concentriamo su questo passaggio e il suo opposto
(da equazioni parametriche a equazioni cartesiane) nel caso di sottospaz di R
2
e R
3
, provando che `e possibile eseguirli in modo semplice e sistematico. Per
R
3
ci limiteremo ai sottospaz vettoriali, cio`e ai sistemi omogenei.
Cominciamo con R
2
, i cui unici sottospaz non banali sono le rette, ed
osserviamo che la presentazione cartesiana
__
x
y
_
R
2
: a x +b y = c
_
denisce una retta se e soltanto se (a, b) = (0, 0), ovvero se a
2
+ b
2
> 0.
Analogamente la presentazione parametrica
__
x
0
y
0
_
+t
_

_
: t R
_
denisce una retta se e soltanto se
2
+
2
> 0. Inoltre:
__
x
y
_
R
2
: a x +b y = c
_
=
_
c
a
2
+b
2
_
a
b
_
+t
_
b
a
_
: t R
_
,
__
x
0
y
0
_
+t
_

_
: t R
_
=
__
x
y
_
R
2
: x y = x
0
y
0
_
.
Passando a R
3
, consideriamo dapprima le rette. Una presentazione carte-
siana di una retta passante per lorigine `e del tipo
_
_
_
_
_
x
y
z
_
_
R
3
:
_
a
1
x +b
1
y +c
1
z = 0
a
2
x +b
2
y +c
2
z = 0
_
_
_
Sottospaz ani 83
con rank
_
a
1
b
1
c
1
a
2
b
2
c
2
_
= 2, mentre una presentazione parametrica `e del tipo
_
_
_
t
_
_

_
_
: t R
_
_
_
con
_
_

_
_
= 0. Il passaggio da equazione parametrica a equazione cartesiana
`e facile:
_
_
_
t
_
_

_
_
: t R
_
_
_
=
_
_
_
_
_
x
y
z
_
_
R
3
:
_
_
_
x y = 0
x z = 0
y z = 0
_
_
_
.
Si osservi che le equazioni sono tre, invece che due, ma sono sempre dipen-
denti tra loro, anzi `e sempre possibile scartare una delle tre ottenendone due
indipendenti, infatti
rank
_
_
0
0
0
_
_
= 2 .
Abbiamo scritto tre equazioni perche, al variare di , , , varia lequazione
che, dipendendo dalle altre due, si pu`o scartare.
Il passaggio da equazione cartesiana a equazione parametrica si eettua
invece come segue:
_
_
_
_
_
x
y
z
_
_
R
3
:
_
a
1
x +b
1
y +c
1
z = 0
a
2
x +b
2
y +c
2
z = 0
_
_
_
=
_
_
_
t
_
_
b
1
c
2
b
2
c
1
a
1
c
2
+a
2
c
1
a
1
b
2
a
2
b
1
_
_
: t R
_
_
_
.
Spieghiamo come si giunga a questa regola. Stiamo cercando una soluzione
non nulla del sistema
_
a
1
x +b
1
y +c
1
z = 0
a
2
x +b
2
y +c
2
z = 0.
Osserviamo allora che si ha
det
_
_
a
1
b
1
c
1
a
1
b
1
c
1
a
2
b
2
c
2
_
_
= det
_
_
a
2
b
2
c
2
a
1
b
1
c
1
a
2
b
2
c
2
_
_
= 0 ,
84 Capitolo 7
dunque, sviluppando i due determinanti lungo la prima riga:
a
1
det
_
b
1
c
1
b
2
c
2
_
+b
1

_
det
_
a
1
c
1
a
2
c
2
__
+c
1
det
_
a
1
b
1
a
2
b
2
_
= 0
a
2
det
_
b
1
c
1
b
2
c
2
_
+b
2

_
det
_
a
1
c
1
a
2
c
2
__
+c
2
det
_
a
1
b
1
a
2
b
2
_
= 0
ed abbiamo trovato la soluzione richiesta, infatti la condizione
rank
_
a
1
b
1
c
1
a
2
b
2
c
2
_
= 2
equivale esattamente al fatto che almeno uno dei determinanti delle tre sotto-
matrici 2 2 sia non nullo.
Ci rivolgiamo dunque ai piani per lorigine, rappresentati in forma carte-
siana come
_
_
_
_
_
x
y
z
_
_
R
3
: a x +b y +c z = 0
_
_
_
con (a, b, c) = (0, 0, 0), e in forma parametrica come
_
_
_
t
1

_
_

1
_
_
+t
2

_
_

2
_
_
: t
1
, t
2
R
_
_
_
con rank
_
_

1

2

1

2

1

2
_
_
= 2. Il passaggio da presentazione cartesiana a parame-
trica si eettua come segue:
_
_
_
_
_
x
y
z
_
_
R
3
: a x +b y +c z = 0
_
_
_
=
_
_
_
t
1

_
_
b
a
0
_
_
+t
2

_
_
c
0
a
_
_
+t
3

_
_
0
c
b
_
_
: t
1
, t
2
, t
3
R
_
_
_
dove uno dei tre vettori si pu`o sempre scartare perche linearmente dipendente
dagli altri due. Concludiamo illustrando il passaggio inverso, che si spiega come
Sottospaz ani 85
sopra:
_
_
_
t
1

_
_

1
_
_
+t
2

_
_

2
_
_
: t
1
, t
2
R
_
_
_
=
_
_
_
_
_
x
y
z
_
_
R
3
:
(
1

2

2

1
) x
(
1

2

2

1
) y
+(
1

2

2

1
) z = 0
_
_
_
.
7.3 Somma di sottospaz
Dimostriamo in questo paragrafo un analogo per sottospaz ani della formula
di Grassmann. Notiamo intanto che se E, F sono sottospaz ani di V allora
E F, se `e non vuoto, `e a sua volta un sottospazio ane. Per analogia con il
caso dei sottospaz vettoriali deniamo ora la somma E+F come il pi` u piccolo
sottospazio ane di V che contiene E F, ovvero come lintersezione di tutti
i sottospaz ani di V che contengono E F. Vogliamo porre in relazione tra
loro le dimensioni di E, F, E F, E +F. C`e un primo facile caso:
Proposizione 7.3.1. Se E F = si ha
dim
R
(E) + dim
R
(F) = dim
R
(E F) + dim
R
(E +F) .
Dimostrazione. Scelto v
0
E F si ha E = v
0
+ W e F = v
0
+ Z per
W, Z opportuni.
`
E allora immediato vericare che E F = v
0
+ (W Z) e
E +F = v
0
+ (W +Z) onde la conclusione dalla formula di Grassmann.
Pi` u complicato `e invece il caso seguente:
Proposizione 7.3.2. Siano E = v
0
+W e F = u
0
+Z sottospaz ani di V ,
con E F = . Allora
dim
R
(E +F) = 1 + dim
R
(W +Z) .
Dimostrazione. Posto x
0
= u
0
v
0
, la conclusione segue subito dalle seguenti
asserzioni:
x
0
W +Z;
E +F = v
0
+ Span({x
0
} (W +Z)).
86 Capitolo 7
Stabiliamo la prima per assurdo, supponendo che x
0
si possa scrivere come
w +z con w W e z Z. Allora v
0
w = u
0
+z, e questo punto appartiene
allintersezione di E ed F: contraddizione.
Per stabilire la seconda asserzione poniamo X = Span({x
0
} (W + Z)) e
L = v
0
+ X e verichiamo che L, il quale ovviamente `e un sottospazio ane
di V , contiene E F ed `e il pi` u piccolo con tale propriet`a, cio`e `e contenuto in
qualsiasi altro sottospazio ane T = v
0
+Y che contiene EF. Il primo fatto
`e semplice:
X W L v
0
+W = E
X u
0
v
0
, X Z L v
0
+ (u
0
v
0
) +Z = F
_
L E F .
Verichiamo allora il secondo:
T E Y W
T F Y Z
T u
0
Y u
0
v
0
_
_
_
Y X T L .
La dimostrazione `e completa.
Prima di illustrare con un esempio il signicato della proposizione prece-
dente, diamo ancora una denizione generale: due sottospaz ani E = v
0
+W
e F = u
0
+Z di V si dicono paralleli se W Z oppure Z W. Si osservi che,
se E ed F hanno la stessa dimensione, questa condizione signica che W = Z,
ovvero che E ed F sono traslati del medesimo sottospazio vettoriale, il che
naturalmente corrisponde alla nozione elementare di parallelismo.
Rivolgiamoci dunque al caso particolare di due rette nello spazio tridimen-
sionale. Se si intersecano, le rette possono avere in comune un punto oppure
coincidere, e la dimensione della loro somma `e rispettivamente 2 e 1. Se invece
non si intersecano possono essere parallele oppure sghembe, e la dimensione
della loro somma `e rispettivamente 2 e 3. La situazione delle rette sghembe `e
mostrata nella Fig. 7.1, dove viene illustrata la dimostrazione della Proposizio-
ne 7.3.2: in questo caso W = Span(w), Z = Span(z), ed i vettori w, z, x = x
0
costituiscono una base di R
3
.
Sottospaz ani 87
E
F
w
x
z
Figura 7.1: Due rette sghembe nello spazio
88 Capitolo 7
Numeri complessi 89
Capitolo 8
Numeri complessi
Nel Capitolo 2 abbiamo motivato i passaggi da N a Z e poi da Z a Q con
lesigenza di risolvere le equazioni x + n = 0 e x n = 1, altrimenti prive di
radici. Invece nel passaggio da Q a R abbiamo aggiunto non solo le soluzioni di
equazioni non aventi radici in Q (come ad esempio x
2
= 2) ma anche molti altri
oggetti, corrispondenti ai punti della retta.
1
Ora anche su R ci sono equazioni
che non hanno soluzioni, la pi` u semplice delle quali `e
x
2
+ 1 = 0 .
Si inventa allora una sua soluzione, detta unit`a immaginaria e denotata
usualmente con i (dai matematici, e con j dagli ingegneri). Estendendo le
naturali operazioni algebriche che sono date su R si giunge allora a denire
un nuovo insieme di numeri, denotato con C, i cui elementi sono detti numeri
complessi. Questo capitolo `e dedicato alle principali propriet`a di C.
8.1 Il campo complesso
La soluzione i dellequazione x
2
+ 1 = 0 `e un oggetto che non appartiene
a R, ma vogliamo considerarlo come un numero e dunque eseguire operazioni
algebriche che lo coinvolgano, come ad esempio:
sommargli un numero reale , ottenendo un oggetto +i;
1
Si pu`o infatti mostrare che i punti di R che sono radici di polinomi a coecienti razionali
sono innitamente meno numerosi di quelli che non lo sono. I due esempi pi` u celebri di
numeri che non risolvono equazioni polinomiali razionali sono il rapporto tra la lunghezza
di una circonferenza e quella del suo diametro, e il numero di Nepero e (base del logaritmo
naturale).
90 Capitolo 8
moltiplicarlo per un numero reale , ottenendo un oggetto i ;
fare insieme le due cose precedenti, ottenendo un oggetto +i ;
sommare tra loro due oggetti del tipo ottenuto, il che `e ragionevole fare
nel modo seguente:
(
1
+i
1
) + (
2
+i
2
) = (
1
+
2
) +i (
1
+
2
) ;
moltiplicare tra loro due oggetti del tipo ottenuto; poiche si ha i
2
= 1
il modo ragionevole per eseguire una tale moltiplicazione `e il seguente:
(
1
+i
1
) (
2
+i
2
) = (
1

2

1

2
) +i (
1

2
+
2

1
) .
Poiche somma e prodotto tra loro di oggetti del tipo + i con , R
danno oggetti dello stesso tipo, abbiamo ora un insieme su cui sono denite
due operazioni binarie interne, cio`e linsieme
C = { +i : , R} .
Teorema 8.1.1. Ponendo 0 = 0 + i 0 e 1 = 1 + i 0 linsieme C con le
operazioni sopra introdotte risulta un campo.
Dimostrazione. Dobbiamo vericare le propriet`a (1)-(9) della denizione di
campo, discusse nelle Sezioni 2.1.2 e 2.1.3. Si tratta di veriche molto semplici,
tranne che per la distributivit`a (9) e lesistenza dellinverso moltiplicativo (6).
Proviamo dapprima la (9):
(
1
+i
1
)
_
(
2
+i
2
) + (
3
+i
3
)
_
= (
1
+i
1
)
_
(
2
+
3
) +i (
2
+
3
)
_
=
_

1
(
2
+
3
)
1
(
2
+
3
)
_
+i
_

1
(
2
+
3
) +
1
(
2
+
3
)
_
=
_
(
1

2

1

2
) + (
1

3

1

3
)
_
+i
_
(
1

2
+
1

2
) +i (
1

3
+
1

3
)
_
= (
1
+i
1
) (
2
+i
2
) + (
1
+i
1
) (
3
+i
3
) .
Passando alla (6), supponiamo che +i sia diverso da 0 = 0 +i 0, ovvero
che uno almeno tra e sia non nullo. Dobbiamo risolvere nelle incognite
x, y R lequazione ( +i ) (x +i y) = 1 +i 0, ovvero il sistema
_
x y = 1
x + y = 0.
La matrice del sistema ha determinante
2
+
2
> 0, dunque la soluzione
esiste ed `e data da x = /(
2
+
2
) e y = /(
2
+
2
).
Numeri complessi 91
Sottolineiamo la regola trovata nella dimostrazione precedente per il calcolo
dellinverso di un numero complesso:
+i = 0 ( +i )
1
=
i

2
+
2
Dora in poi useremo di frequente una singola lettera, spesso z, per indicare
un numero complesso, cio`e un elemento di C. Se z = + i diremo inoltre
che `e la parte reale di z, e la indicheremo con (z), mentre sar`a chiamata
parte immaginaria e denotata con (z). Identicheremo inoltre un numero
complesso della forma x + i 0 con il numero reale x, convenendo pertanto
che R sia un sottoinsieme di C. Questa scelta `e ragionevole anche perche
le operazioni algebriche introdotte su C coincidono con quelle denite su R
quando applicate a numeri complessi con parte immaginaria nulla. Inne,
chiamiamo immaginario puro un numero complesso con parte reale nulla.
Poiche `e facile sbagliarsi, sottolineiamo che la parte immaginaria di un
numero complesso `e un numero reale, non immaginario puro, e che un numero
reale `e anche un numero complesso.
8.2 Il piano complesso
Avendo denito C come linsieme degli oggetti della forma x+i y con x, y R,
abbiamo una naturale corrispondenza tra C e R
2
, ottenuta associando al nume-
ro x+i y il punto (o vettore) di coordinate x e y nel piano. Possiamo dunque
anche rappresentare i numeri complessi gracamente nel piano, come suggerito
in Fig. 8.1. Osserviamo subito che la somma tra numeri complessi, dato che
viene eseguita separatamente per parte reale e immaginaria, non `e altro che la
consueta somma tra vettori nel piano, eseguita con la regola del parallelogram-
mo. Anche loperazione di prodotto ha una interpretazione geometrica, sulla
quale torneremo.
Deniamo ora il coniugato z di un numero complesso z come limmagine di
z rispetto alla riessione nella retta reale. Se z = x+iy si ha allora z = xiy.
Sono inoltre di facile verica le seguenti propriet`a:
(z) =
1
2
(z +z);
(z) =
1
2i
(z z);
z = z;
z +w = z +w;
92 Capitolo 8
z=x+iy
y
x
Figura 8.1: Il piano complesso
z w = z w.
Usiamo ora pi` u a fondo la corrispondenza tra C e il piano, nonche la geometria
elementare del piano, introducendo la misura della distanza tra un numero
z C e lorigine del piano. Se z = x + i y, questa distanza si calcola con
il teorema di Pitagora, e risulta uguale a

x
2
+y
2
. Chiamiamo modulo di z
questa quantit`a, e la denotiamo con |z|, poiche naturalmente su un numero
reale uguaglia il valore assoluto. Si verica immediatamente che
|z| = |z|, |z|
2
= z z
il che conduce a una nuova regola di calcolo dellinverso di un numero com-
plesso, che consente di non introdurre esplicitamente la sua parte reale e la sua
parte immaginaria:
z = 0 z
1
=
z
|z|
2
.
Usando questa formula si verica anche facilmente che se z = 0 allora z
1
= z
1
e |1/z| = 1/|z|. Inoltre |z w| = |z| |w|.
Abbiamo per il modulo anche le seguenti elementari disuguaglianze:
|z| 0 per ogni z, e |z| = 0 se e soltanto se z = 0;
|z| |(z)|;
|z| |(z)|;
Numeri complessi 93
z
w
z+w
Figura 8.2: Disuguaglianza triangolare
|z| |(z)| +|(z)|.
Proviamo ora una disuguaglianza pi` u forte, che avr`a una ben chiara inter-
pretazione geometrica:
Proposizione 8.2.1. |z +w| |z| +|w|.
Dimostrazione.
|z +w|
2
= (z +w) (z +w) = (z +w) (z +w)
= |z|
2
+|w|
2
+ (z w +z w) = |z|
2
+|w|
2
+ 2 (z w)
|z|
2
+|w|
2
+ 2 |z w| = |z|
2
+|w|
2
+ 2 |z| |w| = (|z| +|w|)
2
.
Linterpretazione geometrica della disuguaglianza si ottiene considerando
z, w, z +w come i lati di un triangolo, secondo quanto suggerito in Fig. 8.2. La
disuguaglianza `e allora la classica triangolare: la lunghezza di un lato `e non
maggiore della somma delle lunghezze degli altri due.
8.3 Forma polare ed esponenziale complessa
Sfruttando ancora la corrispondenza tra C e R
2
, introduciamo ora un nuovo
modo di rappresentare i numeri complessi, che ci consentir`a tra laltro di dare
una chiara interpretazione geometrica del prodotto. Se z C `e non nullo, si
pu`o esprimere il corrispondente punto ((z), (z)) di R
2
tramite coordinate
94 Capitolo 8
z

Figura 8.3: Forma polare di un numero complesso


polari (, ) come suggerito in Fig. 8.3, con > 0 e R. Possiamo dunque
scrivere
() z = (cos() +i sin()),
che chiameremo forma polare del numero complesso z. Osserviamo che il nu-
mero , che risulta univocamente determinato dalla (), non `e altro che il
modulo |z| di z. Chiamiamo invece largomento arg(z) di z, e notiamo che
arg(z) `e invece denito in modo ambiguo, cio`e a meno di un addendo del tipo
2k con k Z. Lambiguit`a pu`o essere rimossa convenendo che arg(z) debba
appartenere allintervallo [0, 2) oppure a [, ). Tuttavia questa scelta ha
linconveniente che numeri complessi molto vicini tra loro risultano avere ar-
gomenti molto diversi, quindi `e preferibile per lo pi` u mantentenere lambiguit`a
e considerare arg(z) non come un solo numero, ma come un insieme del tipo
{
0
+ 2k : k Z}. Osserviamo ancora che la scrittura () si pu`o estendere
anche per z nullo. Abbiamo in questo caso = 0 e completamente arbitrario.
Calcoliamo ora il prodotto di due numeri complessi espressi in forma polare:
_

_
cos() +i sin()
_
_

_

_
cos() +i sin()
_
_
= ( )
_
_
cos() cos() sin() sin()
_
+i
_
sin() cos() + cos() sin()
_
_
= ( )
_
cos( +) +i sin( +)
_
.
Numeri complessi 95
Scopriamo pertanto che, moltiplicando un numero complesso per un altro nu-
mero della forma (cos() + i sin()), modulo e argomento variano come
segue:
il modulo viene moltiplicato per un fattore ;
largomento viene aumentato di un addendo .
Ne deduciamo allora la seguente:
Proposizione 8.3.1. La moltiplicazione per il numero (cos() +i sin())
`e lapplicazione C C ottenuta componendo lomotetia di ragione e centro
0 con la rotazione di angolo intorno a 0.
La formula trovata per il prodotto comporta inoltre che, posto f() =
cos()+isin(), si ha f()f() = f(+). Poiche questa `e una delle propriet`a
fondamentali soddisfatte dalle funzioni esponenziali, ci`o suggerisce che f() si
possa scrivere come a

per un opportuno a (non reale, naturalmente). Di fatto


si sceglie a = e
i
, ovvero si conviene che
e
i
= cos() +i sin() .
Questa scelta si pu`o anche giusticare attraverso gli sviluppi in serie di Taylor
delle funzioni esponenziale e trigonometriche. Ricordiamo infatti che per t reale
risulta
e
t
=

n=0
1
n!
t
n
.
Se ora sostituiamo t con i e ricordiamo che i
2
= 1, abbiamo
e
i
=

n=0
i
2n
(2n)!

2n
+

n=0
i
2n+1
(2n + 1)!

2n+1
=

n=0
(1)
n
(2n)!

2n
+i

n=0
(1)
n
(2n + 1)!

2n+1
e nellultima riga riconosciamo gli sviluppi in serie di Taylor di cos() e sin().
8.4 Equazioni polinomiali
Il passaggio da R a C `e stato dettato dallincapacit`a di risolvere su R lequa-
zione polinomiale x
2
+ 1 = 0. Ora anche su C possiamo considerare equa-
zioni polinomiali, ovvero denire C[z] come linsieme delle espressioni del tipo
96 Capitolo 8
a
0
+ a
1
z + . . . + a
d
z
d
dove a
i
C (con le ovvie convenzioni, usate anche
nel caso reale e discusse nella Sezione 2.2), e considerare equazioni del tipo
p(z) = 0 con p(z) C[z]. In questo paragrafo studiamo queste equazioni, co-
minciando con la z
n
= 1 per n N, le cui soluzioni sono dette radici n-esime
dellunit`a.
Risolviamo lequazione z
n
= 1 cercando le soluzioni z nella forma polare
z = e
i
. Lequazione risulta allora
n
e
in
= 1. Ne deduciamo che
n
`e il modulo del numero complesso 1, cio`e
n
= 1, dunque = 1 (dato che
= |z| 0). Inoltre n `e un argomento del numero complesso 1, cio`e n `e
della forma 2k con k Z. Pertanto le soluzioni della z
n
= 1 sono tutti e soli
i numeri complessi del tipo e
i
2k
n
con k Z. In realt`a questi numeri non sono
tutti distinti tra loro, perche due valori di k che dieriscano per un multiplo di
n deniscono la stessa soluzione. Dunque lequazione z
n
= 1 ha esattamente n
soluzioni distinte, date da
z = e
i
2k
n
, k = 0, 1, . . . , n 1 .
`
E anche facile ora interpretare geometricamente linsieme delle soluzioni tro-
vate: si tratta dei vertici del poligono regolare con n lati, inscritto nella cir-
conferenza di centro 0 e raggio 1 e avente il numero 1 C come uno dei
vertici.
Se ora modichiamo leggermente lequazione, considerandone una del tipo
z
n
= w con w = 0, lo stesso argomento prova che le sue soluzioni sono i numeri
n

|w| e
i
+2k
n
, k = 0, 1, . . . , n 1
dove
n

|w| rappresenta lunica radice n-esima reale positiva del numero reale
positivo |w|, e `e un argomento di w. Di nuovo abbiamo n soluzioni distin-
te, che rappresentano i vertici di un poligono regolare con n vertici centrato
nellorigine.
Questa discussione mostra che le pi` u facili equazioni polinomiali di grado
n, cio`e quelle in cui compare soltanto una costante e la potenza n-esima del-
lincognita, hanno n soluzioni in C. Vale in realt`a il seguente risultato, detto
teorema fondamentale dellalgebra, la cui dimostrazione `e fuori dagli scopi di
questo corso:
Teorema 8.4.1. Ogni polinomio complesso di grado positivo ammette radici
complesse.
Ammettendo questo fatto, ci limitiamo qui a mostrare che, in un senso
opportuno, le radici di un polinomio di grado n sono sempre nel numero di
Numeri complessi 97
n. Cominciamo con losservare che la divisione tra polinomi (comunemente
eseguita con la regola di Runi) si estende senza variazioni dal caso reale al
caso complesso. Vale cio`e la seguente:
Proposizione 8.4.2. Dati p(z), f(z) C[z] con f(z) = 0 esistono e sono
unici q(z), r(z) C[z] tali che deg(r(z)) < deg(f(z)) e
p(z) = q(z) f(z) +r(z) .
Osserviamo che nel caso in cui f(z) sia una costante non nulla f, la con-
dizione deg(r(z)) < deg(f) = 0 signica che il resto r(z) `e il polinomio nullo
(come ovvio). Abbiamo ora il facile:
Lemma 8.4.3. Dati p(z) C[z] e z
0
C, si ha p(z
0
) = 0 se e soltanto se p(z)
`e multiplo di (z z
0
).
Dimostrazione. Dividendo p(z) per (z z
0
) troviamo un resto di grado minore
di deg(z z
0
) = 1, dunque una costante r. Perci`o p(z) = q(z) (z z
0
) + r.
Valutando questa uguaglianza per z = z
0
si trova che r = p(z
0
), dunque
immediatamente la conclusione.
Se z
0
C `e una radice di p(z) C[z], dividendo p(z) per la pi` u alta
potenza di (z z
0
) per cui il resto risulti nullo, possiamo ora scrivere p(z)
come (z z
0
)
k
g(z), con k 1 e g(z) C[z] tale che g(z
0
) = 0. Lintero k `e
detto molteplicit`a della radice z
0
. Il teorema fondamentale dellalgebra sopra
enunciato comporta ora facilmente il seguente pi` u preciso:
Teorema 8.4.4. Un polinomio complesso di grado n 1 ha esattamente n
radici complesse se contate con la loro molteplicit`a.
8.5 Spaz vettoriali complessi
Uno spazio vettoriale complesso `e un insieme V dotato di un elemento privile-
giato 0 e di due operazioni
V V V C V V
(v, w) v +w (, v) v
che soddisfano esattamente gli stessi 8 assiomi degli spaz vettoriali reali, di-
scussi nella Sezione 3.1. I pi` u facili esempi di spazio vettoriale complesso sono
del tutto analoghi a quelli illustrati nel caso reale: lo spazio C
n
dei vetto-
ri colonna numerici a n coordinate, lo spazio C[z] dei polinomi a coecienti
98 Capitolo 8
complessi in una indeterminata z, lo spazio M
nm
(C) delle matrici n m a
coecienti complessi, lo spazio F(S, C) delle funzioni a valori complessi denite
su un insieme S.
Lintera teoria nora sviluppata nel caso reale, dipendendo solo dalle pro-
priet`a di campo di R, si estende senza alcuna variazione al caso di C. In parti-
colare, `e possibile denire per ogni spazio vettoriale complesso V che ammetta
insiemi niti di generatori una dimensione complessa indicata con dim
C
(V ).
Discutiamo ora la ragione per la quale sia importante, parlando di dimensione,
specicare se essa sia intesa in senso reale oppure complesso (cio`e se si stia
considerando dim
R
oppure dim
C
).
Cominciamo con losservare che C `e il pi` u facile esempio di spazio vettoriale
complesso, con base costituita dal numero 1 e dunque avente dimensione com-
plessa 1. Tuttavia C, essendo identicato a R
2
, `e anche uno spazio vettoriale
reale, e la sua dimensione reale `e 2 (con base data dai numeri 1 e i). Pi` u in
generale, se V `e uno spazio vettoriale complesso, osservando che R C, si pu`o
dare a V anche una struttura di spazio vettoriale reale: basta considerare la
medesima operazione di somma tra vettori e limitare loperazione di prodotto
tra scalari e vettori a quegli scalari che siano numeri reali, cio`e complessi con
parte immaginaria nulla. Vale ora la seguente:
Proposizione 8.5.1. Se V `e uno spazio vettoriale complesso di dimensione
nita si ha dim
R
(V ) = 2 dim
C
(V ).
Dimostrazione. Scelta una base v
1
, . . . , v
n
di V su C, si verica subito che
v
1
, i v
1
, . . . , v
n
, i v
n
`e una base di V su R.
Sempre utilizzando il fatto che uno spazio vettoriale complesso `e anche uno
spazio vettoriale reale possiamo ora dire C-lineare una applicazione che sia
lineare rispetto alla struttura complessa, e R-lineare una che lo sia rispetto
alla struttura reale. Abbiamo la seguente immediata:
Proposizione 8.5.2. Siano V e W spaz vettoriali su C e sia f : V W una
applicazione. Allora:
La moltiplicazione per lo scalare i denisce una applicazione C-lineare
J
V
: V V , e similmente una J
W
: W W.
La f `e C-lineare se e soltanto se `e R-lineare e f J
V
= J
W
f.
Concludiamo osservando che una matrice reale A M
mn
(R) `e anche una
matrice complessa, dunque `e possibile considerarne il rango sia in senso reale
che in senso complesso, e similmente per la dimensione del nucleo. Dal teorema
degli orlati segue ora facilmente la seguente:
Numeri complessi 99
Proposizione 8.5.3. Se A M
mn
(R) si ha
rank
R
(A) = rank
C
(A), dim
R
_
Ker(A)
_
= dim
C
_
Ker(A)
_
.
100 Capitolo 8
Prodotti scalari e hermitiani 101
Capitolo 9
Prodotti scalari e hermitiani
Ci proponiamo in questo capitolo di estendere agli spaz vettoriali alcune delle
nozioni consuete della geometria piana elementare. Cominciamo considerando
le nozioni di distanza (tra punti) ed ortogonalit`a (tra vettori o rette) e notando
che esse sono naturalmente legate fra loro. Ad esempio, il segmento che realizza
la minima distanza di un punto p da una retta r `e quello contenuto nella retta
ortogonale a r e passante per p. Illustriamo ora il legame tra le due nozioni
ricavando le formule esplicite, e prendendo spunto da queste formule per una
denizione che sar`a il fulcro del capitolo.
Notiamo intanto che la distanza tra 0 e un punto x di R
2
`e data da

x
2
1
+x
2
2
. Ci chiediamo ora quando due rette r e s, generate rispettivamente
da vettori x e y non nulli, siano ortogonali fra loro.
1
Per rispondere notiamo
che la matrice
A =
1

x
2
1
+x
2
2

_
x
1
x
2
x
2
x
1
_
rappresenta la rotazione dellangolo tale che
cos() =
x
1

x
2
1
+x
2
2
, sin() =
x
2

x
2
1
+x
2
2
.
Inoltre A x Span(e
1
), dunque A trasforma r nel primo asse coordinato, e
A y =
1

x
2
1
+x
2
2

_
x
1
y
1
+x
2
y
2
x
2
y
1
+x
1
y
2
_
.
Poiche una rotazione preserva lortogonalit`a, avremo r s se e soltanto se A
trasforma s nel secondo asse coordinato, cio`e se x
1
y
1
+x
2
y
2
= 0.
1
Carlo: Rifai con Carnot
102 Capitolo 9
Introduciamo allora la funzione . | .
R
2 : R
2
R
2
R data da
x|y
R
2 = x
1
y
1
+x
2
y
2
,
che chiameremo prodotto scalare. Abbiamo che:
La distanza tra x e 0 `e data da

x|x
R
2;
Span(x) Span(y) se e solo se x|y
R
2 = 0.
Denendo anzi la norma x
R
2 di un vettore x R
2
come il numero non
negativo

x|x
R
2, possiamo anche usare il prodotto scalare per determinare
langolo tra due rette. Si verica infatti (di nuovo usando una matrice di
rotazione) che langolo compreso tra due rette Span(x) e Span(y) soddisfa
la relazione
cos() =
x|y
R
2
x
R
2 y
R
2
.
Le considerazioni svolte nora nel caso del piano si trasportano senza
variazioni al caso di R
n
, ponendo
x|y
R
n = x
1
y
1
+. . . +x
n
y
n
=
t
x y,
x
R
n =

x|x
R
n R
+
.
Con il primo paragrafo del capitolo estendiamo la nozione di prodotto scalare
al caso di uno spazio vettoriale qualsiasi. Nel seguito stabiliamo molte utili
propriet`a del prodotto scalare, e lo estendiamo anche al caso complesso.
9.1 Prodotti scalari
Sia V uno spazio vettoriale reale. Una applicazione . | . : V V R si dice:
bilineare se

1
v
1
+
2
v
2
|v
3
=
1
v
1
|v
3
+
2
v
2
|v
3

v
3
|
1
v
1
+
2
v
2
=
1
v
3
|v
1
+
2
v
3
|v
2

per ogni v
1
, v
2
, v
3
V e
1
,
2
R;
simmetrica se v
1
|v
2
= v
2
|v
1
per ogni v
1
, v
2
V ;
Prodotti scalari e hermitiani 103
denita positiva se v|v > 0 per v = 0;
un prodotto scalare su V se `e bilineare, simmetrica e denita positiva.
Dalle propriet`a del prodotto righe per colonne `e facile dedurre che lappli-
cazione |
R
n sopra denita `e un prodotto scalare su R
n
, che sar`a chiamato
prodotto scalare canonico di R
n
.
Ricordando che x|y
R
n `e denito da
t
x y, possiamo ora estendere la
denizione e introdurre un prodotto scalare su M
mn
(R). Poniamo cio`e
A|B = tr(
t
A B) .
La verica della bilinearit`a di questa applicazione `e molto semplice: basta usare
la linearit`a del prodotto righe per colonne in ciascuno dei suoi argomenti, la
linearit`a della trasposizione e la linearit`a della traccia. Che lapplicazione sia
denita positiva `e semplice:
A|A =
n

i=1
(
t
A A)
ii
=
n

i=1
m

j=1
(
t
A)
ij
(A)
ji
=
m

j=1
n

i=1
_
(A)
ji
_
2
e questultima somma ha risultato positivo se A = 0. La simmetria segue
invece dal fatto (ovvio) che una matrice quadrata e la sua trasposta hanno la
stessa traccia, e dal seguente pi` u generale:
Proposizione 9.1.1. M M
pq
(R), N M
qr
(R)
t
(M N) =
t
N
t
M.
Dimostrazione.
_
t
(M N)
_
ij
= (M N)
ji
=
q

s=1
(M)
js
(N)
si
=
q

s=1
(
t
N)
is
(
t
M)
sj
=
_
t
N
t
M
_
ij
.
Tornando a R
n
, caratterizziamo ora le applicazioni bilineari simmetriche.
Cominciamo col denire, ssata A M
nn
(R), lapplicazione R
n
R
n
R
data da x|y
A
=
t
x A y.
`
E immediato vericare che tale applicazione `e
bilineare. Inoltre:
Proposizione 9.1.2. Data f : R
n
R
n
R bilineare
104 Capitolo 9
esiste ed `e unica A M
nn
(R) tale che f = . | .
A
;
f `e simmetrica se e solo se A `e una matrice simmetrica.
Dimostrazione. Cominciamo con lunicit`a di A. Se f = . | .
A
e A = (a
ij
),
allora a
ij
= f(e
i
, e
j
), dunque in eetti la A `e univocamente determinata da
f. Per lesistenza si tratta ora di vedere che, posto a
ij
= f(e
i
, e
j
) e denita A
come la matrice (a
ij
), si ha f(x, y) = x|y
A
per ogni x, y R
n
. Infatti:
f(x, y) = f
_
_
n

i=1
x
i
e
i
,
n

j=1
y
j
e
j
_
_
=
n

i=1
x
i

_
_
n

j=1
a
ij
y
j
_
_
=
n

i=1
x
i

_
A y
_
i
=
t
x A y = x|y
A
.
Passando alla seconda asserzione notiamo che, essendo
t
yAx `e un numero,
si ha
t
y A x =
t
_
t
y A x
_
=
t
x
t
A y ,
dunque f `e simmetrica se e soltanto se
t
x (A
t
A) y = 0 per ogni x, y R
n
.
Per x = e
i
e y = e
j
questa condizione signica che a
ij
= a
ji
, onde facilmente
la conclusione.
Rimandiamo al Capitolo 10 la discussione completa di quali condizioni una
matrice A simmetrica debba soddisfare per dare luogo a unapplicazione . | .
A
che sia denita positiva. Ci limitiamo qui a osservare quanto segue:
Se A `e diagonale con coecienti
1
, . . . ,
n
sulla diagonale, allora . | .
A
`e denito positivo se e soltanto se ciascuno dei
i
`e positivo;
Se A =
t
M M con M M
nn
(R) invertibile, allora
x|x
A
=
t
x
t
M M x = M x|M x
R
n
e questo numero `e positivo poiche M x = 0. Ne segue che in questo caso
. | .
A
`e denita positiva.
Un esempio di prodotto scalare molto importante per le applicazioni `e quello
sullo spazio della funzioni continue da [0, 1] a R, denito come
f|g =
1

0
f(t)g(t) dt .
Prodotti scalari e hermitiani 105
9.2 Norma e ortogonalit`a
Fissiamo in questo paragrafo un prodotto scalare . | . su uno spazio vettoriale
reale V . Poiche si ha v|v > 0 per v = 0 e naturalmente 0|0 = 0, possiamo
denire la norma di v, indicandola con v, come la radice quadrata non
negativa di v|v. Osserviamo intanto che dalla sola norma `e possibile risalire
a tutti i valori del prodotto scalare. Infatti:
v|w =
1
2
_
v +w
2
v
2
w
2
_
.
Abbiamo inoltre le seguenti elementari propriet`a della norma:
v > 0 se v = 0 e 0 = 0;
v = || v.
Meno elementare `e invece la seguente disuguaglianza di Cauchy-Schwarz:
Proposizione 9.2.1. Per ogni v, w V si ha

v|w

v w
e luguaglianza vale se e solo se v e w sono proporzionali tra loro.
Dimostrazione. Nel caso in cui v e w siano proporzionali tra loro, dunque
in particolare nel caso in cui uno tra v e w sia nullo, luguaglianza `e ovvia.
Supponiamoli allora non proporzionali e al variare di t in R consideriamo il
vettore t v + w. Esso `e sempre non nullo, dunque t v + w
2
> 0 per ogni
t. Eseguendo il calcolo si trova che v
2
t
2
+ 2 v|w t + w
2
> 0 per ogni
t. Ora, un polinomio reale di grado 2 non si annulla mai se e soltanto se il suo
discriminante `e negativo. Troviamo dunque la disuguaglianza
106 Capitolo 9
v|w
2
v
2
w
2
< 0
e la conclusione segue subito.
Dal risultato precedente deduciamo ora la disuguaglianza triangolare, gi`a
incontrata e interpretata geometricamente nella Sezione 8.2:
Teorema 9.2.2. Per ogni v, w V si ha
v +w v +w
e luguaglianza vale solo se uno tra v e w si ottiene dallaltro tramite moltipli-
cazione per uno scalare non negativo.
Dimostrazione. Se v e w sono proporzionali tra loro la conclusione `e molto
semplice. Se invece non lo sono si ha
v +w
2
= v
2
+ 2 v|w +w
2
< v
2
+ 2v w +w
2
=
_
v +w
_
2
.
Le propriet`a della norma comportano che il numero v pu`o essere sen-
satamente interpretato come la distanza di v dallorigine 0. Pi` u in generale,
ponendo d(v, w) = v w, si vericano le seguenti ragionevoli propriet`a per
una funzione V V R che rappresenti la distanza tra due punti:
d(v, w) > 0 se v = w, e d(v, v) = 0;
d(v, w) = d(w, v);
d(v, w) d(v, z) +d(z, w).
Lunica propriet`a non evidente `e lultima, che verichiamo come segue:
d(v, w) = v w = (v z) + (z w)
v z +z w = d(v, z) +d(z, w) .
Introduciamo ora alcuni nuovi termini. Un vettore u di V sar`a detto uni-
tario se u = 1. Due vettori v, w saranno detti ortogonali se v|w = 0. Pi` u
in generale, un sistema v
1
, . . . , v
k
di vettori sar`a detto ortogonale se v
i
|v
j
= 0
per i = j, e sar`a detto ortonormale se inoltre tutti i v
i
sono unitar, ovvero se
v
i
|v
j
=
ij
per ogni i, j.
Prodotti scalari e hermitiani 107
Proposizione 9.2.3. Un sistema ortogonale di vettori non nulli `e linearmente
indipendente.
Dimostrazione. Siano v
1
, . . . , v
k
i vettori, e supponiamo che
1
v
1
+. . . +
k
v
k
sia nullo. Allora per ogni j si ha
0 = 0|v
j
=
1
v
1
+. . . +
k
v
k
|v
j
=
j
v
j

2
.
Essendo v
j
= 0 si ha v
j

2
> 0, onde
j
= 0.
Da questo risultato deduciamo che, se dim
R
(V ) = n, un sistema ortogonale
di n vettori non nulli `e una base. Il prossimo fondamentale risultato illustra
come trovare le coordinate di un vettore rispetto a una base siatta:
Teorema 9.2.4. Se (v
1
, . . . , v
n
) `e una base ortogonale di V e v V allora
v =
n

i=1
v|v
i

v
i

2
v
i
.
Dimostrazione. Cominciamo notando che se y V e y|v
j
= 0 per ogni j
allora y = 0. Infatti y = y
1
v
1
+ . . . + y
n
v
n
per coordinate y
1
, . . . , y
n
opportune, e y|v
j
= y
j
v
j

2
con v
j

2
> 0.
Posto allora y = v
n

i=1
v|v
i

v
i

2
v
i
basta vedere che y|v
j
= 0 per ogni j, e
questo `e ovvio.
Limportanza (anche ai ni delle applicazioni) del risultato appena dimo-
strato `e dovuta alla seguente osservazione (che dallenunciato segue immedia-
tamente): la coordinata j-esima di un vettore rispetto a una base ortogonale
dipende solo dal j-esimo vettore della base, non dagli altri. Notiamo che ci`o `e
falso in generale: cambiando anche un solo vettore di una base non ortogonale,
le coordinate possono cambiare tutte.
Ci poniamo ora il problema di come ottenere basi ortogonali. Prima di
tutto osserviamo che una base ortogonale (v
1
, . . . , v
n
) pu`o essere facilmente
sostituita da una base ortonormale, normalizzando ciascun vettore v
i
, cio`e
sostituendolo con v
i
/v
i
. Inoltre se (v
1
, . . . , v
n
) `e una base ortonormale, le
coordinate rispetto a essa si trovano in modo ancora pi` u facile: la j-esima
coordinata di v V `e semplicemente v|v
j
. Il prossimo risultato, che descrive
il cosiddetto procedimento di ortonormalizzazione di Gram-Schmidt, prova che
ogni base pu`o essere trasformata in una base ortonormale:
108 Capitolo 9
Teorema 9.2.5. Se (x
1
, . . . , x
n
) `e una base di V , il seguente procedimento
ricorsivo produce una base ortonormale (v
1
, . . . , v
n
):
Si pone v
1
= x
1
/x
1
;
Se 1 k < n, supposti costruiti v
1
, . . . , v
k
, si pone
y
k+1
= x
k+1

i=1
x
k+1
|v
i
v
i
e v
k+1
= y
k+1
/y
k+1
.
Inoltre per ogni k si ha Span(v
1
, . . . , v
k
) = Span(x
1
, . . . , x
k
).
Dimostrazione. Uno dei punti chiave dellenunciato `e espresso solo in modo
tacito, ma conviene esplicitarlo. Dire che il procedimento ricorsivo produce
una base ortonormale signica in particolare che esso pu`o essere eseguito no
al passo n-esimo, cio`e che i vettori y
2
, . . . , y
n
successivamente costruiti sono
non nulli, dunque `e lecito normalizzarli. Per avere la dimostrazione del teorema
baster`a ora provare per induzione su k = 1, . . . , n lasserto seguente:
i vettori v
1
, . . . , v
k
possono essere costruiti, sono ortonormali, e generano
Span(x
1
, . . . , x
k
).
Lasserto `e ovvio per k = 1. Supponiamolo vero per qualche k < n e
dimostriamolo per k + 1. Poiche
k

i=1
x
k+1
|v
i
v
i
Span(v
1
, . . . , v
k
) = Span(x
1
, . . . , x
k
)
e x
k+1
Span(x
1
, . . . , x
k
), si ha y
k+1
= 0, dunque v
k+1
pu`o essere denito.
Inoltre per j k si ha:
y
k+1
|v
j
= x
k+1
|v
j

k

i=1
x
k+1
|v
i
v
i
|v
j

= x
k+1
|v
j

k

i=1

ij
x
k+1
|v
i
= 0 .
Ne segue immediatamente che v
1
, . . . , v
k
, v
k+1
`e un sistema ortonormale. Resta
da vedere che Span(v
1
, . . . , v
k
, v
k+1
) = Span(x
1
, . . . , x
k
, x
k+1
). Sapendo che
Span(v
1
, . . . , v
k
) = Span(x
1
, . . . , x
k
), basta allora vedere che
v
k+1
Span(v
1
, . . . , v
k
, x
k+1
), v
k+1
Span(v
1
, . . . , v
k
) .
Entrambi questi fatti sono evidenti, ed il teorema `e dimostrato.
Prodotti scalari e hermitiani 109
Analizzando il procedimento di ortonormalizzazione ora descritto, `e faci-
le provare che la matrice di cambiamento di base dalla (x
1
, . . . , x
k
) alla sua
ortonormalizzata (v
1
, . . . , v
k
) `e triangolare superiore (cio`e ha coecienti nulli
sotto la diagonale principale) con coecienti positivi sulla diagonale principale.
Abbiamo anche il seguente:
Corollario 9.2.6. Un sistema ortonormale di vettori pu`o essere completato a
una base ortonormale.
Dimostrazione. Prima si completa a una base qualsiasi, poi si ortonormalizza.
9.3 Decomposizioni ortogonali e proiezioni
Fissiamo in questo paragrafo uno spazio vettoriale V su R con prodotto scalare
. | . . Se S V `e un sottoinsieme qualsiasi, poniamo
S

=
_
v V : v|s = 0 s S
_
.
`
E facile vedere che S

`e sempre un sottospazio vettoriale, che chiameremo


sottospazio ortogonale a S. Se v V , indicheremo {v}

semplicemente con
v

.
Proposizione 9.3.1. Se V ha dimensione nita e W `e un sottospazio di V
si ha V = W W

. Inoltre dim
R
(W

) = dim
R
(V ) dim
R
(W). Inne
(W

= W.
Dimostrazione.
`
E chiaro che W W

= {0}. Per vedere che V = W + W

,
scegliamo una base x
1
, . . . , x
n
di V con x
1
, . . . , x
k
base di W, e ortonormalizzia-
mola ottenendo v
1
, . . . , v
n
. Allora v
1
, . . . , v
k
W e v
k+1
, . . . , v
n
W

, dunque
la conclusione. La seconda aermazione `e ora ovvia e la terza segue osservando
che (W

`e un sottospazio che contiene W e ha la medesima dimensione di


W.
La proiezione su W (si veda la Sezione 5.2) associata alla decomposizione
in somma diretta V = W W

`e detta proiezione ortogonale di V su W e


indicata con p
W
. Il prossimo risultato comporta in particolare che p
W
dipende
in eetti solo da W (mentre sappiamo che la proiezione su W associata ad una
decomposizione V = W Z qualsiasi dipende anche da Z).
110 Capitolo 9
Proposizione 9.3.2. Se v
1
, . . . , v
k
`e una base ortogonale di W allora
p
W
(v) =
k

i=1
v|v
i

v
i

2
v
i
.
Inoltre p
W
(v) `e il punto di W avente minima distanza da v e vale la seguente
disuguaglianza di Bessel:
k

i=1

v|v
i

2
v
i

2
v
2
.
Dimostrazione. Completando v
1
, . . . , v
k
a una base ortogonale v
1
, . . . , v
n
di V
si ha
v =
k

i=1
v|v
i

v
i

2
v
i
+
n

i=k+1
v|v
i

v
i

2
v
i
.
Il primo di questi vettori appartiene a W e il secondo a W

, onde la conclusione
per denizione di proiezione associata alla decomposizione.
Per provare la seconda aermazione dobbiamo vedere che al variare di t
R
k
il minimo della funzione
f(t) =
_
_
v (t
1
v
1
+. . . +t
k
v
k
)
_
_
`e assunto precisamente per t
i
= v|v
i
/v
i

2
. Poiche la f assume valori non ne-
gativi e lelevamento al quadrato `e una funzione monotona crescente su [0, +),
basta vericare la stessa aermazione per la funzione g data da g(t) = f(t)
2
.
`
E
chiaro che g(t) +per t +, dunque basta vericare che il solo punto
nel quale le derivate parziali di g si annullano `e quello con t
i
= v|v
i
/v
i

2
.
Ora
g(t) = v
2

i=1
2 v|v
i
t
i
+
k

i=1
v
i

2
t
2
i
e calcolando /t
j
si trova 2 v|v
j
+ 2v
j

2
t
j
, onde la conclusione.
Per lultima aermazione, notiamo che
v = p
W
(v) +p
W
(v), p
W
(v)|p
W
(v) = 0 ,
onde v
2
= p
W
(v)
2
+p
W
(v)
2
p
W
(v)
2
e la tesi segue dallespressione
trovata per p
W
(v).
Prodotti scalari e hermitiani 111
Alla luce di quanto appena visto possiamo ora meglio interpretare alcuni
dei fatti visti nella Sezione 7.2. Consideriamo in R
2
e R
3
i loro prodotti scalari
canonici. Lespressione in R
2
di una retta in forma cartesiana
r =
__
x
y
_
R
2
: a x +b y = 0
_
equivale allora alla scrittura r =
_
a
b
_

. Dunque il passaggio a forma para-


metrica equivale alla ricerca di un vettore non nullo ortogonale a
_
a
b
_
, che
si verica subito essere
_
b
a
_
.
Passando a R
3
, notiamo che per la Proposizione 9.3.1 possiamo associare a
ogni retta il piano ad essa ortogonale, e viceversa. Abbiamo inoltre le seguenti
interpretazioni delle presentazioni cartesiane:
_
_
_
_
_
x
y
z
_
_
R
3
: a x +b y +c z = 0
_
_
_
=
_
_
a
b
c
_
_

,
_
_
_
_
_
x
y
z
_
_
R
3
:
_
a
1
x +b
1
y +c
1
z = 0
a
2
x +b
2
y +c
2
z = 0
_
_
_
=
_
_
a
1
b
1
c
1
_
_

_
_
a
2
b
2
c
2
_
_

.
Poiche
_
_
a
b
c
_
_

=
_
_
Span
_
_
a
b
c
_
_
_
_

,
ne deduciamo che una presentazione cartesiana di un piano corrisponde a una
presentazione parametrica della retta ad esso ortogonale. Analogamente
_
_
a
1
b
1
c
1
_
_

_
_
a
2
b
2
c
2
_
_

=
_
_
Span
_
_
_
_
a
1
b
1
c
1
_
_
,
_
_
a
2
b
2
c
2
_
_
_
_
_
_

,
dunque una presentazione cartesiana di una retta corrisponde ad una presen-
tazione parametrica del piano ad essa ortogonale. Ci`o spiega la ragione della
forte analogia tra il passaggio da forma parametrica a cartesiana per rette e
quello da forma cartesiana a parametrica per piani. In entrambi i casi infatti
112 Capitolo 9
si tratta di trovare, dato v =
_
_

_
_
non nullo, un insieme di generatori per
v

, e un tale insieme `e dato da


_
_

0
_
_
,
_
_

_
_
,
_
_
0

_
_
.
Similmente si spiega lanalogia tra il passaggio da forma cartesiana a para-
metrica per rette e quello da forma parametrica a cartesiana per piani, infatti
in entrambi i casi, dati v
1
=
_
_

1
_
_
e v
2
=
_
_

2
_
_
linearmente indipen-
denti, si tratta di trovare una base per v

1
v

2
, e questa `e data dal vettore
_
_

1

2

2

1

1

2
+
2

1

1

2

2

1
_
_
, che denoteremo ora con v
1
v
2
e chiameremo prodotto
vettoriale di v
1
e v
2
. Possiamo anche dare una migliore interpretazione geome-
trica di questo vettore. Si verica infatti che esso, oltre a essere un generatore
della retta ortogonale al piano generato da v
1
e v
2
, ha norma uguale allarea
del parallelogrammo di lati v
1
e v
2
, e verso tale che det(v
1
v
2
v
1
v
2
) > 0,
ovvero tale che `e possibile disporre le dita pollice, indice e medio della mano
destra secondo le direzioni di v
1
, v
2
e v
1
v
2
rispettivamente.
9.4 Matrici simmetriche e ortogonali
Dato come sopra V con un prodotto scalare . | . , tra le applicazioni lineari
f : V V risultano di particolare interesse quelle tali che v|f(w) = f(v)|w
per ogni v, w, dette autoaggiunte,
2
e quelle tali che f(v)|f(w) = v|w per
ogni v, w, dette ortogonali. Poiche il prodotto scalare determina la norma e
viceversa, notiamo che f `e ortogonale se soltanto se f(v) = v per ogni v,
ovvero se f preserva la distanza tra i vettori, dunque se f `e una isometria.
In relazione alla nozione generale di autoaggiunzione ci limitiamo al seguen-
te risultato, da confrontare con le Proposizioni 5.2.2 e 5.2.4:
Proposizione 9.4.1. Sia V di dimensione nita. Una applicazione lineare
p : V V `e la proiezione ortogonale su un sottospazio se e soltanto se `e
autoaggiunta e p p = p.
Dimostrazione. Sia p la proiezione ortogonale su W. Sappiamo gi`a che p p =
p. Dati v
1
, v
2
V sia p(v
i
) = w
i
, dunque v
i
= w
i
+z
i
con w
i
W e z
i
W

.
2
Carlo: enuncia esistenza aggiunta
Prodotti scalari e hermitiani 113
Allora
p(v
1
)|v
2
= w
1
+z
1
|w
2
= w
1
|w
2
= w
1
|w
2
+z
2
= v
1
|p(v
2
)
dunque p `e autoaggiunta.
Supponiamo viceversa che p sia autoaggiunta e che p p = p. Sappiamo
che p `e allora la proiezione su W associata alla decomposizione W Z con
W = Im(p) e Z = Ker(p). Dobbiamo vedere che Z = W

. Se w W e z Z,
dalla autoaggiunzione segue che
w|z = p(w)|z = w|p(z) = w|0 = 0 .
Ci`o prova che Z W

, e dalla formula di Grassmann segue luguaglianza


desiderata.
Analizziamo ora le nozioni di autoaggiunzione e ortogonalit`a nel caso del
prodotto scalare standard di R
n
. Il seguente `e immediato:
Lemma 9.4.2. Se A M
nn
(R) allora x|A y =

t
A x|y

.
Ne segue allora che A `e autoaggiunta se e soltanto se `e simmetrica, ed `e
ortogonale se e soltanto se
t
A `e linversa di A. Scrivendo A come insieme di
colonne (v
1
. . . v
n
) e notando che (
t
A A)
ij
=
t
v
i
v
j
= v
i
|v
j

R
n
, ne deduciamo
che A `e ortogonale se e solo se le sue colonne sono una base ortonormale.
Esempi di matrici ortogonali 2 2 (dunque di isometrie di R
2
rispetto alla
distanza indotta dal prodotto scalare standard) sono le rotazioni
_
cos() sin()
sin() cos()
_
e le riessioni rispetto a rette, che in una base ortonormale opportuna si
scrivono sempre come
_
1 0
0 1
_
.
In dimensione 3 sono ortogonali (cio`e sono isometrie rispetto alla distanza
indotta dal prodotto scalare standard di R
3
) ad esempio le rotazioni intorno a
rette, che in una base ortonormale opportuna si scrivono come
_
_
cos() sin() 0
sin() cos() 0
0 0 1
_
_
114 Capitolo 9
e le riessioni rispetto a piani, che si scrivono come
_
_
1 0 0
0 1 0
0 0 1
_
_
.
9.5 Il caso complesso
Il modulo, che abbiamo introdotto su C per misurare la lunghezza dei vettori,
si esprime come z
2
= z z. Ci`o suggerisce che in C
n
lanalogo del prodotto
scalare reale sia dato da
v|w
C
n = v
1
w
1
+. . . +v
n
w
n
=
t
v w =
t
w v ,
che scriveremo anche come w

v denendo A

=
t
A per ogni A M
nm
(C)
e chiamando A

laggiunta di A (ovviamente non importa quale operazione


sia eseguita per prima tra la trasposizione e il coniugio). Notiamo subito che
identicando C
n
a R
2n
si ha x|y
R
2n = (x|y
C
n).
Analizzando le propriet`a di . | .
C
n si perviene alla seguente denizione.
Se V `e uno spazio vettoriale complesso, si chiama prodotto scalare hermitiano
una applicazione . | . : V V C che sia:
lineare a sinistra e anti-lineare a destra, ovvero tale che

1
v
1
+
2
v
2
|v
3
=
1
v
1
|v
3
+
2
v
2
|v
3

v
3
|
1
v
1
+
2
v
2
=
1
v
3
|v
1
+
2
v
3
|v
2

per ogni v
1
, v
2
, v
3
V e
1
,
2
C;
hermitiana, ovvero tale che
v
2
|v
1
= v
1
|v
2

per ogni v
1
, v
2
V ;
denita positiva, ovvero tale che v|v > 0 se v = 0 (si noti che la
condizione precedente garantisce che v|v R).
Oltre a . | .
C
n, che naturalmente chiameremo prodotto scalare hermitiano
canonico di C
n
, sono esempi di prodotti scalari A|B = tr(B

A) = tr(
t
A B)
su M
nm
(C), e
f|g =
1

0
f(t) g(t) dt
Prodotti scalari e hermitiani 115
sullo spazio delle funzioni da [0, 1] in C continue (cio`e aventi parte reale ed
immaginaria continua).
Sia ora ssato V spazio vettoriale complesso con un prodotto scalare hermi-
tiano . | . . Notiamo intanto che ( . | . ) `e un prodotto scalare su V pensato
come spazio reale. Inoltre, tutte le denizioni e i risultati descritti nel caso
reale si estendono con semplici modiche al caso complesso. In particolare si
denisce la norma v di un vettore come

v|v e si ha v = || v.
Valgono poi le disuguaglianze di Cauchy-Schwarz e triangolare:
| z|w | z w,
z +w z +w .
Le nozioni di vettore unitario, vettori ortogonali e sistema ortonormale si
trasportano direttamente al caso complesso, e vale la seguente:
Proposizione 9.5.1. Se V ha dimensione nita, W V `e un sottospazio
vettoriale e v
1
, . . . , v
k
`e una base ortogonale di W, allora V = W W

e la
proiezione p
W
su W relativa a tale decomposizione (detta proiezione ortogonale
su W) `e data da
p
W
(v) =
k

j=1
v|v
j

v
j

2
v
j
.
Inoltre vale la disuguaglianza di Bessel:
k

j=1
| v|v
j
|
2
v
j

2
v
2
.
A proposito dellenunciato precedente notiamo che, a dierenza del caso
reale, non si pu`o scrivere v
j
|v in luogo di v|v
j
nella formula di p
W
. Per
ricordare che bisogna usare v|v
j
basta notare che si sta esprimendo la pro-
iezione p
W
, che `e lineare, non anti-lineare, in v, e la nostra convenzione `e che
. | . sia lineare a sinistra.
Anche il procedimento di ortonormalizzazione di Gram-Schmidt di una base
x
1
, . . . , x
n
`e invariato: si suppongono ricorsivamente costruiti v
1
, . . . , v
k
e si
pone
y
k+1
= x
k+1

i=1
x
k+1
|v
i
v
i
, v
k+1
= y
k+1
/y
k+1
.
Si estende inoltre alla lettera la nozione di applicazione autoaggiunta da
V in se stesso, e vale la medesima caratterizzazione delle proiezioni ortogonali
116 Capitolo 9
provata nel caso reale: una p : V V lineare `e una proiezione ortogonale se e
soltanto se `e autoaggiunta e p p = p.
3
Passiamo ora al caso dello spazio C
n
. Se A M
nn
(C) e z, w C
n
,
poniamo z|w
A
= w

A z. Come nel caso reale si verica che le applicazioni


C
n
C
n
C lineari a sinistra e antilineari a destra sono precisamente quelle
della forma . | .
A
. Inoltre una tale applicazione `e hermitiana se e soltanto se
A

= A, nel qual caso diremo che A stessa `e una matrice hermitiana. Inne si
ha
z|A w
C
n = A

z|w
C
n
da cui segue facilmente che:
z|A w
C
n = A z|w
C
n per ogni z, w C
n
se e soltanto se A

= A,
dunque lapplicazione associata a una matrice `e autoaggiunta se e soltanto
se la matrice `e hermitiana;
A z|A w
C
n = z|w
C
n per ogni z, w C
n
se e soltanto se A

`e lin-
versa di A, il che equivale al fatto che le colonne di A siano una base
ortonormale di C
n
: diremo in tal caso che A `e unitaria, osservando che
`e allora unisometria rispetto alla distanza indotta dal prodotto scalare
standard di C
n
.
3
Carlo: Aggiungi termine sesquilineare
Autovalori e diagonalizzazione 117
Capitolo 10
Autovalori e diagonalizzazione
In questo capitolo ci proponiamo di analizzare lazione di una assegnata appli-
cazione lineare f : V V cercando una base B rispetto alla quale la matrice
[f]
B
B
sia semplice ed espressiva. Cominciamo illustrando con un esempio in che
senso una matrice [f]
B
B
di forma particolare possa consentire di comprendere
lazione di f.
1
Consideriamo lapplicazione lineare f : R
3
R
3
associata alla matrice
A =
_
_
5 2 1
2 2 2
1 2 5
_
_
e sia B = (v
1
, v
2
, v
3
) la base data da
v
1
=
_
_
1
0
1
_
_
, v
2
=
_
_
1
1
1
_
_
, v
3
=
_
_
1
2
1
_
_
.
Si verica allora che Av
1
= 6v
1
, Av
2
= 6v
2
, Av
3
= 0, dunque
[f]
B
B
=
_
_
6 0 0
0 6 0
0 0 0
_
_
.
1
Carlo: Riscrivi dicendo prima la scomposizione delle forze linearizzate intorno al
punto di equilibrio come parte simmetrica e antisimmetrica, e poi fai con A =
1
8

1 3

3 6
3

3 5 2

3
6 2

3 12

e v
1
=

3
1
2

, v
2
=

3
0

, v
3
=

3
2

, dove
Av
1
= 2v
1
, Av
2
= v
2
, Av
3
= 0.
118 Capitolo 10
Osservando anche che la base B `e ortogonale, ne deduciamo che lazione di
f consiste nella proiezione ortogonale sul piano generato da v
1
e v
2
seguita
da una omotetia di ragione 6 su tale piano. Si tratta indubbiamente di una
descrizione di f pi` u ecace di quella fornita dalla sola matrice A = [f]
E
3
E
3
.
10.1 Matrici coniugate e diagonalizzabilit`a
Ci riferiamo per un attimo a una situazione pi` u generale di quella descritta,
ovvero ad una applicazione lineare f : V W tra spaz vettoriali di dimensione
nita, entrambi su K, dove K `e R oppure C. In tal caso `e facile vedere che
esistono basi B e C tali che
[f]
C
B
=
_
I
k
0
0 0
_
dove k = rank(f) e ciascuno 0 indica una opportuna matrice con coecienti
tutti nulli. Dunque lunica caratteristica di f che `e possibile ricavare analiz-
zando le matrici [f]
C
B
`e il suo rango. Questo suggerisce di ridursi al caso in cui
W = V e di analizzare soltanto le matrici del tipo [f]
B
B
, come anticipato sopra.
Consideriamo dunque nel resto del paragrafo uno spazio vettoriale V di
dimensione n su K e f : V V lineare. Per trovare la matrice [f]
B
B
pi` u
espressiva ne ssiamo una a caso e ci chiediamo come si ricavino da essa le altre.
Fissiamo cio`e una base B
0
e consideriamo lassociata matrice A
0
= [f]
B
0
B
0
. Se
prendiamo ora unaltra base B sappiamo che esiste una matrice M invertibile
tale che B = B
0
M, e che la matrice A = [f]
B
B
`e data da M
1
A
0
M. Notiamo
ora che se M

`e una qualsiasi matrice n n invertibile allora B


0
M

`e sempre
una base di V . Denendo allora una matrice A coniugata ad A
0
se esiste M
invertibile tale che A = M
1
A
0
M, abbiamo provato la seguente:
Proposizione 10.1.1. Se A
0
`e una matrice di f, le altre matrici di f sono
tutte e sole le coniugate di A
0
.
(Alcuni usano il termine simile in luogo del termine coniugata che useremo
sempre noi). Poiche le matrici di cui `e pi` u facile comprendere lazione sono
quelle diagonali, diciamo che f : V V `e diagonalizzabile se esiste una base B
tale che [f]
B
B
`e diagonale. Dunque una matrice `e diagonalizzabile se `e coniugata
a una diagonale. Notiamo che f `e diagonalizzabile se e soltanto se esistono una
base (v
1
, . . . , v
n
) di V e costanti
1
, . . . ,
n
tali che f(v
j
) =
j
v
j
per ogni j. Ci`o
suggerisce di partire, nellanalisi di una qualsiasi f, dallequazione f(v) = v,
che naturalmente `e banalmente soddisfatta per ogni se v = 0. Escludendo
Autovalori e diagonalizzazione 119
tale caso siamo condotti alla seguente denizione: uno scalare K si dice
autovalore per f se esiste v V non nullo tale che f(v) = v; ogni v siatto
`e detto autovettore di f relativo a . Notiamo ora che, se `e un autovalore di
f, unendo 0 allinsieme di tutti gli autovettori relativi a otteniamo linsieme
_
v V : f(v) = v
_
=
_
v V : ( Id
V
f)(v) = 0
_
= Ker( Id
V
f)
che `e dunque un sottospazio vettoriale di V ed `e chiamato autospazio relativo
allautovalore . Vale inoltre la seguente:
Osservazione 10.1.2. Uno scalare K `e autovalore di f se e solo se
dim
K
(Ker( Id
V
f)) > 0 .
Nel caso in cui f sia lapplicazione K
n
K
n
associata ad una matrice
A M
nn
(K), deduciamo dallosservazione precedente un semplice criterio
per trovare gli autovalori di f, infatti lo `e se e solo se det( I
n
A) = 0.
Proviamo nella prossima proposizione che questo criterio si estende in generale.
Ricordiamo dapprima che un polinomio in K[t] si dice monico se il coeciente
della sua potenza pi` u alta `e lunit`a.
Proposizione 10.1.3. Se B `e una base di V si ha che
p
f
(t) = det
_
t I
n
[f]
B
B
_
`e indipendente da B ed `e un polinomio monico di grado n in t. Inoltre K
`e un autovalore di f se e soltanto se p
f
() = 0.
Dimostrazione. Notiamo intanto che t I
n
[f]
B
B
= [t Id
V
f]
B
B
, da cui segue
subito lultima aermazione. Inoltre, se B

`e unaltra base di V e B

= B M,
si ha
t I
n
[f]
B

B
= [t Id
V
f]
B

B
= M
1
[t Id
V
f]
B
B
M
= M
1
(t I
n
[f]
B
B
) M
e la prima aermazione discende allora dal Teorema di Binet. La seconda
aermazione `e ovvia.
Il polinomio p
f
(t) descritto nella proposizione precedente `e detto polino-
mio caratteristico di f. Largomento sviluppato nella dimostrazione implica
120 Capitolo 10
in particolare che si pu`o denire il determinante det(f) di f come det([f]
B
B
)
dove B `e una base arbitraria di V . Inoltre il termine noto p
f
(0) del polinomio
caratteristico risulta uguale a (1)
n
det(f). Anche il coeciente del termine
di grado n 1 in p
f
(t) ammette una chiara interpretazione, che richiede il
seguente semplice:
Lemma 10.1.4. Se A e B sono matrici quadrate si ha tr(A B) = tr(B A).
Usando questo fatto `e facile vedere che si pu`o denire la traccia di f come
la traccia di una sua qualsiasi matrice, e che il coeciente di t
n1
in p
f
(t) `e
lopposto della traccia di f.
Tornando alla diagonalizzabilit`a abbiamo ora la seguente:
Proposizione 10.1.5. Se p
f
(t) ha n radici distinte che appartengono a K
allora f `e diagonalizzabile.
Dimostrazione. Siano
1
, . . . ,
n
le radici di p
f
(t). Lipotesi garantisce che esi-
stono v
1
, . . . , v
n
non nulli tali che f(v
j
) =
j
v
j
. Basta allora vedere che essi
costituiscono una base. Lo facciamo vericando induttivamente che v
1
, . . . , v
k
sono linearmente indipendenti, il che `e ovvio se k = 1. Sia dunque k < n, sup-
poniamo dimostrato che v
1
, . . . , v
k
sono linearmente indipendenti, e proviamo
che v
k+1
Span(v
1
, . . . , v
k
). Lo facciamo ragionando per assurdo:
v
k+1
=
1
v
1
+. . . +
k
v
k
f(v
k+1
) =
1
f(v
1
) +. . . +
k
f(v
k
)

k+1
v
k+1
=
1

1
v
1
+. . . +
k

k
v
k

k+1
(
1
v
1
+. . . +
k
v
k
) =
1

1
v
1
+. . . +
k

k
v
k

1
(
1

k+1
) v
1
+. . . +
k
(
k

k+1
) v
k
= 0

j
(
j

k+1
) = 0 j

j
= 0 j .
Contraddizione.
A proposito dellenunciato appena dimostrato ricordiamo che un polinomio
di grado n ha sempre n radici (con molteplicit`a) su C, mentre pu`o averne
meno di n su R. Dunque nel caso K = C lipotesi `e soltanto che le radici del
polinomio caratteristico siano distinte. Invece nel caso K = R lipotesi `e che
siano reali e distinte.
Nel caso in cui il polinomio caratteristico non abbia radici distinte esiste un
pi` u elaborato criterio per la diagonalizzabilit`a, basato sulle nozioni seguenti:
Autovalori e diagonalizzazione 121
se `e un autovalore di f, chiamiamo molteplicit`a algebrica la molteplicit`a di
come radice di p
f
(t), e molteplicit`a geometrica la dimensione su K del relativo
autospazio, cio`e la dimensione del nucleo di Id
V
f. Indichiamo le due
molteplicit`a con m.a.() e m.g.() rispettivamente. Abbiamo intanto:
Lemma 10.1.6. Se `e autovalore di f si ha 1 m.g.() m.a.().
Dimostrazione. Per denizione di autovalore si ha m.g.() 1. Sia ora k =
m.g.() e scegliamo una base v
1
, . . . , v
k
di Ker( Id
V
f), completandola poi
a una base B = (v
1
, . . . , v
n
) di V . Si ha allora:
[f]
B
B
=
_
_
_
_
_
0
.
.
.
A

0
0 A

_
_
_
_
_
per matrici A

M
k(nk)
(K) e A

M
(nk)(nk)
(K) opportune. Ne segue
che p
f
(t) = (t )
k
p
A
(t) dunque che m.a.() k, onde la conclusione.
Con un argomento simile a quello usato per la Proposizione 10.1.5 si pu`o
dimostrare ora il seguente:
Teorema 10.1.7. Siano V uno spazio vettoriale su K e f : V V una
applicazione lineare.
Se K = C allora f `e diagonalizzabile se e solo se per ogni autovalore
di f si ha m.g.() = m.a.();
Se K = R allora f `e diagonalizzabile se e solo se ha tutti gli autovalori
reali e per ogni autovalore si ha m.g.() = m.a.().
Osserviamo che, essendo R C, a una matrice A M
nn
(R) sono asso-
ciate sia una una applicazione R
n
R
n
che una C
n
C
n
. Quindi quando
ci si chiede se A sia diagonalizzabile `e necessario specicare se lo si chieda in
senso reale o in senso complesso. Dal teorema precedente e dal fatto che per
una matrice reale la dimensione del nucleo reale `e uguale a quella del nucleo
complesso (si veda la Proposizione 8.5.3) segue che A `e diagonalizzabile su R,
cio`e esiste M reale invertibile tale che M
1
A M sia diagonale, se e solo se
A `e diagonalizzabile su C e ha autovalori reali.
Concludiamo il paragrafo interpretando in termini di autovalori il determi-
nante e la traccia di una matrice A M
nn
(C). Abbiamo infatti gi`a visto che
il determinante `e (a meno del segno) il termine noto di p
A
(t), mentre la traccia
122 Capitolo 10
`e lopposto del coeciente di t
n1
. Se A ha autovalori
1
, . . . ,
n
contati con
la loro molteplicit`a algebrica abbiamo ora p
A
(t) = (t
1
) . . . (t
n
). Il
termine noto di questo polinomio `e (1)
n

1
. . .
n
, mentre il coeciente di
t
n1
`e (
1
+. . . +
n
). Ne deduciamo la seguente:
Proposizione 10.1.8. Per una qualsiasi matrice quadrata il determinante `e
il prodotto degli autovalori, e la traccia ne `e la somma. In entrambi i casi gli
autovalori devono essere considerati con la loro molteplicit`a algebrica.
Notiamo che questa proposizione vale anche per matrici reali aventi auto-
valori non tutti reali.
10.2 Il teorema spettrale
Molte delle matrici che emergono dai problemi della sica e dellingegneria ap-
partengono alle classi speciali gi`a introdotte delle simmetriche, delle antisim-
metriche, delle ortogonali, delle hermitiane, oppure delle unitarie. In questo
paragrafo mostriamo che tutte le matrici di questi tipi hanno una forma ca-
nonica particolarmente semplice. Cominciamo col risultato pi` u importante,
detto teorema spettrale:
Teorema 10.2.1.
2
Ogni matrice reale simmetrica si diagonalizza tramite una
matrice ortogonale.
Dimostrazione. Lenunciato signica che data A M
nn
(R) simmetrica esiste
M M
nn
(R) ortogonale, cio`e tale che
t
M = M
1
, per la quale M
1
A M
`e diagonale. Ci`o accade se e soltanto se A ammette una base ortonormale di
autovettori.
Cominciamo a dimostrare che A ammette almeno un autovalore reale.
Poiche su C lequazione p
A
(t) = 0 ammette n soluzioni con molteplicit`a, ba-
ster`a vedere che ogni autovalore C in realt`a `e reale. Fissato tale , notiamo
che esiste z C
n
tale che A z = z. Dunque:
z
2
C
n = z|z
C
n = A z|z
C
n = z|A

z
C
n
= z|A z
C
n = z| z
C
n = z
2
C
n .
Poiche z = 0, ne segue che = , dunque R.
Avendo provato che A ammette autovalori reali, ne ssiamo uno che deno-
tiamo con
1
, e scegliamo un relativo autovettore v
1
che sia unitario. Possiamo
2
Carlo: enuncia con se e solo se
Autovalori e diagonalizzazione 123
allora completare v
1
a una base che sia ortonormale. Esiste dunque una matrice
M
1
ortogonale tale che
M
1
1
A M
1
=
_

1
x
1
0 A
1
_
dove x
1
`e un vettore riga e A
1
M
(n1)(n1)
(R). Essendo M
1
1
=
t
M
1
,
`e facile vedere che M
1
1
A M
1
`e ancora simmetrica, dunque x
1
= 0 e A
1
`e simmetrica. Ci siamo pertanto ricondotti al caso di una matrice simmetri-
ca (n 1) (n 1), e un semplice ragionamento per induzione consente di
concludere la dimostrazione.
Il primo passo della dimostrazione precedente, consistente nella verica che
una matrice simmetrica ha almeno un autovalore reale, pu`o essere compiuto
anche senza passare ai numeri complessi, usando invece metodi analitici:
Proposizione 10.2.2. Se A M
nn
(R) `e simmetrica allora la funzione
f : R
n
\ {0} x
A x|x
R
n
x
2
R
n
R
ammette massimo. Tale massimo `e un autovalore di A, e il punto di massimo
di f `e un autovettore a esso relativo.
Dimostrazione. Poiche f(k x) = f(x) se k > 0, i valori presi dalla f sono
quelli presi sulla sfera unitaria. Tale sfera `e un chiuso limitato sul quale la f `e
continua, dunque il massimo esiste. Sia x un punto di massimo ed m il valore
di tale massimo. Notando che
f(x) =
n

i,j=1
(A)
ij
x
i
x
j
n

i=1
x
2
i
ed imponendo che per x = x la derivata parziale
f
x
k
si annulli (vedi anche il
successivo Sottoparagrafo 10.2.1) otteniamo
_
_
2
n

j=1
(A)
kj
x
j
_
_

_
n

i=1
x
2
i
_

_
_
n

i,j=1
(A)
ij
x
i
x
j
_
_
2x
k
= 0
ovvero
n

j=1
(A)
kj
x
j
= m x
k
, da cui segue la tesi.
124 Capitolo 10
Il teorema spettrale ci consente ora di rispondere alla domanda, rimasta
in sospeso nel capitolo precedente, di quali matrici simmetriche deniscano
prodotti scalari:
Corollario 10.2.3. Se A M
nn
(R) `e simmetrica, allora . | .
A
`e denito
positivo se e solo se A ha autovalori positivi.
Dimostrazione. Esiste M ortogonale tale che
t
MAM `e una matrice diagonale
con coecienti
1
, . . . ,
n
. Poiche M `e invertibile, si ha x|x
A
> 0 per ogni
x R
n
se e solo se M x|M x
A
per ogni x R
n
. Ora
M x|M x
A
=
1
x
2
1
+. . . +
n
x
2
n
da cui segue subito la tesi.
Un criterio utile nella pratica `e fornito dal seguente:
Teorema 10.2.4. Sia A M
nn
(R) simmetrica, sia A
k
la sottomatrice delle
prime k righe e k colonne di A, e sia d
k
= det(A
k
). Allora . | .
A
`e denito
positivo se e soltanto se det(A
k
) > 0 per k = 1, . . . , n.
Dimostrazione. Se . | .
A
`e denito positivo ogni A
k
denisce un prodotto
scalare su R
k
, dunque ha autovalori positivi, e la conclusione segue poiche d
k
`e il prodotto degli autovalori di A
k
.
Proviamo il viceversa dimostrando per induzione su k = 1, . . . , n che A
k
ha autovalori tutti positivi, il che fornisce la conclusione desiderata per k = n.
Per k = 1 laermazione `e ovvia. Sia k 1 e supponiamo la conclusione vera
per A
k
. Poiche d
k+1
= det(A
k+1
) > 0, la A
k+1
ha (contando la molteplicit`a)
un numero pari di autovalori negativi. Supponiamo per assurdo che ce ne siano
almeno due. Poiche A
k+1
`e diagonalizzabile, denendo W come il sottospazio di
R
k+1
che `e somma di tutti gli autospaz di A
k+1
relativi agli autovalori negativi,
si ha dim
R
(W) 2 e w|w
A
k+1
< 0 per ogni w W con w = 0. Osserviamo
ora che R
k
{0} e W sono sottospaz di R
k+1
di dimensioni rispettivamente k e
almeno 2, da cui segue che che la loro intersezione ha dimensione almeno k+2
(k+1) = 1, dunque contiene un vettore w =
_
u
0
_
non nullo. Abbiamo allora
w|w
A
k+1
= u|u
A
k
, e per ipotesi induttiva u|u
A
k
> 0, mentre w|w
A
k+1
<
0. Abbiamo trovato un assurdo e la dimostrazione `e completa.
Il seguente risultato generalizza il precedente e si dimostra in modo simile
(ma un po pi` u laborioso):
Autovalori e diagonalizzazione 125
Teorema 10.2.5. Sia A M
nn
(R) simmetrica, sia A
k
la sottomatrice delle
prime k righe e k colonne di A, e sia d
k
= det(A
k
). Poniamo d
0
= 1 e
supponiamo che d
1
, . . . , d
k1
siano non nulli. Allora i segni degli autovalori di
A (contati con la loro molteplicit`a) sono i segni di
d
1
d
0
,
d
2
d
1
, . . . ,
d
n
d
n1
.
10.2.1 Teorema spettrale e matrice hessiana
3
Oltre ad avere una dimostrazione di natura almeno in parte analitica, il teo-
rema spettrale ha anche unimportante applicazione allanalisi in pi` u variabili.
Sia un aperto di R
n
e sia f : R una funzione con derivate parziali
continue no allordine 2. Ricordiamo la denizione del gradiente di f in un
punto x:
grad
x
(f) =
_
f
x
1
(x), . . . ,
f
x
n
(x)
_
.
Sappiamo inoltre che

2
f
x
i
x
j
(x) =

2
f
x
j
x
i
(x)
dunque possiamo considerare la matrice hessiana
H
x
(f) =
_

2
f
x
i
x
j
(x)
_
i,j=1,...,n
che risulta simmetrica. Vale la seguente:
Proposizione 10.2.6. Nelle ipotesi precedenti, sia x .
Se x `e un punto di minimo locale per f allora grad
x
(f) = 0 e H
x
(f) ha
autovalori non negativi.
Se grad
x
(f) = 0 e H
x
(f) ha autovalori positivi allora x `e un punto di
minimo locale per f.
Dimostrazione. La formula di approssimazione di Taylor del secondo ordine
garantisce che
f(x +h) = f(x) +
n

i=1
f
x
i
(x) h
i
+
1
2

n

i,j=1

2
f
x
i
x
j
(x) h
i
h
j
+ o(h
2
)
= f(x) + grad
x
(f) h +
1
2

t
h H
x
(f) h + o(h
2
) .
3
Carlo: Riversa qui gli appunti a mano su Taylor al secondo ordine
126 Capitolo 10
`
E chiaro che se x `e un punto di minimo locale allora grad
x
(f) = 0. Inoltre,
grazie al teorema spettrale, in qualsiasi punto x tale che grad
x
(f) = 0 si ha, a
meno di cambiamenti ortogonali delle coordinate, che
f(x +h) = f(x) +
1
2
(
1
h
2
1
+. . . +
n
h
2
n
) + o(h
2
)
dove
1
, . . . ,
n
sono gli autovalori di H
x
(f). La conclusione `e allora immediata.
10.2.2 Versione complessa del teorema spettrale
Tornando alla diagonalizzabilit`a delle matrici, passiamo ora al caso complesso
denendo una A M
nn
(C) normale se A

A = A A

. Abbiamo la seguente
estensione del teorema spettrale:
Teorema 10.2.7.
4
Se A `e normale allora si diagonalizza tramite una matrice
unitaria.
Dimostrazione. Si procede come per il secondo passo del teorema spettrale,
scegliendo una base ortonormale della quale il primo vettore sia un autovalore
di A rispetto a qualche autovalore
1
. Ci`o conduce a una matrice U
1
unitaria
tale che
U
1
1
A U =
_

1
z
1
0 A
1
_
.
Usando il fatto che U
1
1
= U

1
e il fatto che A `e normale si verica subito
che anche U
1
1
A U
1
`e normale. Imponendo questa condizione alla matrice
_

1
z
1
0 A
1
_
si trova che z
1
= 0 e A
1
`e normale, dunque si conclude facilmente
per induzione.
Questo teorema si applica in particolare alle matrici hermitiane e conduce
al seguente risultato, che si dimostra essenzialmente come nel caso reale:
Teorema 10.2.8. Sia A M
nn
(C) hermitiana. Allora gli autovalori di A
sono reali. Inoltre sono fatti equivalenti:
. | .
A
`e denito positivo;
A ha autovalori tutti positivi;
Se A
k
`e la sottomatrice delle prime k righe e k colonne di A, si ha
det(A
k
) > 0 per k = 1, . . . , n.
4
Carlo: Rifai con se e solo se
Autovalori e diagonalizzazione 127
10.2.3 Forma canonica di matrici antisimmetriche e ortogonali
Il Teorema 10.2.7 si applica anche alle matrici antisimmetriche reali, alle an-
tihermitiane (quelle opposte alla propria aggiunta), alle ortogonali reali, e alle
unitarie.
`
E intanto facile il seguente:
Lemma 10.2.9. Se A M
nn
(R) `e antisimmetrica oppure A M
nn
(C)
`e antihermitiana allora gli autovalori di A sono immaginari puri. Se A
M
nn
(R) `e ortogonale oppure A M
nn
(C) `e unitaria allora allora gli auto-
valori di A sono di modulo unitario.
Dimostrazione. Per A antihermitiana (in particolare, se e antisimmetrica
reale), se C `e un autovalore e z C
n
`e un autovettore relativo, si ha
z
2
C
n = z|z
C
n = A z|z
C
n = z|A

z
C
n
= z| A z
C
n = z| z
C
n = z
2
C
n
dunque = , da cui la conclusione. Se invece A `e unitaria (in particolare,
se `e ortogonale reale) si ha
||
2
z
2
C
n = z| z
C
n = A z|A z
C
n = z|A

A z
C
n = z
2
C
n
dunque || = 1.
Per le antihermitiane e le unitarie il lemma precedente e il Teorema 10.2.7
comportano subito la:
Proposizione 10.2.10. Sia A M
nn
(C).
Se A `e antihermitiana allora esiste M M
nn
(C) unitaria tale che
M
1
A M `e una matrice diagonale con coecienti immaginari puri
sulla diagonale.
Se A `e unitaria allora esiste M M
nn
(C) unitaria tale che M
1
AM `e
una matrice diagonale con coecienti di modulo unitario sulla diagonale.
Con qualche sforzo in pi` u si trova invece per le antisimmetriche e le orto-
gonali il seguente:
Teorema 10.2.11. Sia A M
nn
(R).
Se A `e antisimmetrica allora esiste M M
nn
(R) ortogonale tale che
M
1
A M `e una matrice diagonale a blocchi con blocchi del tipo (0)
oppure
_
0
0
_
con = 0.
128 Capitolo 10
Se A `e ortogonale allora esiste M M
nn
(R) ortogonale tale che M
1

A M `e una matrice diagonale a blocchi con blocchi del tipo (1) oppure
(1) oppure
_
cos sin
sin cos
_
con R.
Non forniremo tutti i dettagli della dimostrazione di questo risultato, ma
diamo almeno lidea nel caso di A ortogonale (il caso di A antisimmetrica `e
analogo e anche pi` u semplice). Ad autovalori reali 1 corrispondono auto-
vettori reali, da cui i blocchi 1 sulla diagonale. Supponiamo di avere inve-
ce un autovalore e
i
= cos + i sin non reale. Sappiamo che allora anche
e
i
= cos i sin `e un autovalore di A, e prendiamo un autovettore z C
n
a esso relativo. Scrivendo z = x +iy con x, y R
n
abbiamo allora
A (x +iy) = (cos i sin ) (x +iy)
A x +i(A y) = cos x + sin y +i(sin x + cos y)

_
A x = cos x + sin y
A y = sin x + cos y.
Dunque, ammesso che x e y siano linearmente indipendenti, sul sottospazio da
essi generato la A agisce appunto come il blocco quadrato
_
cos sin
sin cos
_
previsto dallenunciato. Possiamo ora vedere che x e y sono ortogonali e hanno
la stessa norma, da cui segue che in eetti sono linearmente indipendenti e
anzi che a meno di normalizzazione costituiscono una base ortonormale del
sottospazio da essi generato (in accordo con il fatto che, nellenunciato, `e una
matrice M ortogonale a coniugare A a una matrice diagonale a blocchi). Infatti
`e immediato vedere che xiy `e un autovettore di A relativo allautovalore e
i
,
che `e distinto da e
i
, dunque per il Teorema 10.2.7 si ha x +iy|x iy
C
n = 0,
da cui
_
t
x +i
t
y
_
(x +iy) = 0
t
x x
t
y y + 2i
t
x y = 0
_
x = y
x|y
R
n = 0.
Se gli autovalori di A sono tutti distinti largomento appena presentato dimo-
stra completamente il Teorema 10.2.11 (per A ortogonale), mentre nel caso di
autovalori con molteplicit`a maggiore di 1 serve qualche ulteriore considerazione.
Coniche metriche e ani 129
Capitolo 11
Coniche metriche e ani
In questo capitolo incontreremo la denizione di alcuni luoghi geometrici nel
piano, detti coniche non degeneri, descrivendone i prototipi dal punto di vista
metrico (cio`e a meno di movimenti rigidi del piano) e scoprendo che sono
deniti da equazioni polinomiali di secondo grado. Vedremo poi che con una
piccola restrizione qualsiasi sottoinsieme del piano denito da unequazione
polinomiale di secondo grado `e una conica non degenere, e mostreremo come
classicarlo a meno di trasformazioni ani. A questultimo ne useremo un
argomento del tutto elementare, rimandando una comprensione pi` u concettuale
della classicazione al Capitolo 13
11.1 Modelli metrici delle coniche
In questo paragrafo trattiamo brevemente le nozioni di isometria e di trasfor-
mazione ane del piano e introduciamo i modelli metrici dei luoghi di cui ci
occuperemo nellintero capitolo. Una trattazione pi` u sistematica e dettagliata
delle isometrie `e contenuta nel Capitolo 16.
11.1.1 Piano euclideo, isometrie e
trasformazioni ani
Nel piano euclideo la distanza tra due punti di coordinate (x
1
, y
1
) e (x
2
, y
2
) si
calcola usando il teorema di Pitagora e vale

(x
1
x
2
)
2
+ (y
1
y
2
)
2
.
Le isometrie del piano sono le bigezioni R
2
R
2
che preservano la distanza.
Geometricamente `e chiaro che sono isometrie le trasformazioni dei tipi seguenti:
130 Capitolo 11
traslazioni;
rotazioni intorno a punti;
riessioni rispetto a rette;
composizioni dei tipi precedenti.
In realt`a vedremo nel Capitolo 16 che questo elenco contiene tutti i tipi di
isometria del piano. Dal punto di vista analitico `e possibile dimostrare (vedi
ancora il Capitolo 16) che ogni isometria di R
2
, vista come cambiamento di
coordinate, `e una trasformazione del tipo
_
X
Y
_
= M
_
x
y
_
+v
0
con M matrice ortogonale e v
0
=
_
x
0
y
0
_
vettore di traslazione. Dando per
buono questo fatto possiamo ora facilmente provare la:
Proposizione 11.1.1. Una isometria di R
2
`e la composizione di una rotazione
o di una riessione con una traslazione.
Dimostrazione.
`
E immediato vericare che ogni matrice ortogonale 2 2 `e di
uno dei seguenti tipi:
R

=
_
cos sin
sin cos
_
, S

=
_
cos sin
sin cos
_
.
Sappiamo gi`a che R

`e la rotazione di angolo intorno a 0; essendo tr(S

) = 0
e det(S

) = 1 il Teorema 10.2.11 comporta invece che S

`e coniugata tramite
una matrice ortogonale a
_
1 0
0 1
_
, dunque `e la riessione rispetto a una
retta per 0; in realt`a con le formule trigonometriche di duplicazione `e facile
vedere che
S

_
cos(/2)
sin(/2)
_
=
_
cos(/2)
sin(/2)
_
, S

_
sin(/2)
cos(/2)
_
=
_
sin(/2)
cos(/2)
_
dunque S

rappresenta la riessione rispetto alla retta per 0 di inclinazione


/2.
Coniche metriche e ani 131
Come gi`a anticipato, oltre alle isometrie impiegheremo un tipo pi` u generale
di cambiamento di coordinate, che chiameremo ane, dato dalla composizione
di una bigezione lineare con una traslazione, dunque anchesso descritto dalla
formula
_
X
Y
_
= M
_
x
y
_
+v
0
nella quale per`o si richiede soltanto che det(M) = 0.
11.1.2 Equazioni metriche di circonferenza,
ellisse, parabola e iperbole
Le coniche non degeneri sono particolari luoghi geometrici nel piano, deniti
attraverso la nozione di distanza. Le descriveremo a meno di isometrie, cio`e
scriveremo le loro equazioni rispetto a opportuni sistemi di coordinate ottenuti
con una trasformazione isometrica a partire dalle coordinate originali.
Circonferenza La circonferenza `e il luogo dei punti aventi una ssata di-
stanza r > 0 da un punto ssato, detto centro. Applicando unisometria (in
questo caso, una traslazione) possiamo supporre che il centro sia lorigine,
quindi lequazione della circonferenza `e
x
2
+y
2
= r
2
.
Ellisse Lellisse `e linsieme dei punti che hanno ssata somma delle distanze
da due punti ssati, detti fuochi. Applicando la traslazione che porta nel-
lorigine il punto medio del segmento che congiunge i fuochi, seguita da una
rotazione intorno allorigine, possiamo supporre che i fuochi siano (h, 0) e
(h, 0) per qualche h > 0. Se 2k > 0 `e il valore costante sullellisse della somma
delle distanze dai fuochi, vediamo che k > h, in quanto la minima possibi-
le somma delle distanze da (h, 0) e (h, 0) per un punto del piano si ha sul
segmento [h, h] {0} e vale 2h. Lequazione dellellisse `e allora

(x +h)
2
+y
2
+

(x h)
2
+y
2
= 2k
dalla quale con semplici manipolazioni algebriche si ottiene lequazione equi-
valente
x
2
k
2
+
y
2
k
2
h
2
= 1
che possiamo riscrivere per opportuni a > b > 0 come
x
2
a
2
+
y
2
b
2
= 1
132 Capitolo 11
e che consideriamo lequazione canonica metrica di unellisse. I numeri a, b sono
detti semiassi perche gli assi coordinati sono assi di simmetria per lellisse e i
segmenti interni allellisse su di essi hanno lunghezze 2a e 2b.
Iperbole Liperbole `e linsieme dei punti che hanno ssata dierenza (in
valore assoluto) delle distanze da due punti ssati, detti fuochi. Come per
lellisse possiamo supporre a meno di isometrie che i fuochi siano (h, 0) e
(h, 0) per qualche h > 0. Se 2k > 0 `e il valore costante sulliperbole della
dierenza delle distanze dai fuochi, vediamo che k < h, in quanto la massima
possibile dierenza delle distanze da (h, 0) e (h, 0) per un punto del piano si
ha sullasse delle ascisse fuori dal segmento (h, h){0} e vale 2h. Lequazione
delliperbole `e allora

(x +h)
2
+y
2

(x h)
2
+y
2

= 2k.
Sviluppando i calcoli si ottiene esattamente la medesima equazione trovata per
lellisse (infatti i segni per cui dieriscono le equazioni iniziali svaniscono con i
due elevamenti al quadrato), che conviene per`o scrivere come
x
2
k
2

y
2
h
2
k
2
= 1
e che possiamo riscrivere per opportuni a, b > 0 come
x
2
a
2

y
2
b
2
= 1
che consideriamo lequazione canonica metrica di uniperbole. I numeri a, b
sono ancora detti semiassi.
Parabola La parabola `e linsieme dei punti equidistanti da una retta ssata
e da un punto ssato fuori dalla retta. Traslando lorigine degli assi nel punto
medio del segmento di minima distanza tra il punto e la retta ed eseguendo
una rotazione, vediamo che a meno di isometria possiamo supporre che la retta
abbia equazione y = h e il punto sia (0, h) per qualche h > 0. Lequazione
della parabola `e dunque
|y +h| =

x
2
+ (y h)
2
da cui elevando al quadrato si trova 4hy = x
2
ovvero
y = ax
2
per qualche a > 0, che consideriamo lequazione canonica metrica della para-
bola.
Coniche metriche e ani 133
Sezioni coniche Lequazione x
2
+ y
2
= z
2
denisce in R
3
un cono. Infatti
x
2
+ y
2
rappresenta il quadrato della distanza del punto (x, y, z) dallasse z,
dunque il luogo di equazione x
2
+ y
2
= z
2
si ottiene ruotando intorno allasse
z lunione delle rette x z = 0 nel piano xz (o anche una sola di esse), da
cui risulta appunto un cono. Si pu`o vericare che le coniche metriche sopra
descritte sono tutte e sole le curve che si ottengono intersecando il cono x
2
+
y
2
= z
2
con un piano che non contenga lorigine. Ad esempio se intersechiamo
con z = 1 otteniamo la circonferenza unitaria x
2
+ y
2
= 1 (una particolare
ellisse). Se invece intersechiamo con y = 1 troviamo liperbole z
2
x
2
= 1. E
inne se intersechiamo con il piano x + z =

2 sul quale poniamo coordinate


Y =
1

2
(z x) e X = y otteniamo la parabola Y = X
2
; le coordinate X, Y sul
piano x+z =

2 danno un sistema di riferimento ortogonale perche la formula


_

_
X = y
Y =
1

2
(z x)
Z =
1

2
(z +x)
denisce unisometria di R
3
.
11.2 Matrice di una conica e classicazione
ane delle coniche non degeneri
Consideriamo ora le coniche sopra descritte solo a meno di trasformazioni ani.
Abbiamo allora le equazioni canoniche x
2
+ y
2
= 1 (ellisse), x
2
y
2
= 1
(iperbole) e y = x
2
(parabola). Conviene anche osservare che con un cambio di
coordinate lequazione delliperbole prende la forma xy = 1, che pu`o anchessa
essere impiegata come equazione canonica. Notiamo inoltre che linsieme vuoto
pu`o essere denito (ad esempio) dallequazione x
2
+y
2
+ 1 = 0. Osservando
che tutte le equazioni appena descritte sono polinomiali di secondo grado, ci
poniamo ora il problema di classicare dal punto di vista ane il luogo di zeri
di un qualsiasi polinomio di secondo grado, ovvero un luogo di equazione
a
11
x
2
+ 2a
12
xy +a
22
y
2
+ 2a
13
x + 2a
23
y +a
33
= 0.
La ragione della notazione scelta per i coecienti `e che lequazione pu`o essere
riscritta come
t
_
_
x
y
1
_
_

_
_
a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33
_
_

_
_
x
y
1
_
_
= 0.
134 Capitolo 11
Lutilit`a di questa scrittura emerger`a pienamente nellambito dello studio delle
coniche tramite la geometria proiettiva (vedi il Capitolo 13). Ci limitiamo
qui invece a una verica a mano del fatto che si pu`o classicare il luogo
denito dallequazione precedente impiegando tecniche di algebra lineare. Una
spiegazione pi` u concettuale della ragione per cui queste tecniche funzionano `e
rimandata al futuro. Poniamo dunque A =
_
_
a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33
_
_
e proponiamoci
di classicare dal punto di vista ane il luogo denito dallequazione di secondo
grado cui `e associata la matrice A. A questo ne per i = 1, 2, 3 deniamo d
i
come il determinante della sottomatrice quadrata di A formata dalle prime
i righe e dalle prime i colonne. Dunque d
1
`e il coeciente di x
2
, poi d
2
`e
il determinante della parte di A relativa alla porzione puramente quadratica
dellequazione, e inne d
3
non `e altro che il determinante di A.
Teorema 11.2.1. Sia L il luogo in R
2
denito da unequazione polinomiale
di secondo grado a cui `e associata una matrice simmetrica A M
33
(R). Se
det(A) = 0 allora L `e linsieme vuoto oppure esiste una trasformazione ane
che manda L in uno dei luoghi di equazione x
2
+ y
2
= 1 (ellisse), oppure
x
2
y
2
= 1 (iperbole), oppure y = x
2
(parabola). Pi` u esattamente, il seguente
elenco esaurisce tutte le possibilit`a e fornisce una classicazione ane di L:
(1) Se d
2
> 0 e d
1
d
3
> 0 allora L `e vuoto;
(2) Se d
2
> 0 e d
1
d
3
< 0 allora L `e un ellisse;
(3) Se d
2
< 0 allora L `e uniperbole;
(4) Se d
2
= 0 allora L `e una parabola.
Sottolineiamo che nei quattro casi descritti alla ne dellenunciato prece-
dente si d`a sempre come ipotesi che d
3
sia non nullo, nel qual caso diremo che
L `e una conica non degenere. Per dimostrare il Teorema 11.2.1 iniziamo con
la seguente:
Proposizione 11.2.2. I casi (1)-(4) del Teorema 11.2.1 coprono tutte le pos-
sibilit`a con d
3
= 0. Inoltre le matrici di due equazioni rientrano nel medesimo
caso se le due equazioni sono ottenute luna dallaltra tramite moltiplicazione
per una costante non nulla oppure tramite una trasformazione ane.
Dimostrazione. Per provare la prima aermazione basta vedere che se d
2
> 0,
ovvero a
11
a
22
a
2
12
> 0, allora d
1
= a
11
non pu`o annullarsi, il che `e ovvio.
Coniche metriche e ani 135
Per la seconda aermazione, vediamo facilmente che il caso in cui una matrice
rientra non cambia se moltiplichiamo lequazione per una costante = 0 (per
< 0 nei casi (1) e (2) bisogna notare che d
1
e d
3
cambiano segno entrambi).
Esaminiamo ora leetto sulla matrice A di unequazione di una trasformazione
ane del tipo
_
x
y
_
M
_
x
y
_
+
_
x
0
y
0
_
. Per iniziare possiamo riscrivere
questa trasformazione come
_
_
x
y
1
_
_

_
M v
0
0 1
_

_
_
x
y
1
_
_
con v
0
=
_
x
0
y
0
_
.
Ponendo N =
_
M v
0
0 1
_
vediamo ora che N `e invertibile, dato che lo `e M;
inoltre poiche lequazione corrispondente ad A `e data da
t
_
_
x
y
1
_
_
A
_
_
x
y
1
_
_
vediamo facilmente che la matrice della nuova equazione dopo avere applicato
la trasformazione ane `e A

=
t
N A N. Inoltre se A =
_
Q
t
k
_
si ha
A

=
_
t
M Q M

_
. Abbiamo allora:
d

2
= det(
t
M) d
2
det(M) = (det(M))
2
d
2
`e concorde con d
2
;
d

3
= det(
t
N) d
3
det(N) = (det(N))
2
d
3
`e concorde con d
3
.
Per concludere resta solo da vericare che se d
2
> 0 allora d

1
= a

11
`e concorde
con d
1
= a
11
(il quale `e concorde con a
22
, poiche d
2
= a
11
a
22
a
2
12
> 0).
Cominciamo a notare che a

11
= a
11
m
2
11
+ 2a
12
m
11
m
21
+ a
22
m
2
21
e osserviamo
che m
11
e m
21
non possono annullarsi entrambi; dividendo per il quadrato di
quello non nullo vediamo che per qualche t R il coeciente a

11
`e concorde con
a
11
t
2
+2a
12
t +a
22
oppure con a
22
t
2
+2a
12
t +a
11
, e dunque `e concorde con a
11
e con a
22
, dato che questi due polinomi in t hanno discriminante 4d
2
< 0.
Dimostrazione del Teorema 11.2.1. Largomento dipende in modo essenziale
dalla Proposizione 11.2.2. Infatti in ciascuno dei casi (1)-(4) modichiamo le-
quazione o moltiplicando per un numero non nullo o con una trasformazione
ane e sfruttiamo il fatto che la nuova matrice continua a ricadere nel me-
desimo caso (1)-(4) per provare che la nuova equazione `e del tipo desiderato
136 Capitolo 11
oppure che possiamo operare unulteriore trasformazione per giungere al tipo
desiderato.
Iniziamo dal caso (4), ovvero d
2
= 0, e notiamo che non si pu`o avere
a
11
= a
22
= 0, altrimenti avremmo anche a
12
= 0 e le prime due colonne di
A sarebbero linearmente dipendenti, contro lipotesi det(A) = 0. A meno di
scambiare x e y possiamo allora supporre a
11
= 0, e anzi a
11
= 1 dividendo
lequazione per a
11
. Dunque a
22
= a
2
12
, e lequazione diviene
x
2
+ 2a
12
xy +a
2
12
y
2
+ 2a
13
x + 2a
23
y +a
33
= 0
ovvero
(x +a
12
y)
2
= 2a
13
x 2a
23
y a
33
.
Questa equazione diviene quella della parabola ponendo
_
= x +a
12
y
= 2a
13
x 2a
23
y a
33
,
ma per vericare che questo cambiamento di coordinate corrisponda a una
trasformazione ane lecita dobbiamo provare che det
_
1 a
12
2a
13
2a
23
_
`e
non nullo, cio`e che a
12
a
13
a
23
= 0, e ci`o segue dallinvertibilit`a della matrice
A originale, cos` come di quella ottenuta dopo il primo passaggio, poiche
det
_
_
1 a
12
a
13
a
12
a
2
12
a
23
a
13
a
23
a
33
_
_
= a
13
_
a
12
a
23
a
2
12
a
13
_
a
23
(a
23
a
12
a
13
)
= (a
12
a
13
a
23
)
2
.
Passiamo al caso (3), ovvero d
2
< 0. Distinguiamo dapprima il sottocaso
a
11
= a
22
= 0; possiamo allora supporre a
12
= 1 ottenendo lequazione
2xy + 2a
13
x + 2a
23
y +a
33
= 0
ovvero
(2x + 2a
23
)(y +a
13
) = 2a
23
a
13
a
33
,
la quale certamente denisce uniperbole a meno di trasformazioni ani purche
il secondo membro sia non nullo, il che `e vero poiche
0 = det(A) = det
_
_
0 1 a
13
1 0 a
23
a
13
a
23
a
33
_
_
= 2a
23
a
13
a
33
.
Coniche metriche e ani 137
Liquidato il sottocaso a
11
= a
22
= 0, possiamo come sopra ricondurci ad
a
11
= 1. Lequazione `e allora
x
2
+ 2a
12
xy +a
22
y
2
+ 2a
13
x + 2a
23
y +a
33
= 0,
ovvero
(x +a
12
y)
2
(a
2
12
a
22
)y
2
+ 2a
13
x + 2a
23
y +a
33
= 0
dove a
2
12
a
22
= d
2
> 0. Sostituendo x + a
12
y con x e

d
2
y con y, il che
certamente corrisponde a una trasformazione ane, ci riconduciamo a
x
2
y
2
+ 2a
13
x + 2a
23
y +a
33
= 0
(con nuovi coecienti a
ij
, ovviamente), dunque a
(x +a
13
)
2
(y a
23
)
2
= a
2
13
a
2
23
a
33
la quale denisce uniperbole perche
0 = d
3
= det
_
_
1 0 a
13
0 1 a
23
a
13
a
23
a
33
_
_
= a
2
13
a
2
23
a
33
.
Restano inne i casi (1) e (2), con d
2
> 0. Supponiamo allora a
11
= 1,
ottenendo lequazione
(x +a
12
y)
2
+ (a
22
a
2
12
)y
2
+ 2a
13
x + 2a
23
y +a
33
= 0,
e ancora
x
2
+y
2
+ 2a
13
x + 2a
23
y +a
33
= 0,
(x +a
13
)
2
+ (y +a
23
)
2
= a
33
a
2
13
a
2
23
.
Abbiamo ora
d
3
= det
_
_
1 0 a
13
0 1 a
23
a
13
a
23
a
33
_
_
= a
33
a
2
13
a
2
23
dunque nel caso (1), con d
3
> 0 (infatti d
1
= 1) lequazione denisce linsieme
vuoto, mentre nel caso (2) denisce unellisse.
Per concludere il capitolo menzioniamo i tipi ani delle coniche degeneri,
cio`e dei luoghi deniti da equazioni polinomiali di secondo grado con associata
matrice avente determinante nullo, escludendo per`o il caso in cui lequazione
si riduca a una lineare:
138 Capitolo 11
due rette parallele, di equazione canonica x
2
= 1;
due rette incidenti, di equazione canonica xy = 0;
una singola retta (doppia), di equazione canonica x
2
= 0;
un singolo punto, di equazione canonica x
2
+y
2
= 0.
La classicazione di una conica degenere si ottiene sempre facilmente cercando
un cambiamento ane di coordinate che porti lequazione in una delle quattro
canoniche appena scritte.
Spaz proiettivi 139
Capitolo 12
Spaz proiettivi
In questo capitolo vedremo come lo spazio ordinario n-dimensionale R
n
si possa
estendere a un oggetto pi` u grande, lo spazio proiettivo n-dimensionale. Esso
consente una comprensione geometrica molto profonda di fatti gi`a incontra-
ti (come la classicazione ane delle coniche non degeneri) nonche di nuove
propriet`a geometriche. Lidea fondamentale dellestensione di R
n
allo spazio
proiettivo `e quella di aggiungere a R
n
i suoi punti allinnito. La formaliz-
zazione di questa idea richiede tuttavia il richiamo di alcuni preliminari e ha
alcune sottigliezze tecniche.
12.1 Relazioni di equivalenza e insiemi quoziente
Se X `e un insieme, una relazione R su X `e un sottoinsieme del prodotto carte-
siano XX. Per sottolineare il fatto che il signicato del termine corrisponde
a quello del linguaggio naturale, invece che (x, y) R scriveremo sempre xRy.
Esempio 12.1.1. Se X = {1, 2, 3, 4} una relazione R su X `e il sottoinsieme
di X X dato da R = {(1, 2), (1, 3), (1, 4), (2, 3), (2, 4), (3, 4)}. Tuttavia
osserviamo facilmente che (x, x

) R se e soltanto se x < x

, dunque possiamo
dare alla relazione R il signicato `e minore di, e facendo questo `e ovviamente
pi` u naturale scrivere 1R3 invece che (1, 3) R.
Per procedere ci servir`a la:
Denizione 12.1.2. Una relazione R su un insieme X si dice:
riessiva se xRx per ogni x X;
simmetrica se xRy implica yRx;
140 Capitolo 12
transitiva se xRy e yRz implicano xRz
di equivalenza se `e riessiva, simmetrica e transitiva.
Anche se non ci servir`a, per completezza ricordiamo la:
Denizione 12.1.3. Una relazione R su un insieme X si dice:
antisimmetrica se xRy e yRx implicano y = x;
dordine se `e riessiva, antisimmetrica e transitiva.
Esempio 12.1.4. Se X `e linsieme dei sottoinsiemi niti di N, la relazione
essere contenuto in, ovvero , `e una relazione dordine. Osserviamo che non
tutti gli elementi di X sono confrontabili tra loro rispetto alla relazione : ad
esempio {1, 3} {1, 2, 7} e {1, 2, 7} {1, 3} sono entrambe false.
Tornando invece al lone principale diamo la:
Denizione 12.1.5. Fissata una relazione di equivalenza su un insieme X,
chiameremo classe di equivalenza di un elemento x di X linsieme
[x] = {y X : y x}.
Diremo poi insieme quoziente di X rispetto alla relazione linsieme X/

di
tutte le classi di equivalenza, e proiezione nel quoziente la funzione (ovviamente
surgettiva) da X in X/

data da x [x]. Inne chiameremo insieme di


rappresentanti un sottoinsieme di X che contenga un elemento in ciascuna
classe di equivalenza di .
`
E molto semplice vedere che le classi di equivalenza costituiscono una par-
tizione di X, cio`e che la loro unione `e tutto X e che sono due a due disgiunte
o coincidenti. Possiamo interpretare allora il quoziente X/

come loggetto
ottenuto da X identicando tra loro tutti gli elementi di X appartenenti a cia-
scuna classe di equivalenza. Per denizione la restrizione della proiezione nel
quoziente a un insieme Y di rappresentanti per su X `e una bigezione tra Y
e il quoziente X/

e un . In alcuni casi tuttavia un insieme di rappresentanti


non `e adeguato a dare una rappresentazione signicativa di un quoziente, e
altre descrizioni possono essere preferibili.
Esempio 12.1.6. Sullinsieme X = R
n+1
\ {0} consideriamo la relazione se-
guente: x y se esiste > 0 tale che y = x.
`
E facile vedere che `e
di equivalenza e che le classi di equivalenza sono le semirette aperte uscenti
Spaz proiettivi 141
dallorigine. La sfera n-dimensionale S
n
= {x R
n
: x = 1} `e un insieme
di rappresentanti per , e in eetti ore una buona descrizione dellinsieme
quoziente X/

: si pu`o pensare che identicare tra loro tutti i punti di una se-
miretta uscente dallorigine corrisponda a collassare la semiretta sul suo punto
a distanza 1 dallorigine.
Esempio 12.1.7. Sullinsieme X degli iscritti allUniversit`a di Pisa conside-
riamo la relazione data da x y se x e y compiono gli anni lo stesso giorno.
Anchessa `e di equivalenza, e potremmo scegliere come insieme di rappresen-
tanti un gruppo di 366 studenti nati in giorni diversi, ma la scelta sarebbe poco
signicativa. Una descrizione pi` u sensata del quoziente X/

`e invece linsieme
dei 366 giorni dellanno.
12.2 Denizione di spazio proiettivo
Incontriamo ora la nozione chiave del capitolo:
Denizione 12.2.1. Se K `e R o C e V `e uno spazio vettoriale di dimensio-
ne almeno 1 su K, consideriamo su V \ {0} la relazione di equivalenza cos`
denita: x y se esiste K tale che y = x. Chiamiamo allora spa-
zio proiettivo associato a V linsieme quoziente (V \ {0})/

, che indichiamo
con P(V ). Chiamiamo in particolare spazio proiettivo n-dimensionale su K
linsieme P
n
(K) = P(K
n+1
).
Le classi di equivalenza di su V \ {0} sono le rette private dellorigine,
ma c`e una ovvia corrispondenza biunivoca tra linsieme delle rette e linsieme
delle rette private dellorigine, dunque possiamo dire che P(V ) `e linsieme delle
rette in V , cio`e linsieme ottenuto da V identicando tra loro tutti i punti di
ciascuna retta. In particolare:
P
0
(R) consiste dellunita retta in R, dunque `e un punto;
P
1
(R), che chiameremo retta proiettiva reale, `e linsieme delle rette in R
2
;
P
2
(R), che chiameremo piano proiettivo reale, `e linsieme delle rette in
R
3
;
P
3
(R), che chiameremo spazio proiettivo reale, `e linsieme delle rette in
R
4
.
142 Capitolo 12
Figura 12.1: Identicando tra loro i punti antipodali su una circonferenza si ottiene una
nuova circonferenza
Figura 12.2: Identicando tra loro gli estremi di una semicirconferenza si ottiene una
circonferenza
12.2.1 La retta proiettiva reale
Cerchiamo ora di dare una descrizione geometrica degli spazi proiettivi di di-
mensione pi` u bassa, cominciando da P
1
(R), che `e linsieme delle rette per lo-
rigine in R
2
. Se in R
2
consideriamo la circonferenza S
1
= {x R
2
: x = 1},
vediamo che essa interseca ciascuna retta in due punti, tra loro antipodali, di
S
1
; dunque P
1
(R) si ottiene da S
1
identicando tra loro le coppie di punti tra
loro antipodali. Se pensiamo S
1
non come a una circonferenza rigida ma come
a un elastico di gomma, `e chiaro che possiamo deformarla no a far coincidere
ogni coppia di punti che erano originariamente antipodali, e il risultato di
nuovo una circonferenza, come illustrato in in Fig. 12.1.
Un altro modo per giungere alla stessa descrizione di P
1
(R) `e il seguente.
Invece che tutta la circonferenza S
1
prendiamo la semicirconferenza {x S
1
:
x
2
0} e osserviamo che essa interseca ogni retta per lorigine in R
2
in un solo
punto, tranne la retta orizzontale, che interseca nei suoi due estremi (1, 0)
e (1, 0). Dunque possiamo pensare che P
1
(R) si ottenga da identicando tra
loro i due estremi. Se di nuovo si considera come un arco essibile, `e evidente
che questa identicazione conduce a una circonferenza, come illustrato in in
Fig. 12.2.
Osservazione 12.2.2. Togliendo alla semicirconferenza uno dei suoi estre-
Spaz proiettivi 143
Figura 12.3: Il piano proiettivo reale
mi, ad esempio (1, 0), si ottiene un insieme che si pu`o identicare a un
intervallo semiaperto e che interseca ogni retta per lorigine in R
2
in un solo
punto, dunque `e in corrispondenza biunivoca con P
1
(R). Tuttavia questa
corrispondenza non `e geometricamente signicativa, perche trascura il fatto
che per > 0 molto piccolo il punto
_

1
2
,
_
rappresenta in P
1
(R) un
punto molto vicino a quello corrispondente a (1, 0).
12.2.2 Il piano proiettivo reale
Procedendo come per P
1
(R) vediamo facilmente che P
2
(R) corrisponde in modo
naturale allinsieme ottenuto dalla sfera bidimensionale S
2
= {x R
3
: x =
1} identicando tra loro a coppie i punti antipodali. Ragurare questo insieme
per`o non `e semplice, quindi procediamo subito con il passaggio successivo,
prendendo la semisfera E = {x
2
: x
3
0}. Abbiamo ora che ogni retta per
lorigine in R
3
incontra E in un solo punto, tranne le rette orizzontali (sul piano
x
3
= 0), che incontrano E in due punti antipodali dellequatore che delimita
E. Quindi P
2
(R) si ottiene da E identicando tra loro i punti antipodali su
. Possiamo semplicare la gura (rendendola eettivamente bidimensionale)
osservando che la proiezione ortogonale (x
1
, x
2
, x
3
) (x
1
, x
2
, 0) sul piano x
3
=
0 fornisce una bigezione tra E e il disco bidimensionale D = {(x
1
, x
2
, 0) :
x
2
1
+ x
2
2
1}, e questa bigezione non ha alcun eetto su . Dunque P
2
(R) `e
loggetto che si ottiene dal disco D identicando tra loro i punti antipodali sul
suo bordo . Raguriamo allora P
2
(R) come a sinistra in Fig. 12.3, ovvero
come un disco la cui circonferenza di bordo `e suddivisa in due semicirconferenze,
con una freccia su ciascuna delle due che ci ricorda che esse vanno punto per
punto identicate tra loro. Non `e possibile semplicare ulteriormente questa
descrizione, anzi si pu`o dimostrare (ma non `e aatto facile) che P
2
(R) non si
pu`o realizzare come sottoinsieme di R
3
. Dalla descrizione segue comunque,
144 Capitolo 12
Figura 12.4: Togliendo un disco al piano proiettivo reale si ottiene un nastro di Mobius
Figura 12.5: Costruzione di una sfera a partire da un disco
come illustrato in Fig. 12.3, che un oggetto che si sposta dentro P
2
(R) pu`o
tornare al punto di inizio del suo spostamento trovandosi a essere la copia
speculare di quello che era quando `e partito. Inoltre `e possibile vericare
(Fig. 12.4) che togliendo a P
2
(R) un disco (senza bordo) si ottiene il nastro
di Mobius, una supercie che si pu`o realizzare in R
3
e ha la fondamentale
propriet`a di essere monolatera: se si inizia a dipingerla di un colore da qualche
parte, inevitabilmente di nisce per dipingerla tutta, compreso il punto che
(apparentemente) sta dal lato opposto di quello da cui si `e iniziato.
12.2.3 Superci ottenute incollando lati di una gura piana
Abbiamo visualizzato P
2
(R) come loggetto ottenuto dal disco identicando
i punti antipodali sul bordo. La costruzione di superci a partire da gure
piane tramite identicazione di porzioni di bordo `e molto generale, e consente
di ottenere varie superci note. Ad esempio se si suddivide il bordo di un
disco in due semicirconferenze che vengono poi identicate in verso discorde,
come in in Fig. 12.5, si ottiene una sfera. Invece identicando due lati opposti
Spaz proiettivi 145
Figura 12.6: Costruzione di un cilindro a partire da un quadrato
Figura 12.7: Costruzione di un nastro di Mobius a partire da un quadrato
di un quadrato si ottiene un cilindro (Fig. 12.6) oppure un nastro di Mobius
(Fig. 12.7) a seconda del verso di identicazione.
12.2.4 La retta proiettiva complessa
Analogamente a quanto visto nel caso reale, la retta proiettiva complessa P
1
(C)
pu`o essere vista come il completamento della retta complessa C con il suo unico
punto allinnito . (Dal punto di vista reale C `e un piano, e di direzioni per
andare allinnito ce ne sono innite, ma dal punto di vista complesso `e una
retta, dunque di direzione ce n`e una sola. Geometricamente P
1
(C) corrisponde
in modo naturale alla sfera S
2
; una bigezione tra S
2
e C{} si ottiene con la
proiezione stereograca, illustrata in Fig. 12.8: si identica C al piano tangente
alla sfera S
2
nel polo sud, e si proietta un punto P di S
2
diverso dal polo nord
N sul punto z C ottenuto intersecando con C la retta passante per N e per
P. In questo modo S
2
\ {N} `e in bigezione con C, mentre N corrisponde a ,
e questa corrispondenza `e ragionevole perche per |z| che diventa molto grande,
cio`e per z che si avvicina a , si ha che P si avvicina a N.
146 Capitolo 12
N
P
z
Figura 12.8: La proiezione stereograca
12.2.5 Spazio proiettivo come completamento allinnito dello
spazio ane
Nelle precedenti descrizioni di P
1
(R) e P
2
(R) avevamo un insieme di rappre-
sentanti sovrabbondante (cio`e tale da intersecare tutte le classi di equivalenza,
ma alcune in pi` u di un punto), sul quale pertanto abbiamo poi dovuto compie-
re ulteriori identicazioni. Adottiamo ora un punto di vista opposto, ovvero
descriviamo un insieme di rappresentanti decitario (cio`e tale da intersecare le
classi di equivalenza in al pi` u un punto, ma alcune in zero punti); la restrizione
a un tale insieme della proiezione nel quoziente `e allora iniettiva, dunque otte-
niamo un sottoinsieme di P
n
(R), e ci chiediamo cosa manchi a ottenere tutto
P
n
(R).
Proposizione 12.2.3. Identicando lo spazio R
n
al sottospazio ane R
n
{1}
di R
n+1
, si ottiene una identicazione di R
n
con un sottoinsieme di P
n
(R). Il
complementare di R
n
in P
n
(R) `e in modo naturale identicato a P
n1
(R).
Dimostrazione. Ogni retta per lorigine interseca R
n
{1} in al pi` u un punto,
il che prova la prima aermazione. Il complementare di R
n
in P
n
(R) `e linsieme
delle rette che non intersecano R
n
{1}, ovvero quelle che giacciono su R
n
{0},
da cui la seconda aermazione.
I punti di P
n1
(R) che si aggiungono a R
n
per ottenere P
n
(R) hanno una
chiara interpretazione geometrica. Fissiamo infatti un tale punto di P
n1
(R),
ovvero una retta per lorigine in R
n
{0}, e consideriamo una retta

in
R
n
, ovvero contenuta in R
n
{1}, e parallela a . Se prendiamo un punto P
Spaz proiettivi 147
su

e lo facciamo tendere allinnito (non importa da quale della due parti),


vediamo che il punto di P
n
(R) corrispondente a P, cio`e la retta per lorigine
e per P, si avvicina sempre pi` u a . Possiamo dunque considerare il punto
di P
n1
(R) come il comune punto allinnito di tutte le rette contenute in
R
n
e parallele a

. Riassumendo P
n
(R) si ottiene aggiungendo a R
n
i punti
di P
n1
(R), ciascuno dei quali rappresenta il comune punto allinnito di un
fascio di rette parallele in R
n
.
Osservazione 12.2.4. Poiche nella descrizione precedente intervengono le ret-
te in R
n
non necessariamente passanti per lorigine, conviene pensare allo spazio
R
n
che viene completato a P
n
(R) come spazio ane piuttosto che come spazio
vettoriale. Questa idea verr`a ulteriormente motivata nella Sezione 12.4.
Nel caso n = 2 la descrizione di P
n
(R) appena fornita comporta immedia-
tamente la:
Proposizione 12.2.5. Due rette disgiunte in R
2
hanno il medesimo punto
allinnito.
Ecco un nuovo punto di vista sullinterpretazione di P
n
(R) come comple-
tamento di R
n
con laggiunta di un P
n1
(R) costituito dai punti allinnito di
R
n
. Se a R
n
applichiamo la trasformazione x
x
1+x
otteniamo una bigezio-
ne con il disco n-dimensionale aperto {x R
n
: x < 1}. Questo oggetto si
completa in modo naturale al disco chiuso {x R
n
: x 1} con laggiunta
della sfera (n 1)-dimensionale S
n1
= {x R
n
: x = 1}; ma una retta in
R
n
diviene nel disco aperto un arco (o un diametro, se passa per lorigine) i cui
estremi sono punti antipodali di S
n1
. I due versi nei quali tende allinnito
una retta rappresentano in realt`a la stessa direzione, dunque loggetto con cui
completare allinnito R
n
`e ci`o che si ottiene da S
n1
identicando tra loro i
punti antipodali, dunque proprio P
n1
(R).
12.3 Coordinate omogenee e sottospaz proiettivi
Per denizione, un punto di P
n
(R) `e la classe di equivalenza di un vettore
x = (x
1
, x
2
, . . . , x
n+1
) R
n+1
rispetto alla relazione x y se y = x con R.
Sappiamo che la classe di equivalenza di x si indica in generale con [x], ma in
questo caso specializziamo la notazione indicandola con [x
1
: x
2
: . . . : x
n+1
],
dove i segni : che separano le coordinate ci ricordano che di x non contano i
valori numerici delle singole coordinate, ma soltanto i rapporti x
i
: x
j
, infatti
per ogni = 0 il punto di P
n
(R) dato da [x
0
: x
1
: . . . : x
n+1
] coincide
148 Capitolo 12
con [x
1
: x
2
: . . . : x
n+1
]. Quando un elemento di P
n
(R) `e presentato come
[x
1
: x
2
: . . . : x
n+1
], diremo che `e scritto in coordinate omogenee. Il prossimo
risultato motiva questa denizione:
Proposizione 12.3.1. Se p(x) R[x
1
, x
2
, . . . , x
n+1
] `e un polinomio omogeneo
di grado d, ovvero una somma di monomi tutti di grado d nelle indeterminate
x
1
, x
2
, . . . , x
n+1
, allora lequazione p(x) = 0 `e ben denita in P
n
(R), ovvero il
fatto che sia soddisfatta o meno non dipende dalle coordinate omogenee usate
per descrivere un punto di P
n
(R).
Dimostrazione. Dobbiamo vericare che se [x] = [y] allora vale p(x) = 0 se e
soltanto se vale p(y) = 0. Infatti lipotesi [x] = [y] signica che esiste = 0
tale che y = x, e lipotesi che p(x) sia omogeneo di grado d comporta che
p(y) =
d
p(x), da cui la conclusione.
Denizione 12.3.2. Chiamiamo sottospazio proiettivo di P
n
(R) un sottoin-
sieme denito da equazioni omogenee di grado 1 nelle coordinate omogenee.
Dalla denizione segue immediatamente che T P
n
(R) `e un sottospazio
proiettivo se e soltanto se esiste un sottospazio vettoriale W R
n+1
tale che
T consiste delle classi di equivalenza dei punti di W \ {0}, ovvero dei punti di
P
n
(R) corrispondenti a rette contenute in W. Se W ha dimensione k+1 diremo
allora che T ha dimensione k. Questa osservazione ci consente la seguente
rivisitazione dell Proposizione 12.2.5:
Proposizione 12.3.3. Due rette proiettive r
1
e r
2
distinte in P
2
(R) si in-
tersecano sempre in un punto. Se ne r
1
ne r
2
sono la retta allinnito dello
spazio ane R
2
, dunque se r
j
`e il completamento allinnito di una retta ane

j
R
2
, allora il punto di intersezione di r
1
e r
2
`e:
nel caso di
1
e
2
incidenti, il loro punto di intersezione;
nel caso di
1
e
2
parallele, il loro comune punto allinnito.
Dimostrazione. Supponiamo che r
j
si ottenga da un sottospazio W
j
di R
3
.
Allora W
1
e W
2
sono piani distinti in R
3
, pertanto hanno in comune una retta,
e questa retta `e il punto di P
2
(R) in cui si intersecano r
1
ed r
2
. Il resto della
proposizione `e evidente.
Spaz proiettivi 149
12.4 Cambiamenti di coordinate ani e proiettivi
Nello spazio vettoriale R
n
i cambiamenti di coordinate che `e naturale conside-
rare sono quelli lineari, ovvero quelli del tipo x

= B x con B M
nn
(R)
invertibile. Analogamente in P
n
(R) sono quelli che in coordinate omogenee si
esprimono come [x

] = [M x] con M M
(n+1)(n+1)
(R) invertibile. Notiamo
che se = 0 la matrice M denisce su P
n
(R) lo stesso cambiamento di
coordinate denito da M.
Ricordiamo ora che nel Paragrafo 12.2.5 abbiamo interpretato P
n
(R) come
il completamento allinnito di R
n
, identicando R
n
al sottospazio ane {x
R
n+1
: x
n+1
= 1} di R
n+1
e osservando che la restrizione a tale sottospazio
della proiezione da R
n+1
\ {0} nel quoziente P
n
(R) `e iniettiva. Possiamo allora
chiederci quali cambiamenti di coordinate proiettivi su P
n
(R) mandino R
n
in
se stesso, ovvero lascino il nito al nito. Se il cambiamento di coordinate
avviene tramite una matrice M =
_
B v
t
w c
_
, la condizione `e che
M
_
x
1
_ _
Bx +v
t
w x +c
_
abbia ultima coordinata non nulla per ogni xR
n
(non nulla ma non necessa-
riamente uguale 1, dato che si tratta di coordinate omogenee), ed `e chiaro che
ci`o accade se e soltanto se w = 0. Possiamo allora sostituire M con
1
c
M, e
vediamo che il cambiamendo di coordinate prende la forma
_
x

1
_
=
_
Bx +v
1
_
, ovvero x

= Bx +v
con B M
nn
(R) invertibile e v R
n
. Chiameremo ane un tale cambia-
mento di coordinate su R
n
, dato che manda sottospaz ani in sottospaz
ani. (Non `e semplice, ma si pu`o provare anche il viceversa: una bigezione
di R
n
con se stesso che manda sottospaz ani in sottospaz ani `e neces-
sariamente del tipo x B x + v con B M
nn
(R) invertibile e v R
n
.
Riassumendo, abbiamo provato la:
Proposizione 12.4.1. I cambiamenti di coordinate di P
n
(R) che mandano la
parte al nito in se stessa sono i cambiamenti di coordinate ani di R
n
.
150 Capitolo 12
Coniche e quadriche ani e proiettive 151
Capitolo 13
Coniche e quadriche ani e
proiettive
In questo capitolo riprendiamo lo studio delle coniche, iniziato nel Capitolo 11,
alla luce della teoria degli spaz proiettivi vista nel Capitolo 12. Presenteremo
una seconda dimostrazione pi` u concettuale del teorema di classicazione, quin-
di estenderemo la teoria ai sottoinsiemi dello spazio tridimensionale deniti da
equazioni polinomiali di secondo grado. Anche di questi ultimi daremo una
descrizione sia dal punto di vista ane sia da quello proiettivo, dimostrando
in particolare un teorema di classicazione ane.
13.1 Completamento proiettivo e punti allinnito
In questo paragrafo presentiamo i primi semplici risultati generali sui sottoin-
siemi di R
n
e di P
n
(R) deniti da equazioni polinomiali di secondo grado, quindi
li applichiamo al caso delle coniche.
Proposizione 13.1.1. Unequazione di secondo grado omogenea in x
R
n+1
si scrive in modo unico come
t
x A x = 0 con A M
n+1n+1
(R)
simmetrica;
Unequazione di secondo grado in x R
n
si scrive in modo unico come
t
_
x
1
_
A
_
x
1
_
= 0 con A M
n+1n+1
(R) simmetrica.
Dimostrazione. Per la prima aermazione, notiamo che lequazione `e del tipo

1ijn+1

ij
x
i
x
j
= 0,
152 Capitolo 13
e basta porre a
ii
=
ii
e a
ij
= a
ji
=
1
2

ij
per i < j. Per la seconda aermazione
partiamo da unequazione polinomiale di secondo grado in x R
n
e moltipli-
chiamo per x
n+1
i monomi di grado 1, e per x
2
n+1
il termine noto. Abbiamo
allora unequazione omogenea in x R
n+1
da cui quella originale si riottiene
ponendo x
n+1
= 1, e la conclusione segue allora dalla prima aermazione.
In entrambi i casi della proposizione precedente diremo che A `e la matrice
associata allequazione.
Osservazione 13.1.2. Per qualsiasi matrice B M
n+1n+1
(R) lequazione
t
_
x
1
_
B
_
x
1
_
= 0 `e polinomiale di secondo grado in x R
n
, ma matrici
B diverse possono dare luogo alla stessa equazione. La matrice associata a
unequazione `e unica soltanto insistendo che essa sia simmetrica. La matrice
associata allequazione
t
_
x
1
_
B
_
x
1
_
= 0 `e
1
2
(A+
t
A).
Se nel secondo punto della proposizione precedente scriviamo A =
_
Q
t
c
_
abbiamo che Q M
nn
(R) rappresenta la parte quadratica dellequazione,
mentre 2 M1 n(R) rappresenta la parte lineare, inne c R `e i termine
noto. Diamo ora la:
Denizione 13.1.3. Sia L R
n
il luogo di equazione
t
_
x
1
_
A
_
x
1
_
= 0.
Chiamiamo allora completamento proiettivo di L il luogo L P
n
(R) denito
dallequazione omogenea
t
xAx = 0, ovvero L = {[x] P
n
(R) :
t
xAx = 0}.
Deniamo poi linsieme dei punti allinnito di L come L

= L\L, visto come


sottoinsieme dellinsieme P
n1
(R) dei punti allinnito di R
n
; abbiamo allora
L

= {[x] P
n1
(R) :
t
x Q x = 0}.
Per una conica non degenere e non vuota la costruzione precedente ha
una chiarissima interpretazione geometrica. Impiegando le equazioni canoniche
abbiamo infatti i casi seguenti:
Conica L Ellisse Iperbole Parabola
Equazione di L x
2
+y
2
= 1 x
2
y
2
= 1 y = x
2
Equazione di L x
2
+y
2
= z
2
x
2
y
2
= z
2
yz = x
2
Equazione di L

x
2
+y
2
= 0 x
2
y
2
= 0 x
2
= 0
Punti all Nessuno [1 : 1] e [1 : 1] [0 : 1]
Coniche e quadriche ani e proiettive 153
Abbiamo allora che:
Unellisse non ha punti allinnito;
Uniperbole ha due punti allinnito, dati dalle direzioni dei suoi asintoti;
Una parabola ha un solo punto allinnito, dato dalla direzione del suo
asse.
13.2 Classicazione delle coniche
proiettive e ani
Supponiamo di avere in P
n
(R) un luogo P denito da unequazione polino-
miale omogenea di secondo grado a cui `e associata una matrice simmetrica
A. Operando un cambiamento di coordinate proiettivo [x

] = [M x] con
M M
n+1n+1
(R) invertibile, vediamo allora che la matrice dellequazione
nelle nuove coordinate `e
t
M A M. Ne deduciamo il:
Teorema 13.2.1. Sia P = {[x] P
n
(R) :
t
xAx = 0} con A M
n+1n+1
(R)
simmetrica e det(A) = 0. Allora a meno di cambiamenti proiettivi delle
coordinate si ha
P = {[x] P
n
(R) : x
2
1
+. . . +x
2
p
= x
2
p+1
+. . . +x
2
n+1
con p n + 1 p.
Dimostrazione. Grazie al teorema spettrale possiamo impiegare dapprima una
M ortogonale per sostituire A con una
t
M A M diagonale con autovalori

1
, . . . ,
n+1
. Poniamo ora x

j
=

|
j
| x
j
e ci riconduciamo ad una A diago-
nale con 1 sulla diagonale principale. Basta inne riordinare le variabili ed
eventualmente cambiare di segno allequazione.
Questo risultato comporta in particolare che ci sono a meno di cambiamenti
di coordinate proiettivi soltanto due coniche proiettive non degeneri in P
2
(R):
linsieme vuoto x
2
+ y
2
+ z
2
= 0 e la conica x
2
+ y
2
= z
2
. In particolare lel-
lisse, liperbole e la parabola hanno la stessa conica proiettiva non vuota come
completamento proiettivo. In altre parole, lellisse, liperbole e la parabola si
ottengono dalla medesima conica proiettiva non degenere ma con scelte diver-
se della retta allinnito. Pi` u esattamente, se partiamo dalla conica proiettiva
x
2
+y
2
= z
2
abbiamo:
154 Capitolo 13
Scegliendo z = 0 come retta allinnito otteniamo la conica ane x
2
+
y
2
= 1, lellisse;
Scegliendo come retta allinnito quella che passa per [0 : 1 : 1] e per
[0 : 1 : 1] otteniamo uniperbole; ad esempio vediamo facilmente che
il cambiamento di coordinate proiettivo [x : y : z] [z : y : x] ssa
[1 : 0 : 1] e trasforma [0 : 1 : 1] in [1 : 1 : 0] e [0 : 1 : 1] in [1 : 1 : 0],
inoltre manda x
2
+ y
2
= z
2
in z
2
+ y
2
= x
2
, ovvero x
2
y
2
= z
2
,
e a questo punto prendendo la parte ane z = 1 otteniamo liperbole
canonica x
2
y
2
= 1;
Scegliendo come retta allinnito quella che passa per [0 : 1 : 1] e per [1 :
0 : 0] otteniamo una parabola; ad esempio il cambiamento di coordinate
proiettivo [x : y : z] [x : y +z : z y] manda [0 : 1 : 1] in [0 : 1 : 0], ssa
[1 : 0 : 0] e manda [0 : 1 : 1] in [0 : 0 : 1], inoltre manda x
2
+y
2
= z
2
in
x
2
= yz, e a questo punto prendendo la parte ane z = 1 otteniamo la
parabola canonica y = x
2
.
Come gi`a annunciato, ripetiamo ora la classicazione delle coniche ani
(Teorema 11.2.1) in modo pi` u semplice ed elegante. Sfrutteremo il seguente
fatto, che ci servir`a anche pi` u avanti:
Lemma 13.2.2. Date A, B M
nn
(R) con A simmetrica e B invertibile, i
segni degli autovalori di
t
B A B, contati con la loro molteplicit`a, coincidono
con i segni degli autovalori di A.
Dimostrazione. Non `e dicile vedere che il numero di autovalori positivi di
A coincide con la massima dimensione possibile di un sottospazio W di R
n
tale che w|w
A
> 0 per ogni w W \ {0}. Poiche w|w t
BAB
= Bw|Bw
A
concludiamo subito che
t
B A B ha tanti autovalori positivi quanti ne ha A.
Analogamente per quelli negativi, e allora anche per quelli nulli.
Teorema 13.2.3. Sia L la conica in R
2
alla cui equazione `e associata una
matrice simmetrica A M
33
(R) con det(A) = 0. Sia d
j
il determinante
della sottomatrice di A formata dalle prime j righe e j colonne. Allora A
rientra in uno delle seguenti casi:
(1) d
2
> 0 e d
1
d
3
> 0; (2) d
2
> 0 e d
1
d
3
< 0; (3) d
2
< 0; (4) d
2
= 0.
Inoltre modicando lequazione di L tramite moltiplicazione per una costante
non nulla oppure tramite una trasformazione ane la nuova matrice A rientra
nello stesso caso (1)-(4). Inne a seconda del caso in cui A rientra la conica
ha il seguente tipo ane:
Coniche e quadriche ani e proiettive 155
(1) insieme vuoto; (2) ellisse; (3) iperbole; (4) parabola.
Dimostrazione. Sia A =
_
Q
t
c
_
. Grazie al Teorema 10.2.5 possiamo intrin-
secamente interpretare i casi (1)-(4) come segue:
(1) Gli autovalori di A sono concordi tra loro;
(2) Gli autovalori di Q sono concordi tra loro ma quelli di A non lo sono;
(3) Gli autovalori di Q sono discordi tra loro
(4) Q ha almeno un autovalore nullo.
Ricordando che un cambiamento ane di coordinate associato a M =
_
B v
0 1
_
trasforma A in
t
M A M =
_
t
B Q B
t
B(Qv +)
(
t
vQ+
t
)B v|v
Q
+ 2v| +c
_
la Proposizione 13.2.2 comporta subito che il caso in cui la matrice rientra
non cambia tramite moltiplicazione dellequazione per una costante non nulla
oppure tramite una trasformazione ane. Osserviamo prima di procedere che
nel caso (4) Q ha almeno un autovalore non nullo, altrimenti A non potrebbe
avere rango 3.
Usando un cambiamento di coordinate con v = 0 ed eventualmente cam-
biando segno allequazione possiamo ora ricondurci, come nella dimostrazione
del Teorema 13.2.1, ai casi seguenti:
(1) Q =
_
1 0
0 1
_
; (2) Q =
_
1 0
0 1
_
;
(3) Q =
_
1 0
0 1
_
e d
3
> 0; (4) Q =
_
1 0
0 0
_
.
Nei casi (1)-(3) possiamo operare un cambiamento di coordinate con B = I
2
e
v = Q
1
, riconducendoci al caso = 0, e allora a meno dopo unomotetia
troviamo le equazioni canoniche
(1) x
2
+y
2
+ 1 = 0; (2) x
2
+y
2
= 1; (3) x
2
y
2
= 1.
156 Capitolo 13
Nel caso (4) sempre con B = I
2
e v opportuno ci riconduciamo a A =
_
_
1 0 0
0 0 k
0 k c
_
_
e poi cambiamo coordinate con M =
_
_
1 0 0
0 1 1/(2k)
0 1/(2k) ka
_
_
e troviamo
lequazione canonica y = x
2
.
13.3 Modelli ani delle quadriche
Introduciamo in questo paragrafo i luoghi nello spazio tridimensionali analoghi
alle coniche nel piano, fornendo quelli che nel prossimo paragrafo si riveleranno
essere i modelli ani.
Denizione 13.3.1. Chiamiamo quadrica non degenere un sottoinsieme dello
spazio denito a unequazione polinomiale di secondo grado a cui `e associata
una matrice A M
44
(R) simmetrica con determinante non nullo.
13.3.1 Insieme vuoto, ellissoide, paraboloide ellittico
I primi e pi` u semplici esempi di quadrica non degenere sono:
Linsieme vuoto, di equazione x
2
+y
+
z
2
+ 1 = 0;
Lellissoide, di equazione x
2
+y
+
z
2
= 1;
Il paraboiloide ellittico, di equazione z = x
2
+y
2
.
Naturalmente lequazione x
2
+ y
2
+ z
2
= 1 non denisce altro che la sfera
unitaria S
2
di R
3
, ma dal punto di vista ane lequazione equivale a qualsiasi
altra del tipo
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1, che per analogia con il caso dellellisse `e appunto
detto ellissoide di semiassi a, b e c. A proposito del paraboloide ellittico
z = x
2
+ y
2
osserviamo che la quantit`a x
2
+ y
2
si interpreta intrinsecamente
come il quadrato della distanza di un punto (x; y; z) dal terzo asse coordinato.
Ne segue che il paraboloide ellittico ha una simmetria rotazionale intorno a tale
asse, anzi pi` u esattamente `e ottenuto ruotando intorno allasse Oz la parabola
z = x
2
contenuta nel piano Oxz.
13.3.2 Iperboloidi a una e due falde
Altre due quadriche di un certo interesse sono:
Coniche e quadriche ani e proiettive 157
Liperboloide ellittico o a due falde, di equazione x
2
+y
2
= z
2
1;
Liperboloide iperbolico o a una falda, di equazione x
2
+y
2
= z
2
+ 1.
Poiche di nuovo le coordinate x e y appaiono solo nellespressione x
2
+ y
2
,
osserviamo che queste due quadriche hanno una simmetria rotazionale intorno
al terzo asse coordinato. Pi` u esattamente:
Liperboloide ellittico x
2
+ y
2
= z
2
1 si ottiene ruotando liperbole
z
2
x
2
= 1 nel piano Oxz intorno allasse Oz che passa per i vertici
delliperbole;
Liperboloide iperbolico x
2
+ y
2
= z
2
+ 1 si ottiene ruotando liperbole
x
2
z
2
= 1 nel piano Oxz intorno allasse Oz che `e lasse del segmento
che ha come estremi i vertici delliperbole.
Questa costruzione degli iperboloidi giustica la terminologia: quello ellittico
consiste di due porzioni distinte (le due falde) ognuna generata dalla rotazione
di uno dei rami delliperbole; quello iperbolico consiste di una sola porzione (la
falda) generata dalla rotazione di uno qualsiasi dei rami.
Liperboloide iperbolico x
2
+y
2
= z
2
+1 ha una propriet`a geometrica molto
notevole che vale la pena di sottolineare. Cominciamo osservando che la sua
intersezione con il piano y = 1 ha equazione x
2
= z
2
, dunque consiste delle
rette z = x. A partire da ci`o non `e dicile riconoscere i fatti seguenti:
Per ogni punto delliperboloide iperbolico passa una retta interamente
contenuta nelliperboloide (anzi, due tali rette);
Liperboloide `e ottenuto ruotando intorno allasse Oz la retta z = x
(oppure la retta z = x) contenuta nel piano z = 1.
La prima propriet`a appena descritta si esprime dicendo che liperboloide iper-
bolico `e una supercie rigata. Geometricamente `e piuttosto notevole il fatto
lunione di un reticolo di rette (anzi, di due tali reticoli) possa dar luogo a
una supercie indubbiamente curva come quella delliperboloide a una falda.
In generale se r e s sono rette sghembe, la supercie generata dalla rotazione
di r intorno a s `e un iperboloide iperbolico (cio`e equivale alla supercie di
equazione x
2
+y
2
= z
2
+ 1 a meno di un cambiamento ane di coordinate).
13.3.3 Paraboloide iperbolico
Lultima quadrica che ci servir`a da modello ane `e:
158 Capitolo 13
Il paraboloide iperbolico o a sella, di equazione z = x
2
y
2
.
Anche questa supercie ha caratteristiche geometriche decisamente notevoli:
Prendendo le sezioni del paraboloide iperbolico con piani del tipo z =costante
vedi che esso `e unione di una famiglia di iperboli equilatere, insieme a
una coppia di rette perpendicolari tra loro (iperbole equilatera degenere;
Prendendone le sezioni con piani del tipo y =costante, vedi che esso `e
unione di una famiglia di parabole tutte con la stessa distanza focale,
asse verticale e concavit`a rivolta verso lalto, con i vertici delle parabole
nella famiglia che descrivono una parabola la stessa distanza focale, asse
verticale e concavit`a rivolta verso il basso;
Prendendone le sezioni con i piani x+y =costante oppure xy =costante
vedi che per ogni punto del paraboloide iperbolico passano due rette in
esso interamente contenute; in particolare il paraboloide iperbolico `e una
supercie rigata.
13.3.4 Punti allinnito
Vediamo ora come descrivere linsieme dei punti allinnito dei modelli di qua-
drica non degenere introdotti in precedenza. Come al solito si tratta di ag-
giungere una variabile rendendo omogenea lequazione, quindi di porre questa
variabile uguale a 0. Ecco allora le possibilit`a, dove indichiamo con C lunica
conica proiettiva non degenere (vedi la Proposizione 13.2.1) e tralasciamo la
quadrica vuota:
Quadrica L Equazione Equazione di L Equazione di L

Ellissoide x
2
+y
2
+z
2
= 1 x
2
+y
2
+z
2
= u
2
x
2
+y
2
+z
2
= 0
Iperboloide
a 2 falde
x
2
+y
2
= z
2
1 x
2
+y
2
= z
2
u
2
x
2
+y
2
= z
2
C
Iperboloide
a 1 falda
x
2
+y
2
= z
2
+ 1 x
2
+y
2
= z
2
+u
2
x
2
+y
2
= z
2
C
Paraboloide
ellittico
z = x
2
+y
2
zu = x
2
+y
2
x
2
+y
2
= 0 Un punto
Paraboloide
iperbolico
z = x
2
y
2
zu = x
2
y
2
x
2
y
2
= 0 Due rette
Coniche e quadriche ani e proiettive 159
Dalla tabella precedente estraiamo unaltra interessante informazione, che
giustica anche la terminologia introdotta. Iniziamo col ricordare che grazie
alla Proposizione 13.2.1 esistono solo due quadriche proiettive non vuote e
distinte, di equazioni
x
2
+y
2
+z
2
= u
2
, x
2
+y
2
= z
2
+u
2
che chiameremo rispettivamente ellissoide proiettivo e iperboloide proiettivo
(infatti qualunque scelta si faccia della parte ane di R
3
si trova unellissoide
nel primo caso e un iperboloide nel secondo caso). Abbiamo allora la:
Proposizione 13.3.2. Il completamento proiettivo `e:
Lellissoide proiettivo per lellissoide, liperboloide ellittico e il paraboloide
ellittico;
Liperboloide proiettivo per liperboloide iperbolico e il paraboloide iperbo-
lico.
Dimostrazione. Per lellissoide e per gli iperboloidi la conclusione `e evidente.
Per i paraboloidi si opera il cambio di variabile z = wv e u = wv, ottenendo
rispettivamente le equazioni
x
2
+y
2
+v
2
= w
2
, x
2
+v
2
= y
2
+w
2
.
13.4 Classicazione ane
delle quadriche non degeneri
In questo paragrafo mostriamo che ciascuna quadrica non degenere pu`o essere
ricondotta tramite un cambiamento di coordinate ane a uno dei 6 modelli
discussi in precedenza. Operiamo la classicazione in due tappe: prima in
modo intrinseco ma poco operativo, successivamente in modo pi` u pratico:
Teorema 13.4.1. Sia A =
_
Q
t
c
_
M
44
(R) la matrice simmetrica del-
lequazione che denisce una quadrica non degenere L. Allora i segni degli au-
tovalori di Q e quelli di A non cambiano operando un cambiamento di coordina-
te ane o moltiplicando lequazione per un numero positivo, mentre cambiano
tutti contemporaneamente moltiplicando lequazione per un numero negativo.
Inoltre a meno di moltiplicare lequazione per un numero negativo le possibilit` a
per questi segni sono le seguenti, nel qual caso esiste una trasformazione ane
di R
3
che trasforma L nella quadrica indicata:
160 Capitolo 13
Segni autovalori Q Segni autovalori A Tipo ane L
+, +, + +, +, +, + Insieme vuoto
+, +, +, + Ellissoide
+, +, +, +, , + Iperboloide ellittico
+, +, , Iperboloide iperbolico
+, +, 0 +, +, +, Paraboloide ellittico
+, , 0 +, , +, Paraboloide iperbolico
Dimostrazione. La prima aermazione segue banalmente dal Lemma 13.2.2.
Per la seconda aermazione basta mostrare che Q non pu`o avere due autova-
lori nulli, il che segue dal fatto che in tal caso essendo diagonalizzabile avrebbe
rango al pi` u 1, dunque le prime tre colonne di A sarebbero linearmente dipen-
denti. Proviamo ora che, dati i segni degli autovalori di Q, quelli di A possono
essere solo come indicato. Nel caso +, +, + per Q, se A avesse almeno due
autovalori negativi allora esisterebbe W di dimensione 2 con w|w
A
< 0 per
ogni w W \{0}, mentre u|u
Q
> 0 per ogni u R
3
\{0}, dunque y|y
A
> 0
per ogni y
_
R
3
{0}
_
\ {0}, e questo `e assurdo perche W e R
3
{0} si
intersecano almeno in una retta. Nel caso +, +, per Q `e chiaro che A ha
almeno un autovalore negativo, ma non pu`o averne 3 per un argomento analogo
a quello appena presentato. Nel caso +, +, 0 per Q `e di nuovo chiaro che A ha
almeno un autovalore negativo, e non pu`o averne pi` di uno perche y|y
A
0
per ogni y R
3
{0}. Inne nel caso +, , 0 per Q si ha y|y
A
0 per ogni
y R{0} R{0}, mentre y|y
A
0 per ogni y {0} RR{0}, da
cui segue che A non pu`o avere ne tre autovalori positivi ne tre negativi.
Resta da vedere che a seconda di quale dei 6 casi si d`a per i segni degli
autovalori di Q e quelli di A, `e possibile trasformare L tramite cambiamenti
di coordinate ani a uno dei 6 modelli. Innanzitutto cambiamo coordinate
con M =
_
B 0
0 1
_
con B ortogonale, in modo da diagonalizzare Q. Poi per-
mutiamo le coordinate, eseguiamo unomotetia su ciascuna ed eventualmente
cambiamo segno allequazione riconducendoci al caso in cui Q, a seconda del
segno degli autovalori, ha una delle seguenti forme:
_
_
1 0 0
0 1 0
0 0 1
_
_
,
_
_
1 0 0
0 1 0
0 0 1
_
_
,
_
_
1 0 0
0 1 0
0 0 0
_
_
,
_
_
1 0 0
0 1 0
0 0 0
_
_
.
Coniche e quadriche ani e proiettive 161
Nei primi due casi cambiando coordinate con B = I
3
e v = Q
1
ci si ri-
conduce al caso = 0, e la conclusione `e immediata. Negli ultimi due casi
si ottiene invece a
14
= a
24
= 0, dunque a
34
= 0, e si ricavano le equazioni
canoniche dei paraboloidi con lultimo cambiamento di coordinate di matrice
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1/(2a
34
) a
44
/(2a
34
)
0 0 0 1
_
_
_
_
.
Vediamo ora come il Teorema 13.4.1 si applichi in pratica per classicare
una quadrica alla cui equazione `e associata una matrice A con det(A) = 0. La
situazione pi` u semplice discende direttamente dal Teorema 10.2.5:
Proposizione 13.4.2. Se d
j
`e il determinante della sottomatrice di A formata
dalle prime j righe e j colonne, e d
j
= 0 per j = 1, 2, 3, 4, allora i segni degli
autovalori di Q sono i segni di d
1
,
d
2
d
1
,
d
3
d
2
, mentre i segni degli autovalori di A
sono i segni di d
1
,
d
2
d
1
,
d
3
d
2
,
d
4
d
3
.
Il prossimo risultato spiega invece come procedere quando la proposizione
precedente non si applica:
Proposizione 13.4.3. Se d
4
= 0 allora a meno di permutazione delle coor-
dinate si ha d
2
= 0 e in tal caso i segni di d
1
, d
2
, d
3
, d
4
consentono sempre la
classicazione.
Dimostrazione. Se per ogni permutazione delle coordinate si ha d
2
= 0 allora
Q deve avere la forma
_
_
a

ab

ac

ab b

bc

ac

bc c
_
_
=
_
_

a
_
_

c
_
_

b
_
_

c
_
_

c
_
_

c
_
_
_
_
dunque ha rango al pi` u 1, il che contraddice lipotesi d
4
= 0.
Vediamo ora come concludere la classicazione sapendo che d
2
= 0. Se d
2
<
0 otteniamo che Q ha i primi due autovalori discordi; se d
3
= 0 concludiamo
subito che abbiamo un paraboloide iperbolico, altrimenti lultimo autovalore
di Q ha il segno di
d
3
d
2
, per A i primi tre autovalori hanno i segni di quelli di Q
e lultimo ha il segno di
d
4
d
3
. Se d
2
> 0 necessariamente si ha d
1
= 0, dunque i
primi due autovalori di Q hanno il segno di d
1
; se d
3
= 0 concludiamo subito
che abbiamo un paraboloide ellittico, altrimenti concludiamo esattamente come
nel caso d
2
< 0.
162 Capitolo 13
Curve nel piano e nello spazio 163
Capitolo 14
Curve nel piano e nello spazio
In questo capitolo tradurremo matematicamente lidea intuitiva di curva come
la traiettoria unidimensionale nel piano o nello spazio percorsa da un punto
che si muove in modo regolare. Quindi indagheremo le principali propriet`a
geometriche delle curve.
14.1 Curve parametrizzate e regolari
Una curva (come ad esempio il tracciato di un sentiero su una cartina topo-
graca) `e un sottoinsieme del piano, ma per matematizzare questa nozione `e
necessario impiegare il concetto di funzione. Lo facciamo in dimensione qual-
siasi perche la teoria generale non presenta dierenze signicative rispetto al
caso bidimensionale.
Denizione 14.1.1. Chiameremo curva parametrizzata una funzione continua
: [a, b] R
n
, dove [a, b] `e un intervallo di R. Diremo inoltre che `e regolare
se le componenti di hanno tutte derivata continua e per ogni t [a, b]
si ha che

(t) ed `e non nullo. Diremo poi che `e regolare a tratti se `e


possibile suddividere [a, b] in un numero nito di intervalli su ciascuno dei
quali la restrizione di `e regolare. Inne diremo che `e:
semplice se `e iniettiva su [a, b];
chiusa se (a) = (b);
semplice e chiusa se (a) = (b) e `e iniettiva su [a, b).
Osservazione 14.1.2. La regolarit`a corrisponde alla condizione geometrica
che per ogni punto dellimmagine di esista una retta tangente. Ma a questo
164 Capitolo 14
ne non basta richiedere che esista

(t), come mostra la curva


(t) =
_
(0, t
3
) per t [1, 0]
(t
3
, 0) per t [0, 1]
che `e derivabile due volte, con

(0) = (0, 0), e ha come immagine lunione dei


segmenti unitari sui due semiassi coordinati positivi. Un altro esempio `e la
curva (t) = (t
2
, t
3
) per t [1, 1], che `e derivabile con

(0) = 0, e ha come
immagine una cuspide, unione dei graci su [0, 1] delle funzioni y =
3

x
2
.
Con il prossimo risultato formalizziamo il signicato di retta tangente gi`a
menzionato nellosservazione precedente:
Proposizione 14.1.3. Sia : [a, b] R
n
una curva regolare e sia t
0
[a, b].
Per t che tende a t
0
lunica retta di R
n
passante per (t
0
) e per (t) tende alla
retta
(t
0
) + Span(

(t
0
)),
detta retta tangente ad in (t
0
). Inoltre tale retta `e lunica avente ordine di
contatto almeno 1 con in (t
0
).
Dimostrazione. La retta di R
n
passante per (t
0
) e per (t) `e
(t
0
) + Span((t) (t
0
)),
dunque la sua giacitura `e generata da
1
t
((t) (t
0
)), che tende appunto ad

(t
0
). Passiamo alla seconda parte dellenunciato limitandoci per semplicit`a
al caso n = 2. Se prendiamo una qualsiasi retta r di equazione ax+by +c = 0,
e chiamiamo X e Y le componenti di , la distanza da r di un punto (t) su
vale
d(t) =
|aX(t) +bY (t) +c|

a
2
+b
2
e la richiesta che r abbia contatto di ordine almeno 1 con in (t
0
) signica
che la funzione d `e innitesima di ordine almeno 1 in t
0
, ovvero che d(t
0
) =
d

(t
0
) = 0. La condizione d(t
0
) = 0 signica che r contiene (t
0
), e per ogni a
e b esiste un unico c per il quale ci`o accade. Resta dunque solo da provare che
la condizione d

(t
0
) = 0 corrisponde al fatto che ax + by = 0 sia lequazione
della giacitura Span(

(t
0
)) della retta gi`a trovata. Possiamo ora supporre che
a
2
+b
2
= 1 e notare che
d(t) =

(aX(t) +bY (t) +c)


2
Curve nel piano e nello spazio 165
d

(t) =
1
2

aX(t) +bY (t) +c
|aX(t) +bY (t) +c|
(aX

(t) +bY

(t)).
Nellultima espressione la frazione vale sempre 1 dove `e denita, dunque
d

(t
0
) pu`o valere 0 solo se aX

(t
0
) + bY

(t
0
) = 0, che `e precisamente quanto
volevamo.
14.1.1 Cambiamento di parametro
Per formalizzare lidea di curva siamo stati costretti a denirla come funzio-
ne piuttosto che che come sottoinsieme del piano o dello spazio. Ma geome-
tricamente una curva `e un sottoinsieme del piano o dello spazio; ecco come
recuperare questa idea:
Denizione 14.1.4. Siano : [a, b] R
n
e : [c, d] R
n
curve regolari.
Diremo che `e ottenuta da tramite un cambiamento di parametro se :
[c, d] [a, b] `e una bigezione derivabile con inversa derivabile e (s) = ((s))
per ogni s [c, d].
Osservazione 14.1.5. Supponiamo che sia ottenuta da tramite un cam-
biamento di parametro . Allora:
e hanno la medesima immagine;
`e ottenuta da tramite il cambiamento di parametro =
1
: [a, b]
[c, d];
Si d`a uno dei casi seguenti:
(i) `e crescente,

(s) > 0 per ogni s [c, d], (c) = a e (d) = b;


(ii) `e decrescente,

(s) < 0 per ogni s [c, d], (c) = b e (d) = a.


Losservazione precedente giustica lidea di considerare due curve ottenute
luna dallaltra tramite un cambiamento di parametrizzazione come due para-
metrizzazioni della stessa curva. Nella situazione (i) diremo inoltre che il cam-
biamento di parametro conserva lorientazione della curva, nella situazione (ii)
che inverte lorientazione. Per enfatizzare lidea di una curva come sottoinsie-
me del piano o dello spazio, chiameremo supporto di una curva parametrizzata
la sua immagine, e considereremo tale supporto a meno di cambiamenti di pa-
rametrizzazione. Diremo inoltre che il supporto `e orientato se `e visto a meno
di cambiamenti di parametrizzazione che conservano lorientazione.
Notiamo che se : [a, b] R
n
rappresenta una curva orientata, allora
: [a, b] R
n
data da (s) = (a + b t) rappresenta la stessa curva con
lorientazione opposta.
166 Capitolo 14
14.1.2 Lunghezza
La lunghezza di un segmento rettilineo in R
n
`e la distanza tra i suoi estre-
mi, ovvero la norma della loro dierenza. Per una curva regolare qualsia-
si invece la formalizzazione della nozione di lunghezza richiede qualche sfor-
zo. Cominciamo a notare che se suddividiamo lintervallo [a, b] tramite punti
a = t
0
< t
1
< t
2
< . . . < t
N1
< t
N
= b, e supponiamo che la suddivisio-
ne sia molto tta, possiamo bene approssimare con la spezzata di vertici
(t
0
), (t
1
), (t
2
), . . . , (t
N1
), (t
N
), la quale ha lunghezza
N

j=1
(t
j
) (t
j1
) .
Possiamo quindi notare che
t
j
`e approssimato da (t
j1
)+(t
j
t
j1
)

(t
j1
),
dunque la lunghezza (14.1.2) `e approssimata da
N

j=1
(t
j
t
j1
)
_
_

(t
j1
)
_
_
.
Per lipotesi di regolarit`a di abbiamo ora che

`e continua, dunque inte-


grabile; inoltre la somma (14.1.2), al tendere di N a + e di max
1jN
(t
j
t
j1
)
a 0, tende allintegrale di

su [a, b]. Ci`o giustica la:


Denizione 14.1.6. Se : [a, b] R
n
`e una curva regolare, chiamiamo
lunghezza di la quantit`a
L() =
b

(t) dt.
Esempio 14.1.7. Se parametrizziamo la circonferenza di centro O e raggio
r > 0 come () = (r cos , r sin ) con [0, 2], abbiamo

() = r
per ogni , dunque ritroviamo il fatto noto che L() = 2. Ma possiamo
riottenere lo stesso risultato notando che la circonferenza `e unione delle curve

(x) =
_
x,

r
2
x
2
_
con x [r, r]. Abbiamo infatti
_
_

(x)

1 +
_
1
2

2x

r
2
x
2
_
2
=
r

r
2
x
2
=
1

1 (x/r)
2
Curve nel piano e nello spazio 167
e con la sostituzione u = x/r troviamo
L(
+
)+L(

) = 2
1

1
1

1 u
2
r du = 2rarcsin u

1
1
= 2r
_

2

_

2
__
= 2r.
Il prossimo risultato traduce il fatto del tutto intuitivo che la lunghezza `e
una propriet`a del supporto di una curva e non di una sua parametrizzazione:
Proposizione 14.1.8. Se `e ottenuta da tramite un cambiamento di para-
metro allora L() = L().
Dimostrazione. Sia (s) = ((s)) con : [c, d] [a, b]. Allora

(s) =

((s))

(s), dunque

(s) =

((s)) |

(s)| e il risultato segue imme-


diatamente dalle formule di integrazione per sostituzione:
L() =
d

(s) ds =
d

((s)) |

(s)| ds =
b

(t) dt = L().
14.1.3 Integrale su una curva di una funzione
Esaminando la formula L() =
b

(t) dt che fornisce la lunghezza di una


curva , possiamo ora interpretare

(t) dt come lelemento di lunghezza di


nel punto (t). Supponendo che il supporto di giaccia nel dominino di una
funzione f : R, possiamo poi estendere tale interpretazione considerando
f((t))

(t) dt come il costo elementare dellelemento di lunghezza di


in (t) contato con il peso f((t)). Integrando questo costo elementare
otteniamo allora il costo totale di nel quale in ciascun punto x di un
elemento di lunghezza viene contato con il peso f(x):
Denizione 14.1.9. Data f : R continua e : [a, b] regolare,
chiamiamo integrale di f su la quantit`a

f =
b

a
f((t))

(t) dt.
Il prossimo risultato si dimostra con un argomento del tutto analogo a
quello che abbiamo impiegato per la Proposizione 14.1.8:
168 Capitolo 14
Proposizione 14.1.10. Se `e ottenuta da tramite un cambiamento di
parametro allora

f =

f.
14.1.4 Parametro darco
Interpretando una curva come un tracciato unidimensionale nel piano o nel-
lo spazio, vediamo che la norma della derivata di una sua parametrizzazione
rappresenta la velocit`a scalare con cui la curva viene percorsa tramite quella
parametrizzazione.
`
E del tutto intuitivo che `e sempre possibile percorrere qual-
siasi tracciato a velocit`a scalare costante unitaria; come vedremo nei prossimi
paragra, si tratta di una situazione particolarmente importante dal punto di
vista geometrico, a cui conviene dare un nome e di cui conviene dimostrare con
cura lesistenza:
Denizione 14.1.11. Diciamo che una curva parametrizzata regolare :
[a, b] R
n
`e in parametro darco se

(t) = 1 per ogni t [a, b].


Teorema 14.1.12. Data : [a, b] R
n
di lunghezza L esiste un cambiamento
di parametro : [0, L] [a, b] tale che = `e in parametro darco. Inoltre
tale cambiamento di parametro conserva lorientazione.
Dimostrazione. Ponendo (t) =

t
a

(u) du otteniamo una bigezione deriva-


bile e crescente : [a, b] [0, L] con

(t) =

(t). Poniamo allora =


1
e = . Poiche

(s) =
1

((s))
=
1

((s))
e

(s) =

((s))

(s)
concludiamo immediatamente che

(s) = 1 per ogni s [0, L].


Osservazione 14.1.13. La costruzione del cambiamento di parametro operata
nella dimostrazione precedente ha una chiara interpretazione. Ponendo infatti
(t) =

t
a

(u) du si sta scegliendo di usare come parametro s = (t) per


parametrizzare la curva proprio la lunghezza della curva tra il punto (a) e il
punto (t). Ed `e chiaro che se come parametro (cio`e come tempo) si usa la
lunghezza, allora la velocit`a scalare (lunghezza fratto tempo) risulter`a unitaria.
14.1.5 Teorema di Jordan
Enunciamo ora un risultato del tutto intuitivo ma in realt`a decisamente dicile
da dimostrare formalmente. Iniziamo con la:
Denizione 14.1.14. Un sottoinsieme A R
n
`e aperto se per ogni x A
esiste r > 0 tale che {y R
n
: y x < r} A. Inoltre A `e connesso se per
ogni x
0
, x
1
A esiste una curva : [0, 1] A tale che (0) = x
0
e
1
= x
1
.
Curve nel piano e nello spazio 169
Enunciamo dunque il Teorema di Jordan:
Teorema 14.1.15. Se : [a, b]R
2
`e una curva semplice e chiusa e J `e il suo
supporto allora R
2
\ J consiste di due aperti connessi disgiunti, uno limitato e
uno illimitato.
14.1.6 Graci locali e teorema del Dini
Cominciamo a osservare che nel piano certamente sono curve il graco di una
funzione y = f(x) e quello di una funzione x = f(y) con f : [a, b] R
derivabile, dato che possono essere parametrizzati rispettivamente come (t) =
(t, f(t)) e come (t) = (f(t), t) con t [a, b].
`
E certamente falso che ogni curva
sia un graco (ad esempio, una circonferenza non lo `e), ma il seguente risultato
(che non dimostriamo formalmente) consente di aermare che lo `e localmente:
Proposizione 14.1.16. Sia : [a, b] R
2
una curva semplice e regolare di
componenti = (X, Y ), e sia t
0
(a, b). Se X

(t
0
) = 0 esistono , > 0 tali
che limmagine di intersecata con il rettangolo [X(t
0
), X(t
0
)+][Y (t
0
)
, Y (t
0
)+] `e il graco di una funzione y = f(x) con f : [X(t
0
), X(t
0
)+]
R. Se invece Y

(t
0
) = 0 esistono , > 0 tali che limmagine di intersecata
con il rettangolo [X(t
0
) , X(t
0
) +] [Y (t
0
) , Y (t
0
) +] `e il graco di una
funzione x = f(y) con f : [Y (t
0
) , Y (t
0
) +] R.
Lidea geometrica di questo risultato `e molto naturale: ad esempio nel
caso X

(t
0
) = 0 si ha che la funzione X `e crescente oppure decrescente vicino
a t
0
, quindi vicino a t
0
`e invertibile, e allora basta prendere f = Y X
1
opportunamente ristretta. I dettagli per`o sono abbastanza laboriosi.
Osserviamo ora che sono curve (ad esempio perche sono localmente graci)
tutte le coniche non degeneri (ellissi, iperboli, parabole). Tali coniche sono
inoltre denite da equazioni, ovvero sono luoghi di zeri di funzioni F : R
2
R.
Si pone dunque in modo naturale il problema di stabilire quali luoghi di zeri
di funzioni sono curve. Certamente, anche per funzioni F molto regolari, non
lo sono tutti:
Esempio 14.1.17. Se F(x, y) = x
2
+y
2
allora il luogo di equazione F(x, y) = 0
`e il solo punto (0, 0). Se F(x, y) = xy allora il luogo di equazione F(x, y) = 0
`e lunione degli assi cartesiani, dunque non `e il supporto di una curva semplice
vicino a (0, 0).
Abbiamo ora il seguente fondamentale risultato, dovuto a Ulisse Dini:
170 Capitolo 14
Teorema 14.1.18. Sia R
2
un aperto e F : R una funzione con
derivate parziali continue. Sia (x
0
, y
0
) un punto tale che F(x
0
, y
0
) = 0
e grad
(x
0
,y
0
)
(F) = 0. Allora vicino a (x
0
, y
0
) il luogo Z = {(x, y) :
f(x, y) = 0} `e il graco di una funzione derivabile con derivata continua di una
delle due coordinate in funzione dellaltra. Pi` u esattamente se
F
y
(x
0
, y
0
) = 0
si ha che vicino a (x
0
, y
0
) il luogo Z `e il graco di una funzione y = Y (x)
con Y

(x) =
F
x
(x, Y (x))
_
F
y
(x, Y (x))
_
1
; invece se
F
x
(x
0
, y
0
) = 0 si ha
che vicino a (x
0
, y
0
) il luogo Z `e il graco di una funzione x = X(y) con
X

(y) =
F
y
(X(y), y)
_
F
x
(X(y), y)
_
1
.
Di questo teorema daremo una dimostrazione parziale, ma prima ne dedu-
ciamo il seguente:
Corollario 14.1.19. Sia R
2
un aperto e F : R una funzione con
derivate parziali continue. Se grad
(x,y)
(F) = 0 per ogni (x, y) allora gli
insiemi di livello {(x, y) : F(x, y) = c} al variare di c R sono tutti
curve, e in ogni punto (x, y) la retta tangente allinsieme di livello che
passa per (x, y) `e quella ortogonale a grad
(x,y)
(F).
Dimostrazione. Applicando il Teorema 14.1.18 alla funzione (x, y) F(x, y)
c vediamo che linsieme di livello c, se non vuoto, `e localmente graco di una
coordinata in funzione dellaltra, dunque `e una curva. A seconda di quale
derivata parziale di F nel punto (x, y) sia non nulla, il vettore tangente alla
curva nel punto `e uno dei seguenti
_
1,
F
x
(x, y)
_
F
y
(x, y)
_
1
_
,
_

F
y
(x, y)
_
F
x
(x, y)
_
1
, 1
_
,
dunque in ogni caso `e ortogonale a grad
(x,y)
(F) =
_
F
x
(x, y),
F
y
(x, y)
_
.
Tornando alla dimostrazione del teorema del Dini, supponiamo ad esempio
che
F
y
(x
0
, y
0
) > 0. Poiche F ha derivate parziali continue possiamo scegliere
, > 0 tali che
F
y
> 0 su [x
0
, x
0
+ ] [y
0
, y
0
+ ]. Esaminando la
funzione y F(x
0
, y) su [y
0
, y
0
+] vediamo che `e strettamente crescente e
nulla per y = y
0
, dunque F(x
0
, y
0
) < 0 < F(x
0
, y
0
+). Poiche F `e continua
possiamo ora supporre, eventualmente prendendo un valore pi` u piccolo di ,
che F(x, y
0
) < 0 < F(x, y
0
+ ) per ogni x [x
0
, x
0
+ ]. Per ogni
x [x
0
, x
0
+ ] esaminiamo ora la funzione y = F(x, y) su [y
0
, y
0
+ ],
osservando che `e strettamente crescente, negativa nel primo estremo e nulla nel
Curve nel piano e nello spazio 171
secondo; ci`o comporta che essa si annulla in un unico punto Y (x), il che fornisce
la funzione y = Y (x) di cui Z `e il graco vicino a (x
0
, y
0
).
`
E ora possibile, ma
tecnicamente un po complicato, vericare che tale Y `e continua con derivata
continua. Dando per buono questo fatto possiamo ricavare lespressione di
Y

(x) derivando lidentit`a F(x, Y (x)) = 0, da cui otteniamo


1
F
x
(x, Y (x)) +
F
y
(x, Y (x)) Y

(x) = 0
Y

(x) =
F
x
(x, Y (x))
_
F
y
(x, Y (x))
_
1
.
Dallenunciato del Teorema 14.1.18 segue facilmente il:
Corollario 14.1.20. Se F soddisfa le ipotesi del teorema del Dini e ha tutte
le derivate parziali continue no allordine k allora la funzione di cui linsieme
degli zeri di F `e localmente graco ha derivata continua no allordine k.
14.2 Curvatura di una curva piana
Il termine curva che abbiamo impiegato per gli oggetti di cui ci stiamo occu-
pando appartiene anche al linguaggio naturale e indica un tratto non rettilineo
di un percorso. In questo paragrafo, occupandoci esclusivamente delle curve
piane, introdurremo una misura numerica di quanto punto per punto una curva
sia non rettilinea.
14.2.1 Circonferenza osculatrice e curvatura
Abbiamo introdotto la retta tangente a una curva regolare : [a, b] R
2
in
un suo punto (t
0
) come lunica retta avente contatto almeno duplice con
nel punto. Equivalentemente, possiamo vedere la tangente come il limite per t
che tende a t
0
dellunica retta passante per t e t
0
. La retta tangente fornisce
unapprossimazione della curva al primo ordine, e in questo paragrafo scopri-
remo come approssimare la curva al secondo ordine, usando una circonferenza
invece che una retta. Lidea geometrica `e molto semplice: se vicino ad (t
0
)
la curva non `e rettilinea, presi valori distinti t
1
, t
2
, t
3
vicini a t
0
, avremo che
(t
1
), (t
2
), (t
3
) sono punti del piano non allineati, dunque esiste ununica
circonferenza che li contiene. Facendo tendere t
1
, t
2
, t
3
contemporaneamente a
t
0
tale circonferenza tender`a allora a una in cui i tre punti di contatto con si
1
Carlo: Verica se da qualche parte vada messa la chain rule vettoriale
172 Capitolo 14
sono fusi in un unico punto di contatto di ordine triplice. La formalizzazione
di questa idea richiede per`o qualche passaggio analitico.
Iniziamo con un risultato valido in qualsiasi dimensione:
Lemma 14.2.1. Se v : [a, b] R
n
`e una funzione derivabile e v(t) = 1 per
ogni t allora v

(t) v(t) per ogni t.


Dimostrazione. Derivando lidentit`a v(t)
2
= 1, ovvero
n

j=1
(v
j
(t)
2
= 1, otte-
niamo
n

j=1
2v
j
(t)v

j
(t) = 0, ovvero v(t)|v

(t) = 0.
Proposizione 14.2.2. Sia : [a, b] R una curva regolare in parametro
darco e derivabile due volte. Sia t
0
[a, b] tale che

(t
0
) = 0. Allora lunica
circonferenza avente contatto almeno triplice con in (t
0
) `e quella passante
per (t
0
) e avente centro (t
0
) +

(t
0
)

(t
0
)
2
.
Dimostrazione. A meno di movimenti rigidi del piano possiamo supporre che
(t
0
) = 0 e

(t
0
) = (1, 0). Il Lemma 14.2.1 applicato a v(t) =

(t) garantisce
allora che

(t
0
) = (0, c) per qualche c R non nullo. Una circonferenza
avente contatto almeno triplice con in 0 certamente passa per 0 e ha in
0 retta tangente orizzontale, dunque ha centro (0, r) e raggio |r| per qualche
r R. Il contatto `e poi almeno triplice se la funzione
f(t) = (t) (0, r) |r|
ha la derivata seconda nulla in t
0
, infatti le scelte fatte garantiscono gi`a che
f(t
0
) = f

(t
0
) = 0. Notiamo ora che
f(t) =

X(t)
2
+ (Y (t) r)
2
|r|
f

(t) =
1

X(t)
2
+ (Y (t) r)
2
(X(t)X

(t) + (Y (t) r)Y

(t))
f

(t) =
1

(X(t)
2
+ (Y (t) r)
2
)
3
(X(t)X

(t) + (Y (t) r)Y

(t))
2
+
1

X(t)
2
+ (Y (t) r)
2
(X(t)X

(t) +X

(t)
2
+ (Y (t) r)
2
Y

(t) +Y

(t)
2
).
Ne segue che f

(t
0
) pu`o annullarsi solo se in t = t
0
si annulla X(t)X

(t) +
X

(t)
2
+(Y (t)r)
2
Y

(t)+Y

(t)
2
, e troviamo 0+1+(r)c+0 =, da cui r =
1
c
,
che `e precisamente quanto dovevamo dimostrare.
Curve nel piano e nello spazio 173
Denizione 14.2.3. Chiamiamo circonferenza osculatrice a una curva in un
suo punto quella, se esiste, avente contatto almeno triplice con la curva nel
punto.
Osserviamo che la Proposizione 14.2.2 descrive la circonferenza osculatrice
per una curva in parametro darco, ma il Teorema 14.1.12 garantisce che ogni
curva regolare si pu`o parametrizzare in parametro darco, dunque la deni-
zione ha natura generale. Naturalmente per`o possono esistere punti nei quali
la circonferenza osculatrice non esiste: per una curva in parametro dar-
co sono quelli in cui si annulla

; per una curva qualsiasi sono quelli in cui

`e multiplo di

(ma vericarlo non `e immediato, vedi anche la successiva


Proposizione 14.2.5).
Per una circonferenza una buona misura numerica di quanto sia curva `e il
reciproco del raggio (infatti ad esempio a un raggio molto grande corrisponde
un andamento quasi rettilineo). Ci`o giustica la:
Denizione 14.2.4. Chiamiamo valore assoluto della curvatura di una curva
in parametro darco in un suo punto (t
0
) la quantit`a

(t
0
).
Discuteremo tra poco come si possa ranare la denizione precedente in-
troducendo per la curvatura anche un segno. Prima di farlo per`o osserviamo
che grazie al Teorema 14.1.12 possiamo estendere la nozione di curvatura a
qualsiasi curva regolare; tuttavia esplicitare la parametrizzazione in parame-
tro darco `e tipicamente impossibile nella pratica, dunque avremo bisogno di
metodi pi` u ecaci.
14.2.2 Segno della curvatura
14.2.3 Calcolo della curvatura
Proposizione 14.2.5. Se : [a, b] R `e una curva regolare, la curvatura di
in un suo punto (t) vale
(t) =
det
_

(t)

(t)
_

(t)
3
.
Anche se non diamo una dimostrazione completa
14.3 Curvatura e torsione di una curva nello spazio
174 Capitolo 14
Integrazione su curve 175
Capitolo 15
Integrazione su curve
15.1 1-forme e loro integrali
15.2 Forme chiuse ed esatte
15.3 Formula di Gauss-Green
176 Capitolo 15
Isometrie del piano 177
Capitolo 16
Isometrie del piano
Nel capitolo 9 abbiamo gi`a incontrato la nozione di isometria (trasformazione
che preserva le distanze) parlando di spaz vettoriali dotati di prodotti scala-
ri. Abbiamo inoltre chiamato ortogonali le matrici che deniscono isometrie, e
abbiamo esaminato alcune matrici ortogonali 2 2 (e anche n n nel Capito-
lo 10). Aronteremo ora lo studio delle isometrie del piano euclideo in modo
pi` u sistematico, abbandonando lipotesi di linearit`a e adottando sia un punto
di vista sintetico sia un punto di vista analitico.
16.1 Il gruppo delle isometrie
In questo paragrafo studiamo le isometrie da un punto di vista sintetico, ovvero
senza impiegare coordinate.
16.1.1 Il piano euclideo e il gruppo delle isometrie
Indichiamo con E
2
il piano euclideo, ovvero linsieme R
2
nel quale consideriamo
come enti geometrici i punti e le rette, e ssiamo la consueta distanza d tra i
punti e la consueta misura (in radianti) degli angoli formati da rette incidenti.
Denizione 16.1.1. Chiamiamo isometria di E
2
una funzione g : E
2
E
2
invertibile e tale che d(g(P), g(Q)) = d(P, Q) per ogni P, Q E
2
. Poniamo
quindi
Isom
_
E
2
_
=
_
g : E
2
E
2
, g isometria
_
.
Osservazione 16.1.2. Se g : E
2
E
2
soddisfa d(g(P), g(Q)) = d(P, Q) per
ogni P, Q E
2
allora f `e automaticamente iniettiva. In realt`a si pu`o provare
178 Capitolo 16
(lo faremo indirettamente nel Teorema 16.1.13) che f `e automaticamente anche
surgettiva, dunque la richiesta di invertibilit`a nelle denizione `e superua.
Osservazione 16.1.3. Poiche le lunghezze dei lati di un triangolo ne deter-
minano gli angoli, preservando le lunghezze dei segmenti ogni f Isom
_
E
2
_
preserva anche le ampiezze degli angoli.
Prima di procedere ricordiamo che in insieme `e detto gruppo se `e dotato
di una operazione binaria associativa per la quale esiste un elemento neutro e
rispetto alla quale ogni elemento ha un inverso. Abbiamo allora la:
Proposizione 16.1.4. Con loperazione di composizione e come elemento
neutro lidentit`a di E
2
, linsieme Isom
_
E
2
_
`e un gruppo.
16.1.2 Tipi di isometria
Elenchiamo ora alcune tipologie di isometria, che in realt`a si riveleranno esau-
rire tutte le possibilit`a:
La funzione identit`a id
E
2;
La traslazione
v
di un vettore v;
La rotazione
P,
intorno a un punto P di angolo in verso antiorario;
La riessione

rispetto a una retta ;


La glissoriessione
,v
, denita come
v

dove `e una retta e v `e un


vettore non nullo parallelo a .
Osservazione 16.1.5. Se v `e un vettore non nullo parallelo a una retta
allora si ha
v


v
.
Indichiamo ora con linsieme delle isometrie dei 5 tipi appena descrit-
ti. Come gi`a annunciato si ha in realt`a = Isom
_
E
2
_
, ma la dimostrazione
richiede diversi passaggi geometrici (tutti peraltro di interesse indipendente).
16.1.3 Composizioni di isometrie
Iniziamo con la seguente:
Proposizione 16.1.6. Se
1
e
2
sono rette distinte in E
2
allora

2
`e:

2v
se
1
ed
2
sono parallele tra loro e v `e un vettore che va da un punto
di
2
a un punto di
1
perpendicolarmente a entrambe;
Isometrie del piano 179

P,2
se
1
e
2
sono incidenti in un punto P e `e langolo intorno a P
da
2
a
1
in verso antiorario.
Dimostrazione. Supponiamo dapprima che
1
ed
2
sono parallele tra loro Sia
Q E
2
, sia r la retta ortogonale a
1
ed
2
passante per Q, e su r poniamo un
sistema di riferimento con lorigine nel punto di intersezione con
2
, in modo
che il punto di intersezione con
1
abbia coordinata d > 0. La tesi signica che
(

2
) (Q) appartiene a r (il che `e evidente) e che se Q ha coordinata x su r
allora (

2
) (Q) ha coordinata x+2d. A questo ne basta notare che

2
(Q)
ha coordinata x, mentre

1
(

2
(Q)) ha coordinata (x d) +d = x +2d.
Passiamo al caso in cui
1
e
2
sono incidenti in P, e deniamo come
nellenunciato. Poniamo sul piano un sistema di coordinate polari centrato
in P in modo che
2
abbia coordinata angolare = 0 e
1
abbia coordinata
angolare = . Prendiamo un punto Q di E
2
.
`
E ovvio che (

2
) (Q) ha
la stessa distanza di Q da P, dunque per concludere basta vedere che se Q ha
coordinata angolare allora (

2
) (Q) ha coordinata angolare + 2. E
infatti

2
(Q) ha coordinata angolare , e

1
(

2
(Q)) ha coordinata angolare
( +) + = + 2.
Da questo risultato segue immediatamente che ogni traslazione o riessione
`e esprimibile come la composizione di due riessioni; ne deduciamo il:
Corollario 16.1.7. Ogni elemento di `e composizione di al pi` u tre riessioni.
Abbiamo ora la:
Proposizione 16.1.8.


v
`e una riessione se v , una glissoriessione altrimenti;


C,
`e una riessione se C , una glissoriessione altrimenti.
Dimostrazione. Per la prima aermazione, decomponiamo v come w + u con
w e u, e poniamo s =
w/2
(). La Proposizione 16.1.6 comporta che


s
=
w
, dunque


w
=
s
, e


v
=


w

u
=
s

u
`e la riessione
s
se u = 0, cio`e se v , e una glissoriessione altrimenti.
Passando alla seconda aermazione, supponiamo dapprima che C sia su ,
e poniamo s =
C,/2
(). La Proposizione 16.1.6 comporta che


s
=
C,
,
180 Capitolo 16
dunque


C,
=
s
. Nel caso invece in cui C `e fuori da , chiamiamo P la pro-
iezione ortogonale di C su e poniamo s =
P,/2
(). La Proposizione 16.1.6
comporta che


s
=
P,
, dunque
s
=


P,
e


C,
=


P,

P,

C,
==
s
(
P,

C,
) .
Si pu`o ora vericare (lo faremo in modo del tutto indipendente nella Proposi-
zione 16.1.11) che
P,

C,
`e la traslazione di vettore 2v, dove v `e il vettore
che va da P alla proiezione ortogonale di C su s.
Combinando le Proposizioni 16.1.6 e 16.1.8 ricaviamo facilmente il:
Corollario 16.1.9. consiste di tutti e soli gli elementi di Isom
_
E
2
_
che sono
composizione di al pi` u tre riessioni.
Prima di arrivare al risultato principale secondo cui gi`a coincide con
Isom
_
E
2
_
, ci servono ancora due risultati preliminari:
Lemma 16.1.10. Due isometrie di E
2
che coincidono su tre punti non allineati
coincidono su tutto E
2
.
Dimostrazione. Osserviamo dapprima che le immagini tramite unisometria
di punti non allineati sono non allineate (infatti soddisfano in modo stretto
le tre disuguaglianze triangolari). Basta allora notare che lintersezione di tre
circonferenze con centri non allineati `e al pi` u un punto, dunque ogni punto di E
2
`e univocamente determinato dalle sue distanza da tre punti non allineati.
Proposizione 16.1.11. Se g
1
, g
2
Isom
_
E
2
_
sono traslazioni o rota-
zioni allora g
1
g
2
`e lidentit`a, una traslazione o una rotazione.
Dimostrazione. Distinguiamo le due possibilit`a sia per g
1
sia per g
2
. Se g
1
=
v
1
e g
2
=
v
2
chiaramente g
1
g
2
=
v
1
+v
2
. Se g
1
=
C,
e g
2
=
v
poniamo
H =
v/2
(C) e deniamo D come il punto tale che C

HC `e retto, mentre
H

DC misura /2, come in Fig. 16.1 Notiamo che D `e H se = , mentre


giace da un lato o dallaltro di della retta CH a seconda che 0 < < pi oppure
< < 0 (il caso in Fig. 16.1 `e il primo). In Fig. 16.2 e Fig. 16.3 dimostriamo
che il punto D rimane sso rispetto a
C,

v
, mentre H e C vengono ruotati
intorno a D di angolo (tutti gli angoli segnati in gura misurano /2. Grazie
al Lemma 16.1.10 ci`o comporta che
C,

v
=
D,
.
Il caso g
1
=
v
e g
2
=
C,
`e simile (oppure si deduce dal precedente): se
H =
v/2
(C) e D e il punto tale che C

HD `e retto mentre C

DH misura /2,
come in Fig. 16.4 si ha che
v

C,
=
D,
.
Isometrie del piano 181
Figura 16.1: Composizione di una rotazione e di una traslazione
Figura 16.2:
C,

v
ssa D
Figura 16.3: Immagini di C e H rispetto a
C,

v
182 Capitolo 16
Figura 16.4: Composizione di una traslazione e di una rotazione
Figura 16.5: Composizione di due rotazioni con centri diversi e angoli opposti tra loro
Veniamo al caso g
1
=
C
1
,
1
e g
2
=
C
2
,
2
. Se C
1
= C
2
chiaramente
g
1
g
2
=
C,
1
+
2
, con C = C
1
= C
2
. Se C
1
= C
2
ma
2
=
1
, deniamo v
come il vettore che va da C
2
a
C
1
,
(C
2
), come in in Fig. 16.5, dove =
1
.
Ovviamente si ha (
C
1
,
1

C
2
,
2
) (C
2
) =
v
(C
2
), come evidente anche dalla
stessa Fig. 16.5. La Fig. 16.6 e la Fig. 16.7 mostrano che
C
1
,
1

C
2
,
2
agisce
come
v
anche su C
1
e su P =
C
2
,
(C
1
), dunque
C
1
,
1

C
2
,
2
=
v
per
il Lemma 16.1.10. Se inne C
1
= C
2
e
1
+
2
= 0 deniamo C come in
Fig. 16.8, e aermiamo che
C
1
,
1

C
2
,
2
=
C,
1
+
2
. La Fig. 16.9 mostra che
C `e in eetti mantenuto sso, e con un argomento geometrico diretto si verica
che C
2
e (con pi` u dicolt`a) C
1
vengono ruotati intorno a C di angolo
1
+
2
,
onde la conclusione sempre grazie al Lemma 16.1.10-
Corollario 16.1.12. consiste di tutti e soli gli elementi di Isom
_
E
2
_
che
sono composizione di riessioni. In particolare la composizione di due elementi
di appartiene a .
Isometrie del piano 183
Figura 16.6:
Figura 16.7:
Figura 16.8: Composizione di due rotazioni di angoli con somma non nulla
Figura 16.9: C viene trasformato in se stesso
184 Capitolo 16
16.1.4 Il gruppo delle isometrie del piano
Siamo nalmente in grado di provare che le isometrie sopra descritte esauri-
scono tutte le possibilit`a.
Teorema 16.1.13. Sia g : E
2
E
2
tale che d(g(P), g(Q)) = d(P, Q) per ogni
P, Q E
2
. Allora f . In particolare, coincide con il gruppo Isom
_
E
2
_
.
Dimostrazione. Per denizione contiene le traslazioni, le rotazioni e le ries-
sioni. Il corollario nonche le inverse e le composizioni di trasformazioni che
gli appartengono. Per concludere sar`a allora suciente trovare
1
, . . . ,
k

tali che
k
. . .
1
f `e lidentit`a di E
2
. A tal ne ssiamo in E
2
tre punti
P, Q, R tali che d(P, Q) = d(P, R) = 1 e Q

PR =

2
in verso antiorario intorno
a P. Se chiamiamo
1
la traslazione di vettore

Pg(P) e poniamo g
1
=
1
f
abbiamo g
1
(P) = P. Dunque d(P, g(Q)) = d(P, Q) = 1, pertanto se chiamia-
mo
2
la rotazione intorno a P di angolo Q

Pg(Q) e poniamo g
2
=
2
g
1
abbiamo g
2
(P) = P e g
2
(Q) = Q. Abbiamo allora d(P, g(R)) = d(P, r) = 1
e d(Q, g(R)) = d(Q, R) =

2, da cui segue che g(R) coincide con R o con il


simmetrico di R rispetto alla retta che passa per P e Q. Deniamo ora
3
come
lidentit`a di E
2
nel primo caso e come la riessione rispetto alla retta che passa
per P e Q nel secondo, e poniamo g
3
=
3
g
2
, ovvero g
3
=
3

2

1
f. Ab-
biamo allora che g
3
ssa tutti e tre i punti P, Q, R. Dal Lemma 16.1.10 segue
che g
3
`e lidentit`a di E
2
, e la dimostrazione `e completa.
Introduciamo ora una nozione ulteriore:
Denizione 16.1.14. Diremo che una terna ordinata di punti (O, A, B) di E
2
`e positivamente orientata se i punti non sono allineati e la rotazione intorno a
O di angolo compreso tra 0 e che sovrappone la semiretta OA alla semiretta
OB avviene in verso antiorario intorno a O. Data g Isom
_
E
2
_
, diremo che
g preserva lorientazione di E
2
se manda terne di punti positivamente orien-
tate in terne di punti positivamente orientate, altrimenti diremo che inverte
lorientazione.
Osservazione 16.1.15. Non `e dicile vedere che se g Isom
_
E
2
_
manda
una terna di punti positivamente orientata in una terna di punti positivamente
orientata allora fa lo stesso con qualsiasi terna di punti positivamente orientata.
`
E immediato vericare che le riessioni invertono lorientazione, che la com-
posizione di due isometrie che invertono lorientazione la conserva, e che la
composizione di unisometria che inverte lorientazione con una che la conserva
(in qualsiasi ordine) inverte lorientazione. Avendo provato che le isometrie di
Isometrie del piano 185
E
2
sono tutte e sole quelle dei 5 tipi descritti (identit`a, traslazioni, rotazio-
ni, riessioni, glissoriessioni) possiamo ora vedere che i 5 tipi sono distinti dal
comportamento rispetto allorientazione e da unaltra caratteristica geometrica
molto trasparente:
Tipo di isometria g Punti ssi di g g rispetto allorientazione
Identit`a E
2
Conserva lorientazione
Traslazione Conserva lorientazione
Rotazione Un punto Conserva lorientazione
Riessioni Una retta Inverte lorientazione
Glissoriessione Inverte lorientazione
16.2 Descrizione analitica delle isometrie
In questo paragrafo rivisiteremo quanto gi`a visto in questo capitolo usando le
coordinate piuttosto che il punto di vista della geometria sintetica. A questo
ne ssiamo su E
2
un sistema di riferimento cartesiano Oxy ortogonale, mo-
nometrico e positivamente orientato. Iniziamo con lesprimere in coordinate le
isometrie di tipo pi` u semplice, con il seguente enunciato senza dimostrazione:
Proposizione 16.2.1. id
E
2
_
x
y
_
= I
2

_
x
y
_
con I
2
=
_
1 0
0 1
_
;

v
_
x
y
_
=
_
x
y
_
+v

O,
_
x
y
_
= R

_
x
y
_
con R

=
_
cos sin
sin cos
_
;

x
0
y
0

,
_
x
y
_
= R

__
x
y
_

_
x
0
y
0
__
+
_
x
0
y
0
_
= R

_
x
y
_
+ (I
2
R

)
_
x
0
y
0
_
.
Osservazione 16.2.2. Una isometria del tipo g
_
x
y
_
= R

_
x
y
_
+
_
a
b
_
per = 2k con k Z `e sempre una rotazione di angolo ; il centro di rotazione
_
x
0
y
0
_
si trova imponendo g
_
x
0
y
0
_
=
_
x
0
y
0
_
, ovvero
_
(1 cos )x
0
+ sin y
0
= a
sin x
0
+ (1 )y
0
= b
186 Capitolo 16
e questo sistema ha soluzione unica perche la sua matrice incompleta ha de-
terminante (1 cos )
2
+sin
2
= 2(1 cos ) che `e non nullo per = 2k con
k Z.
16.2.1 Riessioni e glissoriessioni
Veniamo ora a riessioni e glissoriessioni, cominciando con la:
Proposizione 16.2.3. Se una retta passa per O e forma un angolo con
lasse Ox allora

_
x
y
_
= S
2

_
x
y
_
, con S

=
_
cos sin
sin cos
_
.
Dimostrazione. Indicando con
0
lasse Ox chiaramente

0
_
x
y
_
=
_
x
y
_
,
e la formula `e corretta. In generale

=
O,

0

O,
, dunque si tratta
dellapplicazione lineare associata alla matrice
R

_
1 0
0 1
_
R

=
_
cos sin
sin cos
_

_
1 0
0 1
_

_
cos sin
sin cos
_
=
_
cos sin
sin cos
_

_
cos sin
sin cos
_
=
_
cos
2
sin
2
2 sin cos
2 sin cos sin
2
cos
2

_
=
_
cos(2) sin(2)
sin(2) cos(2)
_
.
Osservazione 16.2.4. La dipendenza della matrice di

dalle funzioni gonio-


metriche di 2 e non di `e del tutto logica, infatti le rette di inclinazione e
+ coincidono, dunque danno luogo alla stessa riessione.
Osservazione 16.2.5. Possiamo dimostrare la Proposizione 16.2.3 in altri due
modi indipendenti:
Usando le coordinate polari, possiamo osservare che

trasforma un pun-
to di coordinate polari (, ) nel punto di coordinate polari (, 2), e
dalle formule di addizione di seno e coseno segue facilmente la conclusione;
Isometrie del piano 187
Osservando che
_
cos
sin
_
e
_
sin
cos
_

deduciamo che la
matrice M di

deve soddisfare
M
_
cos
sin
_
=
_
cos
sin
_
, M
_
sin
cos
_
=
_
sin
cos
_
M =
_
cos sin
sin cos
_

_
cos sin
sin cos
_
1
da cui di nuovo la conclusione con un semplice calcolo.
Teorema 16.2.6. Le riessioni rispetto a rette in E
2
sono tutte e sole le
trasformazioni ani del tipo
g
_
x
y
_
= S

_
x
y
_
+u con u
_
cos(/2)
sin(/2)
_
.
Una tale g `e la riessione rispetto alla retta contenente
1
2
u e avente inclina-
zione /2 rispetto allasse Ox.
Dimostrazione. Proviamo dapprima che tutte le riessioni rispetto a rette han-
no la forma indicata. Se ha inclinazione rispetto allasse Ox, indicando con

0
la parallela a per O e con v il vettore che unisce O a in modo perpendicola-
re, sappiamo dalla Proposizione 16.1.6 che

0
=
2v
, dunque

=
2v

0
,
e la conclusione segue immediatamente. A questo punto `e immediato verica-
re che ogni g come nellenunciato `e una riessione, infatti quanto gi`a provato
comporta che g `e eettivamente la riessione rispetto alla retta descritta nella
prima seconda dellenunciato.
Osservazione 16.2.7. Dalla teoria sviluppata nel paragrafo precedente sap-
piamo che ogni isometria del tipo g
_
x
y
_
= S


_
x
y
_
+ u, essendo la com-
posizione di una riessione e di una traslazione, `e una riessione o una glis-
soriessione. Per vericare che si tratti di una riessione non conviene per`o
vericare la condizione u
_
cos(/2)
sin(/2)
_
, bens` semplicemente vericare che
g abbia punti ssi. In questo modo si trova peraltro immediatamente lasse di
riessione.
Esempio 16.2.8. Sia g
_
x
y
_
=
1
25
_
7 24
24 7
_

_
x
y
_
+
4
25
_
4
3
_
. La
matrice `e quella di una riessione, e imponendo g
_
x
y
_
=
_
x
y
_
si trovano
188 Capitolo 16
due equazioni entrambe equivalenti a 4x3y +2 = 0, dunque g `e la riessione
rispetto alla retta avente tale equazione.
Teorema 16.2.9. Le glissoriessioni in E
2
sono tutte e sole le trasformazioni
ani del tipo
g
_
x
y
_
= S

_
x
y
_
+u con

_
cos(/2)
sin(/2)
_
= 0.
Lasse e il vettore w parallelo a tale che una tale g sia la glissoriessione


w
si ottengono come segue:
w `e la proiezione ortogonale di u sulla retta generata da
_
cos(/2)
sin(/2)
_
;
`e la retta contenente
1
2
(uw) e avente inclinazione /2 rispetto allasse
Ox.
Dimostrazione. Con w e come nella seconda parte dellenunciato, il Teore-
ma 16.2.6 comporta che la g della prima parte dellenunciato `e


w
, e la
conclusione segue subito.
Osservazione 16.2.10. Per provare che una trasformazione ane di E
2
del
tipo g
_
x
y
_
= S

_
x
y
_
+u `e una glissoriessione conviene provare che non
ha punti ssi, individuare lasse come lunica retta che g manda in se stessa,
e trovare il vettore parallelo a tale che g =


w
come w = g(P) P con
P .
Esempio 16.2.11. Se g
_
x
y
_
=
1
13
_
5 12
12 5
_

_
x
y
_
+
_
1
1
_
, la ma-
trice di g `e quella di una riessione o glissoriessione. Imponendo che un punto
sia ssato da g si trova il sistema
_
5x 12y + 13 = 13x
12x 5y + 13 = 13y
ovvero
_
8x + 12y = 13
12x + 18y = 13
che `e impossibile, dunque g `e una glissoriessione. Per trovare lasse si osserva
che `e parallelo a quello della riessione di matrice
1
13
_
5 12
12 5
_
, che per
i calcoli gi`a fatti ha equazione 2x + 3y = 0. Bisogna allora trovare c tale che
sostituendo x con
1
13
(5x 12y) + 1 e y con
1
13
(12x 5y) + 1 nellequazione
2x + 3y = c si ottenga unequazione a essa equivalente. Con facili calcoli si
Isometrie del piano 189
ottiene c =
5
2
, dunque g ha asse : 4x + 6y = 5. In particolare
1
2
_
1
1
_
, e
g lo trasforma in
1
26
_
19
9
_
, dunque il vettore di traslazione di g parallelo a
`e
1
26
_
19
9
_

1
2
_
1
1
_
=
1
13
_
3
2
_
.
16.2.2 Composizione di isometrie descritte analiticamente
Tutti i risultati che abbiamo provato sulla composizione di isometrie si possono
riottenere per via analitica. A titolo di esempio diamo una nuova di uno dei pi` u
impegnativi, ovvero il caso dicile del secondo punto della Proposizione 16.1.8:
Proposizione 16.2.12. Se C non appartiene a allora


C,
`e la glissori-
essione
s
2v, dove:
s =
P,/2
(), dove P `e la proiezione ortogonale di C su ;
v `e il vettore che unisce P alla proiezione ortogonale di C su s.
Dimostrazione. Scegliamo un sistema di riferimento in cui P `e lorigine O,
lasse `e lasse Ox, mentre C =
_
0
k
_
con k > 0. Abbiamo allora
(


C,
)
_
x
y
_
=
_
1 0
0 1
_

__
cos sin
sin cos
_

_
x
y +k
_

_
0
k
__
e dopo qualche passaggio otteniamo
(


C,
)
_
x
y
_
=
_
cos sin
sin cos
_

_
x
y
_
+
_
k sin
k(1 cos )
_
.
La matrice di questa trasformazione ane `e S

, che rappresenta la riessione


rispetto a una retta passante per O e di inclinazione /2, dunque proprio la
retta s dellenunciato. Resta da vedere che il vettore w =
_
k sin
k(1 cos )
_
coincide con 2v. A questo ne riscriviamo w come
w = k
_
2 sin(/2) cos(/2)
2 sin
2
(/2)
_
= 2 (k sin(/2))
_
cos(/2)
sin(/2)
_
190 Capitolo 16
e osserviamo che
_
cos(/2)
sin(/2)
_
`e il vettore direttore di s, da cui segue che la
proiezione ortogonale v di C su s `e proprio
(k sin(/2))
_
cos(/2)
sin(/2)
_
e la dimostrazione `e completa.
Pavimentazioni del piano 191
Capitolo 17
Pavimentazioni del piano
192 Capitolo 17
Indice analitico
ane, cambiamento di coordinate ,
150
ane, sottospazio , 83
ane, trasformazione , 132
aggiunta (di una matrice), 116
A
ij
, 77
algebra, teorema fondamentale della
, 98
algebrica, molteplicit`a di un auto-
valore, 122
angolo tra due rette, 104
anti-lineare, applicazione , 116
antisimmetrica, matrice , 55
antisimmetrica, relazione , 142
aperto, sottoinsieme di R
n
, 170
applicazione lineare, 49
arco, parametro di , 170
area (con segno) del parallelogrammo,
7374
argomento (di un numero complesso),
96
arrivo, base di per la matrice di una
applicazione, 63
associata, applicazione lineare a una
matrice, 56
associata, matrice a unequazione,
154
associata, matrice a una applicazio-
ne rispetto a basi date, 63
associato, sottospazio vettoriale a
un sottospazio ane, 84
assurdo, dimostrazione per, 25
A

, 116
t
A, 50
autoaggiunta, applicazione , 114, 117
autovalore, 121
autovettore, 121
base, 39
base canonica di M
nm
(R), 40
base canonica di R
n
, 40
base canonica di R
d
[x], 40
base ortogonale, 109
base ortonormale, 109
Bessel, disuguaglianza di , 112, 117
bilineare, applicazione , 104
Binet, teorema di , 78
C, 9197
cambiamento della matrice, 68
cambiamento delle coordinate, 68
cambiamento di base, 6768
cambiamento di coordinate ane, 150
cambiamento di parametro, 167
campo, 22
canonica, base di M
nm
(R), 40
canonica, base di R
n
, 40
canonica, base di R
d
[x], 40
canonico, prodotto scalare di R
n
,
105
canonico, prodotto scalare hermitiano
di C
n
, 116
caratteristico, polinomio , 121
Pavimentazioni del piano 193
cartesiana, presentazione (o equazio-
ne) di un piano nello spa-
zio, 88, 112114
cartesiana, presentazione (o equazio-
ne) di un sottospazio ane,
84
cartesiana, presentazione (o equazio-
ne) di una retta nel piano,
86, 112114
cartesiana, presentazione (o equazio-
ne) di una retta nello spa-
zio, 8688, 112114
Cauchy-Schwarz, disuguaglianza di
, 107, 117
circonferenza, 132
C[z], 97
classe di equivalenza, 142
C-lineare, applicazione , 100
C
n
, 100
coeciente di una matrice, 30, 100
combinazione lineare, 3637
complesso, numero , 9197
complesso, spazio vettoriale , 99
completamento (ad una base), 4546
completamento proiettivo, 154
conica degenere, 139
conica non degenere, 136
coniugata, matrice , 120
coniugato (di un numero complesso),
93
connesso, sottoinsieme di R
n
, 170
coordinate di un vettore numerico, 29,
100
coordinate rispetto a una base, 39
coordinate, cambiamento delle , 68
Cramer, teorema di , 80
curva parametrizzata, 165
curva regolare, 165
denita positiva, applicazione , 105,
116
degenere, conica , 139
degenere, conica non , 136
di Kronecker, 58
derivazione di un polinomio, 50
det(A), 7379
det
2
(A), 73
det
n
(A), 7577
determinante di una applicazione li-
neare, 121
determinante di una matrice, 7379
det(f), 121
det
3
(A), 74
diagonale principale, 50
diagonalizzabile, matrice o applicazio-
ne lineare , 120
dim
C
(V ), 100
dimensione (di un sottospazio ane),
84
dimensione complessa, 100
dimensione di un sottospazio proietti-
vo, 149
dimensione nita, 43
dimensione reale, 43
dim
R
(E), 84
dim
R
(V ), 43
dipendenza lineare, 38
diretta, somma , 53
distanza, 108
distanza tra punti del piano, 103
disuguaglianza di Bessel, 112, 117
disuguaglianza di Cauchy-Schwarz, 107,
117
disuguaglianza triangolare, 95, 108, 117
divisione tra polinomi, 99
E
n
, 40
E
nm
, 40
194 Capitolo 17
e
(n)
i
, 40
e
i
, 40
E
ij
, 40
ellisse, 133
ellissoide, 158
equazioni cartesiane di un piano nello
spazio, 88, 112114
equazioni cartesiane di un sottospazio
ane, 84
equazioni cartesiane di una retta nel
piano, 86, 112114
equazioni cartesiane di una retta nello
spazio, 8688, 112114
equazioni parametriche di un piano nel-
lo spazio, 88, 112114
equazioni parametriche di un sottospa-
zio ane, 84
equazioni parametriche di una retta nel
piano, 86, 112114
equazioni parametriche di una retta nel-
lo spazio, 8688, 112114
equivalenti, sistemi lineari , 72
equivalenza, classe di , 142
equivalenza, relazione di , 142
esponenziale complessa, 97
estrazione (di una base), 4546
euclideo, piano , 175
f
A
, 56
f
1
, 66
[f]
C
B
, 63
Fibonacci, numeri di , 1718
nita, dimensione , 43
formula di Grassmann, 4748
F(S, C), 100
F(S, R), 30
F(S, V ), 31
generato, sottospazio , 36
generatori di un sottospazio, 36
geometrica, molteplicit`a di un au-
tovalore, 122
gradiente, 126
grado (di un polinomio), 23
Gram-Schmidt, procedimento di orto-
normalizzazione di , 109111,
117
Grassmann, formula di , 4748
gruppo, 176
gruppo commutativo, 22
hermitiana, applicazione , 116
hermitiana, matrice , 118
hermitiano, prodotto scalare , 116
hermitiano, prodotto scalare cano-
nico di C
n
, 116
hessiana, matrice , 126
L
R
(V, W), 59
i, 91
identit`a, matrice , 58
Id
V
, 54
I
n
, 58
, 93
Im(f), 51
immaginaria, parte di un numero
complesso, 93
immaginaria, unit`a , 91
immaginario puro, numero complesso
, 93
immagine (di una applicazione linea-
re), 51
incognite (di una sistema), 69
indice (di riga o colonna di una matri-
ce), 30
indipendenza lineare, 38
induzione, principio di, 24
innito, punti all di una conica o
quadrica, 154
innito, punto all, 148
Pavimentazioni del piano 195
integrale di una funzione scalare su una
curva, 169
intero, numero , 1920
inversa (di una applicazione), 66
inverso di un numero complesso, 93,
94
invertibile, applicazione , 66
iperbole, 133
iperboloide ellittico o a due falde, 159
iperboloide iperbolico o a una falda,
159
isometria, 114, 175
isometria del piano euclideo, 131
j, 91
Jordan, teorema di , 170
Ker(f), 51
Kronecker, di , 58
Laplace, formule di sviluppo di , 77
lineare, applicazione , 49
lineare, combinazione , 3637
lineare, dipendenza , 38
lineare, indipendenza , 38
lineare, sistema , 69
lunghezza di una curva, 168
Mobius, nastro di , 145
m.a., 122
matrice (di un sistema), 69
matrice antisimmetrica, 55
matrice associata a una applicazione
rispetto a basi date, 63
matrice complessa, 100
matrice identit`a, 58
matrice reale, 2930
matrice simmetrica, 55
matrice, cambiamento della , 68
m.g., 122
M
nn
(C), 100
M
nm
(R), 2930
modulo (di un numero complesso), 94
molteplicit`a algebrica di un autovalo-
re, 122
molteplicit`a della radice di un polino-
mio, 99
molteplicit`a geometrica di un autova-
lore, 122
monolatera, supercie , 145
N, 19
naturale, numero , 19
norma, 107, 117
norma di un vettore in R
n
, 104
normale, matrice , 128
normalizzazione (di un vettore), 109
noti, termini (di un sistema linea-
re), 71
nucleo (di una applicazione lineare),
51
omogenee, coordinate , 149
omogeneo, sistema lineare , 71
ordine, relazione di , 142
orlata, 80
orlati, teorema degli , 8082
ortogonale, applicazione , 114
ortogonale, base , 109
ortogonale, proiezione , 111112, 117
ortogonale, sistema di vettori, 108
ortogonali, rette nel piano, 103
ortogonali, vettori , 108
ortonormale, base , 109
ortonormale, sistema di vettori, 108
ortonormalizzazione, procedimento di
di Gram-Schmidt, 109111,
117
P, 143
196 Capitolo 17
parabola, 134
paraboloide ellittico, 158
paraboloide iperbolico o a sella, 160
paralleli, sottospaz ani , 90
parallelogrammo, area (con segno) del
, 73
parallelogrammo, area del , 74
parametrica, presentazione (o equazio-
ne) di un piano nello spa-
zio, 88, 112114
parametrica, presentazione (o equazio-
ne) di un sottospazio ane,
84
parametrica, presentazione (o equazio-
ne) di una retta nel piano,
86, 112114
parametrica, presentazione (o equazio-
ne) di una retta nello spa-
zio, 8688, 112114
parametro darco, 170
parametro, cambiamento di , 167
parte immaginaria di un numero com-
plesso, 93
parte reale di un numero complesso,
93
partenza, base di per la matrice di
una applicazione, 63
permutazione, 7677
p
f
, 121
piano euclideo, 175
piano nello spazio, 88, 112114
P
n
(R), 143
polare, forma di un numero com-
plesso, 9697
polinomio, 2223
polinomio caratteristico, 121
polinomio complesso, 97
polinomio, derivazione di un , 50
positiva, applicazione denita, 105
positiva, applicazione denita , 116
posto di una matrice, 29
principale, diagonale , 50
procedimento di ortonormalizzazione di
Gram-Schmidt, 109111, 117
prodotto di numeri complessi, 92
prodotto per scalare, 27
prodotto righe per colonne, 5657
prodotto scalare canonico di R
n
, 105
prodotto scalare hermitiano, 116
prodotto scalare hermitiano canonico
di C
n
, 116
prodotto scalare in R
n
, 104
prodotto scalare su V , 104105
prodotto vettoriale, 113114
proiettivo, completamento , 154
proiettivo, sottospazio , 149
proiettivo, spazio , 143
proiezione nel quoziente, 142
proiezione ortogonale, 111112, 117
puro, numero complesso immaginario
, 93
p
W
, 111112, 117
Q, 2021
quadrato, sistema lineare , 71
quadrica non degenere, 158
quoziente, insieme , 142
R, 2122
radici dellunit`a, 98
rango di una applicazione o matrice,
70
rank(A), rank(f), 70
razionale, numero , 2021
, 93
reale, numero , 2122
reale, parte di un numero comples-
so, 93
regola di Sarrus, 74
Pavimentazioni del piano 197
regolare, curva , 165
relazione su un insieme, 141
resto della divisione tra polinomi, 99
retta nel piano, 86, 112114
retta nello spazio, 8688, 112114
riessiva, relazione , 141
rigata, supercie , 159
R-lineare, applicazione , 100
R
n
, 29
Rouche-Capelli, teorema di , 7071
Runi, regola di , 99
R[x], 2223, 31
R
d
[x], 32
Sarrus, regola di , 74
scalare, 27
scalare, prodotto canonico di R
n
,
105
scalare, prodotto hermitiano, 116
scalare, prodotto hermitiano cano-
nico di C
n
, 116
scalare, prodotto in R
n
, 104
segnatura (di una permutazione), 76
77
segno del volume di un solido, 74
segno dellarea del parallelogrammo, 74
segno di un numero reale, 50
seminassi di un ellissoide, 158
sghembe, rette , 90
sgn, 50
sgn(), 7677
simile, matrice , 120
simmetrica, applicazione , 104
simmetrica, matrice , 55
simmetrica, relazione , 141
sistema lineare, 69
sistema lineare omogeneo, 71
sistema lineare quadrato, 71
sistema lineare sottodeterminato, 71
sistema lineare sovradeterminato, 71
sistemi lineari equivalenti, 72
somma di numeri complessi, 92
somma di sottospaz, 47
somma di sottospaz ani, 8990
somma di vettori, 27
somma diretta, 53
sottodeterminato, sistema lineare ,
71
sottomatrice, 80
sottospazio ane, 83
sottospazio vettoriale, 3132
sovradeterminato, sistema lineare ,
71
Span, 36
spazio vettoriale complesso, 99
spazio vettoriale, reale, 2728
spettrale, teorema , 124125
stereograca, proiezione , 146
sviluppo di Laplace, formule di , 77
teorema degli orlati, , 8082
teorema di Binet, 78
teorema di Cramer, 80
teorema di Rouche-Capelli, 7071
teorema fondamentale dellalgebra, 98
teorema spettrale, 124125
termini noti (di un sistema lineare), 71
tr(A), 50
traccia di una applicazione lineare, 122
traccia di una matrice, 50
transitiva, relazione , 142
trasposizione, 76
trasposizione, trasposta, 50
triangolare, disuguaglianza , 95, 108,
117
unit`a immaginaria, 91
unit`a, radici della , 98
unitaria, matrice , 118
198 Capitolo 17
unitario, vettore , 108
vettore, 27
vettore colonna, 29, 100
vettoriale, prodotto , 113114
vettoriale, sottospazio , 3132
vettoriale, spazio reale, 2728
volume (con segno) di un solido, 74
[v]
B
, 39
w

, 116
Z, 1920
z, 93
, 53
, 103
. | .
A
, 105, 117
. | .
R
n, 104
|
C
n, 116
, 113114

Vous aimerez peut-être aussi