Académique Documents
Professionnel Documents
Culture Documents
APPLICAZIONI LINEARI
TEORIA ED ESERCIZI SVOLTI
Indice
1 APPLICAZIONI LINEARI
` . . . . . . . . . . . . . .
1.1 DEFINIZIONI E PRIME PROPRIETA
1.1.1 Nucleo ed immagine . . . . . . . . . . . . . . . . . . . . .
1.1.2 Composizione di applicazioni lineari . . . . . . . . . . . .
1.1.3 Teorema fondamentale delle applicazioni lineari . . . . . .
1.1.4 Spazi isomorfi . . . . . . . . . . . . . . . . . . . . . . . . .
Isomorfismo canonico . . . . . . . . . . . . . . . . . . . .
1.2 MATRICI ASSOCIATE . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Il Teorema dimensionale . . . . . . . . . . . . . . . . . . .
1.2.2 Matrici associate alla composizione di applicazioni lineari
1.2.3 Rappresentazione canonica indotta . . . . . . . . . . . . .
1.2.4 Cambi di base . . . . . . . . . . . . . . . . . . . . . . . .
1.3 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
`
2 SIMILITUDINE E DIAGONALIZZABILITA
2.1 SIMILITUDINE . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
2.2 DIAGONALIZZABILITA
2.2.1 Definizioni e prime propriet`a . . . . . . . . . . . .
2.2.2 Alcune propriet`a del Polinomio caratteristico . . .
2.3 AUTOVALORI ED AUTOVETTORI . . . . . . . . . . .
2.3.1 Calcolo degli autovalori . . . . . . . . . . . . . . .
2.3.2 Autospazi di un endomorfismo . . . . . . . . . . .
2.3.3 Molteplicit`a algebrica e molteplicit`a geometrica . .
2.4 ENDOMORFISMI SIMMETRICI . . . . . . . . . . . . .
2.4.1 Il Teorema Spettrale nel piano . . . . . . . . . . .
2.4.2 Classificazione delle matrici ortogonali di ordine 2
Significato geometrico . . . . . . . . . . . . . . . .
2.4.3 Endomorfismi simmetrici in dimensione superiore .
Generalizzazione del prodotto scalare. . . . . . . .
Generalizzazione delle matrici ortogonali. . . . . .
2.4.4 Ortonormalizzazione di Gram-Schmidt . . . . . . .
Il Teorema Spettrale generalizzato. . . . . . . . . .
2.4.5 Matrici di proiezione . . . . . . . . . . . . . . . . .
2.5 Lo studio della similitudine . . . . . . . . . . . . . . . . .
2.6 ESERCIZI . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5
5
7
9
11
12
13
15
16
19
20
22
24
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
31
31
32
34
36
38
40
44
47
50
51
52
53
54
55
57
62
64
66
INDICE
3 SOLUZIONI DEGLI ESERCIZI
73
3.1 ESERCIZI CAPITOLO 1 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 73
3.2 ESERCIZI CAPITOLO 2 - SOLUZIONI . . . . . . . . . . . . . . . . . . . 92
Capitolo 1
APPLICAZIONI LINEARI
Lo studio degli spazi vettoriali si amplia in maniera naturale quando vengono considerate
le applicazioni lineari. Esse sono particolari funzioni, definite tra due spazi vettoriali, la
cui importanza `e quella di conservare le operazioni tipiche presenti in queste strutture.
1.1
`
DEFINIZIONI E PRIME PROPRIETA
Siano V e W due spazi vettoriali qualsiasi, definiti sullo stesso campo K. Una funzione
f : V W `e unapplicazione lineare se e solo f verifica le seguenti propriet`a.
(i) Per ogni u, v V: f (u + v) = f (u) + f (v).
(ii) Per ogni a K e per ogni u V: f (au) = af (u).
Pertanto una applicazione lineare conserva le operazioni di somma di vettori e di
prodotto tra uno scalare ed un vettore.
Teorema 1.1. Le condizioni (i) e (ii) che definiscono una applicazione lineare sono
equivalenti allunica condizione
(i0 ) Per ogni a, b K e per ogni u, v V: f (au + bv) = af (u) + bf (v).
-Dimostrazione.
(2 )
APPLICAZIONI LINEARI
2. La propriet`a (ii) giustifica il fatto che gli spazi V e W debbano necessariamente
essere definiti sullo stesso campo K. Altrimenti loperazione di prodotto per uno
scalare al secondo membro della (ii) non sarebbe nemmeno definita.
3. Prescindendo dalla struttura di spazio vettoriale, possiamo considerare una applicazione lineare semplicemente come funzione tra due insiemi. Allora possiamo trasferire ad una applicazione lineare f : V W, senza alterarle, alcune definizioni valide
per generiche funzioni tra insiemi. Per esempio, f `e una applicazione lineare iniettiva se f (v) = f (v0 ) implica v = v0 . Invece f `e una applicazione lineare suriettiva
se per ogni w W esiste v V tale che f (v) = w. Si ha una applicazione lineare
biunivoca quando `e contemporaneamente iniettiva e suriettiva.
4. Applicazioni lineari invertibili, ovvero contemporaneamente iniettive e suriettive, si
chiamano isomorfismi, e il loro insieme viene indicato da Iso(V, W). Nel caso in
cui dominio e codominio coincidano, gli omomorfismi prendono il nome di endomorfismi e gli isomorfismi quello di automorfismi. I loro insiemi sono individuati,
rispettivamente, dai simboli End(V) e Aut(V).
5. Studiamo la linearit`a dellapplicazione:
f:
R2 R2
[x, y]t 7 [x y, x + y]t .
`
1.1 DEFINIZIONI E PRIME PROPRIETA
`e lineare. Infatti, per ogni a, b R e per ogni v = [x, y]t e v0 = [x0 , y 0 ]t in R2 si ha:
0
x
x
a
+b
=
y
y0
ax + bx0
=f
=
ay + by 0
f (av + bv0 ) = f
f (ax + by) = A(ax + by) = A(ax) + A(by) = aAx + bAy = af (x) + bf (y),
e quindi, per il Teorema 1.1, f `e una applicazione lineare.
1.1.1
Nucleo ed immagine
APPLICAZIONI LINEARI
Imf = {w W| v V : f (v) = w} .
Un modo pi`
u compatto per definire i due insiemi `e il seguente. Il nucleo `e linsieme
f 1 (0W ), mentre limmagine `e f (V).
Ovviamente ker f V e Imf W. Il teorema seguente mette in evidenza che nucleo
ed immagine non sono semplici sottoinsiemi, ma hanno una loro propria struttura di spazio
vettoriale2 .
Teorema 1.2. Sia f : V W una applicazione lineare. Allora ker f V, ed Imf W.
-Dimostrazione. Siano u, v ker f . Ci`o significa che f (u) = f (v) = 0. Per ogni a, b
appartenenti al campo base K, abbiamo:
(1 )
`
1.1 DEFINIZIONI E PRIME PROPRIETA
f
V
ker f
Im f
0V
0W
2. Applicazioni lineari singolari. Unapplicazione lineare f : V W si dice singolare se il suo nucleo non `e il sottospazio banale di V, cio`e se ker f 6= {0}. In
questo caso esiste almeno un vettore v 6= 0 in V tale che f (v) = 0. Sappiamo che
ker f = 0 `e una condizione necessaria e sufficiente affinche f sia iniettiva. Quindi
unapplicazione singolare non pu`o essere un isomorfismo, non essendo iniettiva.
1.1.2
(1.1.1)
(1.1.2)
(1 )
(2 )
(g f )(hu + ku0 ) = g f (hu + ku0 ) = g hf (u) + kf (u0 ) =
= hg(f (u)) + kg(f (u0 )) = h (g f )(u) + k (g f )(u0 ),
dove le uguaglianze (1 ) e (2 ) sono vere, rispettivamente, per la (1.1.1) e la (1.1.2). Quindi,
dalla definizione di linearit`a, la composizione g f `e lineare, cio`e g f Hom(U, W).
Teorema 1.5. Siano f Hom(U, V) e g Hom(V, W). Se f e g sono iniettive, allora
g f `e iniettiva
-Dimostrazione. Supponiamo che esistano u, u0 U tali che g f (u) = g f (u0 ), cio`e
g(f (w)) = g(f (w0 )). Ma g `e iniettiva, quindi le controimmagini sono uniche. Ci`o significa
che f (u) = f (u0 ). Poiche anche f `e iniettiva, risulta u = u0 . Pertanto g f `e iniettiva.
10
APPLICAZIONI LINEARI
Teorema 1.6. Siano f Hom(U, V) e g Hom(V, W). Se f e g sono suriettive,
allora g f `e suriettiva
-Dimostrazione. Sia w W. Siccome g `e suriettiva, esiste (almeno) un vettore
v V tale che g(v) = w. Ma anche f `e suriettiva, quindi esiste un u U tale che
f (u) = v. Di conseguenza `e vera la seguente uguaglianza:
g f (u) = g(f (u)) = g(v) = w.
Ogni vettore di W ammette almeno una controimmagine, tramite lapplicazione g f ,
nello spazio U, per cui g f `e suriettiva.
Osservazioni ed esempi.
1. La composizione di applicazioni lineari `e generalizzabile ad un numero finito qualsiasi
di applicazioni, con le dovute considerazioni sui domini e codomini. Queste non sono
ovviamente necessarie nel momento in cui si parla di endomorfismi, per i quali domini
e codomini coincidono.
2. Siano f Hom(U, V) e g Hom(V, W). Se g f `e iniettiva il Teorema 1.7
garantisce che f `e iniettiva, ma non fornisce alcuna informazione sulla iniettivit`a di
g. Analogamente, se g f `e suriettiva, il Teorema 1.8 garantisce che g `e suriettiva,
ma non fornisce alcuna informazione sulla suriettivit`a di f .
`
1.1 DEFINIZIONI E PRIME PROPRIETA
1.1.3
11
i = 1, . . . , n.
(1.1.3)
(1.1.4)
= a1 w1 + + an wn W.
Essa, ovviamente, verifica le condizioni (1.1.3). Inoltre, tale funzione `e una applicazione
n
n
X
X
lineare. Infatti, se v1 , v2 V, con v1 =
ai vi , v2 =
bi vi , e h, k K, allora:
i=1
i=1
n
!
n
!!
X
X
f (hv1 + kv2 ) = f h
ai vi + k
bi vi )
=
i=1
=f
n
P
i=1
n
P
i=1
hai vi +
n
P
i=1
kbi vi
i=1
n
P
i=1
hai f (vi ) +
= hf
n
P
i=1
n
P
i=1
=f
n
P
n
P
+ kf
i=1
kbi f (vi ) = h
n
P
i=1
i=1
ai vi
n
P
i=1
n
P
i=1
hai wi +
ai f (vi ) + k
n
P
i=1
n
P
i=1
kbi wi =
bi f (vi ) =
bi vi
= hf (v1 ) + kf (v2 ).
12
APPLICAZIONI LINEARI
e quindi f = g.
Osservazioni ed esempi.
1. Si noti che nel Teorema 1.9 non si impone alcuna condizione sui vettori wi . Essi
potrebbero essere sia dipendenti che indipendenti, ed in questo caso non `e comunque
detto che linsieme {w1 , . . . , wn } sia una base. In effetti non ci sono nemmeno
condizioni sulla dimensione dello spazio codominio W. I due spazi V e W potrebbero
essere molto diversi tra loro, cos` come, invece, potrebbero addirittura coincidere.
2. Il significato del Teorema 1.9 consiste nel fatto che, per definire una particolare
applicazione lineare f : V W, basta fissare le immagini dei vettori di una base
qualsiasi. Ovviamente, una volta fatto ci`o, f va poi estesa per linearit`a a tutto il
dominio V. Estendere linearmente f a tutto lo spazio V significa ricostruire lazione
di f su un qualsiasi vettore di V tramite le (1.1.3). Questo avviene mediante la
formula (1.1.4).
1.1.4
Spazi isomorfi
Nello studio degli spazi vettoriali sono stati introdotti i fondamentali concetti di base e
dimensione. In particolare, fissata una base B di uno spazio vettoriale V, `e possibile associare ad ogni vettore v V, in maniera unica, una n-pla di coefficienti del campo K su cui
`e costruito V. Con le applicazioni lineari vediamo che `e possibile mettere in comunicazione
spazi di natura anche molto diversa tra loro. Ci chiediamo allora se la propriet`a di avere
la stessa dimensione pu`o in qualche maniera essere letta da una applicazione lineare. La
risposta a questa domanda `e fornita dal seguente importante teorema.
Teorema 1.10. Due spazi vettoriali V e W, di dimensione finita, sono isomorfi se e solo
se hanno la stessa dimensione.
-Dimostrazione. La condizione `e necessaria. Poniamo infatti dim V = m e dim W =
n, e supponiamo che esista un isomorfismo f : V W. Allora f `e iniettivo, quindi la
dimensione dellimmagine coincide con quella del dominio, cio`e dim(Imf ) = dim f (W) =
m. Ma Imf W, quindi
m n.
(1.1.5)
Lo stesso discorso si pu`o fare per f 1 , che `e ancora un isomorfismo, ottenendo
m n.
(1.1.6)
`
1.1 DEFINIZIONI E PRIME PROPRIETA
13
f (v) = f
n
X
!
ai vi
i=1
n
X
ai f (vi ) =
i=1
n
X
ai wi .
i=1
f (v) = f
n
X
!
ai vi
i=1
n
X
ai f (vi ) =
i=1
n
X
ai wi = 0.
i=1
i=1
f (v) = f
n
X
i=1
!
bi vi
n
X
i=1
bi f (vi ) =
n
X
bi wi = w.
i=1
a1
n
X
v=
ai vi 7 ... .
i=1
an
Allora cV `e un isomorfismo.
14
APPLICAZIONI LINEARI
-Dimostrazione. Siano x, y V due generici vettori, le cui componenti, rispetto alla
base B fissata, siano date da
x1
y1
x 7 ... e y
7 ... .
xn
yn
ax1 + by1
..
cV (ax + by) =
= a
.
axn + byn
x1
.. + b
.
xn
y1
.. = ac (x) + bc (y),
V
V
.
yn
per cui cV `e una applicazione lineare. Se cV (v) `e la n-pla identicamente nulla, allora
v = 0v1 + ... + 0vn = 0V , per cui ker cV = 0V e quindi cV `e iniettiva.
Consideriamo ora una qualsiasi n-pla in Kn
a1
a = ... .
an
Il vettore v = a1 v1 + ... + an vn appartiene ovviamente a V, e risulta cV (v) = a. Pertanto
lapplicazione lineare considerata `e anche suriettiva, e quindi `e un isomorfismo.
Osservazioni ed esempi.
1. Il Teorema 1.10 ci dice che, a meno di isomorfismi, esiste un solo spazio vettoriale
di una data dimesione n, su un dato campo K. Il Teorema 1.11 ci dice che questo
spazio `e identificabile canonicamente con lo spazio Kn formato da tutte le n-ple di
elementi di K.
2. Possiamo costruire spazi vettoriali aventi la stessa dimensione, ma non isomorfi,
solo assumendo campi base distinti. Infatti, in questo caso, non `e neppure possibile
definire tra essi alcuna applicazione lineare (cfr. Osservazione 2 a pagina 6).
3. Direttamente dalla definizione, si deduce che limmagine di un vettore vi BV ,
tramite cV , coincide con la n-pla avente tutte le componenti uguali a 0, salvo la
componente i-ma uguale a 1. Di conseguenza, cV trasforma la base B nella base
canonica di Kn .
4. In riferimento alla precedente osservazione precisiamo che i valori 0, 1 sono da intendersi come gli elementi neutri delle due operazioni, + e , che rendono linsieme K
un campo. In particolare, 0 `e lelemento neutro del gruppo abeliano (K, +), mentre
1 `e lelemento neutro del gruppo abeliano (K \ {0}, ).
1.2
15
MATRICI ASSOCIATE
x11
x1n
xmn
Le n distinte m-ple cos` ottenute possono essere pensate come le colonne di una matrice
0
AB
e la matrice che si associa in modo univoco (fissate le basi B
B (f ) di tipo (m, n). Essa `
e B0 in V e W) allapplicazione f . Riassumiamo questo fatto nella seguente definizione.
Definizione 1.12. Le matrici rappresentative di una data applicazione lineare f : V W
hanno come colonne i coefficienti che consentono di esprimere le immagini dei vettori di
una base di V come combinazione lineare dei vettori di una base di W.
Ogni tale matrice fornisce un modo per calcolare lazione dellapplicazione f su tutti i
vettori del dominio V. Se x V, detta X la colonna delle componenti di x rispetto alla
base B, le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto
0
0
AB
B (f )X. Nel0 caso in cui f sia un endomorfismo di V, e B = B, possiamo indicare
B
la matrice AB (f ) semplicemente con AB (f ). Facciamo comunque notare che, quando si
considera un endomorfismo, non `e detto che si debba necessariamente assumere la stessa
base nel dominio e nel codominio.
Osservazioni ed esempi.
1. Consideriamo lapplicazione lineare di End(R3 ) definita da:
x
a1 x + a2 y + a3 z
f y = b1 x + b2 y + b3 z ,
z
c1 x + c2 y + c3 z
e fissiamo come base di riferimento la base canonica C, sia nel dominio che nel
codominio. Indichiamo semplicemente con A la matrice ACC (f ) M3 (R) (quando
non si vuole enfatizzare la dipendenza dalle basi `e speso utilizzata questa notazione
semplificata). Lendomorfismo f End(R3 ) manda vettori di R3 in vettori di R3
secondo la regola:
x
a1 x + a2 y + a3 z
7 b1 x + b2 y + b3 z = Y,
X= y
z
c1 x + c2 y + c3 z
16
APPLICAZIONI LINEARI
e la sua azione si manifesta su un vettore v R3 mediante il prodotto a sinistra
della matrice A, cio`e
AX = Y.
Quindi, le colonne di A corrispondono ai
a1
A = b1
c1
a2 a3
b2 b3 .
c2 c3
(1.2.1)
2 ) = 2t = 0 1 + 2t + 0t2 + 0t3
d(t
0 1 0 0
0 0 2 0
AB (d) =
0 0 0 3 .
0 0 0 0
1.2.1
Il Teorema dimensionale
La matrice associata ad unapplicazione lineare fornisce importanti informazioni sulle propriet`a dellapplicazione stessa. Queste sono riassunte nel seguente risultato, noto come Teorema dimensionale. Esso esprime una relazione tra le dimensioni del nucleo e
dellimmagine di ogni applicazione lineare.
3
Lo spazio vettoriale dei polinomi a coefficienti reali di grado n viene anche indicato con P oln (R)[x],
o, pi`
u semplicemente, con P oln (x)
17
Teorema 1.13. Sia f Hom(V, W) e sia dim V = n. Vale allora la seguente uguaglianza:
n = dim(ker f ) + dim(Imf ).
(1.2.2)
-Dimostrazione. Fissiamo in V e W le basi B e B 0 rispettivamente. Preso un generico
vettore x V, sia X la colonna delle componenti di x rispetto alla base B, cio`e
x1
..
X = . .
xn
0
Posto AB
B (f ) = A, rappresentiamo A come accostamento di n vettori colonna, ossia
A = [C1 | . . . |Cn ],
con Ci Kdim W , per ogni i {1, . . . , n}. Sia [f (x)] lelemento di Kdim W le cui componenti
sono i coefficienti che esprimono f (x) come combinazione lineare dei vettori della base B0 .
Allora [f (x)] si ottiene moltiplicando X a sinistra per la matrice A, ossia
x1
..
[f (x)] = AX = [C1 | . . . |Cn ] .
(1.2.3)
xn
= x1 C1 + + xn Cn .
La precedente `e una combinazione lineare delle colonne della matrice A, aventi come
coefficienti gli scalari xi K. Ma, al variare di x V, la (1.2.3) rappresenta pure
tutti i possibili vettori di Imf . Quindi le colonne di A sono un insieme generatore di
Imf . Sappiamo poi che il rango r di A `e il massimo numero di colonne (e di righe)
di A linearmente indipendenti4 . Quindi r rappresenta pure la dimensione dello spazio
immagine, cio`e dim(Imf ) = r. Inoltre, il nucleo di f `e linsieme delle soluzioni del sistema
omogeneo Ax = 0. Quindi, per il Teorema di Rouche-Capelli, dim(ker f ) = n r =
n dim Imf , da cui si ricava la tesi.
Lequazione (1.2.2) `e detta Equazione Dimensionale. Sfruttando lequazione dimensionale ricaviamo che tra spazi aventi la stessa dimensione i concetti di iniettivit`a e suriettivit`a
coincidono.
Teorema 1.14. Siano V e W due spazi vettoriali tali che dim V = dim W. Allora una
applicazione lineare f : V W `e iniettiva se e solo se `e suriettiva.
-Dimostrazione. Supponiamo f iniettiva. Allora ker f = 0, per cui dim(ker f ) = 0,
e dalla (1.2.2) ricaviamo dim(Imf ) = dim V. Ma dim V = dim W, per cui f `e suriettiva.
Supponiamo ora che f sia suriettiva. Allora dim(Imf ) = dim W, ed essendo dim W =
dim V risulta dim(Imf ) = dim V. Dalla (1.2.2) ricaviamo quindi dim(ker f ) = 0, e dal
Teorema 1.3 abbiamo che f `e iniettiva.
Il rango, o caratteristica, di una matrice A viene spesso indicato con il simbolo rkA.
18
APPLICAZIONI LINEARI
Osservazioni ed esempi.
1. Si noti che nel Teorema 1.13 non viene fatta alcuna ipotesi sulla dimensione dello
spazio W, cos` come sulle basi di dominio e codominio.
2. Consideriamo il seguente endomorfismo di R3 :
f:
R3 R3
(x, y, z) 7 (x, y, 0).
Esso viene anche chiamato proiezione canonica (sul piano xy). Limmagine di f
`e Imf = {(x, y, 0)| x, y R}, cio`e il piano xy, che ha dimensione 2. Il nucleo `e
formato da tutti i vettori dellasse z, cio`e ker f = {(0, 0, z)| z R}, e ha dimensione
1. Lequazione dimensionale `e soddisfatta, essendo 3 = dim(ker f ) + dim(Imf ).
3. Studiamo lequazione dimensionale in riferimento alla seguente applicazione lineare
f : R2 R3 :
f (x, y) = (2x y, x + y, y).
Fissiamo come basi di R2 ed R3 le rispettive basi canoniche, ed indichiamo semplicemente con Af la matrice associata ad f rispetto a queste basi. Essa appartiene a
M3,2 (R), ed `e tale che
2x y
x
Af
= x + y ,
y
y
ovvero
2 1
Af = 1 1 .
0 1
` facile verificare che rkAf = 2. Questo significa che dim Imf = 2. Non solo.
E
Le colonne di Af sono un sistema di generatori di Imf , ed essendo in questo caso
indipendenti, ne sono anche una base. Applichiamo lequazione dimensionale:
n = dim ker f + dim Imf.
Sappiamo che n = 2 e dim Imf = rkAf = 2. Allora dim ker f = 0. Quindi, in
particolare, f `e unapplicazione iniettiva.
4. Consideriamo lapplicazione f : R3 R3 associata alla matrice
2 1 0
Af = 2 1 0 .
4 2 3
Il rango di Af `e la dimensione di Imf . La matrice Af `e singolare, ma il minore
del secondo ordine individuato dalle ultime due righe e colonne `e 6= 0. Quindi
rkAf = 2. Le colonne di Af sono un sistema di generatori per Imf , ma quelle che
contribuiscono a formare il minore ne costituiscono pure una base, in quanto formano
un sottoinsieme indipendente massimale di un insieme generatore.
19
DallEquazione dimensionale ricaviamo poi che il nucleo ha dimensione 1. Per determinare esplicitamente ker f , bisogna risolvere il sistema omogeneo Af X = 0,
cio`e
2 1 0
x
0
2 1 0 y = 0 .
4 2 3
z
0
Svolgendo i calcoli ricaviamo y = 2x, z = 0. Pertanto risulta
ker f = {[x, 2x, 0]t R3 , x R},
ed una sua base `e rappresentata, per esempio, dal singolo vettore
1
v = 2 .
0
5. Consideriamo un endomorfismo singolare f End(V) (cfr. Osservazione 2 a pag.
9). Poiche f `e singolare, esiste un vettore x V, con x 6= 0, tale che f (x) = 0. Sia
AB Mn (K) la matrice associata ad f , rispetto alla base B. Indichiamo con X la
colonna delle componenti del vettore x rispetto alla stessa base B, abbiamo
AB X = 0.
Ma la precedente rappresenta un sistema lineare omogeneo quadrato dordine n, che
ammette lautosoluzione x. Quindi il rango della matrice dei coefficienti `e minore
dellordine della matrice, cio`e det A = 0. Di conseguenza la matrice A `e singolare, il
che giustifica il nome di queste applicazioni lineari.
1.2.2
00
B
B
AB
B (g f ) = AB0 (g)AB (f ).
(1.2.4)
00
0
B
B
g f (x) = g(f (x)) = AB
B0 X = AB0 AB X.
20
APPLICAZIONI LINEARI
00
00
Ma, utilizzando la matrice AB
B associata a g f rispetto alle basi B e B abbiamo anche
00
g f (x) = AB
B X,
e, confrontando le due scritture ottenute, si ricava la (1.2.4).
(1.2.5)
Osservazioni ed esempi.
1. Consideriamo due spazi vettoriali V e W, con basi fissate B e B 0 rispettivamente.
Siano poi f : V W una applicazione lineare, x un vettore di V, ed X la colonna
delle componenti di x rispetto a B. Spesso, per snellire la trattazione, anziche dire
che le componenti del vettore f (x), rispetto alla base B 0 , sono fornite dal prodotto
0
AB
B (f )X, si scrive semplicemente
0
f (x) = AB
B (f )x.
(1.2.6)
1.2.3
Sfruttando il Teorema 1.11 possiamo sviluppare lo studio delle applicazioni lineari lavorando semplicemente su quelle definite tra spazi canonici. Vediamo esplicitamente come
avviene questo trasferimento.
Siano V e W due spazi vettoriali, di dimensioni n ed m rispettivamente, definiti sullo
stesso campo K. Mediante gli isomorfismi canonici cV e cW possiamo rappresentare V e
21
W
cW
F
V
c1
V
Km
W
cW
F
Kn 99K
Km
V
In
AB
B (f )
W
Im
Kn
AC
C (F )
Km
Osservazioni ed esempi.
1. La rappresentazione canonica indotta mette anche in evidenza che le propriet`a di
una applicazione lineare sono indipendenti dalle basi che si fissano nel dominio e nel
codominio. Infatti, pur di rimpiazzare f con F , si pu`o sempre pensare di lavorare
con le basi canoniche.
2. Riprendiamo lEsempio 2 riportato a pagina 16. La matrice AB (d) che si `e determinata coincide con quella che rappresenta, rispetto alla base canonica, lapplicazione
D indotta dalla derivazione d sullo spazio canonico R4 isomorfo ad R3 [t]. Possiamo
quindi studiare lazione della derivazione d lavorando direttamente sullo spazio canonico. Ad esempio, consideriamo il polinomio q(t) = 2t3 5t + 1, appartenente ad
R3 [t], le cui componenti rispetto alla base ordinata B = {1, t, t2 , t3 } sono:
1
5
0 .
2
Allora lazione di d su q(t) equivale allazione di D sulla quaterna delle sue coordinate,
descritta dal prodotto:
1
0
5 0
AC (D)
0 = 0
2
0
1
0
0
0
0
2
0
0
0
1
5
0
3 0
0
2
5
0
=
6 .
0
22
APPLICAZIONI LINEARI
Il risultato rappresenta, in R4 , il vettore delle componenti dellimmagine di q(t).
Questo significa che la derivata di q(t) `e il polinomio che ha come coefficienti, rispetto
alla base B, le componenti del vettore ottenuto. Quindi risulta
d(q(t)) = 5 1 + 0t + 6t2 + 0t3 = 5 + 6t2 ,
il che conferma la nota regola di derivazione.
1.2.4
Cambi di base
Vogliamo ora esaminare una particolare classe di endomorfismi, detti cambi di base. Essi
si ottengono quando si considera lapplicazione lineare identica id End(V) di uno spazio
vettoriale V, assumendo per`o due basi diverse, B e B 0 , sul dominio e sul codominio. La
0
matrice AB
e detta matrice del cambio di base, e permette di trasformare la n-pla delle
B (id) `
componenti di un generico vettore v V, rispetto alla base B, nella n-pla delle componenti
` importante notare
dello stesso vettore id(v) = v, calcolate per`o rispetto alla base B0 . E
0
B
che le colonne di AB (id) sono le componenti dei vettori della base di partenza B calcolate
rispetto alla base di arrivo B0 . Il seguente teorema illustra come costruire esplicitamente
questa matrice.
Teorema 1.18. Sia V uno spazio vettoriale di dimensione n sul campo K, e siano B e
B 0 due basi di V. Allora la matrice di cambio base `e data da
0
0 1
AB
B (id) = [B ] [B],
(1.2.7)
essendo [B] e [B 0 ] le matrici aventi come colonne, rispettivamente, le n-ple formate dalle
componenti dei vettori delle basi B e B0 rispetto ad una opportuna base C fissata in V.
-Dimostrazione. Dalla Definizione 1.12 abbiamo immediatamente ACB (id) = [B] ed
= [B 0 ]. Pertanto, lazione del cambio base pu`o essere descritta con il seguente
diagramma
ACB0 (id)
V
[B]
V
AB
B (id)
AC
C (id)
V
[B0 ]
V
0 1 C
C
Per i teoremi 1.15 e 1.17 abbiamo AB
B (id) = [B ] AC (id)[B]. La matrice AC (id) ha come
colonne i coefficienti che esprimono le immagini dei vettori di C (tramite lidentit`
a) come
combinazioni lineari degli stessi vettori. Pertanto ACC (id) `e la matrice identica, e quindi si
ricava la (1.2.7).
Osservazioni ed esempi.
1. Spesso, negli esercizi, i vettori di una data base B vengono assegnati fornendo esplicitamente le loro componenti. Questo significa che, nello spazio vettoriale in cui si sta
lavorando, `e stata precedentemente fissata una base C, e le componenti dei vettori di
B sono i coefficienti che consentono di esprimere ognuno di essi come combinazione
23
lineare dei vettori di C. Nel caso in cui si stia lavorando in uno spazio canonico
(situazione a cui ci si pu`o sempre ricondurre grazie al Teorema 1.11) e vengano assegnate le componenti dei vettori di una base B senza fare riferimento ad alcuna altra
base, si sottointende che la base di riferimento C `e la base canonica.
2. Supponiamo di assegnare, nello spazio R2 , le due basi date da
B1 =
2
1
1
1
2
,
, B2 =
,
.
0
1
1
C=
1
0
0
,
.
1
2 1
[B1 ] =
1 0
`e quella del cambio di base da B1 a C. Analogamente,
1 2
B2 =
1 1
`e la matrice del cambio di base da B2 a C. Abbiamo poi
[B2 ]
1 2
1 1
1 2
2 1
0 1
1
[B2 ] [B1 ] =
=
.
1 1
1 0
1 1
4. Consideriamo una applicazione lineare f : Kn Km , e supponiamo che vengano
esplicitamente assegnate le basi B e B 0 negli spazi canonici Kn e Km rispettivamente.
0
Volendo costruire la matrice AB
B (f ) applicando direttamente la Definizione 1.12
dovremmo calcolare, per ogni vettore di B, la sua immagine tramite f e poi trovare i
coefficienti che esprimono tale immagine come combinazione lineare dei vettori di B0 .
Possiamo tuttavia procedere in maniera diversa, componendo lapplicazione lineare
con i cambi base da B e B 0 alle basi canoniche C e C 0 di Kn e Km rispettivamente.
Si ottiene in questa maniera il seguente diagramma
0
Kn
[B]
AB
B (f )
Km
[B 0 ]
Kn
AC
C (f )
Km
24
APPLICAZIONI LINEARI
Pertanto, sfruttando anche i teoremi 1.4 e 1.17, ricaviamo che la matrice associata
allapplicazione lineare f : Kn Km , rispetto alle basi B e B0 , `e data da
0
0 1 C
AB
B (f ) = [B ] AC (f )[B].
(1.2.8)
5. Si faccia attenzione a non confondere il diagramma riportato nella precedente osservazione con quello descritto nel Paragrafo 1.2.3, nel quale le frecce verticali corrispondono a matrici identiche. Queste rappresentano infatti le matrici associate
agli isomorfismi canonici, mentre invece, nel diagramma precedente, le frecce verticali corrispondono alle matrici di cambio base associate alle applicazioni lineari
identiche degli spazi canonici considerati.
6. Poiche le basi B e B0 possono variare arbitrariamente in Kn e Km , la formula (1.2.8)
0
C0
e nota in
fornisce un legame tra le varie matrici AB
B (f ) e la matrice AC (f ). Se invece `
n
m
partenza lazione di una applicazione lineare f : K K su determinate basi B e
B0 , e si vuole risalire alla sua azione sulle basi canoniche, basta invertire lequazione
(1.2.8), e si ottiene
0
1
ACC (f ) = [B0 ]AB
B (f )[B] .
1.3
ESERCIZI
R3 R
[x, y, z]t 7 x y + 2z.
(1.2.9)
1.3 ESERCIZI
25
xy
x
f
= 2x 2y .
y
3x 3y
B1 =
3
0
,
,
1
2
0
2
1
B2 = 0 , 1 , 1 .
1
0
3
vB1 =
1
2
26
APPLICAZIONI LINEARI
1.3.13. Sia f lendomorfismo di R3 associato alla matrice
t 2 t+1
At = 2 t t + 3 .
1 2
4
Determinare il valore del parametro t affinche f sia un automorfismo. Posto t = 2,
determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di
ker f .
1.3.14. Sia f : R3 R3 lapplicazione lineare associata alla matrice
2 1 0
A = 2 1 0 .
4 2 3
Determinare una base per Imf . Dopo aver verificato che linsieme
W = [x, y, 0]t , x, y R
`e sottospazio di R3 , determinare una base per W + Imf .
1.3.15. Dato in R4 lendomorfismo ft rappresentato dalla matrice
t 0 1 1
1 t 1 1
At =
1 0 2 0 ,
1 0 0 2
verificare che dim(ker f ) = 2 solo per t = 0.
1.3.16. Sia f lendomorfismo di R3 definito da:
1 2 1
A = 2 1 1
5 0 3
matrice
0
1 .
2
x y + 2z
x
f y = 2x + 3y 4z .
x 6y + 10z
z
Determinare nucleo ed immagine di f , la loro dimensione ed una loro base.
1.3 ESERCIZI
27
x
x + y 3z
f y =
,
ax + (2 a)y + (a 4)z
z
essendo a un parametro reale.
1. Determinare, al variare di a in R, il nucleo, limmagine, le loro dimensioni ed una
loro base.
2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da
0
2
1
B1 = 0 , 1 1 ,
1
0
4
B2 =
3
5
2
,
.
6
1.3.20. Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia
P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia f : M2 (R)
P ol3 (R)[x] la seguente applicazione lineare
a b
c d
con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
1.3.21. Sia P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia
M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x]
M2 (R) la seguente applicazione lineare
a + b c 2a + b 3c d
f (ax3 + bx2 + cx + d) =
,
a 2c d 3a + 2b 4c d
con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
28
APPLICAZIONI LINEARI
Capitolo 2
SIMILITUDINE E
`
DIAGONALIZZABILITA
Consideriamo unapplicazione lineare f End(V). Fissata una base B di V, abbiamo
visto che `e possibile associare in modo univoco ad f una matrice AB (f ), mediante la quale
`e completamente descritto il comportamento dellendomorfismo. Ovviamente se si cambia
base cambia anche la matrice associata: se al posto di B consideriamo una base C, la
matrice AC (f ) sar`a diversa dalla AB (f ). Entrambe per`o rappresentano lo stesso endomorfismo. Deve quindi esistere una relazione di qualche tipo che lega le due matrici. Questa
relazione si chiama similitudine. Nel paragrafo seguente diamo la definizione e le prime
propriet`a.
2.1
SIMILITUDINE
Verifichiamo la validit`
a delle propriet`a riflessiva, simmetrica e tran-
(i) Propriet`
a riflessiva. Ogni matrice A Mn (K) `e simile a se stessa.
prendere P uguale ad In (matrice identica di ordine n), e si ottiene
Basta
In1 AIn = A.
(ii) Propriet`
a simmetrica. Se A `e simile a B allora B `e simile ad A. Infatti, se
A B, esiste P Mn (K), invertibile, tale che P 1 AP = B. Moltiplicando entrambi i
membri di questa uguaglianza a sinistra per P e a destra per P 1 otteniamo
P (P 1 AP )P 1 = P BP 1 ,
da cui
A = P BP 1 = (P 1 )1 B(P 1 ).
(2.1.1)
`
SIMILITUDINE E DIAGONALIZZABILITA
30
(2.1.2)
(2.1.3)
(2.1.4)
Una prima propriet`a posseduta da due matrici simili `e descritta nel teorema seguente.
Teorema 2.2. Matrici simili hanno lo stesso determinante.
-Dimostrazione. Se A B, dalla definizione di similitudine abbiamo P 1 AP = B
per qualche matrice P invertibile. Utilizzando il Teorema di Binet ricaviamo allora
det B = det(P 1 AP ) = det(P 1 ) det A det P = (det P )1 det A det P = det A.
Osservazioni ed esempi.
1. Facciamo notare una particolarit`a nella definizione di similitudine di matrici. Dicendo che A `e simile a B se esiste ... si d`a una sorta di direzionalit`a alla definizione,
`
che rende anche sensato il controllo della propriet`a simmetrica dellequivalenza. E
diverso dire A e B sono simili se esiste .... Qui non viene stabilito a priori, nella
scrittura P 1 AP = B, qual`e la posizione di A e quale quella di B. In questo caso
la propriet`a simmetrica sarebbe implicita.
2. Il Teorema 2.2 fornisce una condizione solo necessaria per la similitudine. Se due
matrici sono simili allora hanno lo stesso determinante, ma non `e vero il viceversa.
Esistono altre condizioni necessarie che caratterizzano la similitudine. Lanalisi di
queste condizioni, e lo studio della similitudine stessa, richiedono lintroduzione di
concetti legati alla diagonalizzabilit`a che saranno sviluppati nel prossimo paragrafo.
2.2 DIAGONALIZZABILITA
2.2
DIAGONALIZZABILITA
Nel Paragrafo 1.1.4 abbiamo visto che, a meno di trasferire le considerazioni sulla applicazione lineare indotta, `e sempre possibile pensare di lavorare sugli spazi canonici. Non
`e pertanto restrittivo sostituire lo studio degli endomorfismi di uno spazio vettoriale V,
di dimensione n, sul campo K, con lo studio degli endomorfismi di Kn . In particolare,
ci concentriamo sullo studio delle applicazioni lineari f : Rn Rn . Facciamo comunque
notare che tutti i risultati possono essere estesi (con le ovvie modifiche dovute al cambio
di campo) ad endomorfismi di Kn .
2.2.1
Questo significa che le matrici che rappresentano f rispetto ad una qualsiasi base sono
tutte simili tra loro.
Se esiste una base B rispetto alla quale AB
e diagonale, allora f si dice endomorfismo
B (f ) `
diagonalizzabile o anche endomorfismo semplice. Se A `e la matrice che rappresenta un
endomorfismo diagonalizzabile f rispetto ad una qualsiasi base di Rn , diciamo che A `e una
matrice diagonalizzabile. Ogni tale matrice `e pertanto simile ad una matrice diagonale,
cio`e esiste una matrice invertibile P tale che:
P 1 AP = diag(1 , . . . , n ).
Si chiama polinomio caratteristico di una matrice M il polinomio
M () = det(M In ) = n + a1 n1 + + an1 + an .
La matrice M In si chiama matrice caratteristica associata ad M .
Lequazione M () = 0 `e detta equazione caratteristica associata ad M .
Linsieme delle radici del polinomio caratteristico, `e chiamato spettro di M , e indicato con
SpecM = {1 , . . . , n }.
31
`
SIMILITUDINE E DIAGONALIZZABILITA
32
2.2.2
Alcune propriet`
a del Polinomio caratteristico
Nel Teorema 2.2 abbiamo visto una prima semplice propriet`a necessaria per la similitudine.
Il seguente teorema ne mette in evidenza una seconda.
Teorema 2.3. Due matrici simili A e B hanno lo stesso polinomio caratteristico.
-Dimostrazione. Sia B A, e P una matrice invertibile tale che P 1 BP = A.
Utilizzando il Teorema di Binet ricaviamo allora
1 AP tI ) =
B (t) = det(B
tIn ) = det(P
1
1
n
n
Y
i .
(2.2.1)
i=1
-Dimostrazione. Sappiamo che il polinomio caratteristico di M ammette n radici (gli autovalori di M ), quindi si pu`o scomporre nel prodotto di n fattori lineari, non
necessariamente distinti:
M () = det(M I) = (1 )(2 ) (n ).
Sostituendo, nella precedente equazione, al posto di il valore 0 si ottiene:
M (0) = det(M ) =
n
Y
i .
i=1
2.2 DIAGONALIZZABILITA
33
n
X
i .
(2.2.2)
i=1
-Dimostrazione.
a11
a12
a13
a1n
a21
a22
a23
a2n
a31
a
a
a
32
33
3n
an1
an2
an3
ann
a22
a23
a2n
a32
a33
a3n
= (a22 )A22 + f1 ()
A11 = det
an2
an3
ann
dove A22 `e il complemento algebrico di a22 , ed f1 () `e un polinomio di grado inferiore
ad n 2. Quindi otteniamo
M () = (a11 )(a22 )A22 + g2 ()
dove g2 () = (a11 )f1 () + g1 () `e ancora un polinomio di grado inferiore ad n 1.
Ripetendo il ragionamento arriviamo a scrivere
M () = (a11 )(a22 ) ... (ann ) + gn ()
con gn () polinomio di grado inferiore ad n 1.
Sviluppando le parentesi abbiamo
M () = (1)n n + (1)n1
n
X
aii n1 + p()
i=1
n
X
i n1 + q()
i=1
`
SIMILITUDINE E DIAGONALIZZABILITA
34
n
X
aii = (1)n1
i=1
n
X
n
X
i ,
i=1
aii = TrM .
i=1
Osservazioni ed esempi.
1. Il Teorema 2.3 non `e invertibile, cio`e, non `e detto che due matrici aventi lo stesso
polinomio caratteristico siano simili tra loro.
2. Determiniamo M () e SpecM per la matrice
1 0 0
M = 1 2 0 .
1 1 0
Sappiamo che M () = det(M I3 ). Quindi
1 0 0
1 0 0
M () = det(M I3 ) = det 1 2 0 0 1 0
0 0 1
1 1 0
1
0
0
2 0 = (1 )(2 ).
= 1
1
1
M () = 0 = 0, 1, 2
SpecM = {0, 1, 2}
3. In base al Teorema 2.5, una matrice singolare ammette sempre almeno un autovalore
nullo.
4. Il Teorema 2.6 mette in evidenza che la somma degli autovalori di una matrice
coincide con la sua traccia. Questo non implica che i singoli autovalori coincidano
con gli elementi della diagonale principale.
2.3
AUTOVALORI ED AUTOVETTORI
35
1 0
0 2
AB
.. . .
B (f ) = ..
.
.
.
0 0
0
0
..
.
Poiche le colonne di AB
B (f ) sono i coefficienti che consentono di scrivere le immagini dei
vettori di B in funzione della stessa base B, abbiamo
f (v1 ) = 1 v1
f (v2 ) = 2 v2
...
f (vn ) = n vn ,
il che implica che B `e una base di autovettori.
Supponiamo ora che esista una base B = {v1 , ..., vn } in cui ogni elemento `e un autovettore di f . Allora esistono 1 , ..., n R tali che f (vi ) = i vi per ogni i {1, ..., n}, e
quindi
1 0
0 2
AB
.. . .
B (f ) = ..
.
.
.
0 0
Pertanto f `e diagonalizzabile.
0
0
..
.
Ricaviamo in particolare che la matrice rappresentativa di un endomorfismo diagonalizzabile rispetto ad una base di autovettori `e una matrice diagonale, avente come elementi
principali gli autovalori.
Osservazioni ed esempi.
1. Consideriamo una matrice generica A Mn (R). Questa si pu`o sempre vedere come
la matrice associata ad un endomorfismo f End(Rn ) rispetto ad una base fissata.
Allora autovalori ed autovettori di A sono gli autovalori e gli autovettori di f .
` importante notare che, quando si parla di autovettori, si fa riferimento a vettori
2. E
distinti dal vettore nullo.
`
SIMILITUDINE E DIAGONALIZZABILITA
36
2.3.1
Dalla definizione di autovalore non appare immediatamente evidente il metodo con cui si
possono effettivamente calcolare questi numeri. Esso viene fornito nel teorema seguente.
Teorema 2.8. Gli autovalori di una matrice A Mn (R) si calcolano come radici del
polinomio caratteristico della matrice stessa:
A (t) = det(A tIn ).
-Dimostrazione. Se `e un autovalore di A, esiste un vettore non nullo (un autovettore) v Rn tale che Av = v. Portando tutto al primo membro nella precedente
uguaglianza, abbiamo Av v = 0, ovvero
(A In )v = 0.
(2.3.1)
Osservazioni ed esempi.
1. Essendo gli autovalori di una matrice ottenibili come radici del suo polinomio caratteristico, matrici simili hanno gli stessi autovalori, ovvero lo stesso spettro:
SpecA = SpecB.
(2.3.2)
Dai teoremi 2.5 e 2.6 ricaviamo pertanto che matrici simili hanno stesso determinante
(questa propriet`a `e gi`a stata ottenuta per altra via nellOsservazione (2.2) a pagina
30) e medesima traccia, ossia:
TrA = TrB, det A = det B.
(2.3.3)
` bene insistere sul fatto che le condizioni (2.3.2) e (2.3.3) sono condizioni solo
E
necessarie, non sufficienti, per la similitudine, cos` come gi`a osservato per il Teorema
2.3 (cfr. Osservazione 1 a pag. 34). Cio`e, se A `e simile a B, allora le (2.3.2) e (2.3.3)
sono vere. Se sono vere nulla si pu`o dire sulla similitudine di A e B.
2. Autovalori di una matrice diagonale. Consideriamo una matrice diagonale A =
diag(a1 , . . . , an ). In questo caso, essendo AtIn = diag(a1 , . . . , an )diag(t, . . . , t) =
diag(a1 t, . . . , an t), e ricordando che il determinante di una matrice diagonale
37
`e il prodotto degli elementi principali, abbiamo A (t) = (a1 t)(a2 t) (an t).
Le radici del polinomio caratteristico sono allora proprio gli elementi principali di A.
Quanto detto vale anche per le matrici triangolari, arrivando alle stesse conclusioni:
gli autovalori di una matrice triangolare sono i suoi elementi principali.
3. Determiniamo una matrice avente il polinomio p(t) = t3 3t2 t + 3 come polinomio
caratteristico. Notiamo, innanzitutto, che p(t) `e scomponibile nel prodotto di fattori
lineari:
p(t) = (t 3)(t + 1)(t 1).
Quindi ha tre radici reali distinte 1 = 3, 2 = 1 e 3 = 1. Questi sono autovalori
di una matrice che ammette p(t) come polinomio caratteristico. Per esempio, possiamo considerare una qualsiasi matrice triangolare avente 1 , 2 , 3 come elementi
principali, cio`e
1 a b
A = 0 1 c
0 0 3
per ogni a, b, c R. Ma avremmo anche potuto scegliere una matrice triangolare
inferiore con gli stessi elementi principali, o ancora pi`
u semplicemente la matrice
diag(1, 1, 3).
4. Determiniamo tutti gli autovalori della matrice A M2 (R) sapendo che valgono le
seguenti uguaglianze:
det(A 5I2 ) = 0, det(A + I2 ) = 0.
(2.3.4)
1 0 0
A = 1 2 0 .
1 1 0
1 0
A (t) = det(A tI3 ) = det 1 2
1 1
1t
0
2t
= 1
1
1
1 0 0
0
0 t 0 1 0 =
0 0 1
0
0
0 = t(1 t)(2 t).
t
`
SIMILITUDINE E DIAGONALIZZABILITA
38
Alla stessa conclusione si poteva giungere osservando che A `e una matrice triangolare, quindi i suoi autovalori sono gli elementi principali. Conoscendo gli autovalori
conosciamo le radici del polinomio caratteristico, e quindi una sua scomposizione in
fattori: A (t) = t(1 t)(2 t).
2.3.2
Autospazi di un endomorfismo
39
che i vettori v1 , v2 , ..., vh siano indipendenti, e supponiamo invece che v1 , v2 , ..., vh , vh+1
siano linearmente dipendenti. Questo significa che vh+1 dipende da v1 , v2 , ..., vh , per cui
esistono scalari c1 , c2 , ..., ch tali che
vh+1 =
h
X
ci vi .
(2.3.5)
i=1
h
X
ci vi .
(2.3.6)
i=1
Ma, per la linearit`a di f , e per il fatto che i vi sono autovettori associati a i , dalla (2.3.5)
abbiamo anche
f (vh+1 ) =
h
X
f (ci vi ) =
i=1
h
X
ci i vi .
(2.3.7)
i=1
Poiche h+1 6= i , dallipotesi di induzione ricaviamo ci = 0 per ogni i {1, 2, ..., h}, e
quindi, per la (2.3.5), risulta vh+1 = 0, il che `e assurdo. Pertanto vh+1 `e indipendente da
v1 , v2 , ..., vh .
Osservazioni ed esempi.
1. Gli autovalori di un endomorfismo f sono gli scalari per i quali il nucleo di f i
non si riduce al solo vettore nullo. Di conseguenza la dimensione di un qualsiasi
autospazio E `e sempre almeno uguale ad 1.
2. Determiniamo gli autospazi associati allendomorfismo f : R3 R3 rappresentato,
rispetto ad una data base, dalla matrice dellEsempio 5 a pagina 37. Gli autovalori
sono = 0, 1, 2. Per = 0 bisogna determinare il nucleo di f , per cui risulta
1 0 0
x
0
1 2 0 y = 0 x = y = 0 z.
1 1 0
z
0
Pertanto, allautovalore = 0 resta associato il solo autovettore
0
v0 = 0 ,
1
`
SIMILITUDINE E DIAGONALIZZABILITA
40
0
0 0
0
x
1 1
0 y = 0 y = x z = 2x.
1 1 1
z
0
Pertanto, allautovalore = 1 resta associato il solo autovettore
1
v1 = 1 ,
2
al quale corrisponde lautospazio E1 = {xv1 , x R}.
Per = 2 calcoliamo invece il nucleo di f 2i
1 0
0
x
0
1
0
0 y = 0 x = 0 y = 2z.
1 1 2
z
0
Pertanto, allautovalore = 2 resta associato il solo autovettore
0
v2 = 2 ,
1
al quale corrisponde lautospazio E2 = {zv2 , z R}.
2.3.3
Molteplicit`
a algebrica e molteplicit`
a geometrica
La molteplicit`
a algebrica ma () di un autovalore indica quante volte lautovalore `e
soluzione dellequazione caratteristica () = 0. La molteplicit`
a geometrica mg () di
`e la dimensione dellautospazio E associato allautovalore. Nella dimostrazione del
Teorema 2.9 (secondo metodo) abbiamo visto che i vettori di E sono tutti e soli i vettori
del nucleo dellapplicazione f di matrice M In (vedi anche lEsempio 2 a pagina 39).
La dimensione del nucleo si pu`o calcolare usando lequazione dimensionale dim(ker f ) =
n dim(Imf ). Ma la dimensione di Imf `e il rango della matrice associata ad f , quindi
dim(ker f ) = n rk(M In ). Concludendo, la molteplicit`a geometrica dellautovalore
`e data da
mg () = n rk(M In ).
(2.3.8)
La molteplicit`a algebrica e la molteplicit`a geometrica sono legate dalla relazione descritta nel seguente teorema.
Teorema 2.11. Sia 0 un autovalore di un endomorfismo f : Rn Rn . Allora vale la
disuguaglianza ma (0 ) mg (0 ).
41
0
.. . .
.
.
0
AB
B (f ) =
0
..
.
0
B
dove il blocco in alto a sinistra `e una matrice diagonale di tipo (k, k). Calcolando il
polinomio caratteristico otteniamo
k
k
P () = det(AB
B (f ) I(n,n) ) = (0 ) det(B I(nk,nk) ) = (0 ) q(),
essendo I(n,n) la matrice identica di ordine n, I(nk,nk) la matrice identica di ordine nk,
e q() un polinomio di grado n k. Pertanto, lequazione caratteristica P () = 0 ammette
la soluzione = 0 contata almeno k volte (esattamente k se q(0 ) 6= 0), cio`e
ma (0 ) k = dimE0 = mg (0 ).
mg (0 ) = n rk AB
(f
)
I
.
Poich
e
B
`e una base di autovettori, la matrice AB
e
0
B
B (f ) `
diagonale, e sulla diagonale compaiono tutti e soli gli autovalori, con le rispettive molteplicit`a. Quindi gli autovalori sono reali e 0 compare sulla diagonale esattamente ma (0 )
volte. Ogni colonna di AB
B (f ) in cui compare 0 corrisponde ad un autovettore di E0 , e
tali autovettori sono tra loro indipendenti. Quindi la dimensione di E0 (che `e il massimo
numero di vettori indipendenti estraibili da E0 ) deve essere almeno uguale a ma (0 ), cio`e
dim(E0 ) ma (0 ). Ma dim(E0 ) = mg (0 ), e quindi mg (0 ) ma (0 ). Dal Teorema
2.11 ricaviamo allora mg (0 ) = ma (0 ). Per la genericit`a con cui `e stato scelto 0 segue
la tesi.
Supponiamo ora che tutti gli autovalori siano reali e che, per ogni autovalore, la molteplicit`a algebrica sia uguale alla molteplicit`a geometrica. Indichiamo con 1 , ..., h gli
autovalori distinti di f , a con E1 , ..., Eh i corrispondenti autospazi. Abbiamo allora
`
SIMILITUDINE E DIAGONALIZZABILITA
42
h
X
dimEi =
h
X
i=1
mg (i ) =
i=1
h
X
ma (i ).
i=1
P
Per il teorema fondamentale dellalgebra abbiamo hi=1 ma (i ) = gradoP () = n, e quindi
la somma delle dimensioni degli autospazi `e uguale ad n. Quindi, unendo le basi di tutti
gli autospazi si ottiene un insieme di n vettori linearmente indipendenti, cio`e una base di
Rn . Esiste pertanto una base di autovettori, per cui f `e diagonalizzabile.
Osservazioni ed esempi.
1. Una condizione di regolarit`
a per gli autovalori. Se un endomorfismo f : Rn
Rn ammette n autovalori distinti, allora questi sono automaticamente regolari. Infatti, per il Teorema 2.10, abbiamo n autospazi distinti, la cui dimensione deve
essere necessariamente uguale ad 1. Di conseguenza, la molteplicit`a algebrica di
ogni autovalore coincide con la sua molteplicit`a geometrica.
2. Sia r una retta passante per lorigine di R2 , e sia f : R2 R2 la simmetria assiale
rispetto alla retta r. Allora f `e diagonalizzabile. Infatti, se r `e un qualsiasi vettore
appartenente alla retta r, risulta f (r) = r, mentre, se r `e un qualsiasi vettore
appartenente alla retta r , perpendicolare nellorigine ad r, allora f (r ) = r .
y
v
r
r
r
O
x
f(v)
43
R =
r
M
Ei (f )
i=1
0 6 0
A= 1 0 1
1 0 1
e studiamo la sua diagonalizzabilit`a .
Determiniamo innanzitutto il polinomio caratteristico e, da questo, gli autovalori.
t 6
0
1
A (t) = det(A tI3 ) = 1 t
1
0 1t
Pertanto, SpecA = {0, 3, 2}. Gli autovalori sono distinti, quindi regolari (cfr.
Osservazione 1 a pagina 42), per cui A `e diagonalizzabile. Calcoliamo gli autovettori.
Per = 0 abbiamo
Av = 0v
ovvero
La soluzione `e
6y = 0
x+z =0
x + z = 0.
1
a 0
1
`
SIMILITUDINE E DIAGONALIZZABILITA
44
3
2
b 1 , c 1 ,
1
1
con b, c R diversi da zero. Ogni matrice P , avente come colonne i vettori ottenuti
assumendo a, b, c 6= 0 nelle precedenti soluzioni, pu`o essere considerata la matrice di
passaggio che permette di diagonalizzare la matrice A. Si ha cio`e
P 1 AP = diag(0, 2, 3).
Si pu`o ottenere una matrice di passaggio P anche cambiando lordine in cui gli
autovettori compaiono come colonne di P . Questo si ribalta sullanalogo cambio
dellordine con cui gli autovalori compaiono sulla diagonale di P 1 AP .
6. Determiniamo lo spettro dellendomorfismo di R3 definito da
f ([x, y, z]t ) = [x + y, x + z, y + z]t .
Abbiamo visto che gli autovalori di un endomorfismo f non sono altro che quelli
della sua matrice rappresentativa Af . Dobbiamo solo determinare Af e ricavarne il
polinomio caratteristico. Siccome
1 1 0
Af = 1 0 1 ,
0 1 1
otteniamo
A (t) = f (t) = det(A tI3 ) = (1 t)(t 2)(t + 1).
Quindi Specf = {2, 1, 1}. Notiamo che f `e certamente diagonalizzabile, perche
ha autovalori distinti, quindi regolari.
2.4
ENDOMORFISMI SIMMETRICI
a11 a12
C
AC (f ) =
a21 a22
abbiamo allora
1
Ci `e sembrato utile presentare largomento in questa maniera, anche se non `e ancora stata trattata
la Geometria Analitica. Pensiamo di poter ritenere note le principali formule valide nel piano xy, ampiamente considerate nella scuola media superiore. Comunque, per avere una descrizione precisa delle
nozioni utilizzate in questo paragrafo, rinviamo al volume APPUNTI DI GEOMETRIA: GEOMETRIA
ANALITICA.
a11 a12
a21 a22
45
0
0
v
r
r
-f(v)
r
O
x
f(v)
0 = m
0
0
+ = m + .
2
2
Risolvendo si ottiene
0 =
1m2
1+m2
2m
1+m2
2m
1+m2
1m2
1+m2
ACC (f ) =
1m2
1+m2
2m
1+m2
2m
1+m2
2
1m
1+m2
(2.4.1)
In particolare ricaviamo che la simmetria rispetto ad una qualsiasi retta passante per
lorigine `e rappresentata da una matrice simmetrica (2, 2), cio`e una matrice A tale che
`
SIMILITUDINE E DIAGONALIZZABILITA
46
a b
A=
b c
A () = (a )(c ) b2 = 2 (a + c) + ac b2 .
c 0
A=
0 c
0 0
A cI =
.
0 0
2m
1+m2
1m2
1+m2
= sin 2
= cos 2.
0 = (cos 2) + (sin 2)
0 = (sin 2) (cos 2)
ACC (f )
cos 2 sin 2
=
.
sin 2 cos 2
(2.4.3)
47
3
5
=
45
45
3
5
2.4.1
Abbiamo visto che gli autovalori associati alla simmetria rispetto ad una retta r passante
per lorigine sono sempre = 1 e = 1. Inoltre, i rispettivi autospazi sono rappresentati
da r e da r . Possiamo allora chiederci cosa possiamo dire relativamente agli autospazi
associati ad un generico endomorfismo simmetrico (cfr. Osservazione 4 precedente). Per
studiare il problema `e utile introdurre la nozione di prodotto scalare in R2 . Dati due
vettori di R2 , u = [u1 , u2 ]t e v = [v1 , v2 ]t . Il loro prodotto scalare `e definito nella maniera
seguente
hu, vi = u v = [u1 , u2 ]
v1
v2
= u1 v1 + u2 v2 .
(2.4.4)
hu, ui =
ut u.
(2.4.5)
Supponiamo che entrambi i vettori siano non nulli. Essi vengono detti vettori ortogonali se
hu, vi = 0.
(2.4.6)
Limportanza della nozione di ortogonalit`a `e quantificata nel teorema seguente, noto come
Teorema Spettrale.
`
SIMILITUDINE E DIAGONALIZZABILITA
48
a b
A=
.
b c
Per il Teorema 2.14, f ha autovalori reali ed `e diagonalizzabile. Per il Teorema 2.13, f
scompone R2 come somma diretta di autospazi. Resta da dimostrare che gli autospazi
sono tra loro ortogonali. A questo proposito determiniamo esplicitamente gli autospazi
associati allendomorfismo. Siano 1 , 2 gli autovalori di A (cfr. Formula (2.4.2)). Per 1
abbiamo
a 1
b
x
0
=
b
c 1
y
0
(a 1 )x + by = 0 y =
1 a
b x
1
E1 = x 1 a , x R
b
B1 =
b
1 a
b
B2 =
.
2 a
Indichiamo con v1 e v2 i vettori che formano, rispettivamente, la base B1 e B2 . Abbiamo
allora
hv1 , v2 i = b2 + (1 a)(2 a) = a2 + b2 + 1 2 a(1 + 2 ).
Dai teoremi 2.5 ed 2.6 otteniamo
1 + 2 = a + c
1 2 = ac b2 ,
e quindi hv1 , v2 i = a2 + b2 + ac b2 a(a + c) = 0. Pertanto v1 `e ortogonale a v2 .
Il Teorema 2.15 mette in evidenza che, come gi`a visto per le simmetrie rispetto a rette passanti per lorigine, anche gli endomorfismi rappresentati da una generica matrice
simmetrica (2, 2) ammettono autospazi ortogonali. Linterpretazione geometrica di questi
49
endomorfismi `e pertanto identica a quella delle simmetrie assiali, come viene anche chiarito
nellOsservazione 1 seguente.
Osservazioni ed esempi.
1. Possiamo dare alla formula (2.4.6) un preciso significato geometrico. Se m1 = xy11
ed m2 = xy22 (x1 , x2 6= 0) sono i coefficienti angolari delle rette parallele a v e w,
otteniamo
hv, wi = 0
1 + m1 m2 = 0.
(2.4.7)
Pertanto, lannullarsi del prodotto scalare hv, wi esprime la nota condizione di ortogonalit`a tra le rette che contengono i vettori v e w. Questo resta chiaramente vero
anche quando v = [a, 0] e w = [0, b], con a, b numeri reali qualsiasi. In particolare,
la formula (2.4.6) `e valida anche quando v `e il vettore nullo. In tal caso ogni vettore
w R2 `e ortogonale a v.
2. Matrici ortogonali. Dal Teorema 2.15 si deduce in particolare che ogni matrice
simmetrica A, di tipo (2, 2), pu`o essere diagonalizzata mediante una matrice di
passaggio P le cui due colonne sono ortogonali tra loro. Tra le varie scelte di P
possiamo selezionare quella avente per colonne vettori di lunghezza unitaria, cio`e
versori . Per fare questo basta dividere ogni colonna per la lunghezza del vettore
corrispondente. Si ottiene cos` una matrice di passaggio M , le cui colonne, oltre
ad essere ortogonali tra loro, hanno anche lunghezza unitaria. Una tale matrice si
dice matrice ortogonale. Possiamo allora esprimere il Teorema 2.15 dicendo che una
matrice simmetrica A di tipo (2, 2) `e sempre diagonalizzabile con una matrice di
passaggio ortogonale, cio`e che A `e ortogonalmente simile ad una matrice diagonale.
3. Matrici simmetriche e prodotto scalare. Sia A una matrice simmetrica di tipo
(2, 2) data da
a b
A=
.
b c
Siano v = [v1 , v2 ]t e w = [w1 , w2 ]t due vettori di R2 . Abbiamo allora
a b
v1
av1 + bv2
Av =
=
,
b c
v2
bv1 + cv2
a b
w1
aw1 + bw2
Aw =
=
.
b c
w2
bw1 + cw2
Pertanto risulta
(2.4.8)
`
SIMILITUDINE E DIAGONALIZZABILITA
50
4. Sfruttando la formula (2.4.8) possiamo dimostrare che gli autovettori di una matrice
simmetrica A di tipo (2, 2) sono ortogonali tra loro, in maniera diversa da quella
considerata nella dimostrazione del Teorema 2.15. Siano infatti 1 , 2 gli autovalori
distinti di A, e v1 , v2 i due autovettori ad essi rispettivamente associati. Abbiamo
allora
1 hv1 , v2 i = h1 v1 , v2 i = hAv1 , v2 i = hv1 , Av2 i = hv1 , 2 v2 i = 2 hv1 , v2 i.
Pertanto (1 2 )hv1 , v2 i = 0, ed essendo 1 6= 2 , ricaviamo hv1 , v2 i = 0.
5. Sia C = {i, j} la base canonica di R2 . La formula (2.4.5) non `e altro che il Teorema
di Pitagora applicato al triangolo rettangolo avente u = [u1 , u2 ]t come ipotenusa e i
vettori u1 i ed u2 j come cateti. Pertanto, geometricamente, la norma di un vettore
coincide con la sua lunghezza.
2.4.2
Cerchiamo di classificare le matrici ortogonali di ordine 2 partendo dal fatto che le loro
due colonne devono essere ortogonali tra loro e di norma unitaria (cfr. Osservazione 2
a pagina 49). Indichiamo con v1 = [x1 , y1 ]t il versore le cui componenti costituiscono
la prima colonna, e con v2 = [x2 , y2 ]t quello le cui componenti costituiscono la seconda
colonna. Se v1 forma un angolo (percorso in senso antiorario) con lasse x, deve essere
x1 = kv1 k cos = cos ,
y1 = kv1 k sin = sin .
Poiche v2 `e ortogonale a v1 , langolo formato da v2 con lasse x `e uguale a
3
2 + . Risulta pertanto
+ , oppure
cos sin
M1 =
,
sin cos
cos sin
M1 =
,
sin cos
(2.4.9)
(2.4.10)
con variabile in [0, 2]. Esse hanno determinante uguale ad 1 e 1 rispettivamente. Ci`o
fornisce una classificazione completa delle matrici ortogonali del secondo ordine.
M t,
Significato geometrico
Consideriamo una matrice ortogonale di tipo (2.4.9), il cui determinante `e uguale ad 1,
e sia f : R2 R2 lapplicazione lineare rappresentata da ACC (f ) = M1 rispetto alla base
canonica. Abbiamo allora
x
x
x cos y sin
C
f
= AC (f )
=
.
y
y
x sin + y cos
Osserviamo che
v
u* t +
u
x
x
x
f
=t f
,f
=
y
y
y
p
p
x
2
2
2
2
a
con lasse x.
2
Osservazioni ed esempi.
1. Le matrici ortogonali con determinante uguale ad 1 vengono anche dette matrici
ortogonali speciali. Il prodotto di due tali matrici `e ancora una matrice ortogonale
speciale, ma possiamo ottenere una matrice ortogonale speciale anche moltiplicando
due matrici di tipo (2.4.10). Geometricamente questo corrisponde a costruire una
rotazione mediante prodotto di simmetrie assiali rispetto a due rette secanti.
2. Determiniamo la matrice corrispondente al cambio di base descritto da una rotazione
B1 = C =
1
0
0
0
1
,
, B2 =
,
.
1
1
0
51
`
SIMILITUDINE E DIAGONALIZZABILITA
52
y
6
1
6
y
6
-
?
1
[B2 ]
[B1 ] = [B2 ]
I = [B2 ]
0 1
1 0
Questa coincide con la matrice (2.4.9) per = , che, come si `e visto, esprime una
2
rotazione antioraria intorno allorigine. Ci`o mette in evidenza che una rotazione in
senso orario di una base, secondo un certo angolo , si traduce nella rotazione in
senso antiorario, dello stesso angolo , sui singoli vettori del piano.
Per esempio, se applichiamo la matrice di cambio base precedentemente ottenuta al
vettore v = [2, 4]t , abbiamo (Fig. 2.4)
w=
0 1
1 0
2
4
4
2
y
6
v
M
)
w
2.4.3
Con il Teorema 2.15 abbiamo una completa descrizione del comportamento di un endomorfismo f : R2 R2 dal punto di vista della diagonalizzazione. Ci possiamo ora chiedere che
53
u1
v1
u = ... , v = ... .
un
vn
Allora, il prodotto scalare tra u e v `e definito dalla seguente formula, che generalizza la
(2.4.4)
t
hu, vi = u v =
n
X
ui vi = u1 v1 + u2 v2 + + un vn .
(2.4.11)
i=1
uX
t
x2i .
kxk = x x = t
(2.4.12)
i=1
`
SIMILITUDINE E DIAGONALIZZABILITA
54
2.4.4
55
Ortonormalizzazione di Gram-Schmidt
vi
per
kvi k
ogni i = 1, ..., n `e sempre possibile pensare che la base sia formata da versori. Non `e
detto per`o che questi formino un sistema ortonormale. Infatti, presi due qualsiasi vettori
vi , vj B, il loro prodotto scalare `e in generale diverso da zero. Tuttavia, esiste un
procedimento canonico che, a partire dai vettori di B, consente di costruire una base
ortonormale, costituita cio`e da vettori di norma unitaria e ortogonali a due a due. Essi
sono i vettori w1 , ..., wn ottenuti nella maniera seguente
Sia B = {v1 , ..., vn } una base di Rn . Sostituendo eventualmente vi con vi0 =
v1
,
kv1 k
v2 hv2 , w1 iw1
w2 =
,
kv2 hv2 , w1 iw1 k
v3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]
w3 =
,
kv3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]k
w1 =
(2.4.13)
...
wn =
` immediato osservare che questi vettori sono tutti versori. Il fatto che siano a due a due
E
ortogonali deriva invece dalla distributivit`a del prodotto scalare rispetto alla somma.
Osservazioni ed esempi.
1. Il procedimento descritto dalle formule (2.4.13) prende il nome di ortonormalizzazione di Gram-Schmidt.
2. Verifichiamo, a titolo di esempio, che i vettori w1 , w2 costruiti con le (2.4.13) sono
tra loro ortogonali. Abbiamo infatti
v2 hv2 , w1 iw1
v1
,
=
hw1 , w2 i =
kv1 k kv2 hv2 ,Dw1 iw1 k E D
E
v1
v1
v
,
v
,
2
1
kv1 k
kv1 k
hv1 , v2 i
=
.
kv1 kkv2 hv2 , w1 iw1 k kv1 kkv2 hv2 , w1 iw1 k
Osserviamo che
v1
v1
v1
hv2 , v1 i
v2 ,
v1 ,
= v2 ,
kv1 k =
kkv1 k = hv2 , v1 i ,
kv1 k
kv1 k
kv1 k
kv1 k
e quindi hw1 , w2 i = 0. In maniera analoga si verifica che hwi , wj i = 0 per ogni
i, j {1, ..., n}, i 6= j.
`
SIMILITUDINE E DIAGONALIZZABILITA
56
1
v1 = 1 ,
2
1
v2 = 3 ,
2
1
v3 = 1 .
1
1
6
v1
w1 =
= 16
kv1 k
2
6
v2 hv2 , w1 iw1
v2 0
w2 =
=
=
114
3
14
2
14
v3 31 v1 72 v2
v3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]
w3 =
=
=
1
2
kv3 [hv3 , w1 iw1 + hv3 , w2 iw2 ]k
kkv3 3 v1 7 v2 kk
4
21
2
21
1
21
57
(2.4.14)
Questo consente di dimostrare che gli autospazi di una generica matrice simmetrica sono
sottospazi a due a due ortogonali (cfr. Osservazione 4 a pag. 54).
Teorema 2.16. Gli autospazi associati ad autovalori distinti di una matrice reale simmetrica A sono ortogonali tra loro.
-Dimostrazione. Consideriamo gli autospazi Ei ed Ej associati a due autovalori i
e j , tra loro distinti. Siano v, w due qualsiasi autovettori tali che v Ei e w Ej .
Abbiamo allora
i hv, wi = hi v, wi = hAv, wi.
Per la (2.4.14) abbiamo hAv, wi = hv, Awi, e quindi possiamo scrivere
i hv, wi = hv, Awi = hv, j wi = j hv, wi.
Pertanto risulta (i j )hv, wi = 0, ed essendo i 6= j , ricaviamo che hv, wi = 0.
Ci`o implica che ogni vettore di un autospazio `e ortogonale a tutti i vettori di ogni altro
`
SIMILITUDINE E DIAGONALIZZABILITA
58
diventa una matrice ortogonale M , e le sue colonne rappresentano una base ortonormale
di Rn .
Osservazioni ed esempi.
1. Diagonalizzazione di simmetrie piane. Sia f : R3 R3 lendomorfismo dato
da
x
x
f y = y .
z
z
O
x
f(v)
59
maniera si ottiene solamente la matrice P avente come colonne le basi dei singoli
autospazi, prima che a queste venga applicato il procedimento di ortonormalizzazione di Gram-Schmidt. Pertanto, in generale, la matrice P non `e ortogonale, in
quanto non `e detto che le singole basi degli autospazi siano gi`a basi ortonormali. Per
ottenere M bisogna quindi applicare le formule (2.4.13) allinsieme degli autovettori
associati ad ogni singolo autovalore.
Pu`o comunque capitare che la matrice P coincida gi`a con la matrice M (si veda
lEsempio 3 successivo). Questo avviene sicuramente se tutti gli autovalori sono
semplici. In tal caso infatti ad ogni autovalore corrisponde un autospazio di dimensione 1, e quindi il Teorema 2.16 garantisce che la matrice M viene ottenuta
semplicemente normalizzando gli autovettori.
3. Consideriamo la seguente matrice
0 0 1
A = 0 1 0 .
1 0 0
Essendo det[A I] = (1 )(2 1), abbiamo un autovalore semplice = 1 ed
un autovalore doppio = 1. Per = 1 risulta
1 0 1
a
0
0 0 0 b = 0 a = c b.
1 0 1
c
0
Pertanto, allautovalore = 1 restano associati i due autovettori indipendenti dati
da
1
v1 = 0 ,
1
0
v2 = 1 ,
0
1 0 1 a
0
0 0 0 b = 0 a = c b = 0.
1 0 1
c
0
Pertanto, allautovalore = 1 resta associato il solo autovettore
1
v3 = 0 ,
1
al quale corrisponde lautospazio E3 = {av3 |a R}.
`
SIMILITUDINE E DIAGONALIZZABILITA
60
Si noti che i vettori v1 , v2 , v3 sono gi`a a due a due ortogonali. Pertanto, la base ortonormale di autovettori si ottiene semplicemente normalizzando v1 , v2 , v3 , e quindi
`e data da
2
2
b1 = 0 ,
v
22
b3 = 0 .
v
b2 = v2 ,
v
2
2
2
2
Otteniamo allora
2
2
M t AM = 0
22
1 0 0
0 22
1 0 = 0 1 0 .
2
0 0 1
0
2
2
0 1
2
0 0 1 0 0
2
2
1 0 0
0
1
0
2
2 0
2
0 1 1
A = 1 0 0 .
1 1 0
Essendo det[A I] = (2 )( + 1)2 , abbiamo un autovalore semplice = 2 ed un
autovalore doppio = 1. Per = 2 risulta
2 1
1
a
0
1 2 1 b = 0 a = b = c.
1
1 2
c
0
Pertanto, allautovalore = 2 resta associato il solo autovettore
1
v1 = 1 ,
1
al quale corrisponde lautospazio E1 = {av1 |a R}.
Per = 1 risulta invece
1 1 1 a
0
1 1 1 b = 0 a = b = c.
1 1 1
c
0
Pertanto, allautovalore = 1 restano associati i due autovettori indipendenti dati
da
1
v2 = 1 ,
0
1
v3 = 0 ,
1
61
v2
v2
=
kv2 k
22
2
2
v3
v3 hv3 , w1 iw1
=
kv3 hv3 , w1 iw1 k
12 32
q
1
3
2q 2
3
2
cV (ax3 + bx2 + cx + d) =
c .
d
4
Sia F = c1
V f cV lapplicazione canonica indotta da f sullo spazio canonico R . La
matrice che rappresenta F rispetto alla base canonica e
1
0
C
AC (F ) =
0
0
0
0
1
0
0
1
0
0
0
0
.
0
1
`
SIMILITUDINE E DIAGONALIZZABILITA
62
2.4.5
Matrici di proiezione
R
6nk
7
- xk
x1
R
x2
Wk
...
6......
...
... v
.
7...
b
vv
..
..
..
..
...
..
s..
b
v
Wk
(2.4.15)
63
(2.4.16)
1. La matrice R esiste sicuramente. Questo deriva dal fatto che A ha rango massimo,
essendo le sue colonne formate da vettori di una base, e quindi la matrice At A `e non
singolare.
2. Consideriamo il caso particolare in cui il sottospazio W abbia dimensione 1. La
matrice A di partenza ha allora una sola colonna, corrispondente alle componenti di
un qualsiasi vettore di W.
Per esempio, consideriamo in R4 il sottospazio generato dal vettore e1 = [1, 0, 0, 0]t
della base canonica. Ovviamente la proiezione di un vettore v su questa retta fornisce
il vettore che si ottiene moltiplicando e1 per la prima componente di v. Ritroviamo
questo risultato usando il metodo generale. La matrice A risulta
1
0
A=
0 .
0
Abbiamo quindi
At A = 1 0 0 0
0 = [1].
0
Di conseguenza (At A)1 = [1], da cui R = At , e PA = AR = A At . Pertanto
otteniamo
`
SIMILITUDINE E DIAGONALIZZABILITA
64
1
0
PA = AR = A At =
0 1 0 0 0 =
0
1
0
=
0
0
2.5
0
0
0
0
0
0
0
0
0
0
0
0
x1
x1
x2 0
PA v = PA
x3 = 0
x4
0
Vediamo come applicare i risultati sulla diagonalizzabilit`a allo studio della similitudine.
Date due matrici A, B Mn (R), vogliamo cio`e stabilire se esse sono simili. Conviene
verificare innanzitutto che sussistono le condizioni necessarie alla similitudine. Sappiamo
infatti che matrici simili hanno lo stesso determinante, la stessa traccia, lo stesso polinomio caratteristico e lo stesso spettro. Possiamo quindi calcolare gli autovalori di A e B.
Se SpecA 6= SpecB le due matrici non possono essere simili. In questo caso abbiamo
terminato lanalisi. Se invece SpecA = SpecB le due matrici potrebbero essere simili (ma
non `e automaticamente vero che lo siano, trattandosi solo di una condizione solo necessaria). Occorre, a questo punto, esaminare la diagonalizzabilit`a delle matrici interessate. Si
possono verificare tre casi.
(i). Entrambe le matrici sono diagonalizzabili. Allora sono simili fra loro. Infatti, se
A e B sono diagonalizzabili, sono entrambi simili a matrici diagonali:
A diag(a1 , . . . , an )
B diag(b1 , . . . , bn ).
Ma gli elementi principali delle due matrici diagonali coincidono con i loro autovalori, e
matrici simili hanno gli stessi autovalori. Allora, a meno dellordinamento, ai = bi , per
ogni i = 1, . . . , n. Ci`o significa che
A diag(a1 , . . . , an ) B
e, per la propriet`a transitiva della similitudine A B.
(ii). Una delle due matrici, ad esempio A, `e diagonalizzabile, laltra no. Le due matrici
non sono simili. Se lo fossero avremmo
AB
e anche
A diag(a1 , . . . , an ).
65
1. Due matrici diagonali aventi lo stesso spettro risultano anche simili, poich`e coincidono a meno dellordinamento degli elementi della diagonale principale.
2. Stabiliamo se le matrici
1 0 0
1 1 0
A = 0 2 0 , B = 0 2 1
0 0 2
0 0 2
sono simili tra loro.
Notiamo intanto che A `e diagonale e B triangolare, per cui gli autovalori corrispondono per entrambe ai loro elementi principali e i due spettri coincidono. La matrice
A `e gi`a diagonale, quindi ovviamente diagonalizzabile. Dobbiamo esaminare la matrice B. Lautovalore = 1 `e semplice, quindi regolare. Occorre studiare = 2, che
ha molteplicit`a algebrica 2 (`e un autovalore doppio). La molteplicit`a geometrica `e
mg (2) = n rk(B 2I3 ). Abbiamo
1 2 1
0
22
1 =
n rk(B 2I3 ) = 3 rk 0
0
0
22
1 1 0
0 1 =
= 3 rk 0
0
0 0
= 3 2 = 1.
Quindi ma (2) = 2 6= mg (2) = 1. Le due molteplicit`a sono diverse, lautovalore = 2
per B non `e regolare e quindi B non pu`o essere diagonalizzabile. Ma allora A e B
non sono simili tra loro. In particolare A e B non possono rappresentare lo stesso
endomorfismo rispetto a basi diverse.
`
SIMILITUDINE E DIAGONALIZZABILITA
66
2.6
ESERCIZI
0 6 0
A = 1 0 1 .
1 0 1
1 0 2
A= 3 2 0
0 2 6
5 0 6
A = k 1 3 ,
9 0 10
essendo k un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori di k per i quali A `e diagonalizzabile.
3. Determinare, quando `e possibile, una matrice P tale che P 1 AP sia una matrice
diagonale.
2.6.9. Sia A la seguente matrice
1
0 5
A = k 1 k 5 ,
1 0 7
essendo k un parametro reale.
2.6 ESERCIZI
67
3 0 1
A = 4 a 2 ,
2 0 2
essendo a un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile.
2.6.11. Stabilire se la matrice reale
0
A= 1
54
1 1
0 1
1 0
`e diagonalizzabile in R.
2.6.12. Sia A M2 (R) una matrice tale che
det(A) = det(2I A) = 0.
Stabilire se A `e diagonalizzabile.
2.6.13. Determinare i valori del parametro h R in modo che la matrice
h 0 0
A = 1 2 h
1 0 0
sia diagonalizzabile.
2.6.14. Determinare tutti i valori del parametro h R tali che la matrice
1 0 0
A = 2h 0 0
h 2h 1
sia diagonalizzabile
2.6.15. Si considerino le matrici
1 0 1
A = 1 1 h ,
0 0
1
h 1 0
B = 1 1 h .
0
0 1
`
SIMILITUDINE E DIAGONALIZZABILITA
68
2.6.16. Si consideri la matrice
1 0 h
A = 0 1 0 ,
1 0 1
con h parametro reale. Stabilire se A `e diagonalizzabile per ogni valore di h e se esiste un
valore di h tale che A sia ortogonalmente simile ad una matrice diagonale D.
2.6.17. Si consideri la matrice
h
1 0
0 0 .
A= 0
h+1 h 1
Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice
reale simmetrica B avente come polinomio caratteristico B (t) = t3 2t2 + t.
2.6.18. Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che
Am = O per qualche intero m N) `e a sua volta nilpotente.
2.6.19. Dimostrare che se P = aU , con U matrice ortogonale, e D `e diagonale, la matrice
P DP 1 `e simmetrica.
2.6.20. In R3 , si considerino il vettore v = [3, 1, 2]t , ed il sottospazio U generato dai
vettori x1 = [1, 4, 1]t ed x2 = [2, 1, 1]t . Determinare la proiezione di v su U e la lunghezza
della proiezione di v su U .
2.6.21. Sia A M2 (R) una matrice avente autovalori 0, 1 corrispondenti, rispettivamente, agli autovettori x1 = [1, 1]t e x2 = [1, 1]t . Determinare A.
2.6.22. Dimostrare che una matrice di proiezione `e simmetrica.
2.6.23. Si considerino le matrici A, B Mn (R). Siano A e B autovalori di A e B,
rispettivamente, entrambi associati allautovettore x. Dimostrare che x `e un autovettore
sia di AB che di BA, associato allautovalore A B .
2.6.24. Si considerino le matrici
0 0 0
A = 0 2 0 ,
h 1 2
1 0 1
B = 0 2 0 .
1 0 1
Verificare che A non `e diagonalizzabile per alcun valore del parametro h R, e che non `e
mai simile a B.
2.6.25. Si consideri la matrice
h h1 1
1
2 .
A= 0
0
0
2
2.6 ESERCIZI
69
1 h 0
A = 0 0 h ,
0 0 1
1 0 0
B = 0 0 0 .
0 0 1
Verificare che A e B sono simili per ogni h R e stabilire se esistono valori di h per i
quali siano ortogonalmente simili.
2.6.27. Sia A M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile.
2.6.28. Sia f lendomorfismo di R3 definito da
f ([x, y, z]t ) = [x + y, x + z, y + z]t .
Stabilire se f `e diagonalizzabile e calcolarne autovalori e autovettori.
2.6.29. Si consideri lendomorfismo f : R3 R3 dato da
x
4x 4z
f y = 5x y 5z
xz
z
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice
seguente
3 2 15
A= 0 0 6
0 0 1
2.6.30. Si stabilisca se le matrici
1 0 0
A= 0 2 0
0 0 2
1 1 0
B= 0 2 1
0 0 2
3
C
AC (f ) = 2
0
`
SIMILITUDINE E DIAGONALIZZABILITA
70
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se ACC (f ) `e simile alla matrice data da
1 0 0
A = 1 1 0 .
2 1 3
2.6.32. Sia A Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e
diagonalizzabile se e solo se A = t0 In .
2.6.33. Si consideri lendomorfismo fh : R3 R3 rappresentato dalla matrice
h 0 h
Ah = 1 1 h h R.
0 0 1
Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori
sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di
autospazi. Determinarli in caso affermativo.
2.6.34. Siano dati i vettori v1 = [6, 2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, 4]t , w1 =
[1, 1, 0]t , w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h R. Vedere se esiste un endomorfismo f di R3 tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono
autovettori di f .
2.6.35. Sia f 6= 0 un endomorfismo nilpotente di V. Dimostrare che Spec f = {0}.
2.6.36. Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e
t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili.
2.6.37. Una matrice reale A di tipo (2, 2) soddisfa le condizioni
det(det(A)I A) = 0,
det( det(A)I A) = 0.
1 0 0
1 3 0
B= 0 5 0
A = 0 2 3 ,
0 3 2
0 0 h
siano simili.
2.6.40. Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, 1]t come
autovettori.
2.6 ESERCIZI
2.6.41. Stabilire se le seguenti matrici sono simili:
1 0 1
1 1 1
A= 0 1 2
B = 0 1 1 .
0 0 3
0 0 3
2.6.42. Mostrare che le seguenti matrici sono simili
1 2
1 0
A=
,
B=
0 1
1 1
e calcolare una matrice di passaggio.
71
72
`
SIMILITUDINE E DIAGONALIZZABILITA
Capitolo 3
R3 R
[x, y, z]t 7 x y + 2z.
74
75
= aA + 2In ,
a11
t
a12 a13
x
a11 x + a12 y + a13 z
a22 a23 y = a21 x + a22 y + a23 z .
a32 a33
z
a31 x + a32 y + a33 z
Quindi
f ([x, y, z]t ) = [a11 x + a12 y + a13 z, a21 x + a22 y + a23 z, a31 x + a32 y + a33 z]t .
76
2 2
0
A = 1 t 0 .
1 1 1
La A `e invertibile se e solo se `e non singolare. Il suo determinante `e det A = 2t + 2, che si
annulla solo quando t = 1. Pertanto f `e un automorfismo se e solo se t 6= 1.
2 1
A = 1 1 .
0 1
Il rango di A `e 2: per esempio il minore determinato dalle ultime due righe `e 6= 0. Quindi
dim(Imf ) = 2. DallEquazione Dimensionale, otteniamo:
n = dim(ker f ) + dim(Imf )
2 = dim(ker f ) + 2 dim(ker f ) = 0.
Dal fatto che dim(Imf ) = 2, mentre la dimensione del codominio `e 3, deduciamo che f
non `e suriettiva. Invece, da dim(Imf ) = 0, si deduce che ker f = {0}, quindi che f `e
iniettiva.
1.3.8 Stabilire per quali valori del parametro reale t lapplicazione lineare f : R2 R2 ,
definita da:
f ([x, y]t ) = [x + ty, (t 1)x + 2y]t
`e iniettiva.
Svolgimento. Unapplicazione f `e iniettiva se e solo se ker f = {0}, ovvero se e
solo se dim(ker f ) = 0. DallEquazione Dimensionale n = dim(ker f ) + dim(Imf ), segue:
dim(ker f ) = 2 dim(Imf ).
Quindi f `e iniettiva se e solo se dim(Imf ) = 2. Ma la dimensione dellimmagine di
unapplicazione non `e nientaltro che il rango della matrice ad essa associata. Le sue righe
1
t
.
A=
t1 2
Siccome det A = (t2 t 2) = 0 t = 2 o t = 1, ne consegue che per t 6= 2 e t 6= 1 il
rango di A `e 2 e f `e iniettiva.
1 1
A = 1 1 .
1 0
2 2
0
A = 1 1 0 .
1 1 1
La A `e invertibile se e solo se `e non singolare, ovvero se e solo se det A 6= 0. Sviluppando
rispetto allultima colonna, abbiamo:
2 2
0
1 1 0 = 1 2 2 = 1(2 2) = 4 6= 0.
1 1
1 1 1
Quindi esiste A1 e f `e un automorfismo. Ci`o significa che esiste f 1 , pure lei lineare, cui
`e associata la matrice A1 .
77
78
a11 a12
A = a21 a22
a31 a32
Limmagine del primo vettore della base canonica di R2 ,
a11 a12
1
Ae1 = a21 a22 =
a31 a32
0
a11
a21 .
a31
Quindi limmagine di e1 non `e altro che la prima colonna della matrice A. Analogamente
limmagine di e2 `e la seconda colonna di A. Se esprimiamo questa immagine mettendo in
evidenza i vettori della base canonica di R3 , ovvero del codominio, otteniamo:
a11
1
0
0
a21 = a11 0 + a21 1 + a31 0 = a11 e1 + a21 e2 + a31 e3 .
a31
0
0
1
Quindi i coefficienti dei termini della base canonica del codominio, negli sviluppi delle
immagini degli elementi della base del dominio, non sono altro che i termini delle colonne
della matrice associata ad f . Nel nostro caso abbiamo:
1 1
A = 1 0 .
1 2
il rango di A `e rkA = 2, quindi, essendo dim(Imf ) = rkA, dallEquazione Dimensionale:
2 = dim(ker f ) + dim(Imf ) =
= dim(ker f ) + rkA =
= dim(ker f ) + 2 dim(ker f ) = 0.
Ma dim(ker f ) = 0 ker f = {0} e quindi f `e unapplicazione iniettiva.
1.3.12 Sia f : R2 R3 lapplicazione lineare data da
xy
x
f
= 2x 2y .
y
3x 3y
1. Determinare la matrice che rappresenta f rispetto alle basi
B1 =
0
3
,
,
2
1
0
2
1
B2 = 0 , 1 , 1 .
1
0
3
79
vB1 =
1
2
Svolgimento.
1. Osserviamo innanzitutto che gli insiemi B1 e B2 sono effettivamente basi di R2 ed R3
rispettivamente, in quanto
det[B1 ] = det
3 0
1 2
= 6 6= 0,
1 0 2
det[B2 ] = det 0 1 1 = 1 6= 0.
1 0 3
3 0 2
[B2 ]1 = 1 1 1 ,
1 0 1
e quindi
1 1
ACC (f ) = 2 2
3 3
3 0 2
6 6
1 1
3
0
2
1 1 1 2 2
AB
= 8 8 .
B1 (f ) =
1 2
1 0 1
3 3
4 4
2
2. Applicando la matrice AB
B1 (f ) al vettore v, scritto rispetto alla base B1 , risulta
6 6
1
6
2
8 8 = 8 .
vB2 = AB
B1 (f )vB1 =
4
4 4
2
t 2 t+1
At = 2 t t + 3 .
1 2
4
Determinare il valore del parametro t affinche f sia un automorfismo. Posto t = 2,
determinare base e dimensione di Imf . Posto t = 3, determinare base e dimensione di
ker f .
80
t 2 t+1
2 t t + 3 = t t t + 3 2 2 t + 3 + (t + 1) 2 t =
4
1
4
1 2
1 2
4
= t(4t 2t 6) 2(8 t 3) + (t + 1)(4 t) =
= 2t2 6t 10 + 2t + 4t t2 + 4 t = t2 t 6.
Quindi det At = 0 t = 3 oppure t = 2. Pertanto f `e un automorfismo se e solo se
t 6= 3 e t 6= 2. Poniamo ora t = 2. La matrice associata diventa:
2 2 1
A2 = 2 2 1 .
1
2
4
Il minore del secondo ordine determinato dalle ultime due righe e dalle prime due colonne
`e 6= 0. Siccome det A2 = 0 ne consegue che rkA2 = 2. Ma il rango della matrice associata ad unapplicazione lineare f rappresenta la dimensione dellimmagine di f . Quindi
dim(Imf ) = 2 e una base per Imf `e fornita dalle colonne di A2 che contribuiscono a
formare il minore con cui si `e determinato il rango di rkA2 , in questo caso le prime due.
Quindi linsieme
2
2 , 2
1
2
`e una base di Imf . Poniamo ora t = 3. La matrice associata diventa:
3 2 4
A3 = 2 3 6 .
1 2 4
Anche in questo caso rkA3 = 2. Infatti, per quanto visto prima det A3 = 0, mentre il
6 0. Quindi
minore del secondo ordine, determinato dalle prime due righe e colonne, `e =
dim(Imf ) = 2. Ricordando lEquazione Dimensionale:
n = dim(Imf ) + dim(ker f ),
dove n `e la dimensione dello spazio dominio dellapplicazione f (in questo caso n = 3),
abbiamo:
3 = 2 + dim(ker f ),
ossia dim(ker f ) = 1. Per determinare una base cerchiamo di esprimere il generico vettore
di ker f . Se x = [x, y, z]t ker f , per definizione di nucleo, f (x) = 0. In questo caso,
limmagine di x tramite f si ottiene moltiplicando il vettore x a sinistra per la matrice
A3 . Dallequazione matriciale A3 x = 0 otteniamo:
3 2 4
x
3x + 2y + 4z
0
2 3 6 y = 2x + 3y + 6z = 0 .
1 2 4
z
x + 2y + 4z
0
3x + 2y + 4z = 0
2x + 3y + 6z = 0
x + 2y + 4z = 0
che ammette la terna (0, 2t, t) come soluzione, al variare di t R. Ci`o significa che il
generico vettore di ker f si scrive come:
0
0
x = 2t = t 2 = tv.
t
1
Questa `e la conferma che dim(ker f ) = 1, e il vettore v individua una base per il nucleo
di f .
A = 2
4
1 0
1 0 .
2 3
Determinare una base per Imf . Dopo aver verificato che linsieme
W = [x, y, 0]t | x, y R
`e sottospazio di R3 , determinare una base per W + Imf .
Svolgimento. Sappiamo che le colonne della matrice associata ad unapplicazione f sono generatori di Imf . Cerchiamo di individuare quante, fra esse, sono indipendenti.
Determiniamo il rango di A. Siccome le prime due colonne della matrice sono proporzionali (la prima si ottiene dalla seconda moltiplicandola per 2) evidentemente det A = 0.
Quindi rkA 2. Il minore individuato dalle ultime due righe e dalle ultime due colonne,
ossia
1 0
2 3 = 3 0 = 3 6= 0
`e non nullo, quindi rkA = 2. Non solo abbiamo scoperto che dim(Imf ) = 2, ma ne
abbiamo anche determinato una base, in quanto le colonne di A, generatori di Imf , che
contribuiscono a formare il minore di cui sopra, sono indipendenti. Quindi una base di
Imf `e:
1
0
1
0 .
,
B=
2
3
Per verificare che W `e un sottospazio consideriamo la sua chiusura lineare. Siano w1 =
[x1 , y1 , 0]t e w2 = [x2 , y2 , 0]t due vettori di W. Sono entrambi caratterizzati dallavere
lultima componente nulla. Al variare di a, b R consideriamo la combinazione lineare
aw1 + bw2 :
x1
x2
ax1 + bx2
aw1 + bw2 = a y1 + b y1 = ay1 + by2 .
0
0
0
81
82
w = y = x 0 + y 1 = xw1 + yw2 .
0
0
0
I vettori w1 e w2 non solo generano W, ma, essendo evidentemente indipendenti, ne
formano anche una base. A questo punto abbiamo determinato una base di Imf e una di
W. Tutti e soli i vettori della somma W + Imf si scrivono come combinazioni lineari dei
a individuando, nellunione delle
vettori delle due basi. Una base per W + Imf si trover`
due basi, quelli indipendenti. Per fare questo consideriamo la matrice aventi i vettori in
questione come colonne:
1
0 1 0
0 0 1
B= 1
2 3 0 0
e studiamone il rango. Certamente il minore del secondo ordine individuato dalle ultime
due righe e dalle prime due colonne `e non nullo (labbiamo visto esaminando la base di
Imf ). Usiamo il Teorema di Kronecker, orlando dapprima questo minore con la terza
colonna. Sviluppando rispetto alla seconda colonna, otteniamo:
0 1
1 1
= 3(1) = 3 6= 0.
1
0 0 = (3)
1
0
2 3 0
Quindi rkB = 3, le tre prime colonne sono indipendenti e formano una base di W + Imf .
t 0 1 1
1 t 1 1
At =
1 0 2 0 ,
1 0 0 2
verificare che dim(ker f ) = 2 solo per t = 0.
Svolgimento.
t 0 1
1 t 1
1 0 2
1 0 0
1
t 1 1
1
= t 1 2 0 =
0
1 0 2
2
1 1
t 1
=
= t 1
2
2 0
1 2
= t((0 2) 2(2t 1)) = t(2 4t + 2) = 4t2 .
0 0 1 1
1 0 1 1
A0 =
1 0 2 0 .
1 0 0 2
Esiste almeno un minore non nullo del secondo ordine. Per esempio quello determinato
dalle prime due righe e dalle ultime due colonne. Usiamo il Teorema di Kronecker, orlando
questo minore in tutti i modi possibili. Questi sarebbero quattro, potendo lavorare su due
ulteriori righe e due ulteriori colonne. Ma una delle colonne `e formata da zeri (la seconda),
quindi possiamo trascurarla. Orlando con la prima colonna e terza riga e sviluppando
rispetto alla prima riga, otteniamo:
0 1 1
1 1 1 = 1 1 1 + 1 1 1 =
1 0
1 2
1 2 0
= (0 + 1) + (2 1) = 1 + 1 = 0.
Orlando con la prima colonna e la quarta riga e sviluppando rispetto alla prima riga,
abbiamo:
0 1 1
1 2 0 = 1 1 0 + 1 1 2 =
1 2
1 0
1 0 2
= (2 0) + (0 2) = +2 2 = 0.
Tutti i minori del terzo ordine ottenuti orlando quello di partenza sono nulli. Il Teorema di
Kronecker garantisce che non dobbiamo controllarne altri per poter affermare che rkA0 =
2. Quindi dim(ker f ) = 2 se e solo se t = 0.
83
84
t 2 t+1
A = 2 t t + 3 .
1 2
4
Lapplicazione f `e un automorfismo se e solo se `e invertibile la matrice associata A, e
questo avviene se e solo se det A 6= 0. Siccome det A = t2 t 6 = 0 se e solo se t = 2 o
t = 3, abbiamo che f `e un automorfismo con t 6= 2 e t 6= 3. Sia ora t = 2. La matrice
associata diventa:
2 2 1
A = 2 2 1 .
1
2
4
In questo caso rkA = 2 (esistono minori del secondo ordine non nulli, mentre siamo nel
caso in cui det A = 0). Quindi dim(Imf ) = rkA = 2. DallEquazione Dimensionale
abbiamo:
dim(ker f ) = n dim(Imf ) = 3 2 = 1.
Per la determinazione di una base del nucleo, troviamo limmagine di un generico vettore
tramite la f e imponiamo che appartenga a ker f . Se x = [x, y, z]t ker f , allora f (x) = 0:
2 2 1
x
0
2 2 1
y = 0 .
f (x) = Ax =
1
2
4
z
0
Sviluppando i calcoli ed uguagliando termine a termine otteniamo il sistema
2x + 2y z = 0
2x 2y + z = 0
x + 2y + 4z = 0
che ammette la terna (10y, 7y, 6y) come soluzione. Quindi i vettori del nucleo sono tutti
e soli quelli della forma:
10y
10
7y = y 7 = yu.
6y
6
Il vettore u `e una base di ker f . Se t = 3 si ragiona nello stesso modo. La matrice associata
ad f diventa:
3 2 4
A = 2 3 6 .
1 2 4
Siccome rkA = 2 abbiamo che dim(Imf ) = 2. Sempre dallEquazione Dimensionale
otteniamo:
dim(ker f ) = 3 dim(Imf ) = 3 2 = 1.
85
Per determinare una base del nucleo, come prima, imponiamo al generico vettore x di
appartenere a ker f . Ponendo Ax = 0, e sviluppando i calcoli, arriviamo al sistema:
3x + 2y + 4z = 0
2x + 3y + 6z = 0
x + 2y + 4z = 0
che ammette la terna (0, 2z, z) come soluzione. Il generico vettore di ker f ha la forma:
0
0
2z = z 2 = zv,
z
1
e {v} `e una base del nucleo.
1 2 1 0
A = 2 1 1 1 .
5 0 3 2
Determinare una base per Imf ed una per ker f .
Svolgimento. Le colonne della matrice associata ad f formano un insieme generatore per Imf . Dobbiamo estrarre da questo una base. Il rango della matrice A ci indica
quanti, fra le colonne, sono vettori indipendenti e, siccome il rango viene calcolato tramite
un minore non nullo, ci dice anche quali sono questi vettori: quelli che contribuiscono a
formare il minore in questione. Si osservi che il minore del secondo ordine individuato dalle
prime due righe e colonne `e 6= 0. Proviamo ad orlarlo nei due soli modi possibili, usando il
Teorema di Kronecker. Se usiamo la terza colonna e sviluppiamo rispetto allultima riga,
abbiamo:
1 2 1
2 1 1 = 5 2 1 + 3 1 2 =
1 1
2 1
5 0 3
= 5(2 + 1) + 3(1 4) = 15 15 = 0.
Usando la quarta colonna e sviluppando rispetto alla prima riga, abbiamo:
1 2 0
2 1 1 = 1 1 1 2 2 1 =
5 2
0 2
5 0 2
= (2 0) 2(4 5) = 2 + 2 = 0.
Quindi tutti i minori del terzo, ottenuti da quello di partenza dordine 2, sono nulli. Non
occorre esaminarne altri, in quanto Kronecker garantisce che rkA = 2. Le colonne che
costituiscono il minore sono allora indipendenti e formano una base di Imf :
2
1
B = 2 1 ,
5
0
86
1 2 1 0
x + 2y + z
0
y
= 0
2x
y
+
z
+
t
=
Ax = 2 1 1 1
z
5 0 3 2
5x + 3z + 2t
0
t
da cui, uguagliando termine a termine fra i due membri:
x + 2y + z = 0
2x y + z + t = 0
5x + 3z + 2t = 0.
Il precedente sistema ammette come soluzione la quaterna (3yt, y, 5y+t, t), che fornisce
il generico vettore di ker f . Tutti e soli i vettori di ker f sono quelli della forma:
3y t
3y
t
y
= y + 0 =
x=
5y + t
5y t
t
0
t
3
1
1
0
= y
5 + t 1
0
1
= yv1 + tv2 .
Quindi i vettori v1 e v2 generano ker f . Siccome sono indipendenti (la matrice che li ha
come righe o colonne ha rango 2) sono una base di ker f , da cui segue che dim(ker f ) = 2.
Un metodo alternativo per determinare la dimensione del nucleo `e quello di utilizzare
lEquazione Dimensionale. Abbiamo precedentemente verificato che dim(Imf ) = 2, quindi
da n = dim(ker f ) + dim(Imf ), con n = 4 abbiamo
4 = dim(ker f ) + 2 dim(ker f ) = 2.
Ovviamente in questo modo possiamo determinare la dimensione del nucleo, ma non una
sua base.
x y + 2z
x
f y = 2x + 3y 4z .
x 6y + 10z
z
87
1 1 2
ACC (f ) = 2 3 4 .
1 6 10
Il determinante `e nullo, mentre il minore ottenuto intersecando le prime due righe con le
prime due colonne `e non nullo. Quindi la matrice ha rango 2 e ci`o fornisce la dimensione
di Imf .
Una base di tale sottospazio `e formata dalle prime due colonne della matrice ACC (f ).
Dallequazione dimensionale 3 = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) = 1.
Per ottenere una base del nucleo risolviamo il sistema omogeneo associato alla matrice
ACC (f ), cio`e
x y + 2z = 0
2x + 3y 4z = 0
x 6y + 10z = 0.
Si ottiene
2
x = z,
5
8
y= z
5
* 2 +
ker f = 8
5
x
x + y 3z
f y =
,
ax + (2 a)y + (a 4)z
z
essendo a un parametro reale.
1. Determinare, al variare di a in R, il nucleo, limmagine, le loro dimensioni ed una
loro base.
2. Scrivere, per a = 1, la matrice che rappresenta f rispetto alle basi date da
0
2
1
B1 = 0 , 1 1 ,
1
0
4
B2 =
3
5
2
,
.
6
Svolgimento.
(1) La matrice ACC (f ) associata ad f rispetto alle basi canoniche di R3 ed R2 `e data da
1
1
3
C
AC (f ) =
a 2a a4
88
BImf =
BImf =
1
1
per a = 1,
1
,
2a
1
a
per a 6= 1.
x + y 3z = 0
,
x + y 3z = 0
Bker f
3
1
= 1 , 0 .
0
1
x + y = 3z
ax + (2 a)y = (4 a)z.
3z
1
det
(4 a)z 2 a
x=
=z
1
1
det
a 2a
1
3z
det
a (4 a)z
= 2z.
y=
1
1
det
a 2a
Pertanto, in tale caso, una base di ker f `e data da
Bker f
1
= 2 .
(2) Indichiamo con [B1 ] la matrice di passaggio dalla base B1 alla base canonica di R3 , e
con [B2 ] la matrice di passaggio dalla base B2 alla base canonica di R2 . Abbiamo allora
[B2 ]
1
=
8
6 2
5 3
89
1 0 2
1
1
6 2
1 1 3
0 1 1 =
=
1 1 3
8 5 3
1 0 4
13
8
1
2
11
2
19
2
1.3.20 Sia M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia
P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia f : M2 (R)
P ol3 (R)[x] la seguente applicazione lineare
a b
c d
con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
Svolgimento.
1. La dimensione dellimmagine di una applicazione lineare `e la caratteristica di una
qualsiasi matrice che la rappresenta rispetto a due basi B1 e B2 scelte nello spazio di
partenza e di arrivo, rispettivamente. Assumiamo B2 = {E11 , E12 , E21 , E22 } come base di
M2 (R), essendo E11 , E12 , E21 , E22 le matrici canoniche fondamentali, cio`e
E11
1 0
0 1
0 0
0 0
=
, E12 =
, E21 =
, E22 =
.
0 0
0 0
1 0
0 1
1 0 1 2
0 1 0 2
2
.
AB
B1 (f ) = 1
1 1 0
1 1 2 2
Osserviamo che R3 = R1 R2 , cio`e la terza riga `e uguale alla differenza tra le prime
2
due. Pertanto la caratteristica di AB
e al massimo 3. Considerando la sottomatrice
B1 (f ) `
M = {R1 , R2 , R4 } {C1 , C2 , C3 }, ottenuta intersecando la prima, seconda e quarta riga
con la prima, seconda e terza colonna, abbiamo det M = 1 6= 0, e quindi la caratteristica
2
di AB
e esattamente 3, per cui dim(Imf ) = 3.
B1 (f ) `
Limmagine `e quindi generata dai polinomi corrispondenti alle colonne C1 , C2 , C3 di
2
AB
e
B1 (f ), cio`
90
q(x) = x3 + x + 1,
r(x) = x2 + x + 1
s(x) = x3 x 2.
Pertanto una base di Imf `e B = {q(x), r(x), s(x)}, ed Imf = {p(x) P ol3 (R)[x] : p(x) =
q(x) + r(x) + s(x), , , R}.
2. Dallequazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) =
4dim(Imf ) = 1. Per determinare una base del nucleo, consideriamo il sistema omogeneo
2
AB
B1 (f )x = 0
a c + 2d = 0
b + 2d = 0
a+bc=0
a + b 2c + 2d = 0
Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato
dalla prima, seconda e quarta equazione, lasciando a, b, c come incognite principali ed
assumendo d come parametro. Abbiamo quindi
0
0
2d
2
2d = d 2
d
1
a c = 2d
b = 2d
a + b 2c = 2d
= dv
0 2
A=
.
2 1
Abbiamo quindi
ker f = {dA : d R}.
1.3.21 Sia P ol3 (R)[x] lo spazio dei polinomi di grado n 3 in x, a coefficienti reali. Sia
M2 (R) lo spazio delle matrici quadrate di ordine 2 a coefficienti reali. Sia f : P ol3 (R)[x]
M2 (R) la seguente applicazione lineare
f (ax + bx + cx + d) =
a + b c 2a + b 3c d
a 2c d 3a + 2b 4c d
con a, b, c, d R.
1. Determinare la dimensione di Imf , e scrivere una sua base.
2. Determinare la dimensione di kerf , e scrivere una sua base.
Svolgimento.
1 0
0 1
0 0
0 0
E11 =
, E12 =
, E21 =
, E22 =
.
0 0
0 0
1 0
0 1
Abbiamo allora
2
2
AB
B1 (f ) = 1
3
1
1
0
2
1 0
3 1
.
2 1
4 1
1 2
1 1
A=
, B=
.
1 3
0 2
Pertanto una base di Imf `e B = {A, B}, ed Imf = {M M2 (R) : M = A + B, ,
R}.
2. Dallequazione dimensionale n = dim(ker f ) + dim(Imf ) ricaviamo dim(ker f ) =
4dim(Imf ) = 2. Per determinare una base del nucleo, consideriamo il sistema omogeneo
2
AB
B1 (f )x = 0
a+bc=0
2a + b 3c d = 0
a 2c d = 0
3a + 2b 4c d = 0
Dalle considerazioni precedentemente svolte possiamo ridurre il sistema a quello formato
dalle prime due equazioni, lasciando a, b come incognite principali ed assumendo c, d come
parametri. Abbiamo quindi
2c + d
2
1
c d
a = 2c + d
= c 1 + d 1 = cv1 + dv2
b = c d
c
1
0
d
0
1
Pertanto ker f `e generato dai polinomi corrispondenti a v1 e v2 nella proiezione canonica
inversa, dati da p(x) = 2x3 x2 + x e q(x) = x3 x2 + 1, rispettivamente. Abbiamo quindi
91
92
3.2
4 + 2p + q = 1
1 + p + q = 2,
da cui p = 0 e
q = 3. Quindi il polinomio caratteristico di A `e (t) = t2 3, e le sue
radici, t1,2 = 3, sono gli autovalori cercati.
2.6.3 Sia A M2 (R) non singolare. Determinare gli autovalori della matrice sapendo che
det(I A) = 0 e che det((A1 (2I A))) = 0.
Svolgimento. Da det(I A) = 0, segue che 1 = 1 `e un autovalore. Poiche
1
det(A1 ) =
6= 0, per il Teorema di Binet abbiamo:
det(A)
det((A1 (2I A))) = det(A1 ) det(2I A) = 0,
ovvero det(2I A) = 0. Quindi anche 2 = 2 `e un autovalore.
2.6.4 Sia A M2 (R). Determinarne gli autovalori, sapendo che det(I A) = 4 e det(4I
A) = 1.
Svolgimento. Essendo A una matrice di ordine 2, il suo polinomio caratteristico
ha grado 2, ed `e della forma (t) = det(tI A) = t2 + pt + q. Le ipotesi dicono che
(1) = 4 e (4) = 1, ovvero
16 + 4p + q = 1
1 + p + q = 4,
da cui p = 6 e q = 9. Quindi il polinomio caratteristico di A `e (t) = t2 6t + 9, e la
sua radice, t1,2 = 3, di molteplicit`a 2, `e lautovalore cercato.
93
0 6 0
A = 1 0 1 .
1 0 1
0 6 0
x
x
1 0 1 y = 0 y ,
1 0 1
z
z
che porta al sistema
ovvero
6y = 0
x+z =0
x+z =0
y=0
x = z.
1
Lautovettore corrispondente a t1 = 0 `e dunque a 0 , con a 6= 0. Questultima
1
condizione `e essenziale, perche un autovettore,
per
definizione,
non pu`o
essere
nullo. Con
3
2
conti analoghi, per t2 = 2 troviamo b 1 , con b 6= 0 e, per t3 = 3, c 1 , con c 6= 0.
1
1
Una verifica alternativa si pu`o fare ricordando che condizione necessaria e sufficiente per la
diagonalizzabilit`a `e avere autovettori indipendenti. Infatti la matrice che ha come colonne
i tre autovettori appena trovati ha il determinante diverso da zero, quindi gli autovettori
sono linearmente indipendenti.
1 0 2
A= 3 2 0
0 2 6
94
2
2
1
3
t2 e t3 sono a 3 , b 1 e c 1 , rispettivamente, con a 6= 0, b 6= 0 e c 6= 0.
1
1
2
Una matrice di passaggio `e quindi la seguente:
2
2
1
3
P = 3 1 1 .
1
1 2
5 0 6
A = k 1 3 ,
9 0 10
essendo k un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori di k per i quali A `e diagonalizzabile.
3. Determinare, quando `e possibile, una matrice P tale che P 1 AP sia una matrice
diagonale.
Svolgimento.
(1) Calcoliamo il polinomio caratteristico di A
5
0
6
k
1
3 = (1 )2 (4 )
det(A I) = det
9
0
10
det(A I) = 0 =
1 soluzione doppia
4 soluzione semplice
6 0 6
A 1 I = k 0 3
9 0 9
95
6x + 6z = 0
3x 3z = 0
=1
9x + 9z = 0
Abbiamo pertanto la soluzione x = z, y, e quindi
* +
1
0
x
E1 = y , x, y R = 0 , 1
x
1
0
autospazio associato a = 1
9x + 6z = 0
3x 3y 3z = 0
=4
9x + 6z = 0
Abbiamo pertanto la soluzione x = 2y, z = 3y, e quindi
2 +
2y
E4 = y , y R = 1
3y
3
autospazio associato a = 4.
1 0 2
Per esempio P = 0 1 1
1 0 3
1
0 5
A = k 1 k 5 ,
1 0 7
96
1
0
5
det(A I) = det k 1 k 5 = (k )( 6)( 2)
1
0
7
k
6
det(A I) = 0 =
2
Pertanto abbiamo SpecA = {k, 2, 6}.
(2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a
degli autovalori. Se k 6= 2, 6 i tre autovalori sono semplici, quindi regolari, ed A `e
diagonalizzabile.
Se k = 2 abbiamo
1 0 5
A 2 I = 1 0 5
1 0 5
La seconda riga `e lopposta della prima mentre la terza `e uguale alla prima riga. Il rango
di A 2 I `e quindi uguale ad 1, e di conseguenza la molteplicit`a geometrica di = 2 `e
mg (2) = 3 r(A 2 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di
conseguenza, la matrice `e diagonalizzabile anche per k = 2.
Sia ora k = 6. Abbiamo allora
5 0 5
A 6 I = 5 0 5
1 0 1
Anche in questo caso il rango `e uguale ad 1, quindi
mg (6) = 3 r(A 6 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, pertanto, `e regolare. Di
conseguenza, la matrice `e diagonalizzabile anche per k = 6.
Riassumendo, la matrice `e diagonalizzabile per ogni valore del parametro.
3 0 1
A = 4 a 2 ,
2 0 2
essendo a un parametro reale.
1. Determinare lo spettro di A
2. Stabilire i valori del parametro a per i quali A `e diagonalizzabile.
Svolgimento.
(1) Calcoliamo il polinomio caratteristico di A
3
0
1
det(A I) = det 4 a 2 = (a )( 4)( 1)
2
0
2
a
1
det(A I) = 0 =
4
Pertanto abbiamo SpecA = {a, 1, 4}.
(2) Per studiare la diagonalizzabilit`a della matrice, dobbiamo studiare la regolarit`a
degli autovalori. Se a 6= 1, 4 i tre autovalori sono semplici, quindi regolari, ed A `e
diagonalizzabile.
Se a = 1 abbiamo
2 0 1
A 1 I = 4 0 2
2 0 1
La terza colonna `e multipla della prima (C3 = 12 C2 ), mentre la seconda `e nulla. Quindi, il
rango di A 1 I `e uguale ad 1, e di conseguenza la molteplicit`a geometrica di 1 `e
mg (1) = 3 r(A 1 I) = 2,
uguale alla molteplicit`a algebrica ma di tale autovalore, che, quindi, `e regolare. Pertanto,
la matrice `e diagonalizzabile anche per a = 1.
Sia ora a = 4. Abbiamo allora
1 0 1
A 4 I = 4 0 2
2 0 2
In questo caso il rango `e uguale a 2, quindi
mg (4) = 3 r(A 4 I) = 1,
97
98
1
A=
54
1 1
0 1
1 0
`e diagonalizzabile in R.
Svolgimento. Calcoliamo gli autovalori di A. Dallequazione det(A tI) =
t3 34 t + 14 = 0, otteniamo t1 = 1 e t2,3 = 12 . Questultimo `e un autovalore doppio.
Quindi A `e diagonalizzabile se e solo se 1
2 `e regolare. In questo caso ci`o significa che
1
rk(A 2 I) = 3 2 = 1. Siccome
1
1
2
rk A I = rk 1
2
5
4
1
1
2
1
1 = 2,
12
h 0
A = 1 2
1 0
0
h
0
sia diagonalizzabile.
Svolgimento.
1 0 0
A = 2h 0 0
h 2h 1
sia diagonalizzabile
Svolgimento. La matrice A `e triangolare inferiore, quindi i suoi autovalori sono
i termini principali, 1 = 0 e 2,3 = 1. Per la diagonalizzabilit`a dobbiamo verificare se
lautovalore doppio = 1 `e regolare. Questo significa che rk(A 1 I) = n ma (1) =
3 2 = 1. Siccome
0
0 0
A I = 2h 1 0 ,
h 2h 0
2h 1
= 0, ovvero 4h2 + h = 0. Dunque A `e
abbiamo rk(A I) = 1 se e solo se
h 2h
diagonalizzabile se e solo se h = 0 oppure h = 14 .
1 0 1
A = 1 1 h ,
0 0
1
h 1 0
B = 1 1 h .
0
0 1
1
1
1
1
C=
,
1 h + 2 2h h 1
le cui righe sono i coefficienti dei due polinomi, deve essere 1. Il minore costruito con le
prime due colonne `e nullo se e solo se h = 1. Per`
o questo valore non annulla il minore
determinato dalla prima e dallultima colonna quindi rk(C) = 2 per ogni valore di h. Le
matrici A e B, non essendo mai simili, non possono in alcun caso rappresentare lo stesso
endomorfismo.
1 0 h
A = 0 1 0 ,
1 0 1
99
100
h
1 0
0 0 .
A= 0
h+1 h 1
Stabilire se esiste un valore del parametro reale h tale che A sia simile ad una matrice
reale simmetrica B avente come polinomio caratteristico B (t) = t3 2t2 + t.
Svolgimento. Il polinomio caratteristico di B `e B (t) = t3 2t2 + t = t(t2 2t +
1) = 0, perci`o gli autovalori sono t1 = 0, t2,3 = 1. Osserviamo che B `e reale e simmetrica,
quindi diagonalizzabile. In altre parole, rispetto alla relazione di similitudine, la classe [B]
`e formata da tutte e sole le matrici simili a diag(0, 1, 1). Il polinomio caratteristico di A `e
A (t) = det(A tI) = t(1 t)(h t), e i suoi autovalori sono t1 = 0, t2 = 1 e t3 = h.
Quindi `e necessario che h = 1. Se vogliamo che A sia diagonalizzabile, t = 1 devessere
regolare, ovvero
0 1 0
rk(A I) = rk 0 1 0 = 1.
2 1 0
Siccome rk(A I) = 2, la A non `e diagonalizzabile per h = 1, quindi nemmeno in questo
caso pu`o essere simile a B.
2.6.18 Dimostrare che ogni matrice simile ad una matrice A nilpotente (tale cio`e che
Am = O per qualche intero m N) `e a sua volta nilpotente.
Svolgimento.
101
= P 1 A(P P 1 )A (P P 1 )AP
= P 1 Am P = P 1 OP = O.
Quindi anche B `e nilpotente.
t
Svolgimento. Abbiamo P DP 1 = aU Da1 U t = U DU t . Essendo U DU t =
U DU t , si ha quanto sopra affermato.
1 2
1 4 1
18 1
4 1 =
U tU =
2 1 1
1 6
1 1
1
6 1
(U t U )1 =
107 1 18
1
1
6 1
1 4 1
8
23
7
t
1 t
R = (U U ) U =
=
2 1 1
107 37 14 19
107 1 18
1 2
82 5 45
1
1
8
23
7
4 1
5 106 9
PU = U R =
=
37 14 19
107
107
1 1
45
9 26
341
82 5 45
3
107
1
.
5 106 9 1 = 103
PU v =
107
107
178
2
45
9 26
107
20
25
5 45
3
107
1
4
5
1
9 1 = 107
(I PU )v =
107
36
45 9 81
2
107
s
k(I PU )vk =
400 + 16 + 1296
4
=
(107)2
107
102
341
107
103
107
178
107
2 !
=
16 1498
+
= 14 = kvk2 .
107 107
x y
A=
.
z t
x y
1
0
x y
1
1
=
,
=
,
z t
1
0
z t
1
1
da cui
x+y =0
z+t=0
x + y = 1
z + t = 1.
1
Risolvendo il sistema otteniamo x = t = 1
2 e y = z = 2 . In alternativa, si noti che
A = P DP 1 , dove P `e la matrice degli autovettori,e D `e la matrice diagonale degli
autovalori, per cui
1 1
.
P =
1 1
Si ricava
1
A=
2
1 1
1 1
t
= (At )t (At A)1 At =
1 t
= A (At A)t
A =
t
1
t
= A(A A) A = PA ,
per cui PA `e una matrice simmetrica.
103
(3.2.1)
0 0 0
A = 0 2 0 ,
h 1 2
1 0 1
B = 0 2 0 .
1 0 1
Verificare che A non `e diagonalizzabile per alcun valore del parametro h R, e che non `e
mai simile a B.
Svolgimento. La matrice A `e triangolare inferiore. I suoi autovalori coincidono
quindi con i termini principali: 1 = 0 e 2,3 = 2. Essendo questultimo un autovalore
doppio, la A `e diagonalizzabile se e solo se = 1 `e regolare ( = 0 `e semplice, quindi
automaticamente regolare). Nella matrice
2 0 0
A 2I = 0 0 0 ,
h 1 0
2 0
6= 0, indipendentemente dal valore di h. Quindi rk(A2I) =
abbiamo il minore
h 1
2 > 1 e = 2 non `e regolare. La matrice A non `e mai diagonalizzabile. Invece B `e reale
simmetrica, dunque diagonalizzabile. Non `e pertanto possibile che le due matrici siano
simili.
h h1 1
1
2 .
A= 0
0
0
2
Determinare gli h R tali che A non sia diagonalizzabile.
Svolgimento. Gli autovalori di A coincidono con i suoi termini principali, in
quanto A `e triangolare superiore, e sono 1 = 1, 2 = 2 e 3 = h. Se h 6= 1, 2, i
104
0 1 1
A 2I = 0 1 2
0 0 0
`e 2, quindi = 2 `e un autovalore doppio non regolare. Pertanto A non `e diagonalizzabile
solo per h = 2.
1 h 0
A = 0 0 h ,
0 0 1
1 0 0
B = 0 0 0 .
0 0 1
Verificare che A e B sono simili per ogni h R e stabilire se esistono valori di h per i quali
siano ortogonalmente simili.
Svolgimento. La matrice A `e triangolare superiore, mentre B `e diagonale, entrambe con gli stessi termini principali, che coincidono con i loro autovalori 1 = 1,
2 = 0, e 3 = 1. Essendo distinti, sono regolari. Quindi A e B, entrambe diagonalizzabili
con stessi autovalori, sono simili, il tutto indipendentemente dalla scelta del valore di h. La
B `e una matrice diagonale e reale. Affinche la A sia ortogonalmente simile a B, devessere
reale simmetrica. Questo avviene se e solo se h = 0.
2.6.27 Sia A M2 (R) tale che (A + I)2 = 2(A + I). Stabilire se A `e diagonalizzabile.
Svolgimento.
ovvero
(A + I)(A I) = O.
(3.2.3)
105
1 1 0
A = 1 0 1 .
0 1 1
Il polinomio caratteristico `e f (t) = A (t) = det(AtI) = (1t)(t2)(t+1) = 0 se e solo
se t = 1, 1, 2. Gli autovalori sono semplici, quindi regolari ed f `e diagonalizzabile. Gli
autovettori associati a t = 1, t = 1 e t = 2 sono le autosoluzioni dei sistemi AX = tX,
con t = 1, 1, 2 e X = [x, y, z]t . Ovvero dei tre sistemi:
x
x
x + y = x
x + z = y
A y = 1 y
z
z
y + z = z,
x
x
x+y =x
x+z =y
A y =1 y
z
z
y + z = z,
x
x
x + y = 2x
x + z = 2y
A y =2 y
z
z
y + z = 2z,
1
a 1 ,
1
1
b 0 ,
1
1
c 2
1
con a, b, c R \ {0}.
x
4x 4z
f y = 5x y 5z
xz
z
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se esiste una base di R3 rispetto alla quale f `e rappresentato dalla matrice
seguente
3 2 15
A= 0 0 6
0 0 1
106
4 0 4
4
0
4
1
5 .
ACC (f ) = 5 1 5 M = 5
1 0 1
1
0
1
Sappiamo che il polinomio caratteristico di f `e () = det M . Quindi
4
0
4
1
5 =
() = det M = det 5
1
0
1
2
= (4 )(1 ) + 4(1 ) = (1 )(2 3) = (1 )( 3).
semplice
0
1 semplice
() = 0 =
Specf = {0, 1, 3}.
3
semplice
2. In corrispondenza dellautovalore = 0 abbiamo
4 0 4
x
0
4x 4z = 0
5 1 5 y = 0
5x y 5z = 0
1 0 1
z
0
xz =0
=0
x=z
y = 0.
E0 = ker f = 0 , x R .
x
In particolare, dimE0 = 1, ed una base di E0 `e data da
1
B1 = 0 .
1
Per = 1 abbiamo
5 0 4
x
0
5x 4z = 0
5 0 5 y = 0
5x 5z = 0
1 0 0
z
0
x=0
= 1
x = z = 0, y.
E1
= y , yR .
0
Per = 3 risulta
1 0 4
x
0
x 4z = 0
15
5 4 5
y = 0
5x 4y 5z = 0 x = 4z, y = z.
=3
4
1 0 4
z
0
x 4z = 0
4z
, zR .
z
E3 = 15
4
z
In particolare, dimE3 = 1, ed una sua base `e data da
16
B3 = 15 .
4
3. Determiniamo innanzitutto gli autovalori della matrice A. Poiche A `e una matrice
triangolare i suoi autovalori sono gli elementi della diagonale principale, e quindi SpecA =
Specf = {0, 1, 3}. Poiche esistono tre autovalori distinti (cio`e di molteplicit`a algebrica
1), sia la matrice A che la matrice ACC (f ) sono diagonalizzabili, e la matrice diagonale
D `e la stessa. Quindi A `e simile ad ACC (f ), e quindi esiste una base rispetto alla quale
lendomorfismo `e rappresentato dalla matrice A. In particolare, dalla transitivit`a della
relazione di similitudine tra matrici, si ricava che, se P `e la matrice di passaggio da ACC (f )
a D, e Q `e la matrice di passaggio da A a D, la base rispetto alla quale f `e rappresentato
1 0 0
A= 0 2 0
0 0 2
1 1 0
B= 0 2 1
0 0 2
107
108
3 0 2
ACC (f ) = 2 1 2
0 0 1
1. Determinare la matrice caratteristica, il polinomio caratteristico e lo spettro di f .
2. Determinare gli autospazi associati ad f , la loro dimensione ed una base per ognuno
di essi.
3. Stabilire se ACC (f ) `e simile alla matrice data da
1 0 0
A = 1 1 0 .
2 1 3
Svolgimento.
1. Determiniamo innanzitutto la matrice caratteristica M = ACC (f ) I3 associata
allendomorfismo f
3
0
2
1 2 .
M = 2
0
0
1
Sappiamo che il polinomio caratteristico di f `e () = det M . Quindi
3
0
2
1 2 = (3 )(1 )2 = 3 + 52 7 + 3.
() = det M = det 2
0
0
1
Lo spettro di f si ottiene determinando le radici del polinomio caratteristico, e quindi
3 semplice
Specf = {1, 1, 3}.
() = 0 =
1 doppio
2. In corrispondenza dellautovalore = 3 abbiamo
0 0 2
x
0
2z = 0
2 2 2 y = 0
2x 2y 2z = 0
0 0 2
z
0
2z = 0
=3
z=0
y = x.
109
E3 = x , x R .
0
In particolare, dimE3 = 1, ed una base di E3 `e data da
1
B1 = 1 .
0
Analogamente, per = 1 abbiamo
=1
2 0 2
x
0
2 0 2 y = 0
0 0 0
z
0
2x 2z = 0
2x 2z = 0
0=0
x = z, y.
E1 = y , x, y R .
x
In particolare, dimE1 = 2, ed una base di E1 `e data da
0
1
B2 = 0 , 1 .
1
0
3. Poiche A `e una matrice triangolare i suoi autovalori sono gli elementi della diagonale
principale, e quindi SpecA = Specf = {1, 1, 3}. Controlliamo la molteplicit`a geometrica
dellautovalore doppio. Abbiamo allora
0 0 0
=1
A 1 I3 = 1 0 0 .
2 1 2
La caratteristica di A 1 I3 `e 2, per cui la molteplicit`a geometrica di = 1 `e 3 2 =
1 < ma (1). Quindi A non `e diagonalizzabile. Invece lendomorfismo f `e diagonalizzabile,
poiche ogni suo autovalore ha molteplicit`a algebrica uguale alla molteplicit`a geometrica.
Di conseguenza le matrici ACC (f ) ed A non sono simili. Infatti, se A fosse simile alla matrice
ACC (f ), allora, per la transitivit`a della relazione di similitudine, anche A dovrebbe essere
diagonalizzabile.
2.6.32 Sia A Mn (R) una matrice avente un unico autovalore t0 . Dimostrare che A `e
diagonalizzabile se e solo se A = t0 In .
Svolgimento.
I Metodo La matrice A `e diagonalizzabile se e solo se esiste una matrice P tale che
P 1 AP = t0 In . Moltiplicando a sinistra per P e a destra per P 1 entrambi i membri
della precedente uguaglianza, abbiamo A = P (t0 In )P 1 = t0 P In P 1 = t0 In .
110
h 0 h
Ah = 1 1 h
0 0 1
h R.
Si stabilisca per quali valori di h fh non `e un automorfismo e per quali i suoi autovalori
sono semplici. Si dica se, per h = 1, `e possibile esprimere R3 come somma diretta di
autospazi. Determinarli in caso affermativo.
Svolgimento. Lapplicazione fh `e un automorfismo se e solo se `e invertibile,
ovvero se `e invertibile la matrice ad esso associata. Siccome det(Ah ) = h = 0 se e solo
se h = 0, per questultimo valore f0 non `e un automorfismo. Gli autovalori di fh sono
le radici del polinomio (t) = det(Ah tI) = (1 t)2 (h t). Queste sono t1,2 = 1 e
t3 = h. Esiste quindi un autovalore doppio indipendentemente dal valore di h. Per h = 1,
lendomorfismo f1 ha un unico autovalore triplo t = 1. Lo spazio R3 si pu`o esprimere come
somma di autospazi se e solo se f1 ha gli autovalori regolari (cio`e `e diagonalizzabile). Una
matrice con un unico autovalore t `e diagonalizzabile se e solo se `e scalare di tipo tI. In
questo caso dovrebbe essere A1 = 1 I3 = I3 , cosa impossibile (cfr. Esercizio 2.6.32).
2.6.34 Siano dati i vettori v1 = [6, 2, 0]t , v2 = [0, 1, 1]t , v3 = [2, 4, 4]t , w1 = [1, 1, 0]t ,
w2 = [0, 2, 2]t , w3 = [1, 1, 0]t di R3 , con h R. Vedere se esiste un endomorfismo f di R3
tale che f (vi ) = wi per i = 1, 2, 3. Stabilire inoltre quali dei vi sono autovettori di f .
Svolgimento. Osserviamo che i vettori v1 , v2 , v3 sono linearmente indipendenti, quindi formano una base di R3 . Dallalgebra lineare sappiamo che esiste un unico
endomorfismo f verificante le condizioni assegnate. Per terminare lesercizio non `e necessario calcolare esplicitamente f . Per definizione di autovettore basta infatti vedere se
f (vi ) = vi per qualche 6= 0. Questa condizione vale solo per i = 2, con = 2. Perci`
o
v2 `e un autovettore, mentre v1 e v3 non lo sono.
111
Poiche ker f non `e altro che lautospazio relativo a 0, ci`o prova che questo non si riduce
al vettore nullo. Esistono quindi autovettori relativi a 0, dunque 0 Spec f = {0}.
2.6.36 Due matrici A e B di ordine 3 hanno autovettori r = [1, 0, 1]t , s = [1, 1, 1]t e
t = [0, 0, 1]t . Verificare che tutte le matrici A, B, AB e BA sono diagonalizzabili.
Svolgimento. Condizione necessaria e sufficiente per la diagonalizzabilit`a di una
matrice dordine n `e avere n autovettori indipendenti. In questo caso dobbiamo verificare
che il determinante della matrice P , le cui colonne sono gli autovettori, non sia nullo.
Infatti
1 1 0
det(P ) = 0 1 0 = 1 6= 0.
1 1 1
Quindi sia A che B sono diagonalizzabili. Con lo stesso ragionamento dellEsercizio 2.6.23,
si dimostra che r, s e t sono autovettori, corrispondenti ai medesimi autovalori, pure per
AB e BA. Quindi anche queste matrici sono diagonalizzabili.
det( det(A)I A) = 0.
2.6.38 Verificare che ogni matrice quadrata di ordine 2 tale che A2 + I = O `e diagonalizzabile nel campo complesso.
Svolgimento.
Dallipotesi A2 + I = O , abbiamo
(A + i I)(A i I) = O.
(3.2.4)
Quindi, per il Teorema di Binet, det((A + i I)) det((Ai I)) = 0. Consideriamo tre casi.
(i) Se det(A + i I) = 0 e det(A i I) 6= 0, allora la matrice A i I `e invertibile.
Moltiplicando a destra per la sua inversa entrambi i membri della (3.2.4), abbiamo
A + i I = O, quindi A = i I `e scalare (quindi diagonalizzabile).
(ii) Se det(A+iI) 6= 0 e det(AiI) = 0, la matrice A+iI `e invertibile. Moltiplicando
a sinistra per la sua inversa entrambi i membri della (3.2.4), abbiamo A i I = O,
quindi A = i I, matrice scalare, `e diagonalizzabile.
(iii) Se det((A + i I)) = det((A i I)) = 0, i numeri 1 = i e 2 = i sono autovalori di
A, perch`e radici del polinomio caratteristico, sono regolari, perche semplici, quindi
A `e diagonalizzabile.
1 0
A= 0 2
0 3
0
1 3 0
3 ,
B= 0 5 0
2
0 0 h
112
2.6.40 Determinare tutte le matrici che ammettono x1 = [1, 1]t e x2 = [1, 1]t come
autovettori.
Svolgimento.
Sia
A=
a b
c d
1 1
P =
.
1 1
Detti 1 e 2 gli autovalori rispettivi di x1 e x2 , si ha
A = P 1 DP,
con D = diag(1 , 2 ), ovvero P A = DP :
a+c b+d
1 1
=
.
ac bd
2 2
(3.2.5)
a + c = 1
b + d = 1
a c = 2
b d = 2
a + d = 1 + 2 ,
da cui a = d e b = c. Quindi
A=
a b
b a
Il fatto che A sia simmetrica `e in accordo col risultato dellEsercizio 2.6.19, dato che
U = 12 P `e ortogonale.
1 0 1
1 1 1
B = 0 1 1 .
A= 0 1 2
0 0 3
0 0 3
1 2
1 0
A=
,
B=
0 1
1 1
e calcolare una matrice di passaggio.
Svolgimento. Sono entrambe triangolari, con gli stessi autovalori doppi, coincidenti coi termini principali. Verifichiamo la regolarit`a degli autovalori. Per A, siccome
rk(A I) = 1 6= 0, = 1 non `e regolare. Quindi A non `e diagonalizzabile. Lo stesso
discorso vale per B. Per stabilire se A e B sono simili, costruiamo direttamente la matrice
di passaggio
a b
P =
,
c d
tale che P A = BP . Questultima uguaglianza determina il sistema
a=a
2a + b = b
c=a+c
2c + d = b + d,
da cui a = 0, b = 2c, c = c e d = d. La matrice `e quindi:
a 2c
P =
.
c d
La similitudine si ha se P `e invertibile, ovvero se e solo se det(P ) = 2c2 6= 0, cio`e c 6= 0.
113
Indice analitico
Equazione Dimensionale, 17, 76
Teorema Spettrale, 47
Teorema dimensionale, 16
Teorema fondamentale delle applicazioni lineari, 11
applicazione lineare biunivoca, 6
applicazione lineare iniettiva, 6
applicazione lineare suriettiva, 6
applicazione lineare, 5
automorfismi, 6
automorfismo, 75
autospazio, 34, 38
autovalore regolare, 41
autovalore, 34
autovettore, 34
base ortonormale, 55
cambi di base, 22
campo base, 5
codominio, 5
dominio, 5
endomorfismi, 6
endomorfismo diagonalizzabile, 31
endomorfismo semplice, 31
endomorfismo simmetrico, 47
equazione caratteristica, 31
forma lineare, 6
immagine, 7
isomorfismi, 6
isomorfismo canonico, 13
matrice caratteristica, 31
matrice del cambio di base, 22
matrice di passaggio, 29
matrice di proiezione, 63
matrice diagonalizzabile, 31
matrice ortogonale, 49, 54
matrice pseudoinversa di Moore-Penrose, 62
matrici di proiezione, 62
matrici ortogonali speciali, 51, 54
molteplicit`
a algebrica, 40
molteplicit`
a geometrica, 40
norma, 47, 53
nucleo, 7
omomorfismo, 5
ortonormalizzazione di Gram-Schmidt, 55
polinomio caratteristico di una applicazione
lineare, 32
polinomio caratteristico, 31
prodotto scalare, 47
proiezione canonica, 18
similitudine, 29
singolare, 9
sistema ortonormale, 53
sottospazi ortogonali, 54
spettro, 31
trasformazioni ortogonali, 54
versore, 53
versori, 49
vettori normali, 53
vettori ortogonali, 47, 53