Vous êtes sur la page 1sur 66

` DELLA CALABRIA

UNIVERSITA

ALGEBRA LINEARE E GEOMETRIA


Corso di Laurea in Ingegneria Elettronica

Dott. Gentile Tommaso

A.A. 2013/2014

. . . e com cinco ou seis retas


e f
acil fazer um castelo
(Vinicius de Moraes)

Indice

1.

2.

3.

Sistemi di equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.1.

Definizioni e notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2.

Il metodo di Gauss-Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1.

Vettori geometrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.

Spazi vettoriali, definizioni e propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.

Definizioni e algebra delle matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.2.

Rango e determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

4.

Prodotto scalare Euclideo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5.

Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

6.

7.

5.1.

Definizione e principali propriet`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

5.2.

Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

Diagonalizzazione di matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.1.

Problema di diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

6.2.

Caso delle matrici simmetriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Spazi affini e spazi Euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43


7.1.

Geometria nel piano affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

7.2.

Geometria nello spazio affine di dimensione 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

1. Sistemi di equazioni lineari

1.1. Definizioni e notazioni.

In questa prima parte studieremo sistemi di equazioni lineari. Sebbene abbiate gi`a familiarit`a con alcuni
argomenti di questa sezione, prestate particolare attenzione ai metodi ed alle strumentazioni adottate.
Questo stimoler`
a lintuito ed aiuter`
a la comprensione degli argomenti pi`
u astratti che seguiranno.
Fissiamo anzitutto alcune notazioni e convenzioni utilizzate nel resto della sezione. Linsieme numerico
su cui lavoriamo `e linsieme dei numeri reali R. Le prime lettere dellalfabeto in minuscolo (a, b, c etc.)
denoteranno costanti mentre le ultime lettere dellalfabeto (x, y, z etc.) saranno usate per rappresentare le
variabili. Quando il numero di incognite `e arbitrariamente grande useremo ununica lettera per designare
tutti i coefficienti ed ununica lettera per tutte le incognite che distingueremo tra loro attraverso luso
di indici. Rappresenteremo inoltre le matrici con le lettere maiuscole, mentre i vettori saranno denotati
con lettere minuscole in grassetto.
Definizione 1.1. Una equazione lineare nelle n variabili x1 , x2 , . . . , xn `e unequazione del tipo
(1)

a1 x1 + a2 x2 + + an xn = b,

dove i coefficienti a1 , a2 , . . . , an ed il termine noto b sono numeri reali. Una soluzione dellequazione
lineare (1) `e una sequenza di n numeri reali (s1 , s2 , . . . , sn ) tali che, sostituiti al posto delle rispettive variabili nellequazione (1) rendono verificata luguaglianza. Risolvere unequazione equivale a determinarne
linsieme di tutte le soluzioni.
Nelle equazioni lineari pertanto non compaiono radici o potenze, ne tantomeno funzioni trigonometriche,
esponenziali o logaritmiche, ne tantomeno prodotti tra variabili e potenze.
Esempio 1.2. Le seguenti equazioni sono lineari:

2x y = 6;
3x1 x2 + 23 x4 = 1.
Le seguenti equazioni non sono lineari:
xz 4y = 3;

cos x1 3x2 + x3 2 log x4 = 0.


4

Per descrivere linsieme delle soluzioni di un sistema lineare usualmente utilizziamo una rappresentazione
parametrica, come illustrato nellesempio seguente.
Esempio 1.3. Risolviamo lequazione: x1 + 2x2 = 4.
Per trovare linsieme delle soluzioni la risolviamo in una delle variabili rispetto allaltra variabile. Risolvendola per x1 in termini della x2 otteniamo x1 = 4 2x2 . Ora la variabile x2 `e libera, ovvero
pu`
o assumere un qualsiasi valore reale. La variabile x1 non `e libera in quanto il suo valore dipende dal
valore assegnato ad x2 . Per rappresentare le infinite soluzioni dellequazione `e conveniente introdurre
una nuova variabile, che denoteremo con la lettera t per esempio, detta parametro. Ponendo x2 = t
possiamo rappresentare le soluzioni nella seguente forma:
(
x1 = 4 2t
dove t R.
x2 = t

Per ottenere una soluzione particolare assegniamo un valore al parametro t. Se per esempio t = 1 una
soluzione particolare sar`
a data da x1 = 6 e x2 = 1.
4
Definizione 1.4. Un sistema di m equazioni lineari nelle n variabili x1 , x2 , . . . , xn (in breve un sistema
lineare) `e un insieme di m equazioni, ciascuna delle quali `e lineare nelle stesse n variabili.

a11 x1 + a12 x2 + + a1n xn = b1

a x + a x + + a x = b
21 1
22 2
2n n
2

am1 x1 + am2 x2 + + amn xn = bm

(2)

dove i coefficienti aij ed i termini noti bi sono numeri reali. Una soluzione del sistema lineare (2) `e una
sequenza di n numeri reali s1 , s2 , . . . , sn tali che, sostituiti al posto delle rispettive variabili in ciascuna
delle equazioni le uguaglianze sono verificate. Risolvere un sistema di equazioni equivale a determinarne
linsieme di tutte le soluzioni.
Consideriamo adesso il ben noto problema di geometria analitica sul piano riguardo lintersezione di due
rette.
Esempio 1.5. Disegniamo le seguenti coppie di rette:
(1) 2x y = 0;
(2) 2x + 3y = 0;
(3) x y = 0;

3x + 2y = 2;
4x + 6y = 0;
x + y = 1.
(3)

(2)

(1)

2 y

y
1
2

1
x

x
1

x
1

1
1

Come pu`
o essere linsieme delle soluzioni di un sistema lineare di due equazioni in due incognite? Il
sistema che fornisce lintersezione delle prime due rette ha una sola soluzione, il secondo sistema ha
infinite soluzioni mentre il terzo non ha soluzioni.
4
Lesempio precedente illustra i tre possibili casi che possono presentarsi quando risolviamo un sistema di
equazioni lineari.
Definizione 1.6. Un sistema lineare `e detto compatibile se ammette soluzioni mentre `e incompatibile
o impossibile se non ammette soluzioni. Un sistema lineare compatibile `e determinato se ammette
una sola soluzione ed `e detto indeterminato se ammette infinite soluzioni.

1.2. Il metodo di Gauss-Jordan.

Consideriamo i
(3)

2x1
3x1 +

x1

seguenti sistemi lineari.


x2
2x2
5x2

+ 4x3
+ x3
3x3

x4
3x4
2x4

= 7
= 1
= 3

2x1

3x2
8x2

+ 2x3
+ x3

x4
2x4
3x4

= 2
= 1
= 1

Quale sistema `e pi`


u facile da risolvere algebricamente?
Il sistema a destra `e chiaramente il pi
u facile. Questo sistema ha una forma particolare detta a scala.
Per risolverlo si adotta la procedura nota con il termine risoluzione allindietro illustrata qui di seguito.
Esempio 1.7. Usiamo la risoluzione allindietro per risolvere il seguente sistema:
(
2x 3y = 2
5y = 1
Dallultima equazione otteniamo y = 51 . Sostituendo questo valore nella prima equazione si ottiene:


1
13
2x 3
= 2, da cui x = .
5
10
Il sistema `e quindi compatibile e determinato, con soluzione:

13

x = 10
.

1
y = 5
Usiamo la risoluzione allindietro per risolvere il seguente sistema:

x1 + x2 + x3 3x4 + x5
x3 + x4 + 2x5

2x4 4x5

=
=
=

Risolviamo lultima equazione rispetto alla variabile x4 , ottenendo x4


espressione nelle precedenti due equazioni. Scriviamo pertanto il sistema

x1 + x2 + x3 3(2x5 + 1) + x5
x3 + (2x5 + 1) + 2x5

x4
= 2x5

2
1
2
= 2x5 + 1. Sostituiamo tale
nella seguente forma:
=
=
+

2
1
1

Portiamo quindi il monomio la cui parte letterale `e x5 unitamente alla costante a secondo membro sia
nella prima che nella seconda equazione. Il sistema diventa:

= 5x5 + 1
x1 + x2 + x3
x3
= 4x5 2

x4 = 2x5 + 1
Dalla seconda equazione risulta x3 = 4x5 +2. Sostituiamo questa espressione ad x3 nella prima equazione.
Il sistema diventa:

= 5x5 + 1
x1 + x2 + (4x5 + 2)
x3
= 4x5 + 2

x4 = 2x5 + 1
Portiamo ancora lespressione in x5 con le costanti a secondo membro ottenendo:

= x5 1
x1 + x2
+ x3
= 4x5 + 2

x4 = 2x5 + 1

Portiamo x2 a secondo membro nella prima equazione.

= x2 + x5 1
x1
x3
=
4x5 + 2

x4 =
2x5 + 1
Poniamo quindi x2 e x5 uguali ad altrettanti parametri s e t.
Otteniamo pertanto le soluzioni del sistema lineare espresse in forma parametrica:

x1 = s + t 1

x
2= s
dove s, t R.
x3 =
4t +2

x4 =
2t +1

x =
t
5
Il sistema `e quindi compatibile e indeterminato.
4
Due sistemi lineari sono detti equivalenti se hanno il medesimo insieme di soluzioni. In genere, quando
dobbiamo risolvere un sistema cerchiamo di trasformarlo in un altro equivalente, ma di forma pi`
u semplice.
Ma quali operazioni elementari trasformano un sistema in un altro equivalente?
Per quanto concerne le equazioni lineari valgono i Principi di equivalenza per le equazioni lineari, elencati
qui di seguito.
Primo principio di equivalenza - Data unequazione, aggiungendo ad entrambi i membri uno stesso
numero od una stessa espressione lineare contenente una o pi`
u incognite si ottiene unequazione equivalente.
Secondo principio di equivalenza - Data unequazione, moltiplicando ambo i membri per un numero
diverso da zero si ottiene unequazione equivalente.
Per risolvere unequazione lineare applichiamo opportunatamente tali operazioni in sequenza fino ad
ottenere la soluzione dellequazione data. Essi costituiscono quindi i passi base di un procedimento
algoritmico.
Consideriamo ora il caso di un sistema di equazioni lineari. Anche in virt`
u dellesempio precedente per
risolvere un sistema lineare lo trasformiamo in un altro ad esso equivalente in forma a scala utilizzando
le operazioni qui elencate:
(OE1) - trasporre due equazioni;
(OE2) - moltiplicare unequazione per una costante diversa da zero;
(OE3) - sommare ad unequazione un multiplo di unaltra equazione.
Il procedimento `e noto come metodo di eliminazione di Gauss, in onore del grande matematico
tedesco Carl Friedrich Gauss (1777-1855).
Valgono i seguenti teoremi di cui omettiamo la dimostrazione.
Teorema 1.8. Applicando una operazione del tipo (OE1), (OE2) o (OE3) ad un sistema di equazioni
lineari si ottiene un sistema equivalente a quello dato.
Teorema 1.9. Ogni sistema di equazioni lineari `e equivalente ad un sistema in forma a scala.
Illustriamo ora il metodo di eliminazione di Gauss attraverso un esempio.

Esempio 1.10. Risolviamo il seguente sistema:

x1 3x2
2x1 x2

x1 + 2x2

+ x3
2x3
3x3

= 1
= 2
= 1

Sommiamo alla seconda equazione lequazione ottenuta moltiplicando ambo i membri della prima equazione
per 2, ottenendo:

x1 3x2 + x3 = 1
5x2 4x3 = 0

x1 + 2x2 3x3 = 1
Aggiungendo la prima equazione moltiplicata per 1 alla terza equazione otteniamo una nuova terza
equazione. Il sistema diventa:

x1 3x2 + x3 = 1
5x2 4x3 = 0

5x2 4x3 = 2
Sottraiamo ora alla terza equazione la seconda equazione.

x1 3x2 + x3
5x2 4x3

= 1
= 0
= 2

Lultima equazione `e chiaramente impossible. Il sistema `e quindi incompatibile.


4
Per risolvere un sistema lineare mediante il procedimento di Gauss `e conveniente focalizzare la nostra
attenzione sui coefficienti e sui termini noti. Dato un sistema lineare nella forma (2), introduciamo le
tabelle di numeri

a11 a12 a1n

a21 a22 a2n


(4)
A :=
..
..
..
..

.
.
.
.
am1 am2 amn
e

b1

b2

(5)
b := .
.
..
bm
Una tabella del tipo (4) `e detta matrice di tipo m n dove m e n indicano rispettivamente il numero
di righe ed il numero di colonne in essa contenute. I numeri aij sono detti elementi o entrate della
matrice. Gli elementi ai1 , ai2 , . . . , ain costituiscono la i-esima riga della matrice A, mentre gli elementi
a1j , a2j , . . . , amj costituiscono la j-esima colonna della matrice A. Ad esempio la tabella (5) `e una
matrice di tipo m 1. Una tale matrice verr`a chiamata vettore colonna. La matrice A `e detta matrice
dei coefficienti, mentre b `e il vettore termine noto. Introduciamo inoltre la matrice completa (o
matrice orlata) associata al sistema lineare (2):

(6)

A :=

a11
a21
..
.
am1

a12
a22
..
.
am2

..
.

a1n
a2n
..
.
amn

b1
b2
..
.
bm

Esempio 1.11. Consideriamo

2x1 x2 + 4x3
3x1 + 2x2 + x3

x1 5x2 3x3

i sistemi lineari (3).

Scriviamo le due matrici complete

2 1

2
3
1 5

x4
3x4
2x4

2x1

= 7
= 1
= 3

3x2
8x2

+ 2x3
+ x3

x4
2x4
3x4

= 2
= 1
= 1

loro associate:
4
1
3

1
3
2

1
3

0
0

3
8
0

2 1 2

1 2 1
0 3
1
4

Notiamo che la seconda matrice ha una particolare configurazione, detta anchessa a scala. Formalizziamo
meglio tale nozione.
Definizione 1.12. Una matrice `e detta in forma a scala se soddisfa le seguenti propriet`
a:
(1) ogni riga i cui elementi sono tutti nulli si trova nella parte pi`
u bassa della matrice;
(2) per due successive righe i cui elementi non sono tutti nulli allora il primo termine non nullo
nella riga posta pi`
u in alto `e strettamente pi
a sinistra rispetto a quello della successiva riga.
I primi elementi non nulli di ciascuna riga (le cui entrate non siano tutte uguali a zero) vengono chiamati
pivots (o coefficienti leader). Notiamo che tutti gli elementi sottostanti un pivot sono uguali a zero.
Notiamo che un sistema lineare `e in forma a scala se e soltanto se la matrice completa associata al sistema
`e ancora a scala.
Nella risoluzione di un sistema di equazioni lineari spesso considereremo le matrici ad esso associate.
Quanto definito per i sistemi lineari ha un corrispettivo nel linguaggio delle matrici. In particolare il
metodo di eliminazione di Gauss permette di ridurre una matrice AC associata ad un sistema lineare ad
una matrice in forma a scala. Le operazioni elementari (OE1), (OE2) e (OE3) diventano:
(OE10 ) - trasporre due righe;
(OE20 ) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;
(OE30 ) - sommare ad una riga un multiplo di unaltra riga (termine a termine).
Dunque per risolvere un sistema lineare noi procederemo come segue:
(1) scriviamo la matrice orlata AC associata al sistema;
(2) usiamo il metodo di eliminazione di Gauss per ridurre AC in una forma ridotta a scala;
(3) scriviamo il sistema corrispondente e lo risolviamo mediante la risoluzione allindietro.
Esempio 1.13. Risolviamo il seguente sistema lineare:

x2 + x3

x
+ 2x2 x3
1

2x1 + 4x2 + x3

x1 4x2 7x3 +

3x4
12x4

La matrice completa associata al sistema `e

0 1
1 2

2 4
1 4

3
2
2
20

1
1
1
7

2
0
3
12

2x4

= 3
= 2
= 2
= 20

Trasponiamo ora le prime due righe:

1
0
2
1

2
1
4
4

1
1
1
7

0
2
3
12

2
3
2
20

Ora sommiamo alla terza riga la prima riga moltiplicata per 2. Si ottiene:

1 2 1 0
2
0 1
1 2 3

0 0
3 3 6
1 4 7 12 20
Sottraiamo la prima riga alla quarta:

1
0
0
0

2
1
0
6

1
1
3
6

0
2
3
12

2
3
6
18

Abbiamo il nostro primo pivot. Ora sommiamo alla quarta riga la seconda moltiplicata per 6. Otteniamo:

1 2 1 0
2
0 1 1 2 3

0 0 3 3 6
0

Abbiamo praticamente finito. La nostra matrice orlata `e ridotta in una forma a scala. Moltiplichiamo
comunque la terza riga per lo scalare 31 . Si ottiene cos`:

1 2 1 0
2
0 1 1 2 3

0 0 1 1 2
0 0 0
0
0
Il sistema corrispondente `e il seguente:

x1 +

2x2
x2

x3
+ x3
x3

2x4
x4

= 2
= 3
= 2

dove omettiamo lidentit`


a 0 = 0. Usando la risoluzione allindietro troviamo

=
2
x1 + 2x2 (x4 2)
x2 + (x4 2) 2x4 =
3

x3
= x4 2

=
x4
x1 + 2x2
x2
= x4 1

x3 = x4 2
Infine:

x1

2(x4 1)
x2

x3

=
x4
= x4 1
= x4 2

=
=
=

x4 + 2
x4 1
x4 2

Segue

x1

+
x2
x3

Ponendo x4 = t si ottengono le soluzioni:

x1

x
2

x
3

x4

= t + 2
= t1
= t2
=
t

dove t R.

4
Dopo aver ridotto la matrice a scala, `e possibile usare una versione dellalgoritmo di Gauss in senso
inverso, cio`e dal basso verso lalto, per ottenere una matrice che in ogni colonna contenente un pivot
abbia solo il pivot come numero non nullo: basta usare ogni riga, partendo dallultima, per eliminare tutte
le cifre diverse da zero che stanno sopra al pivot di questa riga usando in genere regole di tipo (OE20 ) e
(OE30 ). Infine, sempre tramite operazioni elementari (moltiplicando righe), possiamo ottenere che ogni
pivot abbia valore 1. La matrice risultante `e detta in forma a scala ridotta. Lalgoritmo completo di
ambo le parti `e detto metodo di Gauss-Jordan.
Esempio 1.14. Ad esempio, consideriamo

1
0

0
0

la matrice a scala dellesempio precedente:

2 1 0
2
1 1 2 3

0 1 1 2
0

Anziche scrivere ora il sistema lineare associato proseguiamo finche la matrice completa non si presenta
in forma a scala ridotta. Applichiamo pertanto operazioni elementare in modo che gli elementi sopra
alcun pivot siano nulli. Sottraendo la terza riga alla seconda si ottiene:

1 2 1 0
2
0 1 0 1 1

0 0 1 1 2
0

Sommando ora la terza riga alla prima otteniamo:

1 2 0
0 1 0

0 0 1
0 0 0

1
1
1
0

0
1
2
0

Sommiamo quindi alla prima riga la seconda

1
0

0
0
Il sistema associato a questultima matrice `e:

x1
x2

moltiplicata per 2:

0 0 1
2
1 0 1 1

0 1 1 2
0

x3

x4
x4
x4

= 2
= 1
= 2

con soluzioni date da:

x1 = t + 2

x = t1
2
x3 = t 2

x4 =
t

dove t R.

4
Ora analizziamo un caso molto particolare di sistema lineare, il sistema lineare omogeneo.
Definizione 1.15. Un sistema di equazioni lineari `e detto omogeneo se i termini noti sono tutti uguali
a zero.
Consideriamo un sistema lineare omogeneo:

a11 x1 + a12 x2 + + a1n xn = 0

a x + a x + + a x = 0
21 1
22 2
2n n
(7)

am1 x1 + am2 x2 + + amn xn = 0


Si verifica facilmente che al termine dellalgoritmo di Gauss-Jordan le incognite si separano in due gruppi:
(1) xi1 , xi2 , . . . , xir variabili associate alle colonne dove ci sono i pivots (variabili pivotali );
(2) xj1 , xj2 , . . . , xjnr variabili associate alle colonne dove non ci sono i pivots (variabili libere).
Il sistema associato alla matrice a

xi1

x
i2

xir

scala ridotta `e del tipo


= ci1 ,1 xj1 + ci1 ,2 xj2 + + ci1 ,nr xjnr
= ci2 ,1 xj1 + ci1 ,2 xj2 + + ci1 ,nr xjnr

= ci1 ,1 xj1 + ci1 ,2 xj2 + + ci1 ,nr xjnr

dove i ci,j sono numeri reali. Ponendo le variabili xj1 , xj2 , . . . , xjnr pari ad altrettante variabili libere
(dette altres` parametri) scriviamo le variabili pivotali in funzione delle variabili libere.
Poiche un sistema lineare omogeneo ha sempre la soluzione in cui ciascuna variabile `e uguale a zero si
ha che ogni sistema lineare omogeneo `e compatibile. Come conseguenza del metodo di Gauss-Jordan
abbiamo il seguente teorema di Steinitz.
Teorema 1.16. (di Steinitz) - Un sistema di equazioni lineari omogeneo dove il numero di incognite
`e pi`
u alto del numero di equazioni ha sempre una soluzione non banale, ovvero quella in cui tutte le
variabili sono nulle.
Proof. Osserviamo che la matrice a scala ridotta che risulta applicando Gauss-Jordan ha sempre colonne
non pivotali poiche ci sono pi`
u incognite che equazioni. Poste le variabili libere uguali ad altrettanti
valori non tutti uguali a zero si ottiene una soluzione non banale del sistema.


10

2. Spazi vettoriali

2.1. Vettori geometrici.

I vettori furono introdotti nel XVI secolo per rispondere allesigenza di caratterizzare alcune grandezze
fisiche quali velocit`
a, accelerazione, forza, per le quali non era sufficiente una quantit`a scalare.
In un corso di matematica o fisica elementare un vettore `e definito come un segmento orientato. Un
segmento orientato (o vettore applicato) dello spazio ordinario `e individuato da un punto iniziale A e da

un punto finale B. Denotiamo tale segmento orientato con AB. Il punto iniziale A `e detto anche punto
di applicazione del segmento orientato dato. Esso viene rappresentato con una freccia che congiunge i
punti A e B come in figura.
B

Un segmento orientato `e quindi individuato da un punto di applicazione, una direzione ovvero la retta
su cui il vettore applicato giace, un verso ovvero il verso di percorrenza di tale retta da A a B e da un
modulo (detto altres` norma) ovvero la lunghezza del segmento AB misurato mediante una prefissata
unit`
a di misura. Se B A il vettore applicato corrispondente avr`a modulo nullo, verso e direzione
indeterminati.

Due vettori applicati AB e CD sono detti equipollenti se giacciono su rette parallele e se, muovendo una
delle due rette parallelamente a se stessa, `e possibile sovrapporre i due segmenti in modo che coincidano


sia i punti iniziali che i punti finali. Se AB e CD sono equipollenti scriveremo AB CD.
B
D
A
C

Dato un vettore applicato AB tale che A 6 B ed un punto A0 esiste uno ed un solo punto B 0 tale che
00
AB A B .
Lequipollenza `e una relazione di equivalenza, cio`e soddisfa alle propriet`a riflessiva, simmetrica e transitiva. In virt`
u di questo noi considereremo uguali vettori tra loro equipollenti. Useremo il termine
vettore geometrico o brevemente vettore una classe di equipollenza di vettori applicati, ovvero tutti i
vettori equipollenti ad un dato vettore applicato. Il vettore nullo 0 `e la classe dei vettori equipollenti

al vettore AA. Le nozioni di modulo, direzione e verso si estendono facilmente ai vettori geometrici. Il
vettore nullo ha quindi modulo nullo, verso e direzione indeterminati.
I vettori verranno denotati con lettere minuscole in grassetto (u, v, w etc.).
Definiamo ora due operazioni sullinsieme dei vettori, la somma e la moltiplicazione per uno scalare.
La somma `e una operazione che associa ad una coppia di vettori, un terzo vettore. Per sommare due
vettori si possono usare la regola del parallelogramma o la regola della spezzata.

11

B
D
A
C

La figura qui in alto illustra la regola del parallelogramma. Dati due vettori u e v li consideriamo
applicati in un medesimo punto dello spazio ordinario A. Siano pertanto B e C due ulteriori punti tali

che u = AB e v = AC. Il vettore somma u + v `e il vettore AD dove D `e il quarto vertice che forma con
A, B e C un parallelogramma, da cui il nome.
B
C
A

La precedente figura riguarda invece la regola della spezzata. Dati due vettori u e v siano B e C due

ulteriori punti tali che u = AB e v = BC. Il vettore somma u + v `e il vettore AC. Il termine spezzata
segue dal fatto che i segmenti AB e BC costituiscono una spezzata.
Si osserva facilmente che per ogni terna di vettori u, v e w valgono le seguenti:

u+v =v+u
u + (v + w) = (u + v) + w

(propriet`a commutativa);
(propriet`a associativa).

Dalla seconda di queste propriet`


a segue che possiamo estendere la somma ad un numero finito arbitario
di vettori e che possiamo omettere le parentesi quando sommiamo tre o pi`
u vettori.
Sia ora 0 il vettore nullo e sia v un vettore arbitrario. Denoteremo con v il vettore avente lo stesso
modulo di v, la stessa direzione di v, ma verso opposto. Sono verificate le identit`a:

v+0=v
v + (v) = 0

(0 elemento neutro della somma);


(esistenza dellinverso additivo, detto altres` opposto).

Definiamo ora il prodotto di un vettore v per un numero reale k. Il risultato di questa operazione `e il
vettore kv che ha la stessa direzione di v, modulo pari a modulo di v moltiplicato |k| e verso concorde
o discorde con v a seconda che k sia positivo o negativo.
Loperazione di moltiplicazione di un vettore geometrico per uno scalare `e compatibile con loperazione
di somma di vettori e con le operazioni di addizione e moltiplicazione in R. Se k, h sono arbitrari scalari
e se u e v sono arbitrari vettori geometrici valgono le seguenti identit`a:

(1)v = v
(kh)v = k(hv)
k(u + v) = ku + kv
(k + h)v = kv + hv

(propriet`a distributiva rispetto alla somma di vettori);


(propriet`a distributiva rispetto alla somma di scalari).

2.2. Spazi vettoriali, definizioni e propriet`


a.

Le propriet`
a che i vettori geometrici soddisfano costituiranno gli assiomi nella definizione di un spazio
vettoriale.

12

Definizione 2.1. Uno spazio vettoriale reale `e un insieme V non vuoto (i cui elementi saranno
chiamati vettori e saranno denotati con lettere minuscole in grassetto) tale che:
(1) per ogni coppia di vettori v1 , v2 V esiste un terzo vettore in V , detto somma dei vettori v1 e
v2 e denotato v1 + v2 ;
(2) per ogni vettore v V ed ogni scalare k R, esiste un nuovo vettore in V , detto prodotto del
vettore v per lo scalare k e denotato kv.
Queste operazioni devono soddisfare le seguenti propriet`
a:
(SV1) Propriet`
a commutativa della somma: per ogni coppia di vettori v1 , v2 V , v1 + v2 = v2 + v1 ;
(SV2) Propriet`
a associativa della somma: per ogni terna di vettori v1 , v2 , v3 V , (v1 + v2 ) + v3 =
v1 + (v2 + v3 );
(SV3) Esistenza dellelemento neutro per la somma: esiste un vettore 0 V tale che per ogni altro
vettore v V , v + 0 = 0 + v = v (il vettore 0 `e detto vettore nullo);
(SV4) Esistenza dellopposto: per ogni vettore v V , esiste un vettore v V tale che v + (v) = 0;
(SV5) Propriet`
a distributiva della moltiplicazione per uno scalare rispetto alla somma di vettori: per
ogni scalare k R ed ogni coppia di vettori v1 , v2 V , k(v1 + v2 ) = kv1 + kv2 ;
(SV6) Propriet`
a distributiva della moltiplicazione per uno scalare rispetto alla somma di scalari: per
ogni coppia di scalari k, h R ed ogni vettore v V , (k + h)v = kv + hv;
(SV7) per ogni coppia di scalari k, h R ed ogni vettore v V , (kh)v = k(hv);
(SV8) per ogni vettore v V , 1v = v.
Dalla propriet`
a associativa segue che sommando tre o pi`
u vettori di uno spazio vettoriale possiamo
omettere le parentesi. Le seguenti ulteriori propriet`a per uno spazio vettoriale possono essere ottenute
dalle propriet`
a (SV1), . . . , (SV8).
Proposizione 2.2. Sia V uno spazio vettoriale reale. Le seguenti valgono.
(i)
(ii)
(iii)
(iv)
(v)

Se k R, allora k0 = 0.
Sia k R \ {0}. Se kv = 0 allora v = 0.
Siano v, w V . Se v + w = 0 allora w = v.
Se v V allora (1)v = v.
Se v V allora 0v = 0.

Esempio 2.3. Le propriet`


a che abbiamo verificato allinizio della lezione implicano che linsieme dei
vettori geometrici del piano e dello spazio ordinario costituiscono altrettanti spazi vettoriali reali.
4
Esempio 2.4. Sia n 1 e sia V = Rn linsieme delle n-uple ordinate di numeri reali. Definiamo la
somma di due n-uple (x1 , . . . , xn ), (y1 , . . . , yn ) V come
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
e per ogni k R, definiamo
k(x1 , . . . , xn ) = (kx1 , . . . , kxn ).
` immediato verificare
Se v = (x1 , . . . , xn ) V chiamiamo x1 , . . . , xn componenti o coordinate di v. E
che con queste operazioni Rn soddisfa agli assiomi (SV1), . . . , (SV8). Notiamo che quando n = 1 le
usuali operazioni di addizione e sottrazione definiscono una struttura di spazio vettoriale su se stesso.
4

13

Esempio 2.5. Sia V = R[x] linsieme dei polinomi a coefficienti in R nella variabile x. Le usuali
operazioni di somma di polinomi e moltiplicazione per uno scalare definiscono una struttura di spazio
vettoriale reale su R[x].
4
Esempio 2.6. Sia V linsieme delle funzioni a valori reali definite su un intervallo [a, b] R. Definiamo
in V la somma e moltiplicazione per uno scalare nel modo usuale. Si verifica facilmente che V `e uno
spazio vettoriale reale.
4
Definizione 2.7. Un sottoinsieme W di uno spazio vettoriale V `e detto sottospazio vettoriale di V
se esso soddisfa le due condizioni.
(SSV1) Per ogni coppia di vettori v1 , v2 W , v1 + v2 W .
(SSV2) Per ogni vettore v W ed ogni scalare k R, kv W .
Esempio 2.8. Consideriamo un sistema lineare omogeneo in n incognite. Ricordiamo che una soluzione
di tale sistema `e una n-upla di numeri reali soddisfacente tutte le equazioni del sistema. Essa `e pertanto
un vettore di Rn . Inoltre si vede facilmente che la somma di due soluzioni del sistema ed il prodotto
di una soluzione per uno scalare (somma e moltiplicazione per uno scalare definite come nellesempio
2.4) costituiscono altrettante soluzioni. Segue quindi che lo spazio delle soluzioni di un sistema lineare
omogeneo in n incognite `e un sottospazio vettoriale di Rn .
4
Esempio 2.9. Nello spazio dei polinomi V = R[x], linsieme dei polinomi aventi grado al pi`
u n (per
ogni n fissato) `e un sottospazio vettoriale di V .
4
Esempio 2.10. Sia V lo spazio vettoriale definito come nellesempio 2.6 e sia W V linsieme delle
funzioni a valori reali definite e continue su un intervallo [a, b] R. Allora W `e un sottospazio vettoriale.
4
` ovvio dalla definizione precedente che se W V `e un sottospazio vettoriale di V , allora W `e esso
E
stesso uno spazio vettoriale. La seguente proposizione `e di verifica immediata.
Proposizione 2.11. Ogni spazio vettoriale V contiene due sottospazi vettoriali, V e linsieme contenente
il solo vettore nullo 0. Questultimo `e detto sottospazio nullo ed `e denotato con (0) o semplicemente con
{0}.
Definiamo ora la seguente importante operazione sui sottospazi, la somma.
Definizione 2.12. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V . Definiamo
il sottospazio somma di W1 e W2 come:
W1 + W2 := {v V |w1 W1 , w2 W2 tale che v = w1 + w2 }.
Se W1 W2 = {0} allora scriveremo W1 W2 al posto di W1 + W2 e chiameremo tale sottospazio somma
diretta di W1 e W2 .
Vale la seguente proposizione.
Proposizione 2.13. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V . Allora
W1 W2 e W1 + W2 sono altrettanti spazi vettoriali di V .

14

Proof. Siano w, w0 W1 W2 e sia k R. Per definizione di intersezione w e w0 appartengono sia a W1


che a W2 . Per definizione di sottospazio allora sia w + w0 che kw appartengono a W1 a W2 e pertanto
alla loro intersezione. Questo prova che W1 W2 `e un sottospazio vettoriale di V .
Siano ora w, w0 W1 + W2 e sia k R. Siano x1 , y1 W1 e x2 , y2 W2 tali che w = x1 + x2 e
w0 = y1 + y2 . Allora:
w + w0 = x1 + x2 + y1 + y2 = (x1 + y1 ) + (x2 + y2 ) W1 + W2 .
e
kw = k(x1 + x2 ) = kx1 + kx2 W1 + W2 .
Segue quindi la tesi.

Consideriamo inoltre il seguente ulteriore risultato


Proposizione 2.14. Sia V uno spazio vettoriale e siano W1 , W2 due sottospazi vettoriali di V tali che
W1 W2 = (0). Allora ogni vettore in W1 W2 ha una unica rappresentazione come somma di un vettore
in W1 ed un vettore in W2 .
Proof. Sia w W1 W2 e siano x1 , y1 W1 e x2 , y2 W2 tali che w = x1 + x2 = y1 + y2 . Vogliamo
mostrare che x1 = y1 e x2 = y2 . Abbiamo:
0 = v v = x1 + x2 = y1 + y2 = (x1 y1 ) + (x2 y2 ).
Segue pertanto:
x1 y1 = (x2 y2 ) W1 W2 = (0).
Dunque x1 y1 = x2 y2 = 0, da cui x1 = y1 e x2 = y2 .

Consideriamo ora limportante definizione di combinazione lineare.


Definizione 2.15. Sia V uno spazio vettoriale e siano v1 , v2 , . . . , vn vettori in V . Un vettore w `e una
combinazione lineare dei precedenti n vettori se esistono scalari k1 , k2 , . . . , kn tali che
w = k1 v1 + k2 v2 + kn vn .
Lo spazio generato dai vettori v1 , v2 , . . . , vn `e linsieme di tutte le combinazioni lineari degli n vettori,
e viene denotato con hv1 , v2 , . . . , vn i. Se V = hv1 , v2 , . . . , vn i diremo che v1 , v2 , . . . , vn generano V .
Esempio 2.16. Siano v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (1, 0, 1) tre vettori di R3 . Verifichiamo che il
vettore w = (1, 1, 1) R3 si pu`
o scrivere come combinazione lineare dei vettori v1 , v2 e v3 . Cerchiamo
pertanto scalari a1 , a2 e a3 tali che:
w = a1 v1 + a2 v2 + a3 v3 ,
cio`e
(1, 1, 1) = a1 (1, 2, 3) + a2 (0, 1, 2) + a3 (1, 0, 1).
Questa equazione vettoriale si traduce in un sistema di equazioni lineari nelle variabili a1 , a2 e a3 :

a1 a3 = 1
2a1 + a2 = 1

3a1 + 2a2 + a3 = 1
Questo sistema `e compatibile e indeterminato con soluzioni:

t+1
a1 =
dove t R.
a2 = 2t 1

a3 =
t

15

Una particolare espressione di w come combinazione lineare di v1 , v2 e v3 si trova ponendo per esempio
t = 1. Allora a1 = 2, a2 = 3 e a3 = 1 e
w = 2v1 + 3v2 + v3 .
4
Si verifica facilmente che lo spazio generato da un insieme di vettori di V `e un sottospazio vettoriale.
Definizione 2.17. Sia V uno spazio vettoriale. n vettori v1 , v2 , . . . , vn V sono detti linearmente
dipendenti (in breve l.d.) se esiste una combinazione lineare di v1 , v2 , . . . , vn uguale a 0 i cui coefficienti
non sono tutti nulli. Essi sono detti linearmente indipendenti (in breve l.i.) se non sono linearmente
dipendenti.
Esempio 2.18. Consideriamo i tre vettori v1 = (1, 2, 3), v2 = (0, 1, 2) e v3 = (1, 0, 1) in R3 dellesempio
precedente. Per verificare se i tre vettori v1 , v2 e v3 sono linearmente dipendenti o indipendenti cerchiamo
scalari a1 , a2 e a3 tali che:
0 = a1 v1 + a2 v2 + a3 v3 ,
cio`e
(0, 0, 0) = a1 (1, 2, 3) + a2 (0, 1, 2) + a3 (1, 0, 1).
Come prima risolviamo il sistema di equazioni lineari omogeneo associato nelle variabili a1 , a2 e a3 :

a1 a3 = 0
2a1 + a2 = 0

3a1 + 2a2 + a3 = 0
Questo sistema `e indeterminato con soluzioni:

t
a1 =
a2 = 2t

a3 =
t

dove t R.

Posto t = 1 otteniamo la combinazione lineare non banale:


0 = v1 + 2v2 + v3
che esprime il vettore nullo come combinazione lineare di v1 , v2 e v3 . I tre vettori sono pertanto
linearmente dipendenti.
4
Vale questultima utile riformulazione della definizione di dipendenza lineare.
Proposizione 2.19. n vettori v1 , v2 , . . . , vn V sono detti linearmente dipendenti se e solo se uno
di loro `e una combinazione lineare degli altri.
Proof. Supponiamo
vi = k1 v1 + + ki1 vi1 + ki+1 vi+1 + + kn vn .
In tal caso otteniamo k1 v1 + + ki1 vi1 vi + ki+1 vi+1 + + kn vn = 0 e quindi v1 , v2 , . . . , vn
sono linearmente dipendenti. Viceversa supponiamo che esista una combinazione lineare dei vettori
v1 , v2 , . . . , vn con coefficienti non tutti nulli. Supponiamo quindi k1 v1 + k2 v2 + kn vn = 0 con ki 6= 0.
Segue facilmente che vi = (ki )1 (k1 v1 + + ki1 vi1 + ki+1 vi+1 + + kn vn ) e quindi la tesi. 
Consideriamo ora la definizione di base di uno spazio vettoriale.
Definizione 2.20. Sia V uno spazio vettoriale. Un sistema di vettori v1 , v2 , . . . , vn V costituiscono
una base di V se generano V e se in aggiunta sono linearmente indipendenti.

16

Esempio 2.21. Consideriamo lo spazio vettoriale R3 . I vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1)
sono linearmente indipendenti e generano tutto lo spazio. Essi pertanto costituiscono una base di R3 ,
detta base canonica (o base standard o ancora base euclidea). Tale definizione si estende facilmente
ad Rn . La base canonica di Rn `e costituita dai vettori e1 , e2 , . . . , en , dove ei , per i = 1, 2, . . . , n, `e il
vettore avente tutte le entrate uguali a 0 tranne la i-esima che vale 1.
4
Notiamo che non tutti gli spazi vettoriali possiedono una base fatta in questo modo. Lesistenza di un
numero finito di generatori e quindi di una base finita `e propria degli spazi vettoriali finito dimensionali.
Uno spazio vettoriale che non `e finito dimensionale `e detto infinito dimensionale o equivalentemente
che ha dimensione infinita. Dora in avanti, salvo avviso contrario quando parleremo di spazi vettoriali
intenderemo sempre spazi vettoriali finito dimensionali.
Teorema 2.22. Sia V uno spazio vettoriale. Siano v1 , v2 , . . . , vn V linearmente indipendenti e siano
k1 , k2 , . . . , kn e h1 , h2 , . . . , hn scalari tali che
k1 v1 + k2 v2 + kn vn = h1 v1 + h2 v2 + hn vn .
Allora ki = hi per i = 1, . . . , n.
Proof. Sottraendo il membro a destra dal membro a sinistra, abbiamo
(k1 h1 )v1 + (k2 h2 )v2 + (kn hn )vn = 0.
Per definizione di dipendenza lineare abbiamo ki hi = 0, per ogni i = 1, . . . , n.

Corollario 2.23. Sia V uno spazio vettoriale e sia {v1 , v2 , . . . , vn } una base di V . Allora ogni elemento di V si scrive univocamente come combinazione lineare dei vettori v1 , v2 , . . . , vn . I coefficienti
k1 , k2 , . . . , kn che esprimono un vettore v come combinazione lineare degli elementi della base sono dette
coordinate di v rispetto alla base {v1 , v2 , . . . , vn }.
Teorema 2.24. Sia V uno spazio vettoriale e sia {v1 , v2 , . . . , vn } una base di V . Siano {w1 , w2 , . . . , wm }
vettori di V e assumiamo m > n. Allora w1 , w2 , . . . , wm sono linearmente dipendenti.
Proof. Omessa.

Corollario 2.25. (Teorema della dimensione per spazi vettoriali) Basi diverse di uno stesso
spazio vettoriale finito dimensionale hanno la stessa cardinalit`
a.
Proof. Siano date due basi di uno spazio vettoriale V , una di cardinalit`a m, una di cardinalit`a n. In
virt`
u del teorema precedente applicato alle due basi otteniamo m n ed allo stesso tempo n m, da
cui luguaglianza.

Teorema 2.26. Sia V uno spazio vettoriale di dimensione n e siano v1 , v2 , . . . , vn vettori linearmente
indipendenti in V . Allora {v1 , v2 , . . . , vn } `e una base di V .
Proof. Sia v V un vettore. I vettori {v, v1 , v2 , . . . , vn } sono linearmente dipendenti per il Teorema
2.24. Esiste pertanto una combinazione lineare dei suddetti vettori a coefficienti non tutti nulli uguale
al vettore nullo 0. Esistono cio`e scalari k1 , k2 , . . . , kn , h tali che:
k1 v1 + k2 v2 + kn vn + hv = 0.
Lo scalare h `e diverso da zero altrimenti si avrebbe una combinazione lineare di v1 , v2 , . . . , vn a coefficienti non tutti nulli uguale al vettore nullo. Questo `e impossibile perche v1 , v2 , . . . , vn sono linearmente
indipendenti. Segue quindi:
1
v = (k1 v1 + k2 v2 + kn vn + hv) ,
h

17

ovvero v `e combinazione lineare di v1 , v2 , . . . , vn . Per larbitrariet`a di scelta di v in V si ha che


v1 , v2 , . . . , vn generano V e quindi ne costituiscono una base.

Esempio 2.27. Siano v1 = (1, 2, 1), v2 = (0, 1, 2) e v3 = (2, 0, 3) in R3 . Mostriamo che essi sono
linearmente indipendenti, quindi costituiscono una base di R3 . A tal proposito siano a1 , a2 , a3 R tale
che:
a1 v1 + a2 v2 + a3 v3 = 0.
Questa equazione vettoriale si traduce nel seguente sistema lineare omogeneo:

a1 + a3 = 0
2a1 a2 = 0

a1 + 2a2 + 3a3 = 0
Si verifica facilmente che questo sistema `e compatibile e determinato. Esso ammette quindi la sola
soluzione banale a1 = a2 = a3 = 0. I tre vettori sono linearmente indipendenti, quindi in virt`
u del
3
Teorema 2.26 costituiscono una base di R .
4
Corollario 2.28. Sia V uno spazio vettoriale e sia W un sottospazio. Se dim(W ) = dim(V ) allora
W =V.
Proof. Per il teorema precedente una base di W `e anche base di V .

Proposizione 2.29. Sia V uno spazio vettoriale di dimensione n e siano v1 , v2 , . . . , vr r vettori linearmente indipendenti di V , dove r < n. Allora esistono vettori vr+1 , vr+2 , . . . , vn tale che {v1 , v2 , . . . , vn }
`e una base di V .
Proof. Omessa.

Chiudiamo questa prima parte sugli spazi vettoriali con la seguente importante proposizione che mette
in relazione le dimensioni degli spazi intersezione e somma di due sottospazi vettoriali di uno spazio
vettoriale fissato V .
Proposizione 2.30. (Grassmann) Siano V uno spazio vettoriale e siano U , W sottospazi vettoriali
di V . Vale la seguente formula, nota come Formula di Grassmann:
dim(U + W ) = dim(U ) + dim(W ) dim(U W ).
Proof. Omessa.

Esempio 2.31. Due sottospazi vettoriali 2-dimensionali V, W di R3 hanno intersezione non nulla. Infatti
vale V + W R3 e quindi dim(V + W ) 3. Dalla formula di Grassmann segue:
dim(V W ) = dim(V ) + dim(W ) dim(V + W ) 2 + 2 3 = 1,
ovvero che dim(V W ) 6= {0}.
4

18

3. Matrici

3.1. Definizioni e algebra delle matrici.

Come definito precedentemente chiamiamo matrice di tipo m n una tabella di numeri reali organizzata
in m righe e n colonne.

(8)

A=

a11
a21
..
.
am1

a12
a22
..
.
am2

..
.

a1n
a2n
..
.
amn

Indicheremo le matrici con lettere latine maiuscole (A, B, C etc.). Talvolta scriveremo una generica
matrice in forma contratta A = (aij ) dove 1 i m e 1 j n sono detti rispettivamente indice riga
e indice colonna. Lelemento aij sar`
a allora lelemento che appartiene alla i-esima riga e alla j-esima
colonna. Se m = n la matrice `e detta quadrata di ordine n. Una matrice di tipo 1 n `e detta vettore
riga mentre una matrice di tipo m 1 `e detta vettore colonna. Sia A la matrice (8), la i-esima riga di A
`e il vettore riga


Ai = ai1 ai2 ain
mentre la j-esima colonna `e il vettore colonna

A =

a1j
a2j
..
.
amj

Due matrici sono uguali quando sono dello stesso tipo e hanno entrate uguali nelle stesse posizioni, cio`e
se A = (aij ) e B = (bij ) sono matrici dello stesso tipo, allora A = B se e solo se aij = bij per ogni i, j.
Se A = (aij ) `e una matrice di tipo mn chiamiamo trasposta di A la matrice tA ottenuta scambiandone
le righe con le colonne, pertanto una matrice B = (bij ) di tipo n m `e la trasposta di A se per ogni
i, j, bij = aji . Ovviamente vale che t (tA) = A. Se A = tA allora A `e detta simmetrica, mentre se
A = tA (dove A `e la matrice ottenuta da A cambiando i segni di tutte le sue entrate) allora A `e detta
antisimmetrica (o emisimmetrica). Una matrice simmetrica o antisimmetrica `e necessariamente
quadrata.
Sia A = (aij ) una matrice quadrata. Gli elementi aij con i = j sono detti elementi principali. Essi
costituiscono la diagonale principale. In una matrice antisimmetrica gli elementi della diagonale principale
sono tutti uguali a zero. La somma degli elementi della diagonale principale di una matrice quadrata
A = (aij ) `e detta traccia della matrice ed `e denotata con tr(A).
Definiamo ora alcune importanti operazioni sulle matrici, la somma e la moltiplicazione per uno scalare.
Definiamo la somma di due matrici solo quando esse sono dello stesso tipo, ovvero solo se hanno lo stesso
numero di rige e di colonne. Siano quindi m, n interi positivi fissati e siano A = (aij ), B = (bij ) due
matrici di tipo m n. Definiamo la matrice somma di A e B una matrice C = (cij ) dello stesso tipo
ponendo cij = aij + bij . Scriveremo in tal caso C = A + B.

19

La somma di matrici gode delle seguenti propriet`a. Siano A, B e C tre matrici dello stesso tipo.

A+B =B+A
A + (B + C) = (A + B) + C

(propriet`a commutativa);
(propriet`a associativa).

La matrice le cui entrate sono tutte uguali a zero `e detta matrice nulla. Denoteremo tale matrice con la
lettera O. Notiamo che comunque fissiamo due interi posivi m, n esiste una matrice nulla di tipo m n.
Si verifica facilmente che tale matrice `e lelemento neutro rispetto alla somma, ovvero, per ogni matrice
A di tipo m n,
A + O = O + A = A.
Notiamo infine che data una matrice A di tipo m n, cambiando di egno a tutte le sue entrate otteniamo
una nuova matrice A tale che
A + (A) = O.
Definiamo ora la moltiplicazione di una matrice per uno scalare. Sia A = (aij ) una matrice e sia k R.
Definiamo il prodotto della matrice A per lo scalare k la matrice C = (cij ) dello stesso tipo di A tale
che cij = kaij . Scriveremo in tal caso C = kA. Siano A, B matrici dello stesso tipo e siano k, h numeri
reali. Le seguenti si verificano facilmente.

(1)A = A
(kh)A = k(hA)
k(A + B) = kA + kB
(k + h)A = kA + hA

(propriet`a distributiva rispetto alla somma di matrici);


(propriet`a distributiva rispetto alla somma di scalari).

Segue pertanto che, comunque noi fissiamo interi positivi m, n linsieme delle matrici di tipo m n
con le operazioni di somma e di moltiplicazione per uno scalare costituiscono uno spazio vettoriale, che
denoteremo con Mmn .
Proposizione 3.1. (i) Se A, B sono arbitrarie matrici m n allora:
t

(A + B) = tA + tB.

(ii) Se A `e una matrice arbitraria e k R, allora


t

kA = k(tA).

(iii) Sia A `e una matrice quadrata arbitraria. Allora A + tA `e una matrice simmetrica.
(iv) Sia A `e una matrice quadrata arbitraria. Allora A tA `e una matrice antisimmetrica.
(v) Ogni matrice quadrata `e somma di una matrice simmetrica e di una matrice antisimmetrica.
Proof. Omessa. Lasciata per esercizio.

Definiamo ora una seconda operazione tra matrici, meno intuitiva delle due precedenti. La moltiplicazione tra matrici. Definiamo prima la moltiplicazione tra un vettore riga ed un vettore colonna aventi
il medesimo numero di entrate, ovvero il prodotto tra una matrice A di tipo 1 n ed una matrice B di
tipo n 1. Siano quindi

b1



b2

A = a1 a2 an
e B= .
.
..
bn

20

La matrice prodotto C = AB `e la matrice di tipo 1 1 (avente quindi ununica entrata)


!
n
X
C = (a1 b1 + a2 b2 + an bn ) =
ai bi .
i=1

Nel seguito identificheremo una matrice con una sola entrata con lo scalare corrispondente.
Estendiamo tale definizione al prodotto di due matrici A, B in cui il numero di colonne della prima
matrice A `e uguale al numero di righe della seconda matrice B (se ci`o accade A `e detta conformabile
con B). Sia pertanto A di tipo m p e sia B di tipo p n. La matrice prodotto di A e B `e la matrice
C = (cij ) di tipo m n tale che cij = Ai B j , dove ricordiamo che Ai e B j sono rispettivamente li-esimo
vettore riga di A ed il j-esimo vettore colonna di B, che ovviamente hanno lo stesso numero p di elementi.
Esempio 3.2. Siano A e B le seguenti matrici:
!
1 1
A=
2 3

1
1

B=

0 3
1 2

!
.

La matrice A, di tipo 2 2 `e conformabile con B, di tipo 2 3. Possiamo eseguire il prodotto di A e B


ed il risultato `e il seguente:
!
!
1+1 01 32
2 1 1
AB =
=
.
23 0+3 6+6
1 3 12
4
Notiamo che tale operazione non gode della propriet`a commutativa.
Esempio 3.3. Siano A e B le matrici:
1
0

A=

0
0

1
0

B=

!
.

In questo caso A `e conformabile con B ma B non `e conformabile con A. Il risultato del prodotto AB `e
uguale alla matrice:
!
1
AB =
,
0
mentre non `e possibile fare BA.
4
Esempio 3.4. Siano A e B le matrici:
1
0

A=

!
B=

In questo caso `e possibile fare entrambi i prodotti AB e BA, ma essi non possono coincidere in quanto
le matrici risultanti non sono dello stesso tipo. Infatti si ha
!


1 1
AB =
BA = 1 .
0 0
mentre non `e possibile fare BA.
4
Esempio 3.5. Siano A e B le matrici:
A=

1
0

0
0

!
B=

0
1

0
0

!
.

21

In questo caso `e possibile fare entrambi i prodotti AB e BA, queste matrici sono dello stesso tipo ma il
risultato `e diverso. Infatti
!
!
0 0
0 0
AB =
BA =
.
0 0
1 0
4
Sia In la matrice quadrata di ordine n in cui tutti gli elementi siti sulla diagonale principale sono uguali
a 1, mentre gli altri sono uguali a 0. Scriveremo semplicemente I quando non vogliamo porre lattenzione
sullordine della matrice. Valgono le seguenti propriet`a, elencate nella seguente proposizione.
Proposizione 3.6. (P1) Propriet`
a associativa: Per ogni terna di matrici A, B, C, dove A `e conformabile con B e B `e conformabile con C, si ha (AB)C = A(BC).
(P2) Propriet`
a distributiva della moltiplicazione rispetto alla somma: Per ogni terna di matrici
A, B, C, dove A `e conformabile con B e C, e B, C sono dello stesso tipo, si ha A(B + C) =
AB + AC.
(P3) Per ogni coppia di matrici A, B dove A `e conformabile con B ed ogni scalare k R, (kA)B =
k(AB).
(P4) Esistenza dellelemento neutro: Per ogni matrice quadrata A, AI = IA = A.
(P5) Assorbenza della matrice nulla: Per ogni matrice quadrata A, AO = OA = O.
(P6) t (AB) = tB tA.
Proof. Omessa.

Applicando la definizione di prodotto tra matrici si vede anche che, per esempio, il sistema

a11 x1 + a12 x2 + + a1n xn = b1

a x + a x + + a x = b
21 1
22 2
2n n
2

am1 x1 + am2 x2 + + amn xn = bm


si pu`
o scrivere nella forma, detta forma matriciale
Ax = b,
dove A `e la matrice dei coefficienti, x = t (x1 , x2 , . . . , xn ) `e il vettore colonna le cui entrate sono le
variabili e b `e il vettore termine noto.
Notiamo che matrici quadrate dello stesso ordine possono essere sempre moltiplicate tra loro. In particolare una matrice quadrata pu`
o essere moltiplicata per se stessa. Possiamo quindi definire la potenza
n-esima di una matrice quadrata nel modo seguente:

se n 1
A}

|A A{z
n
An =

I
se n = 0.
Per la potenza di matrici valgono quasi tutte le usuali propriet`a delle potenze
Am An = Am+n ;

(Am )n = Amn ;

ma in generale la non commutativit`


a implica che
(AB)n 6= An B n .
Una matrice quadrata A tale che A2 = A `e detta idempotente, mentre se An = O per qualche n 1
A `e detta nilpotente.

22

Esempio 3.7. La matrice:


A=

1
0

0
0

`e idempotente. Infatti si verifica facilmente che A2 = A.


La matrice

B= 0
0

2
0
0

1
0

`e nilpotente. Infatti:

2
B = 0
0

2
0
0

0
1

1 0
0
0

2
0
0


0
1

1 = 0
0
0

0
0
0

0 ,
0

quindi

0 0

3
2
B =B B= 0 0
0 0

0 2
2

0 0 0
0 0
0


0
1

1 = 0
0
0

0
0
0

0
0
4

Una matrice quadrata A `e detta invertibile o non singolare se esiste una matrice B quadrata dello
stesso ordine tale che AB = BA = I. Una matrice `e non invertibile o singolare se non `e invertibile.
Se A `e una matrice invertibile la matrice inversa `e unicamente determinata da A. Supponiamo che B e
C siano matrici tali che AB = BA = AC = CA = I. Allora:
B = BI = B(AC) = (BA)C = IC = C.
Linversa di una matrice A, se essa esiste, `e denotata con A1 .
La seguente proposizione elenca alcune immediate propriet`a della matrice inversa.
Proposizione 3.8. Siano A, B matrici invertibili del medesimo ordine, sia n un intero positivo e sia k
uno scalare non nullo. Valgono le seguenti:
(1)
(2)
(3)
(4)
(5)

A1 `e invertibile con inversa (A1 )1 = A;


il prodotto AB `e invertibile con inversa (AB)1 = B 1 A1 ;
la potenza An `e invertibile con inversa (An )1 = (A1 )n ;
kA `e invertibile con inversa (kA)1 = k1 A1 ;
t
A `e invertibile con inversa (tA)1 = t (A1 ).

Studiamo ora un modo per determinare se una data matrice `e invertibile e ne calcoliamo linversa.
Data una matrice quadrata A = (aij ) di ordine n, introduciamo una matrice quadrata X del medesimo
ordine le cui entrate sono incognite xij . Imponendo luguaglianza AX = I otteniamo equazioni lineari
nelle incognite xij aventi coefficienti tra le entrate della matrice A. In particolare tutto si traduce in n
sistemi lineari aventi tutti la stessa matrice dei coefficienti A con vettori dei termini noti ei , i = 1, . . . , n.
Possiamo risolvere simultaneamente tutti gli n sistemi applicando il procedimento di Gauss-Jordan alla
matrice:

a11 a12 a1n | 1 0 0

a21 a22 a2n | 0 1 0

(A|I) = .
..
..
.. .. .. . .
.
..
.
.
. ..
..
.
.
. . .
an1 an2 ann | 0 0 1

23

Quello che otteremo alla fine `e che se la matrice A `e invertibile tutti i sistemi saranno compatibili e
determinati, mentre se la matrice A `e singolare almeno uno dei sistemi sar`a incompatibile. Nel primo
caso la matrice assumer`
a la seguente forma finale:

1 0 0 | b11 b12 b1n

0 1 0 | b21 b22 b2n

(I|B) = . . .
.. ..
..
..
..
..
.
.
.
.
.
.
. .
. .
.
.
.
0 0 1 | bn1 bn2 bnn
Le entrate della matrice B costituiscono le soluzioni dei nostri sistemi, e quindi avremo B = A1 .
Esempio 3.9. Sia A la matrice:

1
2
Applichiamo il procedimento di Gauss-Jordan alla

1 0

(A|I) = 1 2
2 1

0 2

2 1
1 1
matrice:

| 1 0 0

| 0 1 0 .
| 0 0 1

2
1
1

Otteniamo alla fine la matrice:

1 0 0

(I|B) = 0 1 0
0 0 1
A `e invertibile con inversa

B=

1
11
3
11
5
11

|
|
|
2
11
5
11
1
11

1
11
3
11
5
11

2
11
5
11
1
11
4
11
1
11
2
11

4
11
1
11
2
11

.
4

3.2. Rango e determinante.

Consideriamo nuovamente il procedimento di Gauss. Osserviamo che le tre operazioni elementari sulle
righe di una matrice A:
(OE10 ) - trasporre due righe;
(OE20 ) - moltiplicare tutte le entrate di una riga per una costante diversa da zero;
(OE30 ) - sommare ad una riga un multiplo di unaltra riga (termine a termine).
corrispondono ad altrettante moltiplicazioni per particolari matrici, dette matrici elementari.
Definizione 3.10. Una matrice quadrata di ordine n `e detta elementare se pu`
o essere ottenuta dalla
0
matrice idendit`
a In applicando una delle tre operazioni elementari (OE1 ), (OE20 ) e (OE30 ).
Notiamo che le matrici elementari sono invertibili e matrici inverse di matrici elementari sono ancora
matrici elementari.
Una matrice B pu`
o quindi essere ottenuta da una matrice A mediante operazioni elementari sulle righe se
e solo se esistono matrici elementari E1 , E2 , , En tali che B = En En1 E1 A. In tal caso diremo

24

che le matrici A, B sono equivalenti per righe. Osserviamo che tale relazione costituisce una relazione
di equivalenza tra matrici.
Data una matrice A di tipo m n associamo ad A due sottospazi vettoriali di Rn e Rm rispettivamente,
lo spazio delle righe e lo spazio della colonne.
Definizione 3.11. Sia A una matrice di tipo m n. con righe A1 , A2 . . . , Am Rn e colonne
A1 , A2 . . . , An Rm . Lo spazio delle righe di A `e il sottospazio di Rn generato dalle righe della
matrice A. Lo spazio delle colonne di A `e il sottospazio di Rm generato dalle colonne della matrice
A.
Vale il seguente teorema:
Teorema 3.12. Siano A, B due matrici sono ottenibili luna dallaltra mediante operazioni elementari
sulle righe. Allora lo spazio delle righe di A `e uguale allo spazio delle righe di B.
Proof. Il fatto che B si possa ottenere da A mediante operazioni elementari sulle righe equivale a dire
che le righe di B sono combinazioni lineari delle righe di A. Vale ovviamente anche il viceversa da cui
segue la tesi.

Questo teorema, unitamente al fatto che ogni matrice pu`o essere ridotta in forma a scala segue che il
procedimento di Gauss ci permette di calcolare la dimensione dello spazio delle righe di una matrice.
Sussiste il seguente fondamentale teorema.
Teorema 3.13. Per ogni matrice A di tipo m n la dimensione dello spazio delle righe di A `e uguale
alla dimensione dello spazio delle colonne. Il valore comune, che denoteremo con rg(A) `e detto rango
di A. Risulter`
a quindi rg(A) < m e rg(A) < n.
Proof. Sia r la dimensione dello spazio delle righe e sia {v1 , v2 , . . . , vr } una base di Rm . Allora per
ogni i {1, . . . , m}, esistono coefficienti cik tali che

(9)

Ai = ci1 v1 + + cir vr .

Se vk = (xk1 xk2 xkn ) allora le equazioni (9) sono equivalenti a


Aj = x1j w1 + x2j w2 + xrj wr ,
dove wi = (c1i c2i cmi ). Segue quindi che i vettori colonna sono combinazioni lineari degli r vettori
w1 , . . . , wr . Segue pertanto che la dimensione dello spazio delle colonne `e minore di r. Considerando
la matrice trasposta tA otteniamo la diseguaglianza opposta. Segue la tesi.

Il seguente corollario fornisce un metodo per il calcolo del rango di una matrice A.
Corollario 3.14. Il rango di una matrice A `e il numero delle righe non completamente nulle di una
matrice a scala B, ottenuta da A mediante operazioni elementari sulle righe.
Esempio 3.15. Calcoliamo il rango della matrice

2 0 1

A = 1 1 0
4 2 1

3 .
7

25

Sommando alla prima riga il doppio della seconda e sostituendo il risultato alla seconda, ed allo stesso
tempo sostituire alla terza riga il risultato della somma della stessa con il doppio della prima otteniamo
la matrice:

2 0 1 1

0 2 1 5 .
0 2 1 5
e quindi sostituendo alla terza riga la differenza della terza con la seconda abbiamo:

2 0 1 1

0 2 1 5 .
0 0 0 0
La matrice A ha pertanto rango 2.
4
Inoltre attraverso un procedimento di Gauss possiamo calcolare la dimensione dello spazio generato da
un sistema di vettori in Rn , di estrarre da un sistema di generatori una base e di estendere un sistema
di vettori linearmente indipendenti ad una base di Rn .
Esempio 3.16. Siano v1 = (2, 0, 1, 3), v2 = (1, 1, 1, 2), v3 = (1, 2, 3, 4) e v4 = (3, 0, 3, 2) vettori
in R4 . La dimensione del sottospazio di R4 generato dai vettori v1 , v2 , v3 e v4 equivale al rango della
matrice i cui vettori riga (o colonna) sono proprio i vettori considerati.
Il rango della matrice

A=

2
1
1
3

Applicando il metodo di Gauss alla matrice A

2
0

0
0

0 1
1 1
2 3
0
3

3
2
4
2

`e possibile ridurla alla seguente forma a scala:

0 1 3
2 1 1

.
0 3 13
0

Segue che V := hv1 , v2 , v3 , v4 i ha dimensione pari a 3. Inoltre una base dello stesso spazio V `e costituita
dai vettori w1 = (2, 0, 1, 3), w2 = (0, 2, 1, 1) e w3 = (0, 0, 3, 13).
4
Esempio 3.17. Consideriamo gli stessi vettori dellesempio percedente. Vogliamo una base dello spazio
V = hv1 , v2 , v3 , v4 i estratta dal sistema di generatori {v1 , v2 , v3 , v4 }. Per far questo occorre ridurre
con il processo algoritmico di Gauss la matrice le cui colonne coincidono con i vettori v1 , v2 , v3 e v4 ,
ovvero la matrice:

2
1 1 3
0
1 2 0

B=
.
1 1 3
3
3

` possibile ottenere, da facili calcoli, la matrice ridotta


E

2 1 1
0 1 2

0 0 1
0 0 0

a scala:

3
0

.
1
0

26

I pivot corrispondono alle prime tre colonne. Questo significa che i primi tre vettori v1 , v2 e v3 sono
linearmente indipendenti. Essi pertanto costituiscono una base di V .
4
Esempio 3.18. Sia V = Rn , per qualche n. Consideriamo ora il problema di estendere un sistema di
vettori linearmente indipendenti di V a base. Siano v1 = (2, 3, 1, 2) e v2 = (1, 3, 2, 1) in R4 . I
vettori v1 , v2 , e1 , e2 , e3 , e4 costutuiscono un sistema di generatori per V . Agendo come nellesempio
precedente costruiamo la matrice le cui colonne sono proprio questi sei vettori.

2 1 1 0 0 0
3
6 0 1 0 0

C=
.
1 2 0 0 1 0
2

Riducendo con Gauss si ottiene la matrice ridotta a

2 1 1
0 5 1

0 0 0
0 0 0

scala:
0 0
0 0
1 3
0 2

0
1
0
1

I pivot si trovano in corrispondenza delle colonne relative ai vettori v1 , v2 , e2 e e3 , che costituiscono


una base cercata.
4
Consideriamo ora il seguente fondamentale teorema che fornisce una condizione necessaria e sufficiente
affinche un sistema lineare sia compatibile.
Teorema 3.19. (di Rouche-Capelli) Un sistema lineare Ax = b `e compatibile se e solo se il rango della
matrice A `e uguale al rango della matrice completa AC .
Proof. Il sistema Ax = b si traduce nella seguente equazione vettoriale:
A1 x1 + A2 x2 + + An xn = b,
da cui segue che il sistema `e compatibile se e solo se il vettore termine noto `e combinazione lineare
delle colonne della matrice dei coefficienti A Segue pertanto che lo spazio delle colonne della matrice dei
coefficienti A coincide con lo spazio delle colonne della matrice completa AC . Segue quindi la tesi.

Passiamo ora alla definizione di determinante. Ricordiamo che con Mn denotiamo lo spazio delle matrici
quadrate di ordine n.
Definizione 3.20. Sia n un intero positivo arbitrario. Il determinante `e una funzione definita su Mn a
valori reali che denotiamo con det() che gode delle seguenti propriet`
a che lo determinano unicamente:
(D1)
(D2)
(D3)
(D4)

det(I) = 1;
Se B `e ottenuta da A mediante trasposizione di due righe, allora det(B) = det(A);
Se B `e ottenuta da A sostituendo ad una riga per una costante k, allora det(B) = k det(A);
Se B `e ottenuta da A sommando ad una riga un multiplo di unaltra riga det(B) = det(A).

Dalla definizione seguono importanti propriet`a del determinante. In particolare valgono i seguenti teoremi.
Teorema 3.21. Sia A una matrice quadrata. Allora det(A) = det(tA).

27

Teorema 3.22. (di Binet) Siano A, B due matrice quadrate dello stesso ordine. Allora det(AB) =
det(A) det(B).
Dal teorema di Binet segue il seguente corollario.
Corollario 3.23. Sia A una matrice quadrata invertibile con inversa A1 . Allora det(A1 ) =

1
det(A) .

Inoltre vale il seguente risultato.


Teorema 3.24. Una matrice A `e invertibile se e solo se det(A) 6= 0.
Vediamo ora come calcolare il determinante di una matrice.
Il determinante di matrici 2 2 si calcola facendo il cosiddetto prodotto incrociato, ovvero si moltiplicano
le entrate sulla diagonale principale e si sottrae dal risultato il prodotto degli altri due termini.

det
Sia ora

a
c

b
d

a11

A := a21
a31

!
= ad bc.

a12
a22
a32

a13

a23
a33

una matrice di tipo 3 3. Per tali matrici esiste un metodo, noto con il nome di metodo di Sarrus,
per il calcolo del determinante. Esso consiste nellaffiancare alla matrice A le prime due colonne. Poi
si procede moltiplicando le entrate nella diagonale principale e sommando a questo valore i risultati del
prodotto degli elementi delle parallele a questa. Infine sottraiamo al risultato ottenuto la somma dei
tre prodotti degli elementi dellaltra diagonale con le due parallele.
Questo procedimento non `e generalizzabile a matrici di ordine superiore a 3. Descriviamo ora un metodo
pi`
u generale, il metodo di Laplace. Prima di descrivere questo procedimento definiamo il cofattore o
complemento algebrico di un elemento di una matrice quadrata. A tal proposito sia A = (aij ) una
matrice quadrata di ordine n e fissiamo i, j {1, . . . , n}. Il cofattore di aij `e il determinante della
sottomatrice Mij (di ordine n 1) che si ottiene da A cancellando la i-esima riga e la j-esima colonna,
con il proprio segno se i + j `e pari, col segno opposto se i + j `e dispari, cio`e il numero
Aij = (1)i+j det(Mij ).
Il determinante di A `e dato da
det(A) =

n
X
k=1

aik Aik =

n
X

akj Akj ,

k=1

per ogni valore di i, j in {1, . . . , n}, cio`e il determinante della matrice A `e la somma dei prodotti degli
elementi di una linea di A (riga o colonna) per i rispettivi complementi algebrici. Il secondo membro `e
detto sviluppo del determinante rispetto alla i-esima riga, mentre il membro a destra `e lo sviluppo del
determinante rispetto alla j-esima colonna.
Data una matrice quadrata A, la matrice le cui entrate sono i cofattori degli elementi aij di A nella
medesima posizione `e la matrice dei cofattori di A, mentre la sua trasposta `e la matrice aggiunta di A,
che denotiamo con Adj(A). Vale il seguente teorema.
Teorema 3.25. Sia A una matrice quadrata. Allora A `e invertibile se e solo se det(A) 6= 0 ed in tal
1
Adj(A).
caso A1 = det(A)
Proof. Omessa.

28

Dal teorema precedente segue il seguente fondamentale teorema che ci permette di risolvere sistemi
quadrati.
Teorema 3.26. (di Cramer) Sia Ax = b un sistema lineare quadrato. Il sistema `e compatibile e
determinato se e solo se det(A) 6= 0. In tal caso la soluzione del sistema `e dato da
xi =

det(Ai )
,
det(A)

dove la matrice Ai `e la matrice ottenuta sostituendo alla i-esima colonna il vettore termine noto b.
Proof. Poiche A ha determinante diverso da zero, A `e invertibile. Segue che il sistema `e compatibile e
determinato con soluzione:
1
x = A1 b =
Adj(A)b.
det(A)
P
n
1
e lo sviluppo di
Segue che il valore di xi `e dato da xi = det(A)
k=1 Aki bk . Notiamo che questa somma `
Laplace del determinante di Ai rispetto alla i-esima colonna. Segue la tesi.

Analizziamo ora pi`
u approfonditamente il rapporto che sussiste tra rango e determinante. Abbiamo visto
che se A `e una matrice quadrata, il rango di A `e massimo (pari allordine della matrice se e solo se il
determinante di A `e diverso da zero. Vogliamo trovare un risultato pi`
u generale. A tal fine consideriamo
la seguente definizione.
Definizione 3.27. Un minore di ordine r di una matrice

a11 a12 a1n

a21 a22 a2n


A=
..
..
..
..
.
.
.
.
am1 am2 amn

`e il determinante di una matrice di ordine r ottenuta da A eliminando simultaneamente m r righe e


n r colonne. Qui chiaramente assumiamo r m e r n.
Per esempio i minori di ordine 1 corrispondono alle singole entrate della matrice mentre lunico minore
di ordine n di una matrice quadrata n n `e il daterminante della matrice stessa.
Vale la seguente proposizione.
Proposizione 3.28. Il rango di una matrice A `e il massimo ordine dei suoi minori non nulli.
Torniamo ora alla teoria degli spazi vettoriali. Abbiamo visto che le coordinate di un vettore dipendono
dalla base scelta. Esplicitiamo ora meglio questa dipendenza attraverso la teoria delle matrici.
Il teorema delle dimensioni per spazi vettoriali ci dice che basi diverse hanno comunque lo stesso numero
di elementi. Siano quindi B = {e1 , e2 , . . . , en } e B0 = {e01 , e02 , . . . , e0n } due basi di uno spazio vettoriale
finito dimensionale V . Per ogni i {1, 2, . . . , n} il vettore e0i si pu`o esprimere come combinazione lineare
dei vettori della base B (e viceversa). Esistono quindi scalari c1i , c2i , . . . , c1n tali che
e0i

n
X

cki ei .

k=1

Usando una notazione matriciale possiamo scrivere:


( e01

e02

e0n ) = ( e1

e2

en )C,

dove C = (cij ). Poiche gli e0i cos` come gli ei costituiscono altrettante basi le matrici le cui colonne sono
proprio tali vettori hanno rango massimo, quindi sono invertibili. Pertanto anche C `e invertibile.

29

Sia ora v un vettore di V e siano x1 , x2 , . . . , xn e x01 , x02 , . . . , x0n le coordinate di v rispetto alle due
basi. Possiamo scrivere in tal caso:
0
0

x1
x1
x1
0
0

x2
x2
x2
0
0
0

v = ( e1 e2 en )
.. = ( e1 e2 en ) .. = ( e1 e2 en ) C .. ,
.
.
.
x0n
x0n
xn
da cui

x1
x2
..
.
xn

= C

x01
x02
..
.
x0n

Moltiplicando ambo i membri di questultima equazione per la matrice C 1 a sinistra otteniamo la


relazione inversa:

0
x1
x1

0
x2
x2
. = C 1 .
.
.
.
.
xn
x0n
La matrice C prende il nome di matrice di cambiamento di base. Essa ha nelle sue colonne le componenti
dei vettori della seconda base rispetto alla prima base.

30

4. Prodotto scalare Euclideo

Allinizio della sezione sugli spazi vettoriali abbiamo analizzato vettori geometrici nel piano e nello spazio
` possibile estendere questi concetti a spazi Rn . Consideriamo vettori in Rn come vettori
ordinario. E
geometrici applicati allorigine delle coordinate. In questo modo un vettore geometrico nel piano `e
identificato da una coppia di numeri reali. La direzione del vettore sar`a la retta che lo contiene mentre il
verso dello stesso vettore sar`
a individuato in modo naturale dalla coppia di numeri reali ad esso associato.
La norma del vettore potr`
a quindi essere calcolata mediante il teorema di Pitagora. Infatti se v = (x1 , x2 )
p
allora la norma di v sar`
a kvk = x21 + x22 .
Sia ora v Rn . Definiamo la norma (o lunghezza) di v = (x1 , x2 , . . . , xn ) la quantit`a:
q
kvk = x21 + x22 + + x2n .
Notiamo che le seguenti valgono:
(1) Per ogni vettore v Rn , kvk 0 e kvk = 0 se e solo se v = 0.
(2) Per ogni vettore v Rn e scalare k R, kkvk = |k|kvk.
(3) Per ogni coppia di vettori v, w Rn , kv + wk kkvk + kkwk (Diseguaglianza triangolare).
Due vettori non nulli v, w in Rn sono paralleli se hanno la medesima direzione, ovvero esiste uno scalare
non nullo k R tale che w = kv. Inoltre se k > 0 diremo che v e w hanno lo stesso verso, altrimenti
diremo che hanno verso opposto. Un versore `e un vettore di norma pari ad 1. Dato un vettore v Rn
v
b = kvk
possiamo asso ciare a v un versore ad esso parallelo ed avente lo stesso verso ponendo v
. Tale
b `e il normalizzato di v.
processo `e noto come normalizzazione di v e v
Definiamo ora una importante operazione tra vettori di Rn , il prodotto scalare euclideo. Dati due vettori
v = (x1 , x2 , . . . , xn ), w = (y1 , y2 , . . . , yn ) in Rn il prodotto scalare tra v e w `e il numero
v w = x1 y1 + x2 y2 + + xn yn .
Notiamo che kvk2 = v v.
Osserviamo che il prodotto scalare euclideo soddisfa alle propriet`a, di verifica immediata, elencate nella
seguente proposizione:
Proposizione 4.1. Per ogni k R, u, v, w Rn vale:
(1)
(2)
(3)
(4)

v v 0 e v v = 0 se e solo se v = 0;
v w = w v;
u v + w = u v + u w;
(kv) w = k(v w) = v (kw).

Una funzione che ad ogni coppia di vettori in uno spazio vettoriale V associa uno scalare che soddisfa le
quattro propriet`
a elencate nella proposizione `e detto prodotto scalare.
Vale inoltre (per ogni prodotto scalare, in particolare per il prodotto scalare euclideo):
Proposizione 4.2. (Disuguaglianza di Cauchy-Schwarz) - Se v, w sono vettori in Rn allora
|v w| kvkkwk.
Proof. Supponiamo dapprima v = 0. In tal caso |v w| = 0, cos` come kvk = 0 e quindi anche il secondo
membro `e uguale a zero. Pertanto in tal caso la diseguaglianza `e verificata. Supponiamo ora v 6= 0. Sia

31

x una variabile reale. La disuguaglianza


(xv + w) (xv + w) 0,
deve essere soddisfatta per ogni valore di x per la positivit`a del prodotto scalare. Segue
(v v)x2 + 2(v w)x + (w w) 0
deve essere soddisfatta per ogni valore di x. Questo si ha se e solo se il discriminante del polinomio a
primo membro `e minore o uguale a zero, ovvero se e solo se:

0 = (v w)2 (v v)(w w) 0.
4
Dunque
(v w)2 kvk2 kwk2 .
Estraendo la radice quadrata si ottiene la tesi.

Usando come modello R2 guardiamo al suo significato geometrico. Notiamo che la differenza di due vettori
in R2 `e il vettore che collega i punti finali dei due vettori. Pertanto avremo che il vettore differenza dei
p
u del
vettori v = (x1 , x2 ) e w = (y1 , y2 ) avr`
a norma pari a kv wk = (x1 y1 )2 + (x2 y2 )2 . In virt`
Teorema di Carnot (detto altres` del coseno) si ha che la stessa lunghezza `e uguale a:
kv wk2 = kvk2 + kwk2 2kvkkwk cos(d
v w),
d
dove con v
w denotiamo langolo compreso tra v e w. Eguagliando le due quantit`a otteniamo:
(x1 y1 )2 + (x2 y2 )2 = x21 + x22 + y12 + y22 2kvkkwk cos(d
v w),
e quindi
x1 y1 + x2 y2
vw
=
.
kvkkwk
kvkkwk
Pertanto il prodotto scalare euclideo fornisce langolo minimo compreso tra i due vettori.
cos(d
v w) =

Due vettori R2 sono tra loro ortogonali se e solo se langolo tra loro compreso `e pari a 2 radianti misurato
in senso orario o antiorario, e quindi in virt`
u delluguaglianza precedente se e solo se v w = 0. Questi
concetti possono essere generalizzati facilmente al caso di Rn , mantenendo le stesse notazioni. Se due
vettori v, w Rn sono ortogonali scriveremo v w. Se v Rn e W `e un sottospazio vettoriale di Rn
scriveremo ancora v W se v `e perpendicolare ad ogni vettore di W . Infine se U, W sono sottospazi
vettoriali di Rn , U `e ortogonale a W se per ogni u U e per ogni w W , u w.
Sia ora W Rn un sottospazio vettoriale. Poniamo
W := {v Rn : w W v w}.
W `e detto complemento ortogonale di W . Il complemento ortogonale dello spazio nullo `e lintero
spazio Rn e viceversa. Conoscendo la base di un sottospazio vettoriale W di Rn `e possibile trovare lo
spazio complementare. Infatti se BW = {w1 , w2 , . . . , wm } `e una base di W , si considera un vettore
incognito x = (x1 , x2 , . . . , xn ). Un tale x `e in W se e solo se wi x = 0, per i = 1, 2, . . . , m. Il
complemento ortogonale di W `e quindi soluzione di un sistema lineare omogeneo di m equazioni in n
incognite. Notiamo che il rango della matrice dei coefficienti (e quindi quella completa) `e uguale a m.
In questo caso necessitiamo di n m parametri per descrivere lo spazio W , ovvero dim(W ) = n m.
Osserviamo inoltre che la propriet`
a (1) del prodotto scalare implica W W = (0). Segue dalla formula
di Grassmann che W W = Rn . Una base B di un sottospazio vettoriale W Rn `e detta ortogonale
se ogni coppia di vettori in B `e mutuamente ortogonale. In particolare se B = {v1 , v2 , . . . , vm }, allora
vi vj = 0 se i 6= j, i, j {1, 2, . . . , m}. Una base ortogonale `e detta ortonormale se in aggiunta i
vettori vi sono versori, ovvero se vi vj = ij se i, j {1, 2, . . . , m}.

32

Proposizione 4.3. Un sistema di vettori non nulli S Rn a due a due ortogonali `e linearmente
indipendente.
Proof. Sia S = {v1 , v2 , . . . , vm } un sistema di vettori non nulli a due a due ortogonali e siano k1 , k2 , . . . , km
scalari tali che k1 v1 + k2 v2 + + km vm = 0. Per ogni i = 1, 2, . . . , m, vi (k1 v1 + k2 v2 + + km vm ) =
0vi = 0. Daltra parte vi (k1 v1 +k2 v2 + +km vm ) = ki (vi vi ). Segue quindi ki = 0 per i = 1, 2, . . . , m,
ovvero la tesi.

Corollario 4.4. Un sistema di n vettori a due a due ortogonali in Rn costituisce una base dello spazio.
Proposizione 4.5. Se B = {v1 , v2 , . . . , vn } `e una base ortonormale di Rn allora un vettore w Rn
ha la seguente rappresentazione come combinazione lineare dei vettori v1 , v2 , . . . , vn :
w = (w v1 )v1 + (w v2 )v2 + + (w vn )vn .
Questa proposizione ci mostra il vantaggio di avere una base ortonormale. Vediamo ora una procedura
che ci permette di costruire una base ortonormale da una base arbitraria di uno spazio vettoriale V dotato
di prodotto scalare. Tale procedimento `e noto con il nome di procedimento di ortonormalizzazione
di Gram-Schmidt in onore di Jorgen Pederson Gram e Erhardt Schmidt. Esso consta di due parti:
costruire una base ortogonale a partire dalla base data;
normalizzare ciascun vettore della base costruita al punto precedente.
Prima di procedere fornendo i dettagli del processo, consideriamo limportante concetto di proiezione.
Siano v e w due vettori di Rn , con w 6= 0. La proiezione di v nella direzione di w `e il vettore
vw
w.
projw (v) =
ww
Si noti che (v projw (v)) w.
Torniamo al procedimento di Gram-Schmidt. Sia B = {v1 , v2 , . . . , vn } una base di Rn . Costruiamo
vettori w1 , w2 , . . . , wn ponendo
w1 := v1
w2 := v2 projw1 (v2 )
..
.
wn := vn projw1 (vn ) projw2 (vn ) projwn1 (vn ).
Si verifica facilmente che i vettori w1 , w2 , . . . , wn sono a due a due ortogonali. Essi sono pertanto
linearmente indipendenti e quindi costituiscono una base di Rn . Infine ponendo
w1
c1
=w
u1 :=
kw1 k
w2
c2
u2 :=
=w
kw2 k
..
.
wn
d
un :=
=w
n,
kwn k
otteniamo una base ortonormale di Rn .
Notiamo che mettendo in colonna i vettori di una base ortogonale formiamo una matrice A tale che
AtA = I. Poich`e ogni matrice commuta con linversa, abbiamo anche che AAt = I. Segue quindi che
anche le righe della matrice costituiscono una base ortonormale dello stesso spazio.
Consideriamo la seguente definizione:

33

Definizione 4.6. Una matrice `e detta matrice ortogonale se AtA = AAt = I.


Le seguenti propriet`
a per matrici ortogonali sono di verifica immediata.
Proposizione 4.7. Siano A, B due matrici ortogonali. Le seguenti valgono:
(1) tA `e ortogonale;
(2) det(A) = 1;
(3) AB `e ortogonale.

34

5. Applicazioni lineari

5.1. Definizione e principali propriet`


a.

Consideriamo ora funzioni tra spazi vettoriali. Particolarmente importanti per i nostri scopi `e di studiare applicazioni compatibili con le strutture di spazio vettoriale. Consideriamo quindi la seguente
definizione.
Definizione 5.1. Siano V, W due spazi vettoriali. Una funzione T : V W `e unapplicazione
lineare se v1 , v2 V e kR,
(AL1) T (v1 + v2 ) = T (v1 ) + T (v2 );
(AL2) T (kv1 ) = kT (v1 ).
V `e il dominio, W `e il codominio. T `e detta iniettiva se per ogni coppia di vettori v1 , v2 V con
v1 6= v2 , si ha T (v1 ) 6= T (v2 ). T `e suriettiva se ogni elemento del codominio ha una controimmagine,
ovvero se per ogni w W esiste v V tale che T (v) = w. T `e biiettiva se `e sia iniettiva che suriettiva.
Esempio 5.2. Sia V uno spazio vettoriale n-dimensionale e sia B = {v1 , v2 , . . . , vn } una base di V .
Lapplicazione T : V Rn che associa ad ogni v V le sue coordinate rispetto alla base B scelta. Si
mostra facilmente che T `e unapplicazione lineare, iniettiva e suriettiva, quindi biiettiva.
4
Esempio 5.3. Sia V lo spazio vettoriale delle funzioni infinitamente volte differenziabili, V = C e
consideriamo loperatore di derivazione D : V V . D `e chiaramente unapplicazione lineare. Essa non
`e ne iniettiva ne suriettiva.
4
Definizione 5.4. Sia T : V W una applicazione lineare. Poniamo:
ker(T ) := {v V : T (v) = 0W }.
Ricordiamo che limmagine di una applicazione T : V W , e quindi in particolare anche di una
applicazione lineare, `e definita ponendo
Im(T ) := {w W : v V tale che T (v) = w} = {T (v) : v V }.
Valgono le seguenti proposizioni:
Proposizione 5.5. Sia T : V W una applicazione lineare. Allora ker(T ) `e un sottospazio vettoriale
di V e Im(T ) `e un sottospazio vettoriale di W .
Proof. Proviamo che ker(T ) `e unapplicazione lineare. Siano v1 , v2 vettori appartenenti al nucleo e sia
k un numero reale. Consideriamo la somma v1 + v2 . Si ha dalla definizione di ker(T ):
T (v1 + v2 ) = T (v1 ) + T (v2 ) = 0W + 0W = 0W ,
cio`e v1 + v2 ker(T ). Inoltre anche kv1 ker(T ) in quanto:
T (kv1 ) = kT (v1 ) = k0W = 0W .
Segue quindi che ker(T ) `e un sottospazio vettoriale di V .

35

Siano ora w1 , w2 vettori appartenenti allimmagine di T e sia k un numero reale. Siano v1 , v2 V tali
che T (v1 ) = w1 e T (v2 ) = w2 . Allora:
w1 + w2 = T (v1 ) + T (v2 ) = T (v1 + v2 )
e
kw1 = kT (v1 ) = T (kv1 ).
Segue che w1 + w2 e kw1 appartengono allimmagine di T e quindi che Im(T ) `e un sottospazio vettoriale
di W .

Proposizione 5.6. Unapplicazione lineare T : V W `e iniettiva se e solo se ker(T ) = {0V }.
Proof. Supponiamo T iniettiva e sia v ker(T ). Poiche T (v) = T (0V = 0W per liniettivit`a di T segue
v = 0V .
Supponiamo ora che ker(T ) = {0V } e siano v1 , v2 V con T (v1 ) = T (v2 ). Allora T (v1 v2 ) =
T (v1 ) T (v2 ) = 0W , cio`e v1 v2 ker(T ). Quindi v1 v2 = 0V , da cui v1 = v2 , ovvero T `e
iniettiva.

Dalla definizione di Im(T ) si ha ovviamente che T `e suriettiva se e solo se Im(T ) = W .
Unapplicazione lineare `e detta anche omomorfismo. Se essa `e iniettiva allora `e un monomorfismo, se
suriettiva `e un epimorfismo e se biiettiva `e un isomorfismo. Unapplicazione lineare di uno spazio in
se `e detta endomorfismo mentre con il termine automorfismo si intende un isomorfismo di uno spazio
vettoriale in se stesso.
Date due applicazioni lineari T, T 0 : V W , definiamo la somma T + T 0 ponendo, per ogni v V :
(T + T 0 )(v) := T (v) + T 0 (v).
Si verifica facilmente che T + T 0 `e una applicazione lineare. Inoltre se k R possiamo definire
unapplicazione lineare kT : V W , ponendo, per ogni v V :
(kT )(v) := k(T (v)).
Proposizione 5.7. Siano V, W due spazi vettoriali. Linsieme
Hom(V, W ) := {T : V W : T `e unapplicazione lineare},
con le operazioni di somma e moltiplicazione per uno scalare definite precedentemente e vettore nullo
lapplicazione lineare che associa ad ogni vettore v il vettore nullo in W , `e uno spazio vettoriale. Se
W = V scriveremo End(V ) al posto di Hom(V, V ).
Teorema 5.8. Siano V, W spazi vettoriali finito dimensionali e sia T : V W unapplicazione lineare.
Allora
dim(V ) = dim(ker(T )) + dim(Im(T )).
Proof. Se Im(T ) = {0W } allora V = ker(T ) e quindi in tal caso il risultato `e ovvio. Sia s = dim(Im(T ))
e sia {w1 , w2 , . . . , ws } una base di Im(T ). Siano v1 , v2 , . . . , vs vettori di V tali che T (vi ) = wi per
ogni i {1, 2, . . . , s}.
Sia ora q = dim(ker(T )) e {u1 , u2 , . . . , uq } una base di ker(T ).
Dimostriamo che {u1 , u2 , . . . , uq , v1 , v2 , . . . , vs } `e una base di V . Dobbiamo quindi mostrare che:
(1) i vettori u1 , u2 , . . . , uq , v1 , v2 , . . . , vs sono linearmente indipendenti;
(2) i vettori u1 , u2 , . . . , uq , v1 , v2 , . . . , vs generano V .

36

Siano a1 , a2 , . . . , aq , b1 , b2 , . . . , bs scalari tali che:


a1 u1 + a2 u2 + + aq uq + b1 v1 + b2 v2 + + bs vs = 0V .

(10)

Poiche {u1 , u2 , . . . , uq } `e una base di ker(T ) e T (vi ) = wi per ogni i {1, 2, . . . , s} vale:
0W = T (0V ) = T (a1 u1 + a2 u2 + + aq uq + b1 v1 + b2 v2 + + bs vs )
= a1 T (u1 ) + a2 T (u2 ) + + aq T (uq ) + b1 T (v1 ) + b2 T (v2 ) + + bs T (vs )
= b1 w1 + b2 w2 + + bs ws .
Essendo i vettori w1 , w2 , . . . , ws linearmente indipendenti (essi formano una base di Im(T )) si ha che
b1 = b2 = = bs = 0. Sostituendo tali valori in (10) otteniamo:
a1 u1 + a2 u2 + + aq uq = 0V .
I vettori u1 , u2 , . . . , uq sono linearmente indipendenti, da cui a1 = a2 = = aq = 0 e quindi i vettori
u1 , u2 , . . . , uq , v1 , v2 , . . . , vs sono linearmente indipendenti.
Dimostriamo ora che gli stessi vettori costituiscono un sistema di generatori di V . Sia v V . Allora
T (v) Im(T ). Essendo {w1 , w2 , . . . , ws } una base di Im(T ) esistono coefficienti b1 , b2 , . . . , bs R tali
che T (v) = b1 w1 + b2 w2 + + bs ws . Ma per ogni i = 1, 2, . . . , s wi = T (vi ). Pertanto:
T (v) = b1 T (v1 ) + b2 T (v2 ) + + bs T (vs ) = T (b1 v1 + b2 v2 + + bs vs ),
da cui
0W = T (v) T (b1 v1 + b2 v2 + + bs vs ) = T (v b1 v1 b2 v2 bs vs ).
Quindi v b1 v1 b2 v2 bs vs ker(T ) ed esistono pertanto scalari a1 , a2 , . . . , aq tali che:
v b1 v1 b2 v2 bs vs = a1 u1 + a2 u2 + + aq uq .
Dunque v = a1 u1 + a2 u2 + + aq uq + b1 v1 + b2 v2 + + bs vs . Questo prova la tesi.

Corollario 5.9. Siano V, W spazi vettoriali finito dimensionali tali che dim(V ) = dim(W ) e sia T :
V W unapplicazione lineare. Allora T `e iniettiva se e solo se `e suriettiva.
Siano U, V, W spazi vettoriali reali e siano T : U V , S : V W due applicazioni lineari. La
composizione di S e T `e lapplicazione S T : U W definita ponendo, al variare di u U :
S T (u) = S(T (u)).
Lapplicazione S T `e ancora lineare.
Proposizione 5.10. Siano U, V, W spazi vettoriali reali,
T1 , T2 : U V

and

S1 , S2 : V W

applicazioni lineari e k R. Allora:


S1 (T1 + T2 ) = S1 T1 + S1 T2 ;
(S1 + S2 ) T1 = S1 T1 + S2 T1 ;
(kS1 ) T1 = S1 (kT1 ) + k(S1 T1 ).
Si noti che se S, T : V V sono due endomorfismi allora esistono S T e T S ma in generale
S T 6= T S.
Inoltre se T `e un endomorfismo allora T si pu`o comporre con se stesso. Possiamo quindi definire T n
come il risultato della composizione di T con se stesso n volte:
Tn = T
|

{z
T}
n

37

Proposizione 5.11. Sia T : V W unapplicazione biettiva. Allora lapplicazione inversa S : V


W `e lineare.

5.2. Applicazioni lineari e matrici.

Cominciamo questa sezione con un esempio.


Esempio 5.12. Sia

A=

a11
a21
..
.
am1

a12
a22
..
.
am2

..
.

a1n
a2n
..
.
amn

una matrice m n. Possiamo associare ad A unapplicazione lineare TA : Rn Rm ponendo:

x1

x2

TA (x1 , x2 , . . . , xn ) := A .
.
..
xn
La linearit`
a di TA segue dalle propriet`
a del prodotto di matrici.
4
Viceversa siano V, W spazi vettoriali con basi rispettivamente {v1 , v2 , . . . , vn } e {w1 , w2 , . . . , wm } e
sia T : V W una applicazione lineare. Costruiamo la matrice MT associata allapplicazione lineare
T rispetto alle basi scelte nel seguente modo. Al variare di i in {1, 2, . . . , n} la i-esima colonna di MT
`e costituita dalle coordinate del vettore vi W rispetto alla base {w1 , w2 , . . . , wm }.
Per fissare le idee consideriamo il caso in cui V = Rn e W = Rm . Quanto verificheremo per tale
particolare esempio `e generalizzabile al caso di generici spazi vettoriali finito dimensionali V e W .
Fissiamo su Rn e Rm le basi canoniche. Sia ora T : Rn Rm unapplicazione lineare, v = (x1 , x2 , . . . , xn )
Rn e sia w = (y1 , y2 , . . . , ym ) := T (v) Rm .
Dalle propriet`
a di linearit`
a di T , segue:

y1
y2
..
.
ym

= T (v) = x1 T (e1 ) + x2 T (e2 ) + + xn T (en ) = MT

x1
x2
..
.
xn

dove MT `e la matrice le cui colonne sono i vettori T (e1 ), T (e2 ), . . . , T (en ).


Dalluguaglianza T (v) = x1 T (e1 )+x2 T (e2 )+ +xn T (en ) notiamo che i vettori T (e1 ), T (e2 ), . . . , T (en )
costituiscono un sistema di generatori per Im(T ). Il nucleo di T `e linsieme dei vettori (x1 , x2 , . . . , xn )
Rn tali che:

38


0
x1

x2 0

MT
.. = ..
. .
0
xn
con lo spazio delle soluzioni del sistema lineare omogeneo la

cui matrice dei coefficienti `e MT .

0
Sia T : V W unapplicazione lineare. Siano {v1 , v2 , . . . , vn }, {v10 , v20 , . . . , vn
} basi di V e
0
0
0
{w1 , w2 , . . . , wm }, {w1 , w2 , . . . , wm } basi di W , con matrici cambio di base C e D rispettivamente.

Siano ancora A, A0 le due matrici associate a T rispetto alle basi {v1 , v2 , . . . , vn }, {w1 , w2 , . . . , wm }
0
0
e {v10 , v20 , . . . , vn
}, {w10 , w20 , . . . , wm
}.
Se v V ha coordinate (x1 , x2 , . . . , xn ) rispetto alla base {v1 , v2 , . . . , vn } e (x01 , x02 , . . . , x0n ) rispetto
0
alla base {v10 , v20 , . . . , vn
} e T (v) ha coordinate (y1 , y2 , . . . , ym ) rispetto alla base {w1 , w2 , . . . , wm }
0
0
0
0
e (y1 , y2 , . . . , ym ) rispetto alla base {w10 , w20 , . . . , wm
} allora sussistono le seguenti relazioni:

0
0

x1
y1
x1
y1
0
0

x
y
x2
y2
. = A . e .2 = A0 .2 .
.
.
.
.
.
.
.
.
0
x0n
ym
xn
ym
Inoltre poiche:

x01
x02
..
.
x0n

= C 1

x1
x2
..
.
xn

y10
y20
..
.
0
ym

= D1

y1
y2
..
.
ym

segue

y1
y2
..
.
ym

= A0 C 1

x1
x2
..
.
xn

da cui

y1
y2
..
.
ym

= DA0 C 1

x1
x2
..
.
xn

Pertanto A = DA0 C 1 ed equivalentemente A0 = DAC 1 .


0
Nel caso speciale in cui V e W coincidono, fissate le basi {v1 , v2 , . . . , vn }, {v10 , v20 , . . . , vn
} di V con
matrice di cambio di base C, allorain tal caso:

A0 = C 1 AC.
Definizione 5.13. Due matrici quadrate di ordine n A e A0 sono simili se esiste una matrice invertibile
C tale che A0 = C 1 AC.
Vale il seguente teorema:
Teorema 5.14. La similitudine `e una relazione di equivalenza.
Dal teorema di Binet segue il seguente risultato:
Proposizione 5.15. Due matrici simili hanno lo stesso determinante.

39

6. Diagonalizzazione di matrici

6.1. Problema di diagonalizzazione.

Nello studio di un endomorfismo particolarmente interessante `e analizzare gli spazi che sono invarianti
rispetto a tale applicazione. Tale analisi prende il nome di teoria spettrale. In questa sezione ne studieremo
alcuni aspetti basilari con particolare riferimento a spazi vettoriali reali di dimensione finita.
Definizione 6.1. Sia V uno spazio vettoriale reale finito dimensionale e sia T : V V unapplicazione
vettoriale di V in se (endomorfismo). Un autovettore di T `e un vettore non nullo v V \ {0} per cui
esiste uno scalare R tale che:
T (v) = v.
In tal caso `e detto autovalore di T relativo allautovettore v o equivalentemente che v `e un autovettore
di T con autovalore . Linsieme di tutti gli autovalori di T `e detto spettro di T .
Osserviamo che se v `e un autovettore di T , il suo autovalore `e univocamente determinato: infatti se fosse
T (v) = 1 v = 2 v allora 0 = 1 v 2 v = (1 2 )v, da cui, poiche v 6= 0, 1 2 = 0 e quindi 1 = 2 .
Inoltre se v `e un autovettore di un endomorfismo T con autovalore e k R uno scalare diverso da 0
allora kv `e anchesso un autovettore di T con autovalore .
Pi`
u in generale vale la seguente:
Proposizione-Definizione 6.2. Sia T : V V un endomorfismo e sia R un autovalore di T .
Poniamo:
A := {v V : T (v) = v}.
Allora A `e un sottospazio vettoriale di V , detto autospazio di T relativo allautovalore .
Introduciamo anche il seguente risultato.
Proposizione 6.3. Sia T : V V un endomorfismo, v1 , v2 , . . . , vr autovettori di T con distinti
autovalori 1 , 2 , . . . , r . Allora i vettori v1 , v2 , . . . , vr sono linearmente indipendenti.
Proof. Omessa.

Se V `e uno spazio vettoriale n-dimensionale su R e {v1 , v2 , . . . , vn } `e una base di V , allora esiste


una corrispondenza biunivoca tra endomorfismi di V e matrici ad entrate reali di tipo n n ottenuta
associando ad ogni endomorfismo la sua matrice associata rispetto alla base {v1 , v2 , . . . , vn } e viceversa
ad ogni matrice A n n lapplicazione v 7 Av.
Se T : V V `e un endomorfismo di V , con matrice associata A rispetto ad una base fissata
{v1 , v2 , . . . , vn } di V allora uno scalare `e un autovalore di T se e solo se esiste v V \ {0} tale
che, se (x1 , x2 , . . . , xn ) sono le coordinate di v rispetto alla base scelta, allora:

x1
x1

x2
x2

A . = .
.
..
..
xn
xn

40

In tal caso si ottiene

x1
x2
..
.
xn

x1
x2
..
.
xn

x1
x2
..
.
xn

= 0,

da cui

x1
x2
..
.
xn

=0

e quindi

(A I)

x1
x2
..
.
xn

= 0.

Pertanto `e un autovalore di T se e solo se il sistema lineare omogeneo con matrice dei coefficienti AI
`e compatibile e indeterminato e questo si verifica se e solo se A I `e singolare, ovvero det(A I) = 0.
Se `e uno scalare generico, il determinante di A I `e un polinomio in di grado n, detto polinomio
caratteristico di A. Lequazione che si ottiene eguagliando a 0 il determinante di A I `e detta
equazione caratteristica di T (o di A). La molteplicit`a di come radice dellequazione caratteristica `e
la molteplicit`
a algebrica di . La dimensione di A come sottospazio vettoriale di V `e la molteplicit`
a
geometrica.
Questa definizione di polinomio caratteristico e quindi di equazione caratteristica `e ben posta se matrici
associate al medesimo endomorfismo rispetto a basi differenti hanno lo stesso polinomio caratteristico.
Abbiamo visto alla fine della sezione precedente che due tali matrici sono simili. Siano A e A0 due matrici
simili e sia C una matrice invertibile tale che A0 = C 1 AC. Allora:
det(A0 I) = det[C 1 AC I] =
= det[C 1 AC C 1 (I)C] =
= det[C 1 (A I)C] =
= det(A I),
ovvero matrici simili hanno lo stesso polinomio caratteristico.
Un minore di ordine k di una matrice quadrata A `e detto principale se i termini principali della sottomatrice di A di cui esso `e il determinante sono termini principali di A.
Proposizione 6.4. Sia A una matrice di ordine n. Il polinomio caratteristico di A `e:
p() = (1)n n + c1 n1 + + cn1 + cn ,
dove i coefficienti ck sono dati da:
ck = (1)nk

Mk ,

dove la somma `e estesa ai minori principali di A di ordine k. In particolare abbiamo c1 = (1)n1 tr(A)
e cn = det(A).
Se una matrice A ha forma diagonale, ovvero gli unici elementi della matrice che possono essere diversi
da 0 sono i suoi elementi principali a11 , a22 , . . . , ann allora tali elementi sono gli autovalori della matrice.
Introduciamo ora il seguente problema noto con il termine: Problema di diagonalizzazione.

41

PROBLEMA DI DIAGONALIZZAZIONE - Data un endomorfismo T di uno spazio vettoriale


finito dimensionale V , esiste una base di V tale che la matrice associata a T rispetto a questa base `e
diagonale? Se il problema ha risposta affermativa diremo T diagonalizzabile.
Dal punto di vista delle matrici la questione diventa: data una matrice quadrata A di ordine n, esiste una
matrice invertibile P dello stesso ordine tale che P 1 AP `e diagonale? Ancora diremo A diagonalizzabile
se la risposta alla precedente domanda `e s`.
Il seguente fondamentale teorema fornisce una condizione necessaria e sufficiente affinche una matrice A
(e quindi un endomorfismo) sia diagonalizzabile.
Teorema 6.5. Una matrice quadrata di ordine n A `e diagonalizzabile se e solo se esiste una base di Rn
formata da autovettori di A.
Proof. Assumiamo A diagonalizzabile. Allora dalla definizione esiste P matrice invertibile con D =
P 1 AP diagonale. Siano p1 , p2 , . . . , pn le colonne di P e siano 1 , 2 , . . . , n gli elementi sulla diagonale di D. Si noti che P D e AP sono le la matrici n n le cui colonne sono rispettivamente i vettori i pi
e Api , i = 1, 2, . . . , n. Ma D = P 1 AP implica P D = AP e quindi i vettori pi sono gli autovettori di A
con autovalori i . Poiche P `e invertibile allora il rango di P `e massimo ovvero i vettori p1 , p2 , . . . , pn
sono linearmente indipendenti. Essi pertanto costituiscono una base Rn e la prima implicazione `e provata.
Supponiamo ora che {p1 , p2 , . . . , pn } sia una base di Rn costituita da autovettori, con pi autovettore
di A con autovalore i . Allora si vede facilmente che la matrice P le cui colonne sono proprio i vettori
p1 , p2 , . . . , pn `e tale che P 1 AP sia la matrice diagonale

1 0 0

0 2 0

D= .
..
..
..
.
.
..
.
.
0
0 n
Questo completa la dimostrazione.

Vale inoltre anche il seguente importante risultato che comunque non dimostriamo.
Teorema 6.6. Sia A una matrice quadrata e un autovalore di A. Allora la molteplicit`
a algebrica di
`e sempre maggiore o uguale della molteplicit `
a geometrica dello stesso autovalore. Se vale luguaglianza
lautovalore `e detto regolare.
Corollario 6.7. Una matrice quadrata di ordine n A `e diagonalizzabile (in R) se la somma delle
molteplicit`
a algebriche dei suoi autovalori `e n e se tutti i suoi autovalori sono sono regolari.
Proof. Scegliamo una base di ciascun autospazio. In virt`
u del Teorema 6.6 e della Proposizione 6.3
lunione delle basi scelte per ogni autospazio costituisce una base di Rn . Il corollario segue pertanto dal
Teorema 6.5.

Corollario 6.8. Ogni autovalore semplice, ovvero la cui molteplicit`
a algebrica `e pari ad 1, `e regolare.
Proof. Infatti se A `e una matrice quadrata e `e un autovalore semplice di A allora, indicando con
m. a.() e con m. g.() rispettivamente le molteplicit`a algebrica e geometrica dellautovalore , si ha:
1 m. g.() m. a.() = 1,
da cui m. g.() = m. a.() = 1.

Corollario 6.9. Se una matrice quadrata di ordine n A ha n autovalori distinti allora A `e diagonalizzabile.

42

Proof. Il risultato segue immediatamente dai due corollari precedenti.

6.2. Caso delle matrici simmetriche.

Ricordiamo che una matrice quadrata `e simmetrica se uguale alla sua trasposta, mentre `e ortogonale se
la sua inversa `e uguale alla sua trasposta. Per tali matrici valgono le seguenti propriet`a:
Teorema 6.10. Ogni matrice simmetrica `e diagonalizzabile.
Teorema 6.11. Sia A una matrice simmetrica. Se 1 e 2 sono distinti autovalori di A, allora autovettori v1 e v2 di A relativi rispettivamente agli autovalori 1 e 2 sono ortogonali.
Corollario 6.12. Una matrice simmetrica `e diagonalizzabile mediante una matrice ortogonale, ovvero
`e ortogonalmente simile ad una matrice diagonale.
Data quindi una matrice A esiste una matrice ortogonale P tale che D = t P AP `e diagonale.
Questultimo enunciato si pu`
o scrivere nella forma equivalente:
Corollario 6.13. Sia A una matrice simmetrica di ordine n. Allora esiste una base ortogonale di Rn
formata da autovettori di A.
Vale anche il viceversa del Corollario 6.12, ovvero:
Teorema 6.14. Una matrice ortogonalmente simile ad una matrice diagonale reale `e simmetrica.
Proof. Sia A una matrice ortogonalmente diagonalizzabile. Siano pertanto D una matrice diagonale e P
una matrice ortogonale tale che:
D = t P AP.
Trasponendo ambo i termini delluguaglianza otteniamo:
D = t D = P t At P = P At P,
dove abbiamo utilizzato il fatto che sia A che D sono diagonali. Moltiplicando ora a sinistra per t P e a
destra per P otteniamo t A = A, cio`e la tesi.


43

7. Spazi affini e spazi Euclidei

Vogliamo ora applicare le nozioni acquisite di algebra lineare alla geometria euclidea. Introduciamo
pertanto un modello di spazio geometrico che generalizza che generalizza lo spazio reale. Approfondiremo
in seguito il caso dello spazio ordinario.
Definizione 7.1. Sia V uno spazio vettoriale reale. Uno spazio affine su V `e un insieme non vuoto
S, i cui elementi si diranno punti, unitamente ad una applicazione
: S S V

che associa ad ogni coppia di punti (P, Q) S S un vettore di ((P, Q)) = P Q = Q P V , detto
vettore di punto inziale P e punto finale Q, che gode delle seguenti propriet`
a:

(SA1) per ogni punto P S e per ogni vettore v V esiste un unico punto Q S tale che P Q = v;
(SA2) per ogni terna di punti P, Q, R S risulta

P R = P Q + QR.

Se (P, Q) S S diremo anche che P `e il punto di applicazione del vettore P Q.


Dalla propriet`
a (SA1) segue che, fissato un punto O S si ottiene in modo naturale una corrispondenza

biunivoca tra S e V associando ad ogni punto P S il vettore OP V . In conseguenza delle proprieta


(SA1) e (SA2) seguono la proposizione.
Proposizione 7.2. Sia V uno spazio vettoriale e sia S uno spazio affine su V . Allora, per ogni P, Q S

P Q = 0V se e solo se P = Q;

P Q = QP .
Esempio 7.3. Sia V uno spazio vettoriale reale. Ponendo

:= w v
vw
definiamo su V una struttura di spazio affine su se stesso. Denotiamo V con questa struttura di spazio
affine con Va .
4
Esempio 7.4. Un caso particolare dellesempio precedente particolarmente interessante `e quando V =
Rn per qualche n. Lo spazio affine An := (Rn )a `e detto n-spazio affine reale.
4
Definizione 7.5. Sia V uno spazio vettoriale reale di dimensione n e sia S uno spazio affine su V . Un
sistema di riferimento affine `e costituito da un punto O S, detto origine del sistema e da una base
B = {e1 , . . . , en } di V ; esso si indica anche con Oe1 . . . en .

Sia P S. Le coordinate del vettore OP rispetto alla base B sono le coordinate affini di P . Se P ha
coordinate a1 , . . . , an scriveremo in breve P (a1 , . . . , an ). Notiamo che se P (a1 , . . . , an ), Q(b1 , . . . , bn ) S

il vettore P Q ha (b1 a1 , . . . , bn an ) come n-upla di coordinate rispetto alla base B.


Definizione 7.6. Sia S uno spazio affine su uno spazio vettoriale V , con struttura fornita dallapplicazione
: S S V . Un sottoinsieme S0 di S `e un sottospazio affine se esiste un sottospazio vettoriale
V 0 tale che la restrizione di a S0 S0 induce su S0 la struttura di spazio affine su V 0 . In tal caso lo

44

spazio vettoriale V 0 `e detto spazio direttore o pi`


u semplicemente direzione o ancora giacitura del
0
sottospazio affine S .
Sia S uno spazio affine su uno spazio vettoriale V e sia S0 un sottospazio affine di S. Se dim(S0 ) = 0
allora S0 `e costituito da un solo punto. Vale anche il viceversa ovvero ogni sottoinsieme di S costiutito
da un solo punto `e un sottospazio affine di S 0-dimensionale. Se dim(S0 ) = 1 (dim(S0 ) = 2) allora S0 `e
una retta di S (piano di S). Se dim(S0 ) = dim(S) 1 allora S0 `e detto iperpiano di S.
Nota 7.7. Dalla definizione di sottospazio affine notiamo che per dare un sottospazio affine S0 di un
sottospazio affine di S `e sufficiente dare un suo punto P0 e la sua giacitura. Infatti i punti di S0 sono

esattamente i punti P di S tali che il vettore P0 P appartiene alla giacitura di S0 .


Analizziamo ora la posizione reciproca tra due sottospazi affini di uno spazio affine S.
Definizione 7.8. Sia S uno spazio affine su uno spazio vettoriale V e siano S0 , S00 sottospazi affini di S.
S0 , S00 sono incidenti se S0 S00 6= .
S0 , S00 sono paralleli se gli spazi direttori sono uno contenuto nellaltro.
S0 , S00 sono sghembi se non sono ne incidenti ne paralleli.
Studiamo ora i due principali modi di rappresentare algebricamente un sottospazio affine.
Sia S uno spazio affine su uno spazio vettoriale V e sia Oe1 . . . en un sistema di riferimento affine su S.
Sia S0 un sottospazio affine m-dimensionale di S con giacitura V 0 e sia P0 un punto arbitrario di S0 . Lo
spazio S0 `e il luogo dei punti P di S tali che
(11)

P0 P V 0 .

Fissiamo una base B0 = {e01 , . . . , e0m }. Da (11) si ottiene che per ogni P S0 esistono (e sono unicamente
determinati) scalari t1 , . . . , tm tali che

OP = OP0 + t1 e01 + + tm e0m .
Esplicitando le singole coordinate otteniamo una rappresentazione parametrica del sottospazio affine.
Da tali equazioni, eliminando i parametri osserviamo che un punto P S `e in S0 se e solo se le sue
coordinate soddisfano un sistema lineare di n m equazioni in n incognite. Viceversa si vede facilmente
che lo spazio delle soluzioni di un sistema lineare costituisce un sottospazio affine di un dato (Rn )a . Questa
rappresentazione `e nota come rappresentazione cartesiana. In particolare notiamo che un iperpiano di
(Rn )a `e dato come soluzione di ununica equazione lineare in n incognite x1 , . . . , xn . In questa ottica
possiamo vedere un sottospazio affine come intersezione di pi`
u iperpiani affini.
Quando lo spazio V `e dotato di prodotto interno (, ) : V V R (come nel caso di Rn ) lo spazio ad
esso associato Va `e detto spazio euclideo. Attraverso il prodotto scalare si definisce quindi una metrica
in Va . Dati due punti P (a1 , . . . , an ) e Q(b1 , . . . , bn ) la distanza tra P e Q `e data da:

d(P, Q) = (P Q, P Q).
Inoltre attraverso il prodotto scalare `e possibile definire lortogonalit`a tra due vettori (vettori geometrici)
e langolo tra due vettori.

45

7.1. Geometria nel piano affine.

Studiamo ora pi`


u in dettaglio il piano euclideo A2 = (R2 )a . Fissiamo quindi un punto O in R2 e sia

{e1 , e2 } la base canonica. Un generico vettore v = OP si scriver`a:

v = OP = xe1 + ye2 ,

dove x, y sono le componenti del vettore OP e simultaneamente le coordinate affini del punto P .
Il punto O `e lorigine del sistema di riferimento, le rette per O di giaciture he1 i e he2 i sono gli assi
coordinati (dette altres` ascissa ed ordinata o pi`
u semplicemente asse x e asse y).

Se P (x1 , y1 ) e Q(x2 , y2 ) sono punti nel piano affine, il vettore P Q avr`a componenti
(x2 x1 , y2 y1 ).
Consideriamo ora una retta nel piano. Per rappresentarlo possiamo utilizzare come usuale la rappresentazione parametrica e la rappresentazione cartesiana.
Sia r una retta nel piano affine, sia v = (l, m) un vettore preso come base dello spazio direttore di r
(detto anche vettore direttore o vettore di direzione) e sia P0 (x0 , y0 ) un punto di r. Un generico punto
P (x, y) si pu`
o scrivere in forma vettoriale:

r : OP = OP0 + tv
t R.
Esplicitando le coordinate si ottiene:

(12)

r:

x = x0 + lt

t R.

y = y0 + mt

Queste sono le equazioni parametriche della retta r passante per il punto P e avente vettore di
direzione v = (l, m). Al variare di t in R esse forniscono le coordinate di tutti i punti della retta.
Esempio 7.9. Consideriamo il problema di determinare lequazione in forma parametrica della retta
r passante per due punti distinti P (x1 , y1 ) e Q(x2 , y2 ). Poiche i due punti appartengono alla retta il

vettore P Q appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore
`e diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il

vettore P Q si trova facendo la differenza delle coordinate dei due punti, cio`e

P Q = Q P = (x2 x1 , y2 y1 ).
Lequazione in forma parametrica di r `e quindi data da:

x = x1 + (x2 x1 )t
r:

y = y1 + (y2 y1 )t

t R.

Per esempio se P (1, 2) e Q(1, 4) allora la retta r per P e Q ha vettore direttore dato da v = P Q =
Q P = (2, 2) e quindi la retta r ha equazione parametrica:

x = 1 2t
r:
t R.

y = 2 + 2t
4

46

Dalle equazioni (12), eliminando il parametro t si ottiene lequazione lineare:


(13)

m(x x0 ) = l(y y0 ).

Ponendo a := m, b := l e c = mx0 + ly0 lequazione assume la forma nota:


r : ax + by + c = 0,
dove a, b non sono entrambi nulli.
Essa viene detta equazione cartesiana (o affine) della retta r. Viceversa data unequazione lineare del
tipo ax + by + c = 0, nella quale a e b non sono entrambi nulli, `e facile verificare che le sue soluzioni sono
date da:

x = x0 bt

t R,

y = y0 + at
dove (x0 , y0 ) corrisponde ad una soluzione particolare dellequazione. Possiamo quindi interpretare
lequazione lineare ax + by + c = 0 come lequazione in forma cartesiana della retta passante per un
punto le cui coordinate (x0 , y0 ) sono una particolare soluzione dellequazione ed avente come vettore di
direzione il vettore v = (b, a).
Sussiste quindi una corrispondenza tra equazioni lineari in due variabili e rette nel piano affine (R2 )a .
Vale cio`e la:
Proposizione 7.10. In coordinate affini x e y una retta `e rappresentata in forma cartesiana da unequazione
lineare in x e y; viceversa unequazione lineare rappresenta una retta.
Si noti che tale corrispondenza non `e biunivoca. Infatti mentre unequazione lineare individua una ben
determinata retta, ad una retta del piano possiamo associare pi`
u equazioni lineari. Esse comunque devono
essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle soluzioni coincide con linsieme
dei punti della retta).
Sia r : ax + by + c = 0 lequazione di una retta. Se b 6= 0 lequazione di r pu`o scriversi nella forma:
y = mx + q,
dove m = ab `e il coefficiente angolare della retta r. Tale nome `e dovuto al fatto che essa fornisce
informazioni sulla misura dellangolo che la retta forma con il semiasse positivo delle ascisse. In
particolare vale m = tg().
Due rette r e s sono parallele se e solo se esse hanno lo stesso spazio direttore, e qundi se e solo se i loro
vettori di direzione sono tra loro proporzionali. Se le rette sono date attraverso le equazioni cartesiane
r : ax + by + c = 0 e s : a0 x + b0 y + c0 = 0 allora r ed s sono parallele se le coppie (a, b) e (a0 , b0 ) sono
in proporzione ovvero se e solo se esiste k R \ {0} tale che a0 = ka e b0 = kb. Essendo il coefficiente
angolare di una retta dato dal rapporto tra i coefficienti di x e y (cambiato di segno) si osserva facilmente
che due rette parallele hanno lo stesso coefficiente angolare.
Esempio 7.11. Determiniamo le rette passanti per un punto P (0, 1) e parallele rispettivamente alle
rette di equazioni:

x=3+t
r:
tR

y = 7 + 5t
e
s : 2x 3y + 1 = 0.

47

Il vettore di direzione della retta r `e v = (1, 5). La retta r0 passante per P e parallela a r ha equazione
in forma parametrica data da

x=t
r0 :
t R.

y = 1 + 5t
Unequazione della retta r0 in forma cartesiana si ottiene facilmente sostituendo a t il monomio x nella
seconda equazione. Essa `e pertanto:
r0 : 5x y 1 = 0.
La retta s0 passante per P e parallela a s ha equazione del tipo:
s0 : 2x 3y + c0 = 0.
Imponendo che le coordinate di P siano soluzioni dellequazione (tale condizione `e nota come condizione
di passaggio di s0 per P o condizione di appartenenza di P ad s0 ) si ottiene c0 = 2. Quindi s0 ha equazione:
s0 : 2x 3y + 2 = 0.
Possiamo scrivere immediatamente lequazione in forma parametrica per s0 osservando che un vettore di
direzione di s `e dato da v = (l, m) = (b, a) = (3, 2). Lequazione di s0 in forma parametrica `e quindi
data da:

x = 3t

s0 :
t R.

y = 1 + 2t
4
Date due rette distinte nel piano r e r0 queste o sono incidenti, cio`e si intersecano in un punto, o sono
parallele. Utilizzando il prodotto interno in R2 possiamo avere informazioni sullangolo compreso tra le
due rette. Esso coincide con langolo che i due vettori di direzione formano tra loro se applicati in un
medesimo punto. Se i due vettori direttori sono rispettivamente (l, m) e (l0 , m0 ) allora il coseno dellangolo
compreso tra le due rette `e dato da:
c0 ) =
cos(rr

(l, m) (l0 , m0 )
.
k(l, m)kk(l0 , m0 )k

Se conosciamo lequazione cartesiana delle due rette:


r : ax + by + c = 0,

r0 : a0 x + b0 y + c0 = 0,

allora i due vettori direttori saranno rispettivamente (b, a) e (b0 , a0 ). Il coseno dellangolo tra loro
compreso `e dato da:
c0 ) =
cos(rr

aa0 + bb0
(b, a) (b0 , a0 )

=
.
0
0
2
k(b, a)kk(b , a )k
a + b2 a02 + b02

Due rette sono perpendicolari quando langolo tra loro compreso, misurato in senso orario o antiorario

c0 ) = 0. Quindi r `e perpendicolare a r0 se i vettori


misura 90 o meglio 2 radianti, ovvero quando cos(rr
direttori sono ortogonali o equivalentemente, se r : ax + by + c = 0 e r0 : a0 x + b0 y + c0 = 0 sono le
0
equazioni affini delle due rette, la quantit`
a aa0 + bb0 = 0. Se i coefficienti angolari m = ab e m0 = ab0
di entrambe le rette sono diversi da zero allora r `e perpendicolare a r0 se e solo se:
m=

1
,
m0

o equivalentemente se un vettore direttore di r0 `e dato da:


(l0 , m0 ) = (a, b).

48

Esempio 7.12. Determiniamo le rette passanti per un punto P (2, 3) e perpendicolari rispettivamente
alle rette di equazioni:

x = 1 + 2t
r:
tR

y = 1 + t
e
s : x 2y + 3 = 0.
Lequazione della retta r0 avr`
a coefficienti a e b tali che il vettore direzione v = (2, 1) di r sia perpendicolare l vettore direttore di r0 , v 0 = (b, a). Pertanto possiamo prendere a = 2 e b = 1. La retta r0 avr`
a
equazione:
2x + y + c = 0.
Imponendo la condizione di passaggio di r0 per P , si ottiene c = 1. Lequazione affine di r0 `e quindi
data da:
2x + y + 1 = 0.
Lequazione parametrica di r0 sar`
a pertanto:

x=2t
0
r :

y = 3 + 2t

t R,

avendo preso come vettore direttore il vettore (b, a) = (1, 2).


Il vettore direttore di s0 `e invece il vettore (1, 2). Quindi unequazione in forma parametrica di s0 `e
data da:

s0 :

x=2+t

t R,

y = 3 2t
4

Dati due punti P (x1 , y1 ) e Q(x2 , y2 ) nel piano, la distanza tra i due punti coincide con il modulo del

vettore P Q di punto iniziale P e punto finale Q. Essa vale quindi:

d(P ; Q) = k(x2 x1 , y2 y1 )k =

p
(x2 x1 )2 + (y2 y1 )2 .

Vogliamo ora calcolare la distanza di un punto da una retta. In generale la distanza tra due insiemi di
punti (entrambi contenuti in uno stesso spazio metrico) `e il valore minimo delle distanze tra due punti
appartenenti rispettivamente ai due insiemi. Nel caso considerato ovvero della distanza di un punto
P (x0 , y0 ) da una retta r di equazione ax + by + c = 0 il valore minimo `e ottenuto in corrispondenza del
punto di intersezione H di r con la perpendicolare condotta da P a r stessa.
Potremo trovare la retta s perpendicolare a r passante per P , trovare il punto H di intersezione di s e
r e quindi la distanza tra i due punti P e H. Questo procedimento `e troppo lungo. Abbiamo strumenti
matematici adeguati per trovare la distanza cercata in modo pi`
u rapido. Prendiamo un punto Q(x1 , y1 )

appartenente alla retta r e consideriamo il vettore QP = P Q. Abbiamo visto precedentemente che un


vettore perpendicolare al piano `e il vettore n = (a, b). La distanza punto retta `e proprio la norma del

vettore proiezione di QP lungo la direzione individuata da n.


Essa pertanto vale:


QP n (x x , y y ) (a, b) |ax + by ax by |
|ax0 + by0 + c|


0
1 0
1
0
1
1
=

(14) d(P ; r) =
n =
=
,

2
2
2
2
knk2
a +b
a +b
a2 + b2

49

essendo Q(x1 , y1 ) un punto della retta r.


Torniamo per un attimo al semplice problema di determinare la retta per due punti P (x1 , y1 ) e Q(x2 , y2 ).
Ogni equazione lineare che ammette come soluzioni le coppie di numeri reali (x1 , y1 ) e (x2 , y2 ) `e unequazione
` pertanto possibile scrivere lequazione della retta r per P e Q in forma di
affine della retta per P e Q. E
determinante, ovvero:

r : det x1
x2

y
y1
y2

1 = 0.
1

Infatti lespressione a primo membro `e proprio unespressione lineare in x e y tale che, sostituendo alle
variabili (x1 , y1 ) o (x2 , y2 ) otteniamo il determinante di una matrice avente due righe uguali, cio`e 0.
Determiniamo ora larea di un triangolo in R2 di estremi P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Essa sar`
a
uguale al semiprodotto della lunghezza di un lato per laltezza ad esso relativa. Sia pertanto b =
p
d(P2 ; P3 ) = (x3 x2 )2 + (y3 y2 )2 . La retta r per P2 e P3 ha equazione in forma di determinante
data da:

x y 1

r : det x2 y2 1 = 0.
x3 y3 1
Notiamo che in tal caso il coefficiente di x `e dato da (y2 y3 ) mentre il coefficiente di y `e dato da (x2 x3 ).
Laltezza relativa al lato P2 P3 corrisponde alla distanza di P1 dalla retta passante per P2 e P3 . Usando
la formula (14), si ottiene:

x1 y1 1
1

det x2 y2 1 .
h = d(P1 ; r) = p
2
2
(y3 y2 ) + (x3 x2 )
x3 y3 1
Segue quindi che larea A del triangolo di estremi P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ) `e data da:

x1 y1 1
1
1

A = b h = det x2 y2 1 .
2
2
x3 y3 1

7.2. Geometria nello spazio affine di dimensione 3.

In questa sezione studiamo lo spazio affine A3 = (R3 )a . I suoi sottospazi affini, oltre a se stesso ed i
suoi punti, sono i piani e le rette. Fissiamo in (R3 )a un sistema di riferimento affine Oe1 e2 e3 dove

{e1 , e2 , e3 } `e una base ortonormale di R3 . Se P `e un punto di (R3 )a allora il vettore v = OP si scriver`


a:

v = OP = xe1 + ye2 + ze3 ,

dove x, y, z sono le componenti del vettore OP e simultaneamente le coordinate affini del punto P .
Il punto O `e lorigine del sistema di riferimento mentre gli assi coordinati coincidono con le direzioni dei
tre vettori e1 , e2 , e3 e sono detti rispettivamente asse x, asse y e asse z.

Il vettore P Q individuato dai punti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) avr`a componenti


(x2 x1 , y2 y1 , z2 z1 ).

50

Un piano in A3 passante per un punto P0 (x0 , y0 , z0 ) ha equazione vettoriale



: OP = OP0 + tv + t0 v 0
t, t0 R.
che si scrive anche in forma scalare come

0 0

x = x0 + lt + l t
(15)
:
y = y0 + mt + m0 t0

z = z0 + nt + n0 t0

t, t0 R,

dove i due vettori v = (l, m, n) e v 0 = (l0 , m0 , n0 ) costiutiscono una base della giacitura V R3 del piano
considerato. I punti P del piano si ottengono dallequazione (15) al variare dei parametri t, t0 in R.
I piani individuati dallorigine O(0, 0, 0) e da due vettori presi in {e1 , e2 , e3 } vengono chiamati piani
coordinati. Essi sono il piano xy, il piano yz ed il piano xz.
Esempio 7.13. Consideriamo il problema di determinare lequazione in forma parametrica del piano
passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Poiche i tre punti appartengono

al piano ma non ad una stessa retta i vettori P1 P2 e P1 P3 (pi`
u in generale due vettori congiungenti
coppie distinte di punti presi tra P1 , P2 e P3 ) costituiscono una base dello spazio direttore del piano .
Pertanto, posto:

v := P1 P2 = P2 P1 = (x2 x1 , y2 y1 )
e

v 0 := P1 P3 = P3 P1 = (x3 x1 , y3 y1 )

Lequazione in forma parametrica di `e quindi data da:

x = x0 + (x2 x1 )t + (x3 x1 )t
:
y = y0 + (y2 y1 )t + (y3 y1 )t0

z = z0 + (z2 z1 )t + (z3 z1 )t0

t, t0 R.

Per esempio se P1 (1, 0, 2), P2 (3, 1, 0) e P3 (1, 1, 4) allora il piano per P1 , P2 e P3 ha direzione

individuata dai vettori v = P1 P2 = P2 P1 = (4, 1, 2) e v 0 = P1 P3 = P3 P1 = (2, 1, 2). Il piano


ha equazione parametrica:

x = x0 + 4t + 2t0

:
y = y0 + t t0
t, t0 R.

0
z = z0 2t + 2t
4
Scriviamo ora lequazione, in forma affine, del piano passante per un punto P (x0 , y0 , z0 ) avente giacitura
V = hv, v 0 i dove v = (l, m, n) e v 0 = (l0 , m0 , n0 ). Sia P (x, y, z) un punto del piano . I vettori

P0 P = (x x0 , y y0 , z z0 ), v e v 0 appartengono tutti alla giacitura di , che ha dimensione 2.


Pertanto essi sono linearmente dipendenti. Consideriamo la matrice:

x x0 y y0 z z0

A=
l
m
n
.
0
0
0
l
m
n

I tre vettori riga di A corrispondono ai vettori P0 P , v e v 0 e quindi A ha rango 2. Il determinante di A


deve pertanto essere uguale a 0. Otteniamo, sviluppando il determinante mediante il metodo do Laplace
rispetto alla prima riga:
(16)

0 = det(A) = (x x0 )(mn0 m0 n) + (y y0 )(ln0 + l0 n) + (z z0 )(lm0 l0 m).

Posto a := (mn0 m0 n), b := (ln0 + l0 n), c := (lm0 l0 m) e d := x0 (mn0 m0 n) y0 (ln0 + l0 n)


z0 (lm0 l0 m) lequazione 16 `e della forma:
(17)

ax + by + cz + d = 0.

51

Viceversa data unequazione del tipo (17), scritto il suo spazio delle soluzioni utilizzando i parametri,
otteniamo unespressione del tipo (15).
Essa corrisponde quindi ad un piano affine in A3 .
Come per il caso 2-dimensionale, sussiste quindi una corrispondenza tra equazioni lineari in tre variabili
e piani affini in A3 . Vale cio`e la:
Proposizione 7.14. In coordinate affini x, y e z, un piano in A3 `e rappresentato in forma cartesiana
da unequazione lineare in x, y e z; viceversa unequazione lineare nelle stesse coordinate rappresenta un
determinato piano in A3 .
Si noti che anche in questo caso tale corrispondenza non `e biunivoca. Infatti mentre unequazione lineare
individua un piano, ad un piano nello spazio affine 3-dimensionale possiamo associare pi`
u equazioni
lineari. Esse comunque devono essere equivalenti, ovvero devono avere le stesse soluzioni (lo spazio delle
soluzioni coincide con linsieme dei punti del piano).
Notiamo inoltre che dato un piano attraverso la sua equazione affine ne possiamo trovare una rappresentazione paraetrica risolvendo lequazione ovvero scrivendone lo spazio dele soluzione attraverso due
parametri. Viceversa data la rappresentazione parametrica di un piano, eliminando i parametri dal
sistema o attraverso una doppia sostituzione o un procedimento di Gauss otteniamo una rappresetazione
Cartesiana dello stesso piano.
Esempio 7.15. Sia ad esempio : 3x + 4z 3 = 0. Risolviamo lequazione. Poniamo pertanto y uguale
ad un parametro t e z uguale alla quantit`a 3t0 . Otteniamo pertanto, al variare di t e t0 in R lo spazio
delle soluzioni dellequazione. Lequazione in forma parametrica di `e quindi data da

x = 4t + 1
:
y=t
t, t0 R.

0
z=t
Viceversa, dato il piano attraverso unequazione in forma parametrica, ad esempio

x = 2t t + 1
:
y = 2t0 5
t, t0 R.

0
z = 3t + 2t 2
per determinarne unequazione in forma cartesiana, ne riscriviamo lequazione parametrica nella forma

2t t x = 1
0
:
2t y = 5

3t + 2t0 z = 2
Abbiamo in un certo senso promosso i parametri a variabili.
`e la seguente

2 1 1 0
0

2
0 1 0
0
3 2
0
0 1

La matrice completa associata al sistema

5 .
2

Attraverso lalgoritmo di Gauss `e possibile ridurre tale matrice nella forma a scala:

2 1 1 0
0 1

0 1 3 0 2 1 .
0 0
6 1 4
3
Lequazione 6x 3y + 4 = 3 `e lequazione del piano in forma affine.
4

52

Esempio 7.16. Consideriamo il problema di determinare lequazione in forma Cartesiana (affine) del
piano passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ). Dallesempio precedente

sappiamo che i vettori v := P1 P2 e v 0 := P1 P3 costituiscono una base della giacitura di . Lequazione


in forma cartesiana del piano si trova ponendo uguale a zero il determinante della matrice:

x x1 y y1 z z1

(18)
x2 x1 y2 y1 z2 z1 ,
x3 x1 y3 y1 z3 z1
dove x, y e z sono le coordinate di un generico punto del piano .
Per esempio se P1 (1, 0, 2), P2 (3, 1, 0) e P3 (1, 1, 4), come nel precedente esempio, allora lequazione
cartesiana del piano per P1 , P2 e P3 ha equazione:

x+1 y z2

: det 4
1
2 = 0,
2
1
2
ovvero
: 0(x + 1) 12y 6(z 2) = 0,
che si pu`
o scrivere nella forma
: 2y + z 2 = 0.
4
Esempio 7.17. Consideriamo ancora la matrice (18) il cui determinante posto uguale a zero `e lequazione
in forma Cartesiana (affine) del piano passante per tre punti non allineati P1 (x1 , y1 ), P2 (x2 , y2 ) e
P3 (x3 , y3 ). Da semplici calcoli si ottiene che questo determinante `e uguale a 0 se e solo se `e nullo il
determinante della matrice:

x y z
x y z
1
1
1
(19)

.
x2 y2 z2
x3 y3 z3
Segue il seguente risultato:
Quattro punti P0 (x0 , y0 ), P1 (x1 , y1 ), P2 (x2 , y2 ) e P3 (x3 , y3 ) sono complanari (ovvero appartengono ad
uno stesso piano) se e solo se il determinante della matrice

x0 y0 z0
x y z
1
1
1

x2 y2 z2
x3

y3

z3

`e nullo.
4
Esempio 7.18. Osserviamo ora che lequazione cartesiana di un piano pu`o assumere delle forme particolari in relazione alla sua posizione rispetto al sistema di riferimento scelto.
Se ad esempio i piani passanti per lorigine O sono tutti e soli i piani di equazione:
ax + by + cz = 0,
con a, b e c non tutti nulli.
I piani paralleli ad un asse coordinato sono caratterizzati dal fatto di avere equazione in forma affine
ax + by + cz + d = 0,

53

dove a = 0 o b = 0 o c = 0, ma non vale a = b = c = 0. In particolare se a = 0 allora il piano `e parallelo


allasse x, se b = 0 `e parallelo allasse y, mentre se c = 0 allora il piano `e parallelo allasse z. In tal caso
rispettivamente i vettori e1 , e2 o e3 appartengono alla giacitura del piano.
Se nellequazione affine del piano mancano due variabili anziche una allora il piano `e parallelo ad
uno dei piani coordinati. Tali piani hanno pertanto equazione in forma affine del tipo x = costante,
y = costante o z = costante a seconda che il piano sia parallelo rispettivamente al piano yz, xz o xy.
4
Studiamo ora la posizione reciproca tra due piani : ax + by + cz + d = 0, 0 : a0 x + b0 y + c0 z + d0 = 0
nello spazio affine A3 . In particolare noi siamo interessati alle possibili intersezioni tra i due piani. A
tale scopo esaminiamo il sistema formato dalle equazioni cartesiane dei due piani:
(
ax + by + cz + d = 0
(20)
a0 x + b0 y + c0 z + d0 = 0
La matrice dei coefficienti A ed il vettore termine noto b sono quindi:
!
!
a b c
d
A=
b=
.
a0 b0 c0
d0
Poiche i coefficienti a, b e c non sono tutti nulli (cos` come i coefficienti a0 , b0 e c0 ) il rango della matrice A
e quello della matrice completa AC possono essere uguali a 1 o a 2. Se entrambi sono uguali ad 1, allora
il sistema `e compatibile e indeterminato. Necessitiamo in tal caso di due parametri per rappresentarne
lo spazio delle soluzioni. Lo spazio delle soluzioni ha pertanto dimensione (affine) pari a due e quindi
coincider`
a con entrambi i piani e 0 . I due piani sono quindi coincidenti.
Se rg(A) = 1 e rg(AC ) = 2, allora il sistema `e incompatibile. In tal caso i due piani hanno la medesima
giacitura e sono paralleli ma non coincidenti. Notiamo che anche quando i due piani sono coincidenti
essi hanno (ovviamente) la medesima giacitura.
Se invece rg(A) = rg(AC ) = 2, allora il sistema `e compatibile e indeterminato con spazio delle soluzioni
avente dimensione affine pari ad 1. Esso coincide pertanto con una retta nello spazio A3 . Notiamo
quindi che a differenza di quello che avviene nel piano affine, per rappresentare una retta occorrono due
equazioni lineari nelle coordinate affini x, y e z. Lequazione (o meglio il sistema di equazioni) (20) dove
il determinante della matrice dei coefficienti A `e uguale a due `e lequazione affine di una retta nello
spazio. Notiamo ancora che tale rappresentazione non `e univocamente determinata dalla retta stessa.
Ogni sistema lineare di due equazioni nelle coordinate x, y e z equivalente a (20) rappresenta la stessa
retta.
Torniamo al caso di rette tra loro parallele. In tal caso la matrice dei coefficienti A ha rango 1. In tal
caso, moltiplicando al pi`
u per una costante non nulla una delle due equazioni (questo non ne modifica
ovviamente lo spazio delle soluzioni), se due piani sono paralleli i primi membri delle loro equazioni si
possono far differire al pi`
u per il termine noto.
Esempio 7.19. In virt`
u di quanto osservato, i piani paralleli al piano di equazione ax + by + cz + d = 0
sono tutti i piani del tipo:
(21)

ax + by + cz + d0 = 0,

al variare di d0 in R. Se ad esempio vogliamo determinare lequazione del piano 0 parallelo al piano


e passante per il punto P0 (x0 , y0 , z0 ) si procede nel seguente modo. Lequazione di 0 `e del tipo (21)
dove d0 `e un opportuno valore reale. Per trovare il valore di d0 imponiamo che le coordinate di P0 sono
soluzioni di (21). Sostituendo x0 , y0 e z0 alle coordinate affini nellequazione di 0 si ottiene unequazione
di primo grado in d0 che risolta ci fornisce il termine noto dellequazione stessa.

54

Possiamo evitare qualche calcolo osservando che lequazione:


a(x x0 ) + b(y y0 ) + c(z z0 ) = 0
rappresenta proprio il piano affine parallelo a e passante per P0 .
Ad esempio il piano 0 parallelo al piano : 2x 3y + 2z + 1 = 0 e passante per il punto P0 (1, 0, 2) ha
equazione:
0 : 2(x 1) 3(y 0) + 2(z + 2) = 0,
da cui, eseguendo i calcoli:
0 : 2x 3y + 2z + 2 = 0.
Sappiamo che due piani nello spazio sono paralleli se e solo se hanno la stessa giacitura. Pertanto se
lequazione di un piano `e data in forma parametrica da:

0 0

x = x0 + lt + l t
:
y = y0 + mt + m0 t0
t, t0 R,

z = z0 + nt + n0 t0
il piano parallelo a passante per un dato punto P (x1 , y1 , z1 ) ha equazione:

0 0

x = x1 + lt + l t
:
y = y1 + mt + m0 t0
t, t0 R,

0 0
z = z1 + nt + n t
4
Abbiamo visto che una retta ha equazione data n forma cartesiana-affine da equazioni del tipo
(
ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0
dove la matrice dei coefficienti del sistema ha rango 2. Scriviamone la generica forma parametrica di una
sua equazione. Ricordiamo che una retta `e un sottospazio affine di dimensione 1. Consideriamo la retta
in A3 la cui giacitura `e generata dal vettore v = (l, m, n) e sia P0 (x0 , y0 , z0 ) un suo punto. Lequazione
di r in forma vettoriale `e

r : OP = OP0 + tv
t R.
Esplicitando le coordinate si ottiene:

(22)

x = x0 + lt
r:
y = y0 + mt

z = z0 + nt

t R.

Esempio 7.20. Consideriamo il problema di determinare lequazione in forma parametrica della retta
r passante per due punti distinti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ). Poiche i due punti appartengono alla retta

il vettore P Q appartiene allo spazio direttore della retta stessa. Essendo i due punti distinti tale vettore
`e diverso dal vettore nullo e pertanto costituisce una base dello spazio direttore di r. Ricordiamo che il

vettore P Q si trova facendo la differenza delle coordinate dei due punti, cio`e

P Q = Q P = (x2 x1 , y2 y1 , z2 z1 ).
Lequazione in forma parametrica di r `e quindi data da:

x = x1 + (x2 x1 )t
r:
y = y1 + (y2 y1 )t

z = z1 + (z2 z1 )t

t R.

55

Per esempio se P (0, 1, 2) e Q(1, 2, 3) allora la retta r per P e Q ha vettore direttore dato da

v = P Q = Q P = (1, 3, 5) e quindi la retta r ha equazione parametrica:

x = t
r:
y = 1 + 3t
t R.

z = 2 + 5t
Siano ancora P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) due punti distinti generici dello spazio. Notiamo che le tre
equazioni lineari:
(y2 y1 )(x x1 ) = (x2 x1 )(y y1 ),

(z2 z1 )(x x1 ) = (x2 x1 )(z z1 ),

(z2 z1 )(y y1 ) = (y2 y1 )(z z1 )


rappresentano altrettanti piani per P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ). Tali equazioni sono inoltre indipendenti
ed i piani corrispondenti hanno in comune la retta per P e Q. Pertanto il sistema lineare avente come
equazione due qualsiasi di queste tre equazioni `e lequazione della retta r per P e Q in forma affine.
Ad esempio la retta r per P (1, 1, 2) e Q(1, 2, 0) ha equazione in forma affine:
(
3(x + 1) = 0(y 1)
r:
2(y 1) = 3(z 2)
cio`e
(
r:

x = 1
2y 3z + 4 = 0
4

Due rette sono parallele quando queste hanno la medesima giacitura. Se pertanto un vettore direttore di
una retta r `e il vettore v ed un vettore direttore di una retta s `e il vettore w allora r e s sono paralleli
se e solo se v e w sono tra loro proporzionali.
Esempio 7.21. Sia r la retta di equazione

x = 2t 1
r:
y = t + 2

z = 2

t R.

Vogliamo determinare lequazione della retta r0 parallela a r passante per il punto P (0, 2, 4). Il vettore di
direzione della retta r `e il vettore v = (2, 1, 0). Esso pu`o essere preso come vettore di direzione anche
della retta r0 , che pertanto ha equazione, in forma parametrica, data da

x = 2t
0
r :
y = t + 2
t R.

z=4
Supponiamo ora data la retta s data attraverso lequazione in forma affine
(
2x + y z = 0
s:
4x 5z 3 = 0
ed il punto P (2, 1, 1). Siano : 2x + y z = 0 e : 4x 5z 3 = 0 i piani le cui equazioni formano
lequazione di s. La retta s0 `e contenuta nei piani 0 e 0 paralleli rispettivamente ad e e passanti
per P . Essa pertanto ha equazione:
(
2(x + 2) + (y 1) (z 1) = 0
s0 :
4(x + 2) 5(z 1) = 0

56

Svolgendo i calcoli si ottiene finalmente


(
s0 :

2x + y z + 4 = 0
4x 5z + 13 = 0
4

Studiamo ora pi`


u in dettaglio la posizione reciproca tra due rette. Due rette r e s dello spazio possono
essere 1) Parallele; 2) Incidenti; 3) Sghembe. Esse sono parallele se hanno la medesima direzione, incidenti
se si intersecano in un punto e sghembe se esse non sono ne parallele ne incidenti. Se esse sono parallele
o incidenti esse sono complanari, ovvero esiste un piano che le contiene entrambe.
Per studiare in dettaglio la posizione reciproca tra le due rette occorre studiare lintersezione delle stesse.
A tal proposito siano r e s di equazioni rispettive:
(
(
a00 x + b00 y + c00 z + d00 = 0
ax + by + cz + d = 0
s:
r:
0
0
0
0
a000 x + b000 y + c000 z + d000 = 0
ax+by+cz+d =0
Studiamo quindi le soluzioni del sistema:

ax + by + cz + d = 0

a0 x + b0 y + c0 z + d0 = 0

a00 x + b00 y + c00 z + d00 = 0

000
a x + b000 y + c000 z + d000 = 0
Siano A la matrice dei coefficienti, b il vettore termine noto e AC la matrice completa associati al sistema.
Si ha:

d
a
b
c
d0
a0
b0
c0

b
=
A = 00

d00
a
b00 c00
a000

b000

c000

a
a0
a00
a000

d000

e pertanto

AC =

b
b0
b00
b000

c
c0
c00
c000

d
d0
d00
d000

Il rango della matrice A `e uguale a 2 o a 3, mentre il rango della matrice orlata AC `e pari al rango di A
o a rg(A) + 1. Seguono quindi quattro possibili`a:
1 - rg(A) = rg(AC ) = 2 In tal caso, per il teorema di Rouch`e-Capelli, il sistema `e compatibile con
1 soluzioni. In tal caso le due rette sono coincidenti.
2 - rg(A) = 2, rg(AC ) = 3 Il sistema `e incompatibile. Le due rette hanno comunque la medesima
direzione, quindi sono parallele.
3 - rg(A) = rg(AC ) = 3 Sistema compatibile e determinato, corrispondente al caso di rette incidenti.
4 - rg(A) = 3, rg(AC ) = 4 Il sistema in questo caso `e incompatibile e le due rette non sono parallele.
Esse sono sghembe.
Deduciamo che le due rette sono complanari se e solo se il rango della matrice completa AC `e non
massimale, ovvero se e solo se il suo determinante `e uguale a 0.
Studiamo ora la posizione reciproca tra una retta ed un piano in A3 , focalizzando la nostra attenzione
alla condizione di parallelismo. Vogliamo studiare lintersezione del piano con la retta r, dati attraverso

57

le equazioni in forma affine:


(
: ax + by + cz + d = 0 r :

a0 x + b0 y + c0 z + d0 = 0
a00 x + b00 y + c00 z + d00 = 0

Ci riconduciamo pertanto a studiare le soluzioni del sistema:

ax + by + cz + d = 0
a0 x + b0 y + c0 z + d0 = 0

00
a x + b00 y + c00 z + d00 = 0
Come prima siano rispettivamente A e AC la matrice dei coefficienti e la matrice completa associata al
sistema. Si possono presentare i seguenti casi.
1 - rg(A) = rg(AC ) = 2 In tal caso il sistema `e compatibile e indeterminato. La retta r `e contenuta
nel piano.
2 - rg(A) = 2, rg(AC ) = 3 Il sistema `e incompatibile. In tal caso diremo che la retta r `e parallela al
piano e viceversa.
3 - rg(A) = rg(AC ) = 3 Sistema compatibile e determinato, corrispondente al caso di retta e piano tra
loro incidenti.
Sia ora v = (l, m, n) il vettore direttore della retta e sia P (x1 , y1 , z1 ) un punto del piano . In virt`
u della

definizione di spazio affine (propriet`


a (SA1)), esiste (ed `e unico) un punto Q in tale che v = P Q =
(x2 x1 , y2 y1 , z2 z1 ). Segue:
(23)

al + bm + cn = a(x2 x1 ) + b(y2 y1 ) + c(z2 z1 ) = ax2 + by2 + cz2 (ax1 + by1 + cz1 ) = 0.

Questa relazione esprime il parallelismo tra la retta r ed il piano . Utilizzando la notazione del prodotto
scalare, ponendo n = (a, b, c), la retta r avente vettore direttore v `e parallela al piano : ax+by+cz+d =
0 se e solo se n v = 0, ovvero i due vettori n e v sono ortogonali tra loro.
Notiamo che ogni vettore v = (l, m, n) appartenente alla giacitura del piano : ax + by + cz + d = 0 `e
tale che n v = 0, dove n = (a, b, c). Il vettore n `e quindi perpendicolare al piano . La sua direzione
`e la direzione ortogonale al piano. Segue che una retta r `e perpendicolare al piano se e solo se il suo
vettore direzione `e parallelo a (quindi multiplo di) n. Il vettore n `e anche detto la normale al piano .
Esempio 7.22. Consideriamo ora il problema di determinare il piano perpendicolare ad una data
retta r e passante per un dato punto P . Supponiamo r data attraverso una sua equazione in forma
parametrica:

x = x0 + lt
r:
y = y0 + mt
t R.

z = z0 + nt
e sia P il punto di coordinate (x1 , y1 , z1 ). Affinche r sia perpendicolare a il vettore normale al piano n
deve essere proporzionale al vettore direttore v = (l, m, n) di r. Quindi possiamo porre n = v e quindi
il piano perpendicolare a r e passante per P ha equazione:
l(x x1 ) + m(y y1 ) + n(z z1 ) = 0.
Siano ad esempio P (1, 1, 3) e

x = 2 + 5t
r:
y = t

z = 1 t

t R.

Il vettore di direzione di r `e il vettore v = (5, 1, 1). Pertanto possiamo porre che il vettore normale
al piano n = (a, b, c) sia proprio uguale a v, da cui a = 5, b = 1 e c = 1. Una rappresentazione affine

58

del piano `e quindi data da:


: 5(x 1) (y + 1) (z 3) = 0,
cio`e
: 5x y z 3 = 0.
Similmente la retta perperndicolare al piano : ax + by + cz + d = 0 e passante per il dato punto
P (x1 , y1 , z1 ) ha come vettore di direzione il vettore v = n = (a, b, c) e quindi ha equazione, in forma
parametrica,

x = x1 + at
r:
y = y1 + bt
t R.

z = z1 + ct
Siano per esempio : 2y + 7z 11 = 0 e P (2, 1, 3) rispettivamente un piano ed un punto nello spazio
A3 . La retta r perpendicolare a e passante per P ha come vettore di direzione il vettore v = (0, 2, 7).
La sua equazione `e pertanto:

x=2
r:
y = 1 + 2t
t R.

z = 3 + 7t
4
Consideriamo ora due piani distinti e 0 di equazione:
: ax + by + cz = 0.

0 : a0 x + b0 y + c0 z + d0 = 0.

Il fascio di piani F generato (o individuato) dai piani e 0 `e linsieme dei piani aventi equazioni date
da:
(24)

F : (ax + by + cz + d) + (a0 x + b0 y + c0 z + d0 ) = 0, , R,

dove e sono scalari non entrambi nulli. Si osservi che i piani del fascio solo apparentemente dipendono
da due parametri. Coppie di scalari , e 0 , 0 tra loro proporzionali danno luogo al medesimo piano.
Talvolta si pone k := ed in tal caso lequazione del fascio diventa:
F : ax + by + cz + d + k(a0 x + b0 y + c0 z + d0 ) = 0,

k R.

In tal caso comunque si noti che la corrispondenza tra i valori di k ed i piani del fascio non `e perfettamente
biunivoca. Il piano 0 : a0 x + b0 y + c0 z + d0 = 0 non pu`o essere ottenuto per nessun valore di k.
I due piani che determinano il fascio, essendo distinti, sono o incidenti in una retta o paralleli. Nel primo
caso notiamo che la retta r intersezione di e 0 , detta asse del fascio, `e contenuta in ogni piano del
fascio. Nel secondo caso i piani del fascio sono tutti paralleli tra loro. Nel primo caso chiamiamo F
fascio di piani proprio di asse r (o fascio di piani proprio di centro r), mentre nel secondo fascio di piani
improprio.
Osserviamo che nel caso di un fascio di piani improprio, piani distinti del fascio hanno differenti giaciture
e quindi differenti direzioni ortogonali.
Supponiamo dato un fascio di equazione:
F : a(k)x + b(k)y + c(k)z + d(k) = 0,

k R.


F `e un fascio proprio o improprio a seconda che la direzione del vettore n(k) = a(k), b(k), c(k) vari con
k o no.

59

Esempio 7.23. Sia F il fascio di equazione:


F : (3k 1)x + (k 2)y + kz + k + 11 = 0,

k R.

Il vettore ortogonale n(k) ha coordinate (3k 1, k 2, k). La sua direzione varia con k. Il fascio di
rette F `e quindi un fascio proprio. Per determinarne lasse, occorre svolgere i prodotti nellequazione del
fascio e raccogliere k a fattore comune parziale. In dettaglio:
F : 3kx x + ky 2y + kz + k + 11 = 0,

k R,

F : x 2y + 11 + k(3x + y z + 1) = 0,

k R.

da cui

Lasse del fascio `e la retta r di equazione:


(
r:

x 2y + 11 = 0
3x + y z + 1 = 0
4

Se : ax + by + cz + d = 0 `e un piano fissato nello spazio, il fascio di piani proprio F individuato da `e


linsieme di tutti i piani paralleli a . Esso ha equazione:
F : ax + by + cz + k = 0,

k R.

Un fascio improprio `e invece individuato da una coppia di piani incidenti o dallasse stesso. Noto lasse
di un fascio `e facile scriverne lequazione. Se infatti r `e data in forma cartesiana da:
(
ax + by + cz + d = 0
r:
a0 x + b0 y + c0 z + d0 = 0
il fascio di asse r ha equazione
ax + by + cz + d + k(a0 x + b0 y + c0 z + d0 ) = 0,

k R.

Esempio 7.24. Consideriamo ora il problema di determinare i piani paralleli ad una data retta r passanti
per un dato punto P . Essi devono tutti contenere la retta r0 parallela a r e passante per P . Tali piani
costituiscono pertanto il fascio di piani proprio di asse r0 .
Sia P (3, 5, 2) un punto ed r la retta di equazione:
(
x + y + 2z 4 = 0
r:
3x z 6 = 0
La retta r0 parallela a r e passante per P ha equazione:
(
(x 3) + (y + 5) + 2(z 2) = 0
0
r :
3(x 3) (z 2) = 0
cio`e
(
0

r :

x + y + 2z + 4 = 0
3x z 7 = 0

Il fascio di piani paralleli a s per P ha quindi equazione:


x + y + 2z + 4 + k(3x z 7) = 0.
Illustriamo qui, mediante un esempio numerico, un metodo differente per determinare lequazione del
fascio di piani paralleli ad una data retta e passanti per un dato punto. QUesto metodo si presta bene

60

nel caso in cui la retta `e data in forma parametrica. A tal proposito sia P (1, 2, 2) e sia r la retta di
equazione:

x = 2t + 3
r:
y =t+4
t R.

z = 3t
Affinche un piano generico di equazione ax + by + cz + d = 0 appartenga al fascio esso deve contenere
il punto P ed il suo vettore normale n = (a, b, c) deve essere perpendicolare al vettore di direzione di r,
v = (l, m, n) = (2, 1, 3). Pertanto si deve avere:
(a, b, c) (l, m, n) = 2a + b + 3c = 0,
da cui
b = 2a 3c.
Lequazione del fascio di piani per P paralleli a r ha pertanto equazione:
a(x 1) + (2a 3c)(y 2) + c(z + 2) = 0

a, c R,

ovvero
a(x + 2y 5) + c(3y + z + 8) = 0,
Posto k =

c
a,

a, c R.

lequazione del fascio si pu`


o scrivere usando un solo parametro essenziale:
x + 2y 5 + k(3y + z + 8) = 0,

k R.
4

Esempio 7.25. Consideriamo il problema di determinare i piani perpendicolari ad una dato piano
e passanti per un dato punto P . Essi costituiscono il fascio di piani proprio avente per asse la retta r
passante per P e perpendicolare a .
Siano : 4x + y + z 2 = 0 e P (1, 1, 2). La retta r perpendicolare a per P ha vettore direttore
v = (4, 1, 1). Essa ha quindi equazione:

x = 4t + 1
r:
y =t+1
t R.

z =t2
Dalla terza equazione troviamo t = z + 2. Sostituendo questa quantit`a nella prima e nella seconda
equazione si ottiene:
(
x 4z 9 = 0
r:
yz3=0
Il fascio di piani per r ha equazione:
x 4z 9 + k(y z 3) = 0.
4
Nello spazio affine in tre dimensioni linsieme delle rette parallele tra loro o tutte passanti per un punto
costituiscono una famiglia di rette nota con il termine stella di rette. Un fascio di rette `e un sottoinsieme
di una stella di rette formato da quelle rette che giacciono su uno stesso piano. Un fascio di rette `e detto
improprio se i suoi elementi sono paralleli tra loro, proprio se essi passano tutti per uno stesso punto.
Esempio 7.26. Linsieme delle rette parallele ad un piano fissato e passanti per un punto P costituisce
un fascio di rette proprio F. Tutte tali rette sono contenute nel piano 0 parallelo a e passante per P .
Esse possono essere viste come lintersezione del fascio di piani perpendicolari a con 0 .
Siano dati : x + 2y z 1 = 0 e P (1, 0, 1). Il piano 0 per P parallelo a ha equazione:
0 : (x + 1) + 2y (z 1) = 0,

61

cio`e
0 : x + 2y z + 2 = 0.
I piani perpendicolari a e passanti per P sono i piani i cui vettori normali sono perpendicolari al vettore
n = (1, 2, 1) ortogonale al piano . Essi sono quindi i piani di equazione
a(x + 1) + by + c(z 1) = 0,
dove il vettore (a, b, c) e ortogonale al vettore n, cio`e tale che:
a + 2b c = 0.
Dunque c = a + 2b e lequazione del fascio G dei piani per P e perpendicolari a `e:
G : a(x + 1) + by + (a + 2b)(z 1) = 0,

a, b R.

che si pu`
o scrivere nella forma:
G : a(x + z) + b(y + 2z 2) = 0,

a, b R.

Lequazione del fascio F `e pertanto la seguente:


(
x + 2y z + 2 = 0
F:
a(x + z) + b(y + 2z 2) = 0
Lo stesso fascio pu`
o anche essere trovato, con rappresentazione parametrica stavolta, in un modo differente. Siano e P come prima. Le rette r per P parallele al piano hanno vettore direttore v = (l, m, n)
perpendicolare al vettore normale al piano , cio`e al vettore n = (1, 2, 1). Segue quindi:
0 = v n = l + 2m n,
da cui
n = l + 2m.
Il fascio F ha pertanto equazione, in forma parametrica, data da:

x = 1 + lt
F:
y = mt
t R.

z = 1 + (l + 2m)t
Al variare di l e m in R abbiamo tutte le rette del fascio.
4
Date due rette r e r0 nello spazio affine, siano v = (l, m, n) e v 0 = (l0 , m0 , n0 ) i loro vettori direttori.
Definiamo langolo tra le due rette come langolo tra i due vettori direttori. Vale quindi:
 


0
0
0
ll0 + mm0 + nn0
d0 = (l, m, n) (l , m , n ) =
c0 := cos vv
.
cos rr
k(l, m, n)kk(l0 , m0 , n0 )k
k(l, m, n)kk(l0 , m0 , n0 )k
Due rette sono quindi ortogonali se e solo se il coseno dellangolo `e uguale a 0, cio`e se e solo se ll0 +
mm0 + nn0 = 0.
Esempio 7.27. Le rette perpendicolari ad una data retta r e passanti per un punto dato P costituiscono
un fascio proprio. Tutte le rette del fascio appartengono al piano passante per P e perpendicolare a r.
Sia ad esempio P (4, 2, 1) un punto dello spazio ed r la retta di equazione:

x = t + 2
r:
y = 4t
t R.

z = 2
Il piano passante per P e perpendicolare a r ha equazione:
: (x 4) + 4(y + 2) = 0,

62

cio`e
: x + 4y + 12 = 0.
Le rette del fascio F delle rette per P e perpendicolari a r sono tutte e sole le rette ottenute come
intersezione di un piano per P e parallelo ad r con il piano . Il fascio G dei piani paralleli a r per P `e
un fascio proprio avente come asse la retta r0 parallela a r e passante per P . Tale retta ha equazione:

x = t + 4
r0 :
y = 4t 2
t R.

z = 1
Unequazione affine di r0 puo essere trovata trovando t nella prima equazione e sostituendo tale valore
nella seconda. Si ottiene:
(
4x y 18 = 0
0
r :
z+1=0
Il fascio G ha equazione:
G : 4x y 18 + k(z + 1) = 0.
Il fascio di rette cercato ha equazione:
(
F:

x + 4y + 12 = 0
4x y 18 + k(z + 1) = 0

Determiniamo ora il fascio F in altro modo. Una retta appartiene ala fascio F se e solo se passa per
il punto P ed ha vettore direttore w = (l, m, n) perpendicolare al vettore direttore v = (1, 4, 0) di r.
Pertanto vale:
0 = v w = (1, 4, 0) (l, m, n) = l + 4m,
da cui
l = 4m.
Lequazione di F, in forma parametrica, `e data da:

x = 4 + 4mt
F:
y = 2 + mt

z = 1 + nt

t R.

Al variare di m e n in R otteniamo tutte le rette del fascio.


4
Dati due punti P (x1 , y1 , z1 ) e Q(x2 , y2 , z2 ) nello spazio, la distanza tra i due punti coincide con il modulo

del vettore P Q di punto iniziale P e punto finale Q. Essa vale quindi:

d(P ; Q) = k(x2 x1 , y2 y1 , z2 z1 )k =

(x2 x1 )2 + (y2 y1 )2 + (z2 z1 )2 .

Per calcolare la distanza tra il punto P (x0 , y0 , z0 ) ed il piano : ax + by + cz + d = 0 si trova utilizzando


la formula:
|ax0 + by0 + cz0 + d|

(25)
d(P ; ) =
.
a2 + b2 + c2
Questa formula si ottiene, come nel caso della distanza punto-retta in A2 calcolando il modulo della

proiezione del vettore P Q, dove Q `e un punto arbitrario nel piano , lungo la direzione normale al piano,
individuata dal vettore n = (a, b, c).
Esempio 7.28. Siano P (1, 1, 4) e : 2x y 2z 3 = 0. La distanza di P dal piano `e quindi
uguale a:
|ax0 + by0 + cz0 + d|
|2(1) 1 2(4) 3|
| 14|
14

.
d(P ; ) =
=p
=
=
2
2
2
2
2
2
3
9
a +b +c
(2) + (1) + (2)

63

4
Per il calcolo della distanza di un punto P da una retta r occorre trovare il piano perpendicolare a r e
passante per P , poi il punto H di intersezione di e r e quindi la distanza tra i due punti P e H.
Esempio 7.29. Calcoliamo la distanza del punto P (0, 3, 2) dalla retta r di equazione:

x = 1 t
r:
y = 2 + 3t
t R.

z = 6 5t
Il vettore direttore di r `e il vettore v = (1, 3, 5). Il piano passante per P e perpendicolare r ha
quindi equazione:
: (1)(x 0) + 3(y 3) 5(z + 2) = 0,
cio`e
: x + 3y 5z 19 = 0
Il punto H, intersezione di r e , si pu`
o calcolare sostituendo le coordinate di un generico punto di
r (date attraverso il parametro t nellequazione parametrica) allequazione del piano. Otteniamo cos`
unequazione di primo grado nella variabile t, che risolta ci permette di determinare le coordinate del
punto H. In dettaglio:
(1 t) + 3(2 + 3t) 5(6 5t) 19 = 0,
da cui
35t 42 = 0
28
Il punto H ha coordinate H( 11
e quindi uguale a:
5 , 5 , 0). La distanza cercata `
r
r
r

11 2
28
121
+
169
+
100
390
390
d(P ; r) = d(P ; H) = ( ) + ( 3)2 + (2)2 =
=
=
.
5
5
25
25
5

e quindi t =

6
5.

Vous aimerez peut-être aussi