Vous êtes sur la page 1sur 40

Estadı́stica, Fı́sica y Matemáticas

Primer Curso

ÁLGEBRA LINEAL I

Juan A. Navarro González

5 de diciembre de 2018
Índice general

1. Preliminares 1
1.1. Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Espacios Vectoriales 9
2.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2. Teorı́a de la Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3. Aplicaciones Lineales 17
3.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teorema de Isomorfı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

4. Geometrı́a Euclı́dea 25
4.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Espacios Vectoriales Euclı́deos . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

5. Endomorfismos 31
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.3. Diagonalización de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 33

3
4 ÍNDICE GENERAL
Capı́tulo 1

Preliminares

1.1. Relaciones de Equivalencia


Definición: Dar una relación ≡ en un conjunto X es dar una familia de parejas ordenadas
de X, y pondremos x ≡ y cuando la pareja (x, y) esté en tal familia. Diremos que es una
relación de equivalencia si tiene las siguientes propiedades:
1. Reflexiva: Para todo x ∈ X se tiene que x ≡ x.
2. Simétrica: x, y ∈ X, x ≡ y ⇒ y ≡ x.
3. Transitiva: x, y, z ∈ X, x ≡ y, y ≡ z ⇒ x ≡ z.

Ejemplo: Sea n un número natural, n ≥ 2. Diremos que dos números enteros a, b ∈ Z son
congruentes módulo n cuando b − a es múltiplo de n:

a ≡ b (mód. n) cuando b − a = cn para algún c ∈ Z .

La relación de congruencia módulo n es una relación de equivalencia en el conjunto Z:


Reflexiva: Para todo a ∈ Z se cumple que a ≡ a (mód. n) porque a − a = 0 · n.
Simétrica: Si a, b ∈ Z y a ≡ b (mód. n), entonces b − a = cn, donde c ∈ Z; luego
a − b = (−c)n, y por tanto b ≡ a (mód. n).
Transitiva: Sean a, b, c ∈ Z. Si a ≡ b y b ≡ c (mód. n), entonces b − a = xn y c − b = yn,
donde x, y ∈ Z; luego c − a = (c − b) + (b − a) = yn + xn = (y + x)n, y a ≡ c (mód. n).
Esta relación de equivalencia tiene además la siguiente propiedad fundamental:

a ≡ b (mód. n) ⇒ a + c ≡ b + c y ac ≡ bc (mód. n) c∈Z

pues si b = a + xn, donde x ∈ Z, entonces b + c = a + c + xn y bc = ac + xcn.

Definición: Dada una relación de equivalencia ≡ en un conjunto X, la clase de equi-


valencia de un elemento x ∈ X es el subconjunto de X formado por todos los elementos
relacionados con x, y se denota

x̄ = [x] := {y ∈ X : x ≡ y} .

Diremos que un subconjunto C ⊆ X es una clase de equivalencia de la relación ≡ si es


la clase de equivalencia de algún elemento x ∈ X; es decir, si C = x̄ para algún x ∈ X.
El conjunto cociente de X por una relación de equivalencia ≡ es el conjunto formado
por las clases de equivalencia de ≡, y se denota X/ ≡.

1
2 CAPÍTULO 1. PRELIMINARES

Teorema 1.1.1 Si ≡ es una relación de equivalencia en un conjunto X, en el conjunto


cociente X/ ≡ sólo se identifican los elementos equivalentes:
[x] = [y] ⇔ x ≡ y ; x, y ∈ X .
Demostración: Si [x] = [y], entonces y ∈ [y] = [x]; luego x ≡ y.
Recı́procamente, si x ≡ y, veamos que [y] ⊆ [x]. En efecto, si z ∈ [y], entonces y ≡ z, y
por la propiedad transitiva x ≡ z; luego z ∈ [x].
Ahora bien, si x ≡ y, entonces y ≡ x; luego también [x] ⊆ [y], y [x] = [y].

Corolario 1.1.2 Cada elemento x ∈ X está en una única clase de equivalencia de ≡.


Demostración: x está en [x], porque x ≡ x, y si x ∈ [y], entonces y ≡ x; luego [y] = [x].

Ejemplo: Cuando en Z consideramos la relación de congruencia módulo n, la clase de


equivalencia de a ∈ Z es
[a] = {b ∈ Z : b = a + cn para algún c ∈ Z} = {a + cn; c ∈ Z} = a + nZ,
y coincide con la clase [r] del resto de la división de a por n, pues a = cn + r.
Por tanto el conjunto cociente, que se denota Z/nZ, tiene n elementos:
Z/nZ = {[1], [2], . . . , [n] = [0]} .
Ejemplo: Si un número natural n es un cuadrado perfecto, n = a2 para algún a ∈ N,
entonces la clase de a en Z/4Z es ā = 0̄, 1̄, 2̄ ó 3̄; luego n̄ = [a2 ] = 0̄ ó 1̄. Ningún número
natural congruente con 2 ó 3 módulo 4 es un cuadrado perfecto.
Si un número natural n es suma de dos cuadrados perfectos, n = a2 + b2 para algunos
a, b ∈ N, entonces en Z/4Z tenemos que [a2 ] = 0̄ ó 1̄, y también [b2 ] = 0̄ ó 1̄. Considerando los
cuatro casos posibles vemos que n̄ = [a2 + b2 ] = 0̄, 1̄ ó 2̄. Ningún número natural congruente
con 3 módulo 4 es suma de dos cuadrados perfectos.

1.2. Números Complejos


Definición: Los números complejos son las parejas de números reales z = x + yi (donde
x ∈ R se llama parte real de z e y ∈ R se llama parte imaginaria) que se suman y
multiplican con las siguientes reglas (i2 = −1):
(x1 + y1 i)+(x2 + y2 i) := (x1 + x2 ) + (y1 + y2 )i
(x1 + y1 i)·(x2 + y2 i) := (x1 x2 − y1 y2 ) + (x1 y2 + x2 y1 )i
El conjunto de todos los números complejos se denota C. El conjugado de un número
complejo√ z = x√ + yi es el número complejo z̄ := x − yi, y el módulo de z es el número real
|z| := z · z̄ = x2 + y 2 ≥ 0. Las siguientes propiedades son de comprobación sencilla:
z + u = z̄ + ū zu = z̄ ū z̄¯ = z |z| = |z̄|
|z| = 0 ⇔ z = 0 |zu| = |z| · |u| z + z̄ ≤ 2|z| |z + u| ≤ |z| + |u|
excepto la última. Para demostrarla bastará ver que |z + u|2 ≤ (|z| + |u|)2 :
|z + u|2 = (z + u)(z + u) = (z + u)(z̄ + ū) = |z|2 + |u|2 + z ū + z̄u
= |z|2 + |u|2 + z ū + z ū ≤ |z|2 + |u|2 + 2|z ū|
= |z|2 + |u|2 + 2|z| · |ū| = |z|2 + |u|2 + 2|z| · |u| = (|z| + |u|)2 .
Si un número complejo z = x + yi no es nulo, tenemos que z z̄ = |z|2 = x2 + y 2 > 0, ası́
que su inverso z −1 existe, es de módulo |z −1 | = |z|−1 , y es
1 z̄ z̄ x y
= 2 = = 2 − 2 i.
z |z| z · z̄ x +y 2 x + y2
Por tanto, si zz ′ = 0 y z ̸= 0, entonces z ′ = z −1 zz ′ = z −1 · 0 = 0.
1.2. NÚMEROS COMPLEJOS 3

Exponencial Compleja
Definición: Si t ∈ R, pondremos eti := cos t + i sen t, donde el seno y coseno se consideran
d
en radianes para que dt (eit ) = ieit . Tenemos la fórmula de Euler (1707-1783)

e2πi = 1

y en general e2πni = 1 para todo número entero√n.


El número complejo eti es de módulo |eti | = cos2 t + sen2 t = 1, y todo número com-
plejo de módulo 1 es eθi para algún número real θ.
Si z ∈ C es de módulo ρ ̸= 0, el módulo de z/ρ es 1, ası́ que z/ρ = eθi y

z = ρeθi = ρ(cos θ + i sen θ)

para algún número real θ = arg z que llamamos argumento de z (bien definido salvo la
adición de un múltiplo entero de 2π).
Cuando z = x + yi; x, y ∈ R, tenemos que

cos θ = x/ρ , sen θ = y/ρ , tan θ = y/x .

Ejemplos: Si ρ es un número real positivo, arg ρ = 0, arg (ρi) = π/2, arg (−ρ) = π y
arg (−ρi) = 3π/2 porque
π 3π
ρ = ρe0 , ρi = ρe 2 i , −ρ = ρeπi , −ρi = ρe 2 i .

Por otra parte, las fórmulas del seno y coseno de una suma expresan que
′ ′
eti et i = e(t+t )i

eti et i = (cos t + i sen t)(cos t′ + i sen t′ ) =
( ) ( )
= (cos t)(cos t′ ) − (sen t)(sen t′ ) + i (cos t)(sen t′ ) + (sen t)(cos t′ )

= cos(t + t′ ) + i sen(t + t′ ) = e(t+t )i ;
′ ′
y la igualdad (ρeθi )(ρ′ eθ i ) = ρρ′ e(θ+θ )i muestra que

arg (z · z ′ ) = (arg z) + (arg z ′ )

de modo que arg (z −1 ) = −arg z, al ser arg z −1 + arg z = arg (z −1 z) = arg 1 = 0.


Ahora, si u ∈ C y un = z = ρeiθ , entonces

|u|n = |un | = |z| = ρ


narg (u) = arg (un ) = arg z = θ + 2πk , k∈Z

Luego |u| = n ρ y arg (u) = nθ + 2kπ n , y claramente basta tomar k = 0, . . . , n − 1.
Todo número complejo no nulo z = ρeiθ tiene n raı́ces n-ésimas complejas (que forman

un polı́gono regular de n vértices, inscrito en el cı́rculo de radio n ρ centrado en el 0)

√ θ+2kπ
)i = √
ρ e(
θ 2kπ
n n n
ρ e n ie n i

En particular, las raı́ces n-ésimas de la unidad complejas son


2kπ
e n i ; k = 1, . . . , n,

y vemos que las raı́ces n-ésimas de un número complejo no nulo se obtienen multiplicando
una de ellas por las raı́ces n-ésimas de la unidad.
4 CAPÍTULO 1. PRELIMINARES

Ejemplos: Las raı́ces n-ésimas de la unidad complejas, cuando n = 2, 3, 4, 6 y 8, son:


2π 4π
n = 2; e 2 i = eπi = −1, e 2 i = e2πi = 1.

√ 4π
√ 6π
n = 3; e 3 i = − 12 + 3
2 i, e 3 i = − 21 − 3
2 i, e 3 i = 1.
2π 4π 6π 8π
n = 4; e 4 i = i, e 4 i = −1, e 4 i = −i, e 4 i = 1.

√ 4π
√ 6π
n = 6; e = 12 + 23 i, e
6 i = − 12 + 23 i, e 6 i = −1,
6 i

√ 10π
√ 12π
e 6 = − 12 − 23 i,
i
e 6 i = 21 − 23 i, e 6 i = 1.
2π 4π 6π 8π
n = 8; e 8 i = √1 √1 i, e 8 i = i, e 8 i = − √1 + √1 i, e 8 i = −1,
+
2 2 2 2
10π 12π 14π 16π
e 8 i = − √12 − √12 i, e 8 i = −i, e 8 i = − √12 − √12 i, e 8 i = 1.

Por último, si z = x + yi pondremos ez = ex eyi = ex (cos y + i sen y), de modo que


z ′ +z ′
e = ez ez para cualesquiera números complejos z ′ , z.
Cuando eu = z, decimos que u es el logaritmo neperiano de z, y ponemos u = ln z.
El logaritmo neperiano de z = ρeθi = ρe(θ+2kπ)i = eln ρ e(θ+2kπ)i = eln ρ+(θ+2kπ)i es

ln z = ln ρ + (θ + 2kπ)i.

1.3. Permutaciones
Definición: Sean X e Y dos conjuntos. Dar una aplicación f : X → Y es asignar a cada
elemento x ∈ X un único elemento f (x) ∈ Y , llamado imagen de x por la aplicación f .
Si g : Y → Z es otra aplicación, llamaremos composición de g y f a la aplicación
( )
g ◦ f : X −→ Z, (g ◦ f )(x) := g f (x) .

La identidad de un conjunto X es la aplicación IdX : X → X, IdX (x) = x.


Sea f : X → Y una aplicación. Si A ⊆ X, ponemos

f (A) := {y ∈ Y : y = f (x) para algún x ∈ X} = {f (x); x ∈ A} ⊆ Y

y si B ⊆ Y , ponemos f −1 (B) := {x ∈ X : f (x) ∈ B} ⊆ X.


Si y ∈ Y , puede ocurrir que f −1 (y) no tenga ningún elemento o tenga más de uno, de
modo que, en general, f −1 no es una aplicación de Y en X.
Diremos que f : X → Y es inyectiva si elementos distintos tienen imágenes distintas:

x, y ∈ X, f (x) = f (y) ⇒ x = y

(i.e., cuando, para cada y ∈ Y se tiene que f −1 (y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de algún elemento de X:

y ∈ Y ⇒ y = f (x) para algún x ∈ X ,

es decir, cuando f (X) = Y o, lo que es igual, cuando para cada y ∈ Y se cumple que f −1 (y)
tiene al menos un elemento.
Diremos que f : X → Y es biyectiva cuando es inyectiva y epiyectiva; es decir, cuando
cada elemento y ∈ Y es imagen de un único elemento de X, de modo que f −1 (y) tiene un
único elemento, y en tal caso f −1 : Y → X sı́ es una aplicación, llamada aplicación inversa
de f porque f −1 ◦ f = IdX y f ◦ f −1 = IdY .

Definición: Las permutaciones de n elementos son las aplicaciones biyectivas

σ : {1, . . . , n} −→ {1, . . . , n} .
1.3. PERMUTACIONES 5

El conjunto de todas las permutaciones de n elementos se denota Sn , y está claro que su


cardinal es n! = n · (n − 1) · . . . · 2 · 1. El producto de permutaciones es la composición de
aplicaciones, y como son aplicaciones biyectivas, toda permutación σ tienen una permutación
inversa σ −1 , de modo que σ −1 (j ) = i cuando σ(i) = j. Además, (στ )−1 = τ −1 σ −1 .

Definición: Dados a1 , . . . , ad ∈ {1, . . . , n} distintos, (a1 . . . ad ) denota la permutación σ ∈


Sn tal que σ(ai ) = ai+1 , entendiendo que σ(ad ) = a1 , y deja fijos los restantes elementos.
Diremos que (a1 . . . ad ) es un ciclo de longitud d, y los ciclos (a1 a2 ) de longitud 2 se llaman
trasposiciones. El inverso de un ciclo σ = (a1 . . . ad ) es σ −1 = (ad . . . a1 ).
Diremos que dos ciclos (a1 . . . ad ) y (b1 . . . bk ) son disjuntos cuando ai ̸= bj para todo
par de ı́ndices i, j; en cuyo caso conmutan:

(a1 . . . ad )(b1 . . . bk ) = (b1 . . . bk )(a1 . . . ad ).

Toda permutación descompone en producto de ciclos disjuntos, y también en producto de


trasposiciones, porque todo ciclo es producto de trasposiciones:

(a1 a2 a3 . . . ad ) = (a1 a2 )(a2 a3 ) · · · (ad−1 ad ) . (1.1)

Signo de una permutación


Definición: Consideremos el siguiente polinomio con coeficientes enteros:

∆(x1 , . . . , xn ) = (xj − xi )
1≤i<j≤n


Dada una permutación σ ∈ Sn , los factores de ∆(xσ(1) , . . . , xσ(n) ) = i<j (xσ(j) − xσ(i) )
coinciden, eventualmente salvo el signo, con los de ∆(x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, ∆(xσ(1) , . . . , xσ(n) ) = ±∆(x1 , . . . , xn ), y llamaremos signo
de σ al número entero sgn(σ) = ±1 tal que

∆(xσ(1) , . . . , xσ(n) ) = sgn(σ) · ∆(x1 , . . . , xn ) . (1.2)

Llamaremos pares a las permutaciones de signo 1, e impares a las de signo –1.

Teorema 1.3.1 El signo de cualquier producto de permutaciones es el producto de los signos


de los factores: sgn(τ σ) = (sgn τ )(sgn σ) .
El signo de las trasposiciones es –1, y el signo de los ciclos de longitud d es (−1)d−1 .

Demostración: Sean σ, τ ∈ Sn . Aplicando τ a los ı́ndices de las indeterminadas x1 , . . . , xn


en la igualdad 1.2, obtenemos que

∆(x(τ σ)(1) , . . . , x(τ σ)(n) ) = (sgn σ) · ∆(xτ (1) , . . . , xτ (n) )


= (sgn σ)(sgn τ ) · ∆(x1 , . . . , xn ) .

Luego sgn(τ σ) = (sgn σ)(sgn τ ) = (sgn τ )(sgn σ).


Un cálculo directo demuestra que el signo de la trasposición (12) es –1.
Si (ij) es otra trasposición, tomamos una permutación τ tal que τ (1) = i, τ (2) = j, de
modo que (ij) = τ · (12) · τ −1 , y concluimos que

sgn(ij) = sgn(τ ) · sgn(12) · sgn(τ −1 ) = −sgn(τ ) · sgn(τ −1 ) = −sgn(τ · τ −1 ) = −1.

Ahora es claro que el signo de un ciclo (a1 . . . ad ) = (a1 a2 )(a2 a3 ) · · · (ad−1 ad ) es (−1)d−1 .
6 CAPÍTULO 1. PRELIMINARES

1.4. Matrices
En adelante pondremos K = Q, R ó C, y llamemos escalares a los elementos de K.

Dada una matriz A = (aij ) de m filas y n columnas (donde el subı́ndice i indica la fila
y el subı́ndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m × r cuyo coeficiente cik de la fila i y columna k es

n
cik = aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
j=1

El producto de matrices es asociativo, aunque no conmutativo, y (AB)t = B t At .


La matriz unidad In es la matriz n × n con todos sus coeficientes nulos, salvo los de la
diagonal, que son la unidad. Si A es una matriz m × n, entonces Im A = A y AIn = A.
Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz
cuadrada B de n columnas tal que AB = In = BA, en cuyo caso tal matriz B es única y se
pone B = A−1 . Si A y B son matrices invertibles n × n, entonces (AB)−1 = B −1 A−1 .

Determinantes
Definición: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es

|A| := (sgn σ)a1σ(1) . . . anσ(n)
σ∈Sn

y tiene las siguientes propiedades (que se probarán en el curso de Álgebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , λAi , . . . , An | = λ|A1 , . . . , Ai , . . . , An | .
3. |Aσ(1) , . . . , Aσ(n) | = (sgn σ)|A1 , . . . , An |.

a11 0 ... 0

a a22 . . . 0
4. 21 = a11 . . . ann , |In | = 1.
. . . . . . . . . . . .
an1 an2 . . . ann

5. |AB| = |A| · |B| , |A−1 | = |A|−1 .


Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai + λAj , . . . , An | , i ̸= j .
Definición: El adjunto Aij de una matriz A es (−1)i+j por el determinante de la matriz
que se obtiene eliminando la fila i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier fila o columna:
|A| = ai1 Ai1 + . . . + ain Ain ,
|A| = a1j A1j + . . . + anj Anj .
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
 
A11 . . . An1
1 
A−1 = ... ... ... 
|A|
A1n . . . Ann
1.4. MATRICES 7

(Nótese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y sólo si su determinante no es nulo.

Definición: El rango (por columnas) de una matriz A es el máximo número de columnas


de A linealmente independientes, y se denota rg A.
El rango por filas de una matriz A es el rango (por columnas) de su traspuesta At .
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coeficientes de r filas y r columnas de A (obviamente r no ha de superar el número
de columnas ni de filas de A).

Teorema del Rango: El rango de una matriz es el mayor orden de los menores no nulos.

Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.

Sistemas de Ecuaciones Lineales


Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-
les AX = B es compatible si y sólo si rgA = rg(A|B) .

Si un sistema de ecuaciones lineales AX = B es compatible y X0 es una solución par-


ticular, AX0 = B, entonces todas las soluciones se obtienen sumándole las soluciones del
sistema homogéneo AY = 0; es decir, las soluciones son X = X0 + Y , donde AY = 0.

Regla de Crámer (1704-1752): Si A es una matriz cuadrada invertible, entonces el sistema


de ecuaciones lineales AX = B tiene una única solución, que es

|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |

donde A1 , . . . , An denotan las columnas de la matriz A.

Demostración: Si A es invertible, la única solución de AX = B es X = A−1 B. Además, si


x1 , . . . , xn es la solución del sistema, entonces x1 A1 + . . . + xn An = B y por tanto:

|A1 , . . . , B, . . . , An | = j xj |A1 , . . . , Aj , . . . , An | = xi |A1 , . . . , Ai , . . . , An |

porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i ̸= j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la única solución del sistema.
8 CAPÍTULO 1. PRELIMINARES
Capı́tulo 2

Espacios Vectoriales

2.1. Espacios Vectoriales y Subespacios Vectoriales


Definición: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamamos vectores o puntos) es asignar a cada par de vectores e1 , e2 ∈ E otro vector
e1 + e2 ∈ E, y a cada escalar λ ∈ K y cada vector e ∈ E, otro vector λe ∈ E, de modo que:

1. e1 + (e2 + e3 ) = (e1 + e2 ) + e3 para cualesquiera vectores e1 , e2 , e3 ∈ E.

2. e1 + e2 = e2 + e1 para cualesquiera vectores e1 , e2 ∈ E.

3. Existe un vector 0 ∈ E tal que e + 0 = e para todo vector e ∈ E.

4. Para cada vector e ∈ E existe un vector −e tal que e + (−e) = 0.

5. λ(e1 + e2 ) = λe1 + λe2 para todo λ ∈ K, e1 , e2 ∈ E.

6. (λ1 + λ2 )e = λ1 e + λ2 e para todo λ1 , λ2 ∈ K, e ∈ E.

7. (λµ)e = λ(µe) para todo λ, µ ∈ K, e ∈ E.

8. 1 · e = e para todo vector e ∈ E.

Nota: Si e, v ∈ E, ponemos v − e := v + (−e), y decimos que −e es el opuesto del vector e.


En los espacios vectoriales son válidas las reglas usuales del cálculo vectorial:

e + v = e′ ⇒ e = e′ − v
e + v = e′ + v ⇒ e = e′ , e + v = v ⇒ e = 0 , e + v = 0 ⇒ v = −e
0 · e = 0 , λ · 0 = 0 , −0 = 0
λ · (−e) = (−λ)e = −(λe) , −(−e) = e , (−1)e = −e
λ(e − v) = λe − λv , (λ − µ)e = λe − µe
λe = 0 ⇒ λ = 0 ó e = 0

Definición: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de


E cuando la suma de vectores y el producto por escalares de E definan también en V una
estructura de K-espacio vectorial; es decir, cuando

1. v1 + v2 ∈ V , para todo v1 , v2 ∈ V .

2. λv ∈ V , para todo λ ∈ K y v ∈ V .

3. 0∈V.

9
10 CAPÍTULO 2. ESPACIOS VECTORIALES

Ejemplos:

1. En la Geometrı́a euclı́dea, fijado un origen O, los puntos forman un espacio vectorial


real cuando se suman con la regla del paralelogramo, y se multiplican por escalares
según la proporción de segmentos:
v e+v

e λe
O
Las rectas y planos que pasan por el origen O son subespacios vectoriales, y una flecha
con origen en un punto a y final en b denotará b − a. dados tres puntos a, b, c, si
ponemos e = b − a, v = c − b, tendremos que e + v = c − b + b − a = c − a:

c
e+v v

a e b

2. El conjunto K n = K× . n. . ×K = {(λ1 , . . . , λn ), donde λ1 , . . . , λn ∈ K}, con las


operaciones
(λ1 , . . . , λn ) + (µ1 , . . . , µn ) = (λ1 + µ1 , . . . , λn + µn )
α · (λ1 , . . . , λn ) = (αλ1 , . . . , αλn )
es un K-espacio vectorial, donde el vector nulo es 0 = (0, . . . , 0), y −(λ1 , . . . , λn ) =
(−λ1 , . . . , −λn ).
Si A es una matriz m×n con coeficientes en K, las soluciones del sistema de ecuaciones
lineales homogéneo AX = 0 forman un subespacio vectorial de K n .
3. Fijados dos números naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares definen una estructura de K-espacio vectorial en el conjunto
Mm×n (K) de todas las matrices de m filas y n columnas con coeficientes en K.
4. C es un C-espacio vectorial, y también es un R-espacio vectorial y un Q-espacio vecto-
rial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque en
cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vacı́o, porque el axioma 3 impo-
ne la existencia del vector nulo. El espacio vectorial que tiene un único vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Sean V y W dos subespacios vectoriales de un espacio vectorial E.
Su intersección V ∩ W := {e ∈ E : e ∈ V y e ∈ W } es el mayor subespacio vectorial
de E contenido en V y en W , y su suma

V + W := {e ∈ E : e = v + w para algún v ∈ V, w ∈ W } = {v + w; v ∈ V, w ∈ W }

es el menor subespacio vectorial de E que contiene a V y a W .


8. Si e es un vector de un espacio vectorial E, el menor subespacio vectorial de E que
lo contiene es ⟨e⟩ = Ke := {v ∈ E : v = λe para algún λ ∈ K} = {λe; λ ∈ K}, y
diremos que es el subespacio vectorial de E generado por el vector e.
2.1. ESPACIOS VECTORIALES Y SUBESPACIOS VECTORIALES 11

9. Si e1 , . . . , en son vectores de un espacio vectorial E, entonces

⟨e1 , . . . , en ⟩ = Ke1 + . . . + Ken = {λ1 e1 + . . . + λn en ; λ1 , . . . , λn ∈ K}

es el menor subespacio vectorial de E contiene a los vectores e1 , . . . , en , y diremos que


es el subespacio vectorial de E generado por e1 , . . . , en .
10. Si E y F son dos K-espacios vectoriales, su producto directo E × F es un K-espacio
vectorial cuando la suma y el producto por escalares se definen del siguiente modo:

(e, f ) + (e′ , f ′ ) := (e + e′ , f + f ′ ) , λ(e, f ) := (λe, λf ) .

11. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal


si existe un subespacio vectorial V de E y algún punto p ∈ E tales que

X = p + V := {e ∈ E : e = p + v para algún v ∈ V } = {p + v; v ∈ V } .

En tal caso diremos que V es la dirección de X, y que X es la subvariedad lineal que


pasa por p con dirección V . Diremos que dos subvariedades lineales p + V y q + W son
paralelas si sus direcciones V y W son incidentes (V ⊆ W ó W ⊆ V ).

12. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vecto-


rial E define una relación de equivalencia en E (llamada congruencia módulo V ):

e ≡ e′ (módulo V ) cuando e′ − e ∈ V ; es decir e′ ∈ e + V .

i) Para todo vector e ∈ E tenemos que e ≡ e, porque e − e = 0 ∈ V .


ii) Si e, e′ ∈ E y e ≡ e′ , entonces e′ − e ∈ V ; luego e − e′ = −(e′ − e) ∈ V y e′ ≡ e.
iii) Sean e, e′ , e′′ ∈ E. Si e ≡ e′ y e′ ≡ e′′ , entonces e′ − e, e′′ − e′ ∈ V , de modo que
e − e = (e′′ − e′ ) + (e′ − e) ∈ V y e ≡ e′′ .
′′

La clase de equivalencia [p] = p + V de p ∈ E es la subvariedad lineal de dirección V


que pasa por p. Por tanto, si una subvariedad lineal X = p + V de dirección V pasa por un
punto q, entonces X = q + V por 1.1.2.
El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades
lineales de E de dirección V , y las siguientes operaciones definen en el conjunto E/V una
estructura de K-espacio vectorial (compruébense los 8 axiomas) y diremos que es el espacio
vectorial cociente de E por V :

[e1 ] + [e2 ] := [e1 + e2 ]


λ · [e ] := [λe ]

Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Si [e1 ] = [e′1 ] y [e2 ] = [e′2 ], entonces e′1 − e1 , e′2 − e2 ∈ V ; luego e′1 + e′2 − (e1 + e2 ) ∈ V y
por tanto [e1 + e2 ] = [e′1 + e′2 ].
Si [e] = [e′ ], entonces e′ − e ∈ V ; luego λe′ − λe = λ(e′ − e) ∈ V y por tanto [λe] = [λe′ ].
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector ē ∈ E/V es [−e], y el vector nulo de E/V es precisamente la clase de 0 ∈ E, de
modo que ē = 0 precisamente cuando e ≡ 0 (módulo V ):

[e] = 0 ⇔ e ∈ V (2.1)

Nota 2.1.1 Si e ∈ Ke1 + . . . + Ken , entonces ē ∈ K ē1 + . . . + K ēn .


En efecto, si e = λ1 e1 + . . . + λn en , entonces ē = [λ1 e1 + . . . + λn en ] = λ1 ē1 + . . . + λn ēn .
12 CAPÍTULO 2. ESPACIOS VECTORIALES

2.2. Teorı́a de la Dimensión


Definición: Diremos que unos vectores e1 , . . . , en de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E cuando todo vector de E es una combinación
lineal de e1 , . . . , en con coeficientes en K:

Ke1 + . . . + Ken = E .

Diremos que e1 , . . . , en son linealmente dependientes si existen escalares λ1 , . . . , λn


tales que λ1 e1 + . . . + λn en = 0 y algún λi ̸= 0, de modo que ei es combinación lineal de
los restantes vectores. En caso contrario diremos que son linealmente independientes.
Es decir, e1 , . . . , en son linealmente independientes cuando la única combinación lineal nula
es la que tiene todos los coeficientes nulos:

λ1 e1 + . . . + λn en = 0 ⇒ λ1 = . . . = λn = 0 ; donde λ1 , . . . , λn ∈ K.

Diremos que una sucesión de vectores e1 , . . . , en de un espacio vectorial E es una base


de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada
vector e ∈ E se escribe de modo único como combinación lineal con coeficientes en K

e = x1 e1 + . . . + xn en ,

y diremos que (x1 , . . . , xn ) ∈ K n son las coordenadas del vector e en la base e1 , . . . , en .


En efecto, si e = x1 e1 + . . . + xn en = y1 e1 + . . . + yn en , entonces

(x1 − y1 )e1 + . . . + (xn − yn )en = x1 e1 + . . . + xn en − (y1 e1 + . . . + yn en ) = e − e = 0 ;

luego yi − xi = 0 para todo ı́ndice i, porque e1 , . . . , en son linealmente independientes.

Ejemplos 2.2.1

1. Sean e1 , . . . , en vectores de un espacio vectorial E. Si alguno es nulo, ei = 0, entonces


son linealmente dependientes, porque 0 = 0 · e1 + . . . + 1 · ei + . . . + 0 · en .
Análogamente, si hay un vector repetido, ei = ej con i ̸= j, también son linealmente
dependientes, pues 0 = 0 · e1 + . . . + 1 · ei + . . . + (−1) · ej + . . . + 0 · en .

2. Sea e un vector no nulo. Como λe = 0 ⇒ λ = 0; tenemos que e es linealmente


independiente, y por tanto define una base del subespacio vectorial Ke = ⟨e⟩. Además,
si otro vector v no está en Ke, entonces e, v son linealmente independientes, de modo
que forman una base del subespacio vectorial Ke + Kv = ⟨e, v⟩.

3. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1) forman una


base de K n , llamada base canónica de K n . Las coordenadas de un vector e =
(a1 , . . . , an ) de K n en esta base son precisamente (a1 , . . . , an ), porque e = a1 e1 + . . . +
an en .

4. Las matrices m × n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mm×n (K), base que está formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.

Lema Fundamental: Sean e1 , . . . , en vectores de un K-espacio vectorial E. Si r vectores


v1 , . . . , vr ∈ Ke1 + . . . + Ken son linealmente independientes, entonces r ≤ n.

Demostración: Procedemos por inducción sobre r. Si r = 1, entonces v1 ̸= 0 porque es


linealmente independiente. Luego Ke1 + . . . + Ken ̸= 0 y concluimos que n ≥ 1 = r.
2.2. TEORÍA DE LA DIMENSIÓN 13

Si r > 1, como vr ̸= 0, reordenando e1 , . . . , en tendremos vr = λ1 e1 + . . . + λn en con


λn ̸= 0. Despejando, vemos que en ∈ Ke1 + . . . + Ken−1 + Kvr , y por tanto

v1 , . . . , vr−1 ∈ Ke1 + . . . + Ken ⊆ Ke1 + . . . + Ken−1 + Kvr .

De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kvr ) tendremos que

v̄1 , . . . , v̄r−1 ∈ K ē1 + . . . + K ēn−1 + K v̄r = K ē1 + . . . + K ēn−1 .

Veamos que v̄1 , . . . , v̄r−1 son linealmente independientes:


Si una combinación lineal de estos vectores es nula,

0 = λ1 v̄1 + . . . + λr−1 v̄r−1 = [λ1 v1 + . . . + λr−1 vr−1 ] ,


∑r−1 ∑r−1
entonces i=1 λi vi ∈ Kvr según 2.1, y i=1 λi vi = λr vr para algún escalar λr .
Como v1 , . . . , vr son linealmente independientes, tenemos que λ1 = . . . = λr−1 = 0.
Ahora, por hipótesis de inducción, r − 1 ≤ n − 1, y concluimos que r ≤ n.

Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual número de vectores.

Demostración: Si e1 , . . . , en y v1 , . . . , vr son dos bases de un espacio vectorial E.


Como v1 , . . . , vr ∈ E = Ke1 + . . . + Ken son linealmente independientes, por el lema
fundamental tenemos que r ≤ n. Como e1 , . . . , en ∈ E = Kv1 + . . . + Kvr son linealmente
independientes, también tenemos que n ≤ r; luego n = r.

Definición: Si un espacio vectorial E ̸= 0 admite una base, llamaremos dimensión de E


al número de vectores de cualquier base de E, y lo denotaremos dimK E; o sencillamente
dim E cuando no induzca a confusión. También diremos que el espacio vectorial E = 0 tiene
dimensión 0 y que su base es el vacı́o. Diremos que un espacio vectorial E tiene dimensión
infinita cuando ninguna familia finita de vectores de E sea una base de E.
La dimensión de una subvariedad lineal X = p + V es la de su dirección V . Las subva-
riedades lineales de dimensión 1 y 2 se llaman rectas y planos respectivamente.

Ejemplos 2.2.3

1. Según los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
además v ∈/ Ke, entonces dim K (Ke + Kv) = 2.
También, dimK K n = n y dimK Mm×n (K) = mn .

2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de


C = R + Ri como R-espacio vectorial.

3. Si E es un Q-espacio vectorial de dimensión


∑ finita n, cada base e1 , . . . , en define una bi-
yección ϕ : Qn → E, ϕ(λ1 , . . . , λn ) = i λi ei , y por tanto el conjunto E es numerable.
Como R y C no son numerables, vemos que dim Q R = dim Q C = ∞.

4. El K-espacio vectorial K[x], formado por todos los polinomios con coeficientes en K
en una indeterminada x, tiene dimensión infinita, porque los polinomios 1, x, . . . , xn
son linealmente independientes.
El subespacio vectorial Pn := K + Kx + . . . + Kxn , formado por los polinomios de
grado ≤ n con coeficientes en K, admite la base 1, x, . . . , xn ; luego dim Pn = n + 1.

Proposición 2.2.4 Todo sistema finito de generadores {e1 , . . . , en } de un espacio vectorial


E ̸= 0 contiene una base de E. Por tanto n ≥ dim E, y si además n = dim E, entonces los
vectores e1 , . . . , en ya forman una base de E.
14 CAPÍTULO 2. ESPACIOS VECTORIALES

Demostración: Veamos que {e1 , . . . , en } contiene una base de E, por inducción sobre n.
Si n = 1, e1 ̸= 0 porque Ke1 = E ̸= 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
∑n forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relación i=1 λi ei = 0 con algún
coeficiente λi no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que λn ̸= 0.
Despejando en tenemos que en ∈ Ke1 + . . . + Ken−1 . Luego E = Ke1 + . . . + Ken−1 , y por
hipótesis de inducción {e1 , . . . , en−1 } contiene una base de E.
Por último, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores según 2.2.2.

Lema 2.2.5 Si e1 , . . . , en ∈ E son linealmente independientes, y no se pueden ampliar con


un vector de E de modo que lo sigan siendo, entonces ya forman una base de E.

Demostración: Si e ∈ E, entonces e1 , . . . , en , e son linealmente dependientes,

λ1 e1 + . . . + λn en + λe = 0,

con algún coeficiente no nulo. Si λ = 0, entonces e1 , . . . , en son linealmente dependientes,


en contra de la hipótesis. Luego λ ̸= 0 y despejando vemos que e ∈ Ke1 + . . . + Ken .
Luego los vectores e1 , . . . , en generan E, y como son linealmente independientes por
hipótesis, forman una base de E.

Proposición 2.2.6 Sea E un espacio vectorial de dimensión finita. Si e1 , . . . , er ∈ E son


linealmente independientes, se pueden añadir vectores hasta obtener una base de E. Por
tanto r ≤ dim E, y si además r = dim E, entonces los vectores e1 , . . . , er ya forman una
base de E.

Demostración: Añadimos vectores de E hasta obtener una familia linealmente independiente


e1 , . . . , er , e′1 , . . . , e′s que ya no pueda ampliarse de modo que lo siga siendo (el proceso
termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber más de
n vectores linealmente independientes, ası́ que siempre r + s ≤ n).
Ahora e1 , . . . , er , e′1 , . . . , e′s ya es base de E por el lema anterior.
Por último, si r = dim E, entonces los vectores e1 , . . . , er ya forman una base de E;
porque una base de E no puede tener más de r vectores según 2.2.2.

Teorema 2.2.7 Sea V subespacio vectorial de un espacio vectorial de dimensión finita E.

1. dim V ≤ dim E y sólo se da la igualdad cuando V = E.

2. dim (E/V ) = dim E − dim V .

Demostración: Veamos primero que la dimensión de V también es finita. Tomemos en V


una familia {v1 , . . . , vr } linealmente independiente que ya no pueda ampliarse con un vector
de V de modo que lo siga siendo (existe porque, si n = dim E, por el lema fundamental en
E no puede haber más de n vectores linealmente independientes).
Por el lema anterior v1 , . . . , vr forman una base de V , de modo que r = dim V .
Ahora 2.2.6 permite ampliarla hasta obtener una base v1 , . . . , vr , e1 , . . . , es de E.
Luego dim V = r ≤ r + s = dim E; y si se da la igualdad, entonces s = 0 y v1 , . . . , vr ya
es base de E, de modo que E = Kv1 + . . . + Kvr = V .
En cuanto a la segunda afirmación, basta probar que ē1 , . . . , ēs es una base de E/V .
Como v1 , . . . , vr , e1 , . . . , es generan E, y en E/V tenemos que v̄1 = . . . = v̄r = 0, se sigue que
E/V = K ē1 + . . . + K ēs . Veamos por último que ē1 , . . . , ēs son linealmente independientes:
2.2. TEORÍA DE LA DIMENSIÓN 15

∑s ∑s ∑s
Si 0 = i=1 λi ēi = [ i=1 λi ei ], entonces i=1 λi ei ∈ V de acuerdo con 2.1, ası́ que
λ1 e1 + . . . + λs ee = µ1 v1 + . . . + µr vr
∑s ∑r
para ciertos escalares µ1 , . . . , µr . Luego i=1 λi ei − j=1 µj vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que λ1 = . . . = λs = 0.

Corolario 2.2.8 Sea e1 , . . . , en una base de un espacio vectorial E. Si A es la matriz que


tiene por columnas las coordenadas de v1 , . . . , vm ∈ E en tal base de E, entonces
dim (Kv1 + . . . + Kvm ) = rg A ,
v1 , . . . , vm son linealmente independientes ⇔ rg A = no de columnas de A ,
v1 , . . . , vm generan E ⇔ rg A = no de filas de A .
Demostración: Pongamos r = rg A y d = dim (Kv1 + . . . + Kvm ).
Como {v1 , . . . , vm } genera Kv1 + . . . + Kvm , de acuerdo con 2.2.2 contiene una base
vi1 , . . . , vid de Kv1 + . . . + Kvm , ası́ que las columnas i1 , . . . , id de la matriz A son lineal-
mente independientes y por tanto d ≤ r (pues unos vectores son linealmente independientes
precisamente cuando sus coordenadas son linealmente independientes en K n ).
Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r
vectores vj1 , . . . , vjr linealmente independientes en Kv1 + . . . + Kvm , y de acuerdo con
2.2.6 concluimos que r ≤ d .

Teorema de Rouché-Frobënius (1832-1910, 1849-1917): Un sistema de ecuaciones linea-


les AX = B es compatible si y sólo si rgA = rg(A|B) .

Demostración: Sean A1 , . . . , An las columnas de A, de modo que el sistema AX = B puede


escribirse x1 A1 + . . . + xn An = B, y la condición de que sea compatible significa que en K m
tenemos que B ∈ ⟨A1 , . . . , An ⟩; es decir, que ⟨A1 , . . . , An ⟩ = ⟨A1 , . . . , An , B⟩. Ahora bien, el
teorema 2.2.7.1 afirma que
⟨A1 , . . . , An ⟩ = ⟨A1 , . . . , An , B⟩ ⇔ dim⟨A1 , . . . , An ⟩ = dim⟨A1 , . . . , An , B⟩
y, de acuerdo con 2.2.8, esta última condición significa que rg A = rg (A|B) .
Ejemplos:
1. Dados n vectores de coordenadas (a11 , . . . , an1 ), . . . , (a1n , . . . , ann ) en un K-espacio
vectorial de dimensión n, la condición necesaria y suficiente para que formen una base
de K n es que el determinante de la matriz A = (aij ) no sea nulo.
2. Por dos puntos distintos p y q = p + e pasa una única recta p + Ke, formada por
los puntos p + λe = (1 − λ)p + λq; es decir, las combinaciones lineales αp + βq, con
α + β = 1.
p+q
El punto p + 12 e = 2 recibe el nombre de punto medio entre p y q.
3. Por los vértices de un triángulo (i.e. por tres puntos distintos no alineados) a, b =
a + e, c = a + v pasa un único plano a + Ke + Kv, formado por los puntos p + λe + µv =
(1−λ−µ)a+λb+µc; es decir, las combinaciones linealess αa+βb+γc con α+β +γ = 1.
En efecto, tenemos que e = b − a ̸= 0, v = c − a ̸= 0, y v ∈ / Ke porque c = a + v
no está en la recta a + Ke que pasa por a y b. Luego dim (Ke + Kv) = 2, y el plano
a+Ke+Kv pasa por los tres vértices. Y es el único, si otro plano P = p+V pasase por
ellos, entonces b, c ∈ P = a + V ; luego e = b − a, v = c − a ∈ V , ası́ que Ke + Kv ⊆ V ,
y ambos subespacios vectoriales coinciden porque son de dimensión 2.
4. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimensión.
Como dim V = dim W , y además V ⊆ W ó W ⊆ V , 2.2.7.1 afirma que V = W : dos
subvariedades lineales paralelas de igual dimensión tienen la misma dirección.
16 CAPÍTULO 2. ESPACIOS VECTORIALES

2.3. Suma Directa


Definición: Diremos que la suma V1 + . . . + Vr de unos subespacios vectoriales V1 , . . . , Vr
de un espacio vectorial E es directa si cada vector e ∈ V1 + . . . + Vr descompone de modo
único en la forma e = v1 + . . . + vr , donde vi ∈ Vi ; es decir, si la aplicación

s : V1 × . . . × Vr −→ V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,

(que siempre es epiyectiva, por definición de suma de subespacios vectoriales) también es


inyectiva. En tal caso, el subespacio vectorial V1 + . . . + Vr se denota V1 ⊕ . . . ⊕ Vr .

Teorema 2.3.1 La condición necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V ∩ W = 0.

Demostración: Si la suma de V y W es directa y e ∈ V ∩ W , entonces

0 = 0 + 0 = e + (−e) ,

donde 0, e ∈ V y 0, −e ∈ W . La unicidad de la descomposición del vector 0 en suma de un


vector de V y otro de W implica que e = 0. Luego V ∩ W = 0.
Recı́procamente, si V ∩ W = 0 y un vector e ∈ V + W admite dos descomposiciones

e = v + w = v ′ + w′ ; v, v ′ ∈ V, w, w′ ∈ W

entonces v ′ − v = w − w′ ∈ W . Como v ′ − v ∈ V , se sigue que v ′ − v ∈ V ∩ W = 0. Luego


0 = v ′ − v = w − w′ , y concluimos que v = v ′ y w = w′ . Es decir, tal descomposición es
única, ası́ que la suma de V y W es directa.

Definición: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son


suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de
W en E) cuando E = V ⊕ W ; i.e., cuando cada vector de E descompone, y de modo único,
en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V ∩ W = 0.

Ejemplos:
1. Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e ∈ E des-
compone de modo único como combinación lineal e = λ1 e1 + . . . + λn en ; luego

E = Ke1 ⊕ . . . ⊕ Ken

y vemos ası́ que un suplementario de V = Ke1 ⊕ . . . ⊕ Ker en E es el subespacio


vectorial W = Ker+1 ⊕ . . . ⊕ +Ken .
2. Para hallar un suplementario de un subespacio vectorial V de E basta ampliar una
base v1 , . . . , vr de V hasta obtener una base v1 , . . . , vr , w1 , . . . , ws de E, porque en tal
caso W = Kw1 + . . . + Kws es un suplementario de V en E.

3. Sean p + V y q + W dos subvariedades lineales de un espacio vectorial E. Dar un punto


de corte es dar vectores v ∈ V , w ∈ W tales que p + v = q + w; es decir, q − p = v − w.
Por tanto, la condición necesaria y suficiente para que se corten es que q − p ∈ V + W ,
y el punto de corte es único cuando la suma V ⊕ W es directa.
Capı́tulo 3

Aplicaciones Lineales

3.1. Aplicaciones Lineales


Definición: Diremos que una aplicación f : E → E ′ entre dos K-espacios vectoriales es
K-lineal, (o simplemente lineal, si K se sobrentiende) cuando

f (e + v) = f (e) + f (v) para todo e, v ∈ E


f (λ · e) = λ · f (e) para todo λ ∈ K, e ∈ E

Toda aplicación lineal f : E → E ′ verifica que f (0) = 0, que f (−e) = −f (e), y también
que f (λ1 e1 + . . . + λn en ) = λ1 f (e1 ) + . . . + λn f (en ).
( )
En efecto, f (0) = f (0 · 0) = 0 · f (0) = 0, f (−e) = f (−1)e = (−1)f (e) = −f (e) y
f (λ1 e1 + . . . + λn en ) = f (λ1 e1 ) + . . . + f (λn en ) = λ1 f (e1 ) + . . . + λn f (en ).

′ ′ ′′
Proposición 3.1.1 Si dos aplicaciones f (: E →) E y h : E → E son K-lineales, entonces
′′
su composición hf : E → E , (hf )(e) = h f (e) , también es K-lineal.

Demostración: Para todo λ ∈ K y todo e, v ∈ E tenemos que


( ) ( )
(hf )(e + v) = h f (e + v) = h f (e) + f (v) = h(f (e)) + h(f (v)) = (hf )(e) + (hf )(v)
( ) ( )
(hf )(λe) = h f (λe) = h λ · f (e) = λ · h(f (e)) = λ · (hf )(e)

Proposición 3.1.2 Sea f : E → E ′ una aplicación lineal. Su núcleo

Ker f := f −1 (0) = {e ∈ E : f (e) = 0}

es un subespacio vectorial de E, y su imagen

Im f := f (E) = {e′ ∈ E ′ : e′ = f (e) para algún e ∈ E} = {f (e); e ∈ E}

es un subespacio vectorial de E ′ .

Demostración: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 ∈ Ker f


porque f (0) = 0. Ahora, si e1 , e2 ∈ Ker f , por definición f (e1 ) = f (e2 ) = 0, ası́ que

f (e1 + e2 ) = f (e1 ) + f (e2 ) = 0


f (λe1 ) = λf (e1 ) = 0

Luego e1 + e2 ∈ Ker f y λe1 ∈ Ker f , ası́ que Ker f es un subespacio vectorial de E.

17
18 CAPÍTULO 3. APLICACIONES LINEALES

Veamos ahora que Im f es un subespacio vectorial de E ′ :


Tenemos que 0 ∈ Im f porque 0 = f (0). Ahora, si e′1 , e′2 ∈ Im f , por definición existen
vectores e1 , e2 ∈ E tales que e′1 = f (e1 ) y e′2 = f (e2 ), ası́ que

e′1 + e′2 = f (e1 ) + f (e2 ) = f (e1 + e2 ) ∈ Im f


λe′1 = λf (e1 ) = f (λe1 ) ∈ Im f

y concluimos que Im f es un subespacio vectorial de E ′ .

Proposición 3.1.3 Una aplicación lineal f : E → E ′ es inyectiva si y sólo si Ker f = 0.

Demostración: Si f es inyectiva y e ∈ Ker f , entonces f (e) = 0 = f (0); luego e = 0.


Recı́procamente, supongamos que Ker f = 0. Si f (e) = f (v), donde e, v ∈ E, entonces
f (v − e) = f (v) − f (e) = 0; luego v − e ∈ Ker f = 0 y por tanto e = v; i.e., f es inyectiva.

Ejemplos:

1. Una aplicación lineal f : E → E ′ es epiyectiva si y sólo si Im f = E ′ .

2. Sea V un subespacio vectorial de un espacio vectorial E. La inclusión i : V → E,


i(v) = v, es una aplicación lineal inyectiva y su imagen es Im i = V .
La proyección canónica π : E → E/V , π(e) = [e], es una aplicación lineal epiyectiva y
su núcleo es Ker π = V de acuerdo con 2.1 (v. página 11).

3. Cada matriz A ∈ Mm×n (K) define una aplicación lineal f : K n → K m , f (X) = AX,
cuyo núcleo Ker f está formado por todas las soluciones de la ecuación homogénea
AX = 0. Por otra parte, la condición B ∈ Im f significa que el sistema de m ecuaciones
lineales con n incógnitas AX = B es compatible.

4. Cada familia {e1 , . . . , en } de vectores de un K-espacio vectorial E define una aplicación

f : K n −→ E , f (λ1 , . . . , λn ) = λ1 e1 + . . . + λn en ,

que siempre es K-lineal. La imagen de esta aplicación lineal es Im f = Ke1 +. . .+Ken ,


ası́ que f es epiyectiva cuando e1 , . . . , en generan E.
Además la condición de que e1 , . . . , en sean linealmente independientes significa que
Ker f = 0, de modo que en tal caso la aplicación lineal f es inyectiva. Por tanto,
cuando e1 , . . . , en forman una base de E, esta aplicación lineal f es biyectiva.

Matriz de una Aplicación Lineal


Definición: Sea f : E → E ′ una aplicación lineal entre dos espacios vectoriales de dimensión
finita. Si fijamos una base e1 , . . . , en de E y una base e′1 , . . . , e′m de E ′ , tendremos que

f (ej ) = a1j e′1 + . . . + amj e′m , 1≤j≤n (3.1)

para ciertos escalares aij ∈ K, y diremos que A = (aij ) ∈ Mm×n (K) es la matriz de la
aplicación lineal f en las bases e1 , . . . , en de E y e′1 , . . . , e′m de E ′ .
Por definición, la columna j-ésima de la matriz A está formada por las coordenadas del
vector f (ej ) en la base e′1 , . . . , e′m de E ′ .
Ahora, para cada vector e = x1 e1 + . . . + xn en ∈ E tendremos que su imagen f (e) es

n ∑
n ∑
m m (∑
∑ n )
f (e) = xj f (ej ) = xj aij e′i = aij xj e′i .
j=1 j=1 i=1 i=1 j=1
3.2. TEOREMA DE ISOMORFÍA 19

Es decir, si X denota las coordenadas del vector e en la base e1 , . . . , en , puestas en co-


lumna, entonces las coordenadas X ′ de f (e) en la base e′1 , . . . , e′m se obtienen multiplicando
X por la matriz A de f en las bases consideradas:

X ′ = AX (3.2)

Proposición 3.1.4 Si A es la matriz de una aplicación lineal f : E → E ′ , entonces

dim (Im f ) = rg A
∑ ∑
Demostración: Sea e1 , . . . , en una base de E. Como f ( i λi ei ) = i λi f (ei ), la imagen de
f está generada por los vectores f (e1 ), . . . , f (en ):

Im f = ⟨f (e1 ), . . . , f (en )⟩ ,

y tenemos que dim ⟨f (e1 ), . . . , f (en )⟩ = rg A de acuerdo con 2.2.8 y 3.1.

Ejemplo: Sea A ∈ Mm×n (K). La matriz de la aplicación lineal f : K n → K m , f (X) = AX,


en las bases canónicas de K n y K m es A, de modo que dim (Im f ) = rg A.

3.2. Teorema de Isomorfı́a


Definición: Diremos que una aplicación K-lineal f : E → E ′ es un isomorfismo cuando
es biyectiva, y en tal caso la aplicación inversa f −1 : E ′ → E también es K-lineal (y por
supuesto biyectiva, ası́ que f −1 también es un isomorfismo).
En efecto, si e′ , v ′ ∈ E ′ , entonces e′ = f (e) y v ′ = f (v), donde e, v ∈ E, de modo que
( ) ( )
f −1 (e′ + v ′ ) = f −1 f (e) + f (v) = f −1 f (e + v) = e + v = f −1 (e′ ) + f −1 (v ′ )
( ) ( )
f −1 (λe′ ) = f −1 λf (e) = f −1 f (λe) = λe = λ · f −1 (e′ ) .

Diremos que dos K-espacios vectoriales E y E ′ son isomorfos si existe algún isomorfismo
K-lineal f : E → E ′ , en cuyo caso pondremos E ≃ E ′ .

Ejemplos:

1. Si una matriz A ∈ Mn×n (K) es invertible, la aplicación que induce f : K n → K n ,


f (X) = AX, es un isomorfismo, y el isomorfismo inverso f −1 : K n → K n es precisa-
mente el que define la matriz inversa A−1 ; es decir, f −1 (X) = A−1 X.

2. Si V1 , . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicación

s : V1 × . . . × Vn → V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,

es lineal y epiyectiva. Además esta aplicación lineal s es inyectiva precisamente cuando


la suma es directa, de modo que en tal caso V1 × . . . × Vn ≃ V1 ⊕ . . . ⊕ Vn .

3. Si e1 , . . . , en es una base de un K-espacio vectorial E, entonces la aplicación lineal

f : K n −→ E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,

es un isomorfismo. El isomorfismo inverso f −1 : E → K n asigna a cada vector e ∈ E


sus coordenadas (x1 , . . . , xn ) en la base e1 , . . . , en .
Por tanto, todo K-espacio vectorial de dimensión n es isomorfo a K n .
20 CAPÍTULO 3. APLICACIONES LINEALES

4. Los isomorfismos transforman vectores linealmente independientes en vectores lineal-


mente independientes, y sistemas de generadores en sistemas de generadores (com-
pruébese); luego bases en bases. Por tanto, si E ≃ E ′ , entonces dim E = dim E ′ .
Teorema de Isomorfı́a: Si f : E → E ′ es una aplicación lineal, entonces la aplicación
lineal ϕ : E/Ker f → Im f , ϕ(ē) = f (e), es un isomorfismo:

E/Ker f ≃ Im f

Demostración: Veamos primero que ϕ es una aplicación bien definida, que ϕ(ē) no depende
del representante elegido, que si ē = v̄, entonces f (e) = f (v). Ahora bien, si ē = v̄, entonces
e ≡ v (módulo Ker f ); luego v − e ∈ Ker f , 0 = f (v − e) = f (v) − f (e) y f (e) = f (v).
Veamos ahora que tal aplicación ϕ es lineal:

ϕ(ē + v̄) = ϕ([e + v]) = f (e + v) = f (e) + f (v) = ϕ(ē) + ϕ(v̄)


ϕ(λē) = ϕ([λe]) = f (λe) = λf (e) = λϕ(ē) .

ϕ es inyectiva: Si 0 = ϕ(ē) = f (e), entonces e ∈ Ker f , luego ē = 0 por 2.1.


ϕ es epiyectiva: Si e′ ∈ Im f , entonces existe e ∈ E tal que e′ = f (e) = ϕ(ē).

Corolario 3.2.1 Para toda aplicación lineal f : E → E ′ entre espacios vectoriales de di-
mensión finita se cumple que dim (Ker f ) + dim (Im f ) = dim E.
2.2.7
Demostración: dim (Im f ) = dim (E/Ker f ) = dim E − dim (Ker f ) .

Corolario 3.2.2 Si A es la matriz de una aplicación lineal f : E → E ′ , entonces

dim (Ker f ) = (no de columnas) − rg A

3.2.1 3.1.4
Demostración: dim (Ker f ) = dim E − dim (Im f ) = dim E − rg A.

Corolario 3.2.3 Sea A una matriz m × n con coeficientes en K. Las soluciones del sistema
homogéneo AX = 0 forman un subespacio vectorial de K n de dimensión n − rg A; y las
soluciones de un sistema no homogéneo compatible AX = B forman una subvariedad lineal
de K n de dirección AX = 0 y dimensión n − rg A.
Demostración: Sea V = {X ∈ K n : AX = 0} el conjunto de soluciones del sistema ho-
mogéneo AX = 0. La matriz A ∈ Mm×n (K) define una aplicación lineal f : K n → K m ,
f (X) = AX, y V es precisamente el núcleo de f . La matriz de f en las bases usuales de K n
y K m (ver 2.2.1) es A, ası́ que 3.2.2 afirma que la dimensión de V es n − rg A.
Por último, si un sistema AX = B es compatible, las soluciones se obtienen sumando a
una solución particular X0 las soluciones de la ecuación homogénea AX = 0; luego forman
la subvariedad lineal X0 + V y, por tanto, su dimensión también es n − rg A.

Definición: Fijada una base de un espacio vectorial de dimensión finita E, dar ecuaciones
paramétricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implı́citas de V es dar
un sistema homogéneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones paramétricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la dirección de X, y dar ecuacio-
nes implı́citas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las
coordenadas de los puntos de X.
3.2. TEOREMA DE ISOMORFÍA 21

Ejemplo: Fijada una base (e1 , . . . , en ) de un espacio vectorial E, las ecuaciones paramétricas
e implı́citas del subespacio vectorial nulo son
 
x1 = 0λ  x1 = 0 
...... , ......
 
xn = 0λ xn = 0
mientras que la ecuación implı́cita de E es 0x1 + . . . + 0xn = 0, y las paramétricas son

x1 = λ1 
......

xn = λn

Ejemplo: Fijada una base (e1 , e2 , e3 , e4 ) de un espacio vectorial E de dimensión 4, consi-


deremos la subvariedad lineal X de ecuaciones paramétricas
        
x1 = λ1 + 4λ2 + 2   x1 2 1 4
 x2  1 2 3
x2 = 2λ1 + 3λ2 + 1
,      
x3  = 1 + λ1 3 + λ2 2
 
x3 = 3λ1 + 2λ2 + 1  

x4 = 4λ1 + λ2 + 3 x4 3 4 1

cuya dirección V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implı́citas de la dirección V .
Si (x1 , x2 , x3 , x4 ) son las coordenadas de un vector de V , entonces
 
1 4 x1
1 4 x1
2 3 x2 
2 = rg  
3 2 x3  , 0 = 2 3 x2 = −5x1 + 10x2 − 5x3
3 2 x3
4 1 x4

1 4 x1

0 = 2 3 x2 = −10x1 + 15x2 − 5x4
4 1 x4

y las coordenadas de los vectores de V son soluciones del sistema homogéneo


}
x1 − 2x2 + x3 = 0
(3.3)
2x1 − 3x2 + x4 = 0

Como ambos subespacios vectoriales de K 4 tienen dimensión 2, coinciden, y 3.3 son las
ecuaciones implı́citas de V . Ahora, como X pasa por el punto de coordenadas (2, 1, 1, 3), las
ecuaciones implı́citas de X son
}
x1 − 2x2 + x3 = 1
2x1 − 3x2 + x4 = 4

Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-


mensión finita E, entonces

dim (V + W ) = dim V + dim W − dim (V ∩ W )

Demostración: Consideremos la aplicación lineal f : V → (V + W )/W , f (v) = [v], que es


epiyectiva, pues para toda clase [v + w] ∈ (V + W )/W tenemos que
[v + w] = [v] + [w] = [v] + 0 = f (v) ,
y su núcleo es Ker f = {v ∈ V : [v] = 0} = V ∩ W . Terminamos por 2.2.7 y 3.2.1:
dim V = dim (V ∩ W ) + dim (V + W )/W = dim (V ∩ W ) + dim (V + W ) − dim W .
22 CAPÍTULO 3. APLICACIONES LINEALES

Corolario 3.2.5 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimen-


sión finita E. Si la suma de V y W es directa, entonces dim (V ⊕ W ) = dim V + dim W .

Demostración: De acuerdo con 2.3.1 tenemos que V ∩ W = 0, ası́ que

dim (V + W ) = dim V + dim W − dim (V ∩ W ) = dim V + dim W .

3.3. Cambio de Base


Definición: Sea e1 , . . . , en una base de un espacio vectorial E. Si consideramos una nueva
base v1 , . . . , vn de E, tendremos escalares bij ∈ K tales que

vj = b1j e1 + . . . + bnj en , 1≤j≤n (3.4)

y diremos que B = (bij ) ∈ Mn×n (K) es la matriz de cambio de base.

Las columnas de la matriz de cambio de base B están formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E → E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si Y son las coordenadas de un vector e ∈ E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = BY .
Por otra parte, también tenemos una matriz de cambio de base C ∈ Mn×n (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que Y = CX. Luego X = BCX y Y = CBY , y como estas igualdades son válidas
para cualesquiera columnas X, Y , se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relación entre las coordenadas X e Y
de un mismo vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es

X = BY , Y = B −1 X (3.5)

Aplicaciones Lineales
Sea f : E → E ′ una aplicación lineal y sea A ∈ Mm×n (K) la matriz de f en ciertas bases
e1 , . . . , en y e′1 , . . . , e′m de E y E ′ respectivamente.
Consideremos nuevas bases v1 , . . . , vn y v1′ , . . . , vm

de E y E ′ respectivamente, las co-
rrespondientes matrices de cambio de base B ∈ Mn×n (K) y C ∈ Mm×m (K), y sea Ā ∈
Mm×n (K) la matriz de f en estas nuevas bases de E y E ′ . Vamos a determinar la nueva
matriz Ā de f en términos de la matriz A y las matrices de cambio de base B y C
Sean X e Y las coordenadas de un vector e ∈ E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X ′ e Y ′ las coordenadas de f (e) ∈ E ′ en las bases e′1 , . . . , e′m y
v1′ , . . . , vm

respectivamente. De acuerdo con 3.2 tendremos que

X ′ = AX , Y ′ = ĀY

y de acuerdo con 3.5 tendremos que Y = B −1 X , X ′ = CY ′ ; luego

AX = X ′ = CY ′ = C ĀY = C ĀB −1 X .

Como esta igualdad es válida para cualquier columna X, concluimos que

A = C ĀB −1 , Ā = C −1 AB (3.6)
Capı́tulo 4

Geometrı́a Euclı́dea

4.1. Producto Escalar


Definición: Dar un producto escalar en un espacio vectorial real E es asignar a cada par
de vectores e, v ∈ E un número real, que denotaremos e · v (ó < e | v >), de modo que

1. Es bilineal : (e + e′ ) · v = e · v + e′ · v , (λe) · v = λ(e · v),


e · (v + v ′ ) = e · v + e · v ′ , e · (λv) = λ(e · v).

2. Es simétrico: e · v = v · e.

3. Es definido-positivo: e · e ≥ 0 , y sólo se da la igualdad cuando e = 0.



En tal caso, se llama módulo de un vector e ∈ E al número real |e| = ∥e∥ := + e · e (es
positivo cuando e ̸= 0), de modo que ∥e∥2 = e · e.
La distancia entre dos puntos p, q ∈ E es d(p, q) := ∥q − p∥.

Nótese que e·0 = e·(0·0) = 0(e·0) = 0, que ∥λe∥ = λ2 e · e = |λ|·∥e∥, y que la distancia
es invariante por traslaciones: d(p + e, q + e) = ∥(q + e) − (p + e)∥ = ∥q − p∥ = d(p, q).

Ejemplos: En la geometrı́a euclı́dea, los segmentos con origen en un punto prefijado O


forman un espacio vectorial real de dimensión 3 y, fijada una unidad de longitud, el producto
escalar de dos vectores no nulos es el producto de sus longitudes por el coseno del ángulo
que forman. Éste es el ejemplo paradigmático de producto escalar, que motiva los nombres
que introduciremos.

1. Un producto escalar en Rn es (x1 , . . . , xn ) · (y1 , . . . , yn ) := x1 y1 + . . . + xn yn .

2. Un producto escalar en C es < z1 | z2 > := z1 z̄2 + z̄1 z2 .

3. Un producto escalar en Mn×n (R) es∑< A | B > := tr At B. Es definido-positivo porque,


si A = (aij ), entonces < A | A > = ij a2ij ≥ 0 es nulo sólo cuando A = 0.

4. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado
[a, b], un producto escalar es
∫ b
< f | g > := f (t)g(t) dt
a

Lema 4.1.1 Para todo par de vectores e, v ∈ E se tiene la desigualdad de Cauchy-Schwarz


|e · v| ≤ ∥e∥ · ∥v∥ ; y por tanto la desigualdad triangular: ∥e + v∥ ≤ ∥e∥ + ∥v∥ .

23
24 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA

Demostración: El polinomio (te + v) · (te + v) = (e · e)t2 + 2(e · v)t + v · v = at2 + bt + c


es de grado 2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores
negativos, porque el producto escalar es definido-positivo, ası́ que no puede tener dos raı́ces
reales distintas (su discriminante b2 − 4ac no puede ser positivo):

4(e · v)2 − 4(e · e)(v · v) ≤ 0 ;

luego (e · v)2 ≤ (e · e)(v · v), y tomando raı́z cuadrada vemos que |e · v| ≤ ∥e∥ · ∥v∥.
En cuanto a la desigualdad triangular, como |e · v| ≤ ∥e∥ · ∥v∥, tenemos que

∥e + v∥2 = (e + v) · (e + v) = e · e + v · v + 2(e · v) ≤ e · e + v · v + 2|e · v| ≤


≤ ∥e∥2 + ∥v∥2 + 2∥e∥ · ∥v∥ = (∥e∥ + ∥v∥)2

y tomando raı́z cuadrada se concluye que ∥e + v∥ ≤ ∥e∥ + ∥v∥.

Definición: Si e, v ̸= 0, por la desigualdad de Cauchy-Schwarz tenemos que −1 ≤ ∥e∥·∥v∥


e·v

1, y diremos que el coseno del ángulo α que forman dos vectores no nulos e y v es
e·v
cos α :=
∥e∥ · ∥v∥

de modo que (la medida en radianes de) el ángulo está bien definido entre 0 y π.
El ángulo que forman 3 puntos distintos abc es el ángulo que forman a − b y c − b. Nótese
que coincide con el ángulo que forman los puntos a + e, b + e, c + e cualquiera que sea el
vector e: el ángulo es invariante por traslaciones.
Dos vectores e, v ∈ E son ortogonales cuando e · v = 0; es decir, cuando α = π2 .
Cuando λµ > 0, el ángulo que forman e y v coincide con el que forman λe y µv, porque

(λe) · (µv) λµ(e · v) e·v


= = ·
∥λe∥ · ∥µv∥ |λµ| · ∥e∥ · ∥v∥ ∥e∥ · ∥v∥

Ejemplos:

1. En un triángulo de vértices a, b = a + e, c = a + v se tiene que c − b = v − e, y

∥v − e∥2 = (v − e) · (v − e) = ∥v∥2 + ∥e∥2 − 2(e · v)

Obtenemos ası́ tanto el Teorema de Pitágoras (s. VI a. de C.) como su recı́proco:

c
e · v = 0 ⇔ ∥v − e∥2 = ∥e∥2 + ∥v∥2
v v−e
α α = π/2 ⇔ ∥c − b∥2 = ∥b − a∥2 + ∥c − a∥2
a e b

2. Vamos a demostrar el Teorema de Tales (s. VI a. de C.): Si en un triángulo se traza


una recta paralela a un lado, corta a los otros dos lados en segmentos proporcionales.
Como los vectores e y v son linealmente independientes,
v
βv − αe = λ(v − e), α = λ = β
βv
∥βv∥ ∥αe∥ ∥βv − αe∥
= =
∥v∥ ∥e∥ ∥v − e∥
αe e
4.1. PRODUCTO ESCALAR 25

3. Las medianas (rectas que unen un vértice con el punto medio del lado opuesto) de
un triángulo abc se cortan en el punto g = a+b+c
3 , llamado baricentro, que divide a
cada mediana en la proporción 2:1,
a+b+c a 2b+c b 2a+c c 2a+b
= + = + = +
3 3 3 2 3 3 2 3 3 2
c

a+c
2 b+c
2

a b
a+b
2

4. Si h es el punto de corte de las alturas (rectas que pasan por un vértice y son per-
pendiculares al lado opuesto) trazadas por c y a, tenemos que
(b − a) · (h − c) = 0 (4.1)
(c − b) · (h − a) = 0 (4.2)
y sumando obtenemos que (c − a) · (h − b) = 0, de modo que la altura trazada por el
tercer vértice b pasa también por h: Las tres alturas de un triángulo se cortan en un
punto h, llamado ortocentro.
5. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por
el punto medio) de los lados ab y bc, tendremos que
0 = 2(b − a) · (f − a+b
2 ) = (b − a) · 2f + a · a − b · b (4.3)
0 = 2(c − b) · (f − b+c
2 ) = (c − b) · 2f + b · b − c · c (4.4)
y sumando obtenemos que 0 = (c − a) · 2f + a · a − c · c = 2(c − a) · (f − a+c
2 ), de modo
que la mediatriz del lado ab también pasa por f : las tres mediatrices se cortan en un
punto f , llamado circuncentro.
a+b+c
6. Sumando 4.1 con 4.3, y 4.2 con 4.4, como el baricentro es g = 3 , obtenemos
(b − a) · (h + 2f − 3g) = 0
(c − b) · (h + 2f − 3g) = 0

El vector u = h + 2f − 3g = (h − g) + 2(f − g) está en la dirección R(a − b) + R(c − b)


del plano que pasa por el triángulo; luego u · u = 0 y h + 2f − 3g = 0; es decir,
h 2f 2
g= + = h + (f − h)
3 3 3
de modo que el baricentro está en el segmento que determinan el ortocentro y el
circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).
7. Consideremos un cuadrilátero (la figura formada por cuatro puntos ordenados abcd
en un plano, de los que no hay 3 alineados) y pongamos e = b − a, v = d − a. La
condición de que sea un paralelogramo (los lados opuestos son paralelos) es que
c − d = λe y c − b = µv para ciertos escalares λ, µ; luego c − a = e + µv = λe + v.
d c
λe
v µv

e
a b
26 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA

Como los vectores e, v son linealmente independientes, porque los puntos abd no están
alineados, se sigue que λ = µ = 1, de modo que los lados opuestos son iguales, c − d =
b − a y c − b = d − a, y las dos diagonales se bisecan mutuamente:
a+c b+d a+b+c+d
= = .
2 2 4

4.2. Espacios Vectoriales Euclı́deos


Definición: Llamaremos espacio vectorial euclı́deo, en honor de Euclides (325?-265? a.
de C.), a todo espacio vectorial real E de dimensión finita dotado de un producto escalar, y
diremos que el ortogonal de un subespacio vectorial V de E es:
V ⊥ := {e ∈ E : e · v = 0 para todo vector v ∈ V } .

Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial euclı́deo E, su


ortogonal es un subespacio vectorial de E de dimensión:

dim V ⊥ = dim E − dim V

Demostración: Sea v1 , . . . , vd una base de V , y consideremos el núcleo de la aplicación lineal


f : E −→ Rd , f (e) = (e · v1 , . . . , e · vd ) .
Ker f = {e ∈ E : e · v1 = 0, . . . , e · vd = 0} = (Rv1 + . . . + Rvd )⊥ = V ⊥ ,
En efecto, si un vector e ∈ E es ortogonal a ciertos vectores, e · v1 = . . . = e · vd = 0,
entonces también es ortogonal a todas sus combinaciones lineales,
e · (λ1 v1 + . . . + λd vd ) = λ1 (e · v1 ) + . . . + λr (e · vd ) = 0 ,
de modo que e ∈ (Rv1 + . . . + Rvd )⊥ . Luego V ⊥ es un subespacio vectorial de E y

dim E = dim V ⊥ + dim (Im f ) ≤ dim V ⊥ + d = dim V ⊥ + dim V,


3.2.1
(4.5)
donde la desigualdad se debe a que la imagen de f es un subespacio vectorial de Rd .
Por otra parte, si v ∈ V ⊥ ∩ V , entonces v · v = 0; luego v = 0, porque el producto escalar
es definido-positivo, y vemos que V ⊥ ∩ V = 0 . Por tanto

dim V ⊥ + dim V = dim (V ⊥ + V ) ≤ dim E


3.2.4
(4.6)
y comparando con 4.5 concluimos que dim V ⊥ + dim V = dim E.

Corolario 4.2.2 E = V ⊥ ⊕ V y (V ⊥ )⊥ = V .
Demostración: Como V ⊥ ∩ V = 0, la suma de V y V ⊥ es directa por 2.3.1 y, de acuerdo con
3.2.5, su dimensión es dim (V ⊥ ⊕ V ) = dim V ⊥ + dim V = dim E, ası́ que 2.2.7.1 permite
concluir que V ⊥ ⊕ V = E. Además V ⊆ (V ⊥ )⊥ por definición de V ⊥ , y por 4.2.1
dim (V ⊥ )⊥ = dim E − dim (V ⊥ ) = dim E − (dim E − dim V ) = dim V ,
ası́ que de nuevo 2.2.7.1 permite concluir que (V ⊥ )⊥ = V .

Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial euclı́deo E:


1. V ⊆ W ⇔ W ⊥ ⊆ V ⊥
2. V = W ⇔ V ⊥ = W ⊥
3. (V + W )⊥ = V ⊥ ∩ W ⊥
4. (V ∩ W )⊥ = V ⊥ + W ⊥
4.3. BASES ORTONORMALES 27

Demostración: Si V ⊆ W , es claro que W ⊥ ⊆ V ⊥ . Recı́procamente, si W ⊥ ⊆ V ⊥ ,


entonces (V ⊥ )⊥ ⊆ (W ⊥ )⊥ ; luego V ⊆ W de acuerdo con 4.2.2.
2.– Si V ⊥ = W ⊥ , entonces (V ⊥ )⊥ = (W ⊥ )⊥ ; luego V = W de acuerdo con 4.2.2.
3.– Como V ⊆ V + W y W ⊆ V + W , tenemos que (V + W )⊥ ⊆ V ⊥ y (V + W )⊥ ⊆ W ⊥ ;
luego (V + W )⊥ ⊆ V ⊥ ∩ W ⊥ .
Además, si e ∈ V ⊥ ∩ W ⊥ , para todo vector v + w ∈ V + W tendremos que
e · (v + w) = e · v + e · w = 0 .
⊥ ⊥ ⊥
Luego V ∩W ⊆ (V + W ) y concluimos que (V + W )⊥ = V ⊥ ∩ W ⊥ .
4.– De acuerdo con el segundo apartado, para demostrar que (V ∩ W )⊥ = V ⊥ + W ⊥
basta ver que sus ortogonales coinciden:
( ⊥ )⊥ 3 4.2.2 ( )⊥
V + W ⊥ = (V ⊥ )⊥ ∩ (W ⊥ )⊥ = V ∩ W = (V ∩ W )⊥
4.2.2
.
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al ı́nfimo de las distancias
de p a los puntos de X:
d(p, X) := ı́nf d(p, x) .
x∈X

Existe un único punto q ∈ X tal que p − q es ortogonal a la dirección de X. Además,


la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = x + V , según 4.2.2 tendremos p − x = v + w (es decir p − (x + v) = w)
con v ∈ V y w ∈ V ⊥ , y esta descomposición es única. Luego q = x+v es el único punto
de X tal que p − q ∈ V ⊥ . Además, para cualquier otro punto x′ ∈ X, por el teorema de
Pitágoras tendremos d(p, x′ )2 = d(p, q)2 + d(q, x′ )2 , ası́ que d(p, q) < d(p, x′ ) cuando
x′ ̸= q.
2. Si V es un subespacio vectorial de un espacio vectorial euclı́deo E, de acuerdo con
4.2.2 tenemos que E = V ⊥ ⊕ V . La aplicación lineal sV : E → E que es la identidad
en V y transforma cada vector de V ⊥ en su opuesto se llama simetrı́a respecto de
V , y la aplicación lineal pV : E → V que es la identidad en V y se anula en todos los
vectores de V ⊥ se llama proyección ortogonal sobre V .
Es decir, cada vector e ∈ E descompone de modo único en suma, e = v + w, de un
vector v ∈ V y otro w ∈ V ⊥ , y por definición sV (e) = v − w , pV (v + w) = v .
3. Se dice que dos subvariedades lineales X = p + V , Y = q + W de un espacio vectorial
euclı́deo E son perpendiculares cuando V y W ⊥ son incidentes (i.e., cuando V ⊆ W ⊥
ó W ⊥ ⊆ V ), lo que, en virtud de 4.2.3, equivale a que W y V ⊥ sean incidentes.
Cuando V ⊆ W ⊥ , tenemos que V ∩ W ⊆ W ⊥ ∩ W = 0; luego V ∩ W = 0.
Cuando W ⊥ ⊆ V , tenemos que E = W ⊥ + W ⊆ V + W ; luego V + W = E.

4.3. Bases Ortonormales


Definición: Diremos que una base u1 , . . . , un de un espacio vectorial euclı́deo E es orto-
normal cuando todos los vectores de la base son de módulo 1 y mutuamente ortogonales:
{
1 cuando i = j
ui · uj = δij :=
0 cuando i ̸= j
Por definición, en una base ortonormal el producto escalar de dos vectores e, v ∈ E de
coordenadas (x1 , . . . , xn ), (y1 , . . . , yn ) respectivamente, es
e · v = (x1 u1 + . . . + xn un ) · (y1 u1 + . . . + yn un ) = x1 y1 + . . . + xn yn .
28 CAPÍTULO 4. GEOMETRÍA EUCLÍDEA

Teorema 4.3.1 Todo espacio vectorial euclı́deo E ̸= 0 admite bases ortonormales.


Demostración: Procedemos por inducción sobre n = dim E. Cuando n = 1, tenemos que
E = Rv. Si tomamos u = v/∥v∥, entonces u · u = 1 y u ya es una base ortonormal de E.
Si n > 1, tomamos un vector no nulo v ∈ E y ponemos un = v/∥v∥, de modo que
un · un = 1. De acuerdo con 4.2.1, dim (Run )⊥ = n − 1, ası́ que por hipótesis de inducción
existe alguna base ortonormal u1 , . . . , un−1 de (Run )⊥ .
Ahora los vectores u1 , . . . , un son de módulo 1 y mutuamente ortogonales, ası́ que basta
ver que u1 , . . . , un forman una base de E. Como n es la dimensión de E, de acuerdo con
2.2.2 basta probar que u1 , . . . , un generan E. Ahora bien,

Ru1 + . . . + Run−1 + Run = (Run )⊥ + Run = E .


4.2.2

Demostración: Partiendo de una base e1 , . . . , en de E, mediante el método de ortonor-


malización de Gram-Schmidt obtenemos vectores u1 , . . . , un tales que ui · uj = δij ,
v1
v1 = e 1 u1 = |v1 |
v2 = e2 − (e2 · u1 )u1 , u2 = v2
|v2 |
v3 = e3 − (e3 · u1 )u1 − (e3 · u2 )u2 , u3 = v3
|v3 |
..................
vi = ei − (ei · u1 )u1 − . . . − (ei · ui−1 )ui−1 , ui = vi
|vi |
..................
vn = en − (en · u1 )u1 − . . . − (en · un−1 )un−1 , un = vn
|vn |

Nótese que vi ̸= 0, pues si ei = (ei · u1 )u1 + . . . + (ei · ui−1 )ui−1 , entonces

ei ∈ ⟨u1 , . . . , ui−1 ⟩ ⊆ ⟨u1 , . . . , ui−2 , ei−1 ⟩ ⊆ . . . ⊆ ⟨u1 , e2 , . . . , ei−1 ⟩ ⊆ ⟨e1 , . . . , ei−1 ⟩

y tendrı́amos una relación de dependencia lineal entre los vectores e1 , . . . , ei .


Para concluir basta ver que u1 , . . . , un forman una base de E.
Como el número de vectores coincide con la dimensión de E, de acuerdo con 2.2.6 basta
ver que
∑ u1 , . . . , un son linealmente
∑ independientes.

Si i λi ui = 0, entonces 0 = ( i λi ui )·uj = i λi δij = λj para todo ı́ndice j = 1, . . . , n.
Capı́tulo 5

Endomorfismos

5.1. Polinomios
Sea p(x) un polinomio no constante con coeficientes complejos. En este capı́tulo usaremos
el siguiente teorema fundamental, que se demostrará en el curso de Variable Compleja:

Teorema de D’Alembert (1717-1783): Todo polinomio no constante con coeficientes com-


plejos admite alguna raı́z compleja.

Regla de Ruffini (1765-1822): Si α es una raı́z compleja de p(x), i.e. p(α) = 0, entonces
p(x) es múltiplo de x − α:
p(x) = (x − α)q(x) .
Demostración: Dividiendo p(x) por x − α tendremos que p(x) = (x − α)q(x) + r, donde el
resto r es de grado menor que 1; luego constante.
Sustituyendo x = α en esta igualdad obtenemos que el resto es nulo:

0 = p(α) = (α − α)q(α) + r = r .

Definición: Si α es una raı́z compleja de p(x), llamaremos multiplicidad de tal raı́z al


mayor número natural m tal que (x − α)m divida a p(x).
Las raı́ces de multiplicidad 1 se denominan simples.

Consideremos una raı́z compleja α1 de p(x), que tendrá cierta multiplicidad m1 , de


modo que p(x) = (x − α1 )m1 q1 (x), donde el polinomio q1 (x) ya no admite la raı́z α1 .
Tomemos una raı́z compleja α2 de q1 (x), que tendrá cierta multiplicidad m2 , de modo que
p(x) = (x − α1 )m1 (x − α2 )m2 q2 (x). Por el teorema de D’Alembert, podemos proceder ası́
hasta que el factor qi (x) sea constante, y obtenemos una descomposición

p(x) = c(x − α1 )m1 (x − α2 )m2 . . . (x − αr )mr , (5.1)

donde α1 , . . . , αr son las raı́ces complejas de p(x), los exponentes m1 , . . . , mr son sus res-
pectivas multiplicidades, y c es constante.
Esta descomposición muestra que el número de raı́ces complejas de un polinomio no
constante, contadas con su multiplicidad, coincide siempre con el grado del polinomio.

5.2. Valores y Vectores Propios


En este capı́tulo, de nuevo los escalares serán K = Q, R ó C.

29
30 CAPÍTULO 5. ENDOMORFISMOS

Definición: Los endomorfismos de un K-espacio vectorial E son las aplicaciones K-


lineales T : E → E. Si S, T : E → E son endomorfismos, su suma S + T , el producto λT por
un escalar λ, y su producto ST := S ◦ T son los siguientes endomorfismos de E:
( ) ( )
(S + T )(e) := S(e) + T (e) , (λT )(e) := λ T (e) , (ST )(e) = S T (E) .
Definición: Dado un endomorfismo T de un K-espacio vectorial E, diremos que un escalar
α ∈ K es un valor propio de T si existe algún vector no nulo e ∈ E tal que T (e) = αe, en
cuyo caso diremos que e es un vector propio de T y pondremos
Vα := {e ∈ E : T (e) = αe} = {e ∈ E : αId(e) − T (e) = 0} = Ker (αId − T )
de modo que Vα es un subespacio vectorial de E, y Vα ̸= 0.

Definición: Fijada una base e1 , . . . , en de E, cada endomorfismo T : E → E está determi-


nado por su matriz A = (aij ) ∈ Mn×n (K) en tal base:

n
T (ej ) = aij ei , j = 1, . . . , n .
i=1

y diremos que el polinomio



x − a11 −a12 ... −a1n
(∑ )
−a21 x − a22 ... −a2n n
cT (x) := = xn − aii xn−1 + . . . + (−1)n |A|
. . . ... ... ... i=1
−an1 −an2 . . . x − ann
es el polinomio caracterı́stico de T , pues no depende de la base elegida, sólo de T .
En efecto, si se considera una nueva base en E, y B es la matriz del cambio de base,
según 3.6 la matriz Ā de T en la nueva base es
Ā = B −1 AB (5.2)
y tenemos que
|xI − Ā| = |xB −1 IB − B −1 AB| = |B −1 (xI − A)B| = |B −1 | · |xI − A| · |B| =
= |B −1 | · |B| · |xI − A| = |B −1 B| · |xI − A| = |I| · |xI − A| = |xI − A| .

Teorema 5.2.1 Sea T un endomorfismo de un K-espacio vectorial de dimensión finita E.


Los valores propios de T son las raı́ces en K de su polinomio caracterı́stico cT (x).
Demostración: Sea n = dim E. Por definición, α ∈ K es un valor propio de T precisamente
cuando 0 ̸= Ker (αId − T ); es decir, si y sólo si
( ) 3.2.2
0 < dim Ker (αId − T ) = n − rg (αI − A) ;
lo que significa que rg (αI − A) < n, y ocurre justo cuando cT (α) = |αI − A| = 0.

Corolario 5.2.2 El número de valores propios de un endomorfismo T de un espacio vecto-


rial E de dimensión n siempre es menor o igual que n.
Demostración: El grado del polinomio caracterı́stico cT (x) es n = dim E, y el número de
raı́ces en K de un polinomio siempre está acotado por el grado del polinomio.

Corolario 5.2.3 Todo endomorfismo de un espacio vectorial complejo de dimensión finita


tiene algún valor propio.
Demostración: Es consecuencia directa de 5.2.1 y del Teorema de D’Alembert.
5.3. DIAGONALIZACIÓN DE ENDOMORFISMOS 31

Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterı́stico c(x) =


xn + . . . + c1 x + c0 de un endomorfismo T de un K-espacio vectorial de dimensión finita E
siempre anula al endomorfismo: c(T ) = T n + . . . + c1 T + c0 Id = 0 .

Demostración: Si A ∈ Mn×n (K) es la matriz de T en una base de E, la matriz del endo-


morfismo c(T ) es c(A) = An + . . . + c1 A + c0 I = 0, ası́ que el teorema afirma que c(A) = 0,
donde c(x) = |xI − A|; luego basta probarlo en el caso K = C.
En tal caso procedemos por inducción sobre n = dim E. Si n = 1, entonces A = (a) para
algún escalar a ∈ C. Luego c(x) = x − a y c(A) = A − aI = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorfismo T tiene algún valor propio α ∈ C.
Consideremos un vector propio e1 ∈ E de valor propio α, y una base e1 , . . . , en en E. La
matriz A de T en esta base es de la forma
( )
α ...
A=
0 Ā

para cierta matriz cuadrada Ā de n − 1 columnas. Luego c(x) = (x − α)c̄(x), donde c̄(x) =
|xI − Ā| y, por hipótesis de inducción, c̄(Ā) = 0. Ahora
( r )
α ...
Ar =
0 Ār
( )( ) ( )( )
0 ... c̄(α) ... 0 ... c̄(α) ...
c(A) = (A − αI)c̄(A) = = =0.
0 B 0 c̄(Ā) 0 B 0 0

5.3. Diagonalización de Endomorfismos


Definición: Diremos que un endomorfismo T de un K-espacio vectorial de dimensión finita
E es diagonalizable si existe alguna base e1 , . . . , en de E formada por vectores propios de
T ; i.e., T (ej ) = αj ej para ciertos escalares αj ∈ K, lo que significa que la matriz de T en
tal base es diagonal (todos sus coeficientes son nulos, salvo quizás los de la diagonal):
 
α1 0 . . . 0
 0 α2 . . . 0 
D =  
. . . . . . . . . . . . 
0 0 . . . αn
De acuerdo con 5.2, un endomorfismo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B −1 AB es una matriz diagonal D. En tal caso A = BDB −1 ,
y es sencillo calcular las potencias Am (y por tanto, la solución general Xm = Am X0 del
sistema de ecuaciones en diferencias finitas Xm+1 = AXm ), porque
Am = (BDB −1 )(BDB −1 ) . . . (BDB −1 ) = BDm B −1 .
Igualmente, la solución general del sistema de ecuaciones diferenciales X ′ = AX es X = B X̄,
donde X̄ es la solución general del sistema X̄ ′ = DX̄. En efecto:
X ′ = B X̄ ′ = BDX̄ = BDB −1 X = AX .
Ahora, para resolver el sistema X̄ ′ = DX̄; es decir, x̄′i = αi x̄i , basta observar que la
solución general de la ecuación diferencial x′ = αx es
x′
α= = (ln x)′
x
ln x = λ + αt
x(t) = eλ+αt = ceαt .
32 CAPÍTULO 5. ENDOMORFISMOS

Ejemplos:
1. Para resolver la ecuación diferencial x′′ = ax′ + bx, a, b ∈ R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva función incógnita y(t):
{ ( )′ ( )( ) ( )
x′ = y x 0 1 x 0 1
, = , A=
y ′ = ay + bx y b a y b a

El polinomio caracterı́stico del endomorfismo A : R2 → R2 es



u −1
c(u) = |uI − A| = = u2 − au − b .
−b u − a

Si el polinomio caracterı́stico u2 −au−b tiene dos raı́ces reales y distintas (a2 +4b > 0)

a ± a2 + 4b
α1 , α2 =
2
éstas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogéneos
( )( ) ( ) ( )( ) ( )
α1 −1 x1 0 α2 −1 x1 0
= , =
−b α1 − a x2 0 −b α2 − a x2 0
α1 x1 − x2 = 0 , α2 x1 − x2 = 0

Los vectores propios e1 = (1, α1 ) y e2 = (1, α2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:
( ) ( )
α1 0 1 1
D= = B −1 AB , B=
0 α2 α1 α2

Ahora resolvemos el sistema de ecuaciones diferenciales X̄ ′ = DX̄:


( )′ ( )( ) { {
x̄ α1 0 x̄ x̄′ = α1 x̄ x̄ = c1 eα1 t
= , ,
ȳ 0 α2 ȳ ȳ ′ = α2 ȳ ȳ = c2 eα2 t

y la solución general del sistema de ecuaciones diferenciales X ′ = AX es X = B X̄:


( ) ( ) ( α t)
x 1 1 c1 e 1
=
y α1 α2 c2 eα2 t

x(t) = c1 eα1 t + c2 eα2 t c1 , c2 ∈ R .

2. Si el polinomio caracterı́stico u2 − au − b tiene dos raı́ces imaginarias (a2 + 4b < 0)



a −a2 − 4b
α ± iω = ± i ,
2 2
sustituimos R por C en el razonamiento anterior, y consideramos funciones con valores
complejos. La solución general de la ecuación diferencial x′′ = ax′ + bx es
( )
x(t) = c1 e(α+iω)t +c2 e(α−iω)t = eαt c1 eiωt +c2 e−iωt , c1 , c 2 ∈ C

En las soluciones reales c1 y c2 han de ser conjugados, c1 = ρeiθ y c2 = ρe−iθ , ası́ que
( )
x(t) = eαt ρei(ωt+θ) + ρe−i(ωt+θ)

x(t) = c eαt cos(ωt + θ) c, θ ∈ R .


5.3. DIAGONALIZACIÓN DE ENDOMORFISMOS 33

3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesión incógnita (yn ):
{ ( ) ( )( )
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn

cuya solución general es Xn = An X0 . Cuando a2 +4b ̸= 0, la matriz A es diagonalizable,


A = BDB −1 , de modo que la solución general es Xn = BDn B −1 X0 :
( ) ( )( n )( )−1 ( )
xn 1 1 α1 0 1 1 x0
=
yn α1 α2 0 α2n α1 α2 y0

( ) ( )( ) ( ) ( )−1 ( )
xn α1n α2n c1 c1 1 1 x0
= , = (5.3)
yn α1n+1 α2n+1 c2 c2 α1 α2 y0

xn = c1 α1n + c2 α2n

4. La sucesión de Fibonacci (1170-1250) es la sucesión 0, 1, 1, 2, 3, 5, 8, 13,... cuyos


términos iniciales son x0 = 0, x1 = 1, y cada término es la suma de los dos anteriores:
−1
n . Como las raı́ces del polinomio u − u − 1 son α1 = ϕ y α2 = −ϕ
2
xn+2 = xn+1 + x√ ,

donde ϕ = (1 + 5)/2 ≈ 1 618... es la llamada proporción áurea, el término general
de la sucesión de Fibonacci es

xn = c1 ϕn + c2 (−ϕ)−n . (5.4)

Las constantes c1 y c2 pueden determinarse a partir de los términos iniciales x0 = 0,


y0 = x1 = 1 mediante la fórmula 5.3, o bien resolviendo el sistema de ecuaciones
lineales que se obtiene al dar los valores n = 0 y n = 1 en 5.4:
}
c1 + c2 = x0 = 0 1 1 ϕn − (−ϕ)−n
−1 , c1 = = √ , c = −c , x = √ .
c1 ϕ − c2 ϕ = x1 = 1 ϕ + ϕ−1 5
2 1 n
5

Teorema 5.3.1 Si α1 , . . . , αm son valores propios de un endomorfismo T , distintos entre


sı́, entonces la suma de los subespacios vectoriales Vα1 , . . . , Vαm es directa, y por tanto

dim (Vα1 + . . . + Vαm ) = dim Vα1 + . . . + dim Vαm .

Demostración: Sea Vα1 × . . . × Vαm el espacio vectorial formado por las sucesiones de vec-
tores (v1 , . . . , vm ), donde vi ∈ Vαi . Por definición de suma directa, hemos de probar que es
inyectiva la siguiente aplicación lineal (que siempre es epiyectiva):

s : Vα1 × . . . × Vαm −→ Vα1 + . . . + Vαm , s(v1 , . . . , vm ) = v1 + . . . + vm .

Procedemos por inducción sobre m, y el enunciado es obvio cuando m = 1.


Si m > 1 y v1 + . . . + vm = 0, donde vi ∈ Vαi , tendremos que

0 = T (v1 + . . . + vm ) = α1 v1 + . . . + αm vm

y restando la igualdad 0 = αm (v1 + . . . + vm ) obtenemos que

0 = (α1 − αm )v1 + . . . + (αm−1 − αm )vm−1 .

Por hipótesis de inducción, se sigue que (α1 − αm )v1 = . . . = (αm−1 − αm )vm−1 = 0.


Como αi ̸= αj cuando i ̸= j, concluimos que v1 = . . . = vm−1 = 0, y por tanto que
también 0 = v1 + . . . + vm−1 + vm = 0 + . . . + 0 + vm = vm .
Por último, dim (Vα1 ⊕ . . . ⊕ Vαm ) = dim Vα1 + . . . + dim Vαm , de acuerdo con 3.2.5.
34 CAPÍTULO 5. ENDOMORFISMOS

Proposición 5.3.2 Sean α1 , . . . , αr los valores propios de un endomorfismo T de un espacio


vectorial E de dimensión finita. T es diagonalizable si y sólo si Vα1 + . . . + Vαr = E.

Demostración: Si T es diagonalizable, por definición Vα1 + . . . + Vαr contiene una base de


E, y como es un subespacio vectorial de E, concluimos que Vα1 + . . . + Vαr = E.
Recı́procamente, si Vα1 + . . . + Vαr = E, considerando una base en cada sumando Vαi
vemos que E admite un sistema de generadores formado por vectores propios de T , y 2.2.2
permite concluir que E admite una base formada por vectores propios de T ; es decir, que T
es diagonalizable.

Corolario 5.3.3 Si el número de valores propios coincide con el grado del polinomio carac-
terı́stico, entonces T es diagonalizable.
Demostración: Si α1 , . . . , αr son los valores propios de T , tenemos que 1 ≤ dim Vαi ası́ que
5.3.1
r ≤ dim Vα1 + . . . + dim Vαr = dim (Vα1 ⊕ . . . ⊕ Vαr ) ≤ dim E.

Luego, si r = gr cT (x) = dim E, entonces Vα1 ⊕ . . . ⊕ Vαr = E y T es diagonalizable de


acuerdo con 5.3.2.

Criterio de Diagonalización: Un endomorfismo T de un K-espacio vectorial de dimen-


sión finita E es diagonalizable si y sólo si su polinomio caracterı́stico cT (x) tiene todas sus
raı́ces en K y la multiplicidad mi de cada raı́z αi coincide con la dimensión de Vαi :

mi = dim Vαi .

Demostración: Si T es diagonalizable, por definición su matriz en alguna base de E es


 
α1 0 . . . 0
 0 α2 . . . 0 
D =  
. . . . . . . . . . . . 
0 0 . . . αn

ası́ que su polinomio caracterı́stico cT (x) = |xI − D| = (x − α1 ) . . . (x − αn ) claramente tiene


todas sus raı́ces en K, y la multiplicidad mi de cada raı́z αi es el número de veces que se
repite αi en la sucesión α1 , . . . , αn , de modo que rg (αi I − D) = n − mi y
3.2.2 ( )
mi = n − rg (αi I − D) = dim Ker (αi Id − T ) = dim Vαi .

Recı́procamente, sean α1 , . . . , αr ∈ K las raı́ces en K de cT (x) y m1 , . . . , mr sus respec-


tivas multiplicidades. Si cT (x) tiene todas sus raı́ces en K, entonces

m1 + . . . + mr = gr cT (x) = dim E .

Si además mi = dim Vαi para todo ı́ndice i = 1, . . . , r, entonces


5.3.1
dim (Vα1 ⊕ . . . ⊕ Vαr ) = dim Vα1 + . . . + dim Vαr = m1 + . . . + mr = dim E,

y obtenemos que Vα1 ⊕ . . . ⊕ Vαr = E. Luego T es diagonalizable de según 5.3.2.

Nota: Si A es la matriz de T en una base de E, de acuerdo con 3.2.2 tenemos que


( )
dim Vαi = dim Ker (αi I − T ) = n − rg (αi I − A) .
Índice alfabético

altura, 27 distancia, 25, 29


aplicación, 4
biyectiva, 4 ecuaciones
epiyectiva, 4 implı́citas, 20
inversa, 4 paramétricas, 20
inyectiva, 4 endomorfismo, 32
lineal, 17 diagonalizable, 33
argumento, 3 epiyectiva, aplicación, 4
áurea, proporción, 35 equivalencia
, clase de, 1
baricentro, 27 , relación de, 1
base, 12 escalar, 6
, cambio de, 22 , producto, 25
canónica, 12 espacio vectorial, 9
ortonormal, 29 cociente, 11
biyectiva, aplicación, 4 euclı́deo, 28
Euler
cambio de base, 22 , fórmula de, 3
caracterı́stico, polinomio, 32 , recta de, 27
ciclo, 5 exponencial compleja, 4
circuncentro, 27
clase de equivalencia, 1 generadores, sistema de, 12
cociente Gram-Schmidt, método de, 30
, conjunto, 1
Hamilton-Cayley, teorema de, 33
, espacio vectorial, 11
complejos, números, 2 identidad, 4
composición, 4 imagen, 4, 17
congruencia, 1, 11 imaginaria, parte, 2
conjugado, 2 impar, permutación, 5
conjunto cociente, 1 implı́citas, ecuaciones, 20
coordenadas, 12 independencia lineal, 12
coseno, 26 inversa
Crámer, regla de, 7 , aplicación, 4
cuadrilátero, 27 , matriz, 6
invertible, matriz, 6
D’Alembert, teorema de, 31 inyectiva, aplicación, 4
dependencia lineal, 12 isomorfı́a, teorema de, 20
determinante, 6 isomorfismo, 19
diagonalizable, endomorfismo, 33
diagonalización, criterio de, 36 lineal
dimensión, 13 , aplicación, 17
dirección, 11 , dependencia, 12
directa, suma, 16 , independencia, 12
disjuntos, ciclos, 5 , subvariedad, 11

35
36 ÍNDICE ALFABÉTICO

logaritmo neperiano, 4 Rouché-Frobënius, teorema de, 7, 15


Ruffini, regla de, 31
módulo
de un número complejo, 2 signo de una permutación, 5
de un vector, 25 simetrı́a, 29
matriz, 6 simple, raı́z, 31
, determinante de una, 6 sistema de generadores, 12
, menor de una, 7 subespacio vectorial, 9
, rango de una, 7 subvariedad lineal, 11
invertible, 6 suma
traspuesta, 6 de subespacios vectoriales, 10
unidad, 6 directa, 16
mediana, 27 suplementario, 16
mediatriz, 27
medio, punto, 15 Tales, teorema de, 26
menor de una matriz, 7 trasposición, 5
multiplicidad de una raı́z, 31 traspuesta, matriz, 6
triángulo, 15
núcleo, 17
unidad, matriz, 6
ortocentro, 27
ortogonal valor propio, 32
, proyección, 29 vector, 9
, subespacio vectorial, 28 propio, 32
ortonormal, base, 29

paralelismo, 11
paralelogramo, 27
paramétricas, ecuaciones, 20
permutación, 4
impar, 5
par, 5
perpendicularidad, 29
Pitágoras, teorema de, 26
plano, 13
polinomio caracterı́stico, 32
producto
de matrices, 6
de números complejos, 2
escalar, 25
propio
, valor, 32
, vector, 32
proyección
ortogonal, 29
punto, 9

raı́z simple, 31
rango, 7
, teorema del, 7
real, parte, 2
recta, 13
relación, 1
de equivalencia, 1