Vous êtes sur la page 1sur 37

Análisis Matemático

En el espacio euclidiano

Oscar Santamaria Santisteban


– 5 de septiembre de 2010 –

UNPRG
Lambayeque-Perú

2009
c by racso
Capı́tulo 1
El Espacio Vectorial Euclidiano

El conjunto Rn es definido como el producto cartesiano

| ×R×
R {z· · · × R} .
n−veces

Es decir Rn := R × R × · · · × R. El conjunto formado por el único punto 0 = (0, . . . , 0) se


denotará por R0 , es decir, R0 := {0}.
El conjunto Rn es llamado espacio euclidiano n-dimensional. Sus elementos son de la forma
x = (x1 , . . . , xn ), donde cada coordenada xi es un número real.
El propósito general de estas notas es estudiar al espacio Rn como espacio vectorial y como
espacio topológico. En realidad, la estructura topológica que se definirá en Rn será inducida por
alguna norma definida en dicho espacio.
La primera estructura que daremos a Rn será la de espacio vectorial real. Para ello recurriremos
a las operaciones usuales de suma y producto de números reales. Como sabemos R es con
estas operaciones un cuerpo ordenado y es también un espacio vectorial. Usando esto definimos
en Rn las operaciones ⊕ : Rn × Rn → Rn y : R × Rn → Rn de la siguiente manera: para
x = (x1 , . . . , xn ) ∈ Rn , y = (y1 , . . . , yn ) ∈ Rn y α ∈ R,

x ⊕ y := (x1 + y1 , . . . , xn + yn ),
α x := (αx1 , . . . , αxn ).

Es sencillo comprobar que con estas operaciones Rn es un espacio vectorial y sus elementos
son llamados vectores. El elemento neutro está dado por 0 = (0, 0, . . . , 0) y el elemento inverso
de cada x = (x1 , . . . , xn ) ∈ Rn es −x = (−x1 , . . . , −xn ) ∈ Rn .
Haremos ahora una convención: la suma ⊕ será denotada por el sı́mbolo clásico (+) mientras
que el producto será denotado por (·), y de esta manera nos ahorraremos algunas complica-
ciones de notación. Además siempre usaremos en Rn estas operaciones de espacio vectorial.
Cuando esto no sea ası́, lo indicaremos en su momento.

1
2 1.1. Subespacios Vectoriales

1.1. Subespacios Vectoriales


Subconjuntos importantes dentro del Rn son los llamados subespacios vectoriales. Por defini-
ción, un subespacio vectorial de Rn es un subconjunto no vacı́o (de Rn ) que es cerrado bajo la
suma de vectores y producto de vectores por escalares. Es decir, E ⊂ Rn es subespacio vecto-
rial si E es no vacı́o y, para cada x, y ∈ E y cada α ∈ R se tiene que αx + y es nuevamente
elemento de E.
Todo subespacio vectorial contiene al vector nulo. Pues si x ∈ F y α = 0 ∈ R entonces
αx = 0x = 0. Siendo F subespacio entonces αx ∈ F , por tanto, 0 ∈ F .

E JEMPLO 1.1.

(a) En Rn hay dos subespacios que son llamados triviales: el espacio nulo {0} y el mismo Rn .

(b) En R los únicos subespacios son {0} y R. En R2 los subespacios no triviales son las rectas
que pasan por el origen. En R3 los subespacios no triviales son las rectas y planos que pasan
por el origen.

P ROPOSICI ÓN 1.1. La intersección de una colección arbitraria de subespacios de Rn es un


subespacio de Rn .
n
T Sean {Ei }i∈L una colección arbitraria de subespacios de R y considere la inter-
Demostración.
sección S = i∈L Ei . Puesto que el vector nulo 0 es elemento de todo subespacio Ei entonces
0 es elemento de S, luego S es no vacı́o.
Si x e y son elementos en S, son también elementos de cada subespacio Ei , por tanto, para
cualquier real α resulta que αx + y es también elemento de cada Ei . Luego αx + y está en S. ❚
Un conjunto X ⊂ Rn es linealmente dependiente si existen vectores distintos v1 , . . . , vk en X
y escalares α1 , . . . , αk ∈ R, no todos nulos, tales

α1 v1 + · · · + α2 v2 = 0.

Un conjunto que no es linealmente dependiente recibe el nombre de linealmente independiente.

E JEMPLO 1.2. Todo conjunto X ⊂ Rn que contiene al vector nulo es linealmente dependiente,
pues dado cualquier x ∈ X no nulo, podemos considerar la combinación nula 1 · 0 + 0 · x = 0
en la que no todos los escalares son nulos.

E JEMPLO 1.3. Todo subconjunto de un conjunto linealmente independiente es también li-


nealmente independiente. En un conjunto linealmente dependiente pueden existir conjuntos
linealmente independientes. Por ejemplo, el conjunto {(1, 0), (0, 1), (1, 1)} es linealmente de-
pendiente, pues podemos tener la combinación nula 1 · (1, 0) + 1 · (0, 1) − 1 · (1, 1) = 0, donde
los coeficientes son no nulos. Sin embargo de aquı́ podemos obtener el conjunto {(1, 0), (0, 1)}
que es linealmente independiente.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 3

Dado cualquier conjunto no vacı́o X contenido en Rn , la colección de todas las combinaciones


lineales finitas de elementos de X es llamado espacio generado por X y se denota por S(X).
Es decir, un vector v ∈ Rn es elemento
P de S(X) si existen vectores x1 , . . . , xk en X y escalares
α1 , . . . , αk ∈ R tales que v = ki=1 αi xi . Es sencillo comprobar que para cada conjunto no
vacı́o X contenido en Rn , el conjunto S(X) es un subespacio de Rn .
Dados los subespacios vectoriales F y G del Rn , la unión F ∪ G no necesariamente es un
subespacio, sin embargo este genera un subespacio S(F ∪ G). Es sencillo comprobar que este
espacio está formado por todas las sumas de la forma v + w, donde v ∈ F y w ∈ G. Por esta
razón se usa la notación S(F ∪ G) = F + G. Cuando F ∩ G = {0} entonces se escribe F ⊕ G
en vez de F + G y se dice que F ⊕ G es la suma directa de F y G.

E JEMPLO 1.4. En el espacio Rn considere el subespacio F . El objetivo en este ejemplo es


mostrar que existe un subespacio G ⊂ Rn tal que Rn = F ⊕ G.
En primer lugar observe que si fuera F = Rn entonces Rn = F ⊕ {0} y el problema estará re-
suelto.
Por el contrario, supongamos que F 6= Rn y que F es generado por un conjunto X, es decir
F = S(X). En este caso considere un vector w1 ∈ / S(X). Observe que w1 6= 0 pues 0 ∈ S(X).
Sea G1 = S({w1 }). Puesto que w1 ∈ / S(X) entonces αw1 ∈ / S(X) para todo número real α 6=
0. En efecto, si fuera que αw1 ∈ F = S(X) entonces podemos escribir αw1 = a1 v1 +· · ·+ak vk
para ciertos v1 , . . . , vk ∈ X y escalares a1 , . . . , ak , luego w1 = aα1 v1 + · · · + aαk vk y entonces
implicará que w1 ∈ F lo cual es una contradicción. Por tanto F ∩ G1 = {0}. Si fuera Rn =
F + G1 el problema ya estará resuelto. De lo contrario elija un elemento w2 ∈ / S(X ∪ {w1 })
y considere el subespacio G2 = S({w1 , w2}). Ningún vector de la forma c1 w1 + c2 w2 , tal que
c1 6= 0 ó c2 6= 0, está en F (aquı́ usamos el ó en sentido exclusivo), pues de lo contrario
existirı́an vectores v1 , . . . , vk en F y escalares α1 , . . . , αk ∈ R tal que

c1 w1 + c2 w2 = α1 v1 + · · · + αk vk .

Si c2 = 0 entonces c1 6= 0 y resultará que w1 ∈ F , una contradicción. Si c2 6= 0 entonces


w2 ∈ S(X ∪ {w1 }), nuevamente una contradicción. Continuando de esta manera hallaremos
/ F tales que Rn = F ⊕ G, donde G = S({w1 , . . . , wr }).
vectores w1 , . . . , wr ∈

Un conjunto X ⊂ Rn es base de un subespacio F ⊂ Rn si es linealmente independiente y


genera a F . En un curso estándar de álgebra lineal se muestra que si Y es otra base F entonces
X e Y tienen el mismo número de elementos. El número de elementos de cualquier base de F
se llama dimensión de F .
Es sencillo comprobar que el conjunto {e1 , e2 , . . . , en } es una base de Rn , donde ei es el vector
en Rn cuya i-esima coordenada es 1 y el resto son nulas. En particular se tiene entonces que
Rn es de dimensión n. Por supuesto que esta no es la única base, sin embargo es la mas usual y
mas sencilla de utilizar, por lo que es llamada base canónica. Salvo que se indique lo contrario,
siempre estaremos utilizando la base canónica. Observe P que respecto a esta base todo vector
x = (x1 , . . . , xn ) ∈ R puede escribirse en la forma x = ni=1 xi ei .
n

O. Santamaria S.
4 1.1. Subespacios Vectoriales

E JEMPLO 1.5. Sean u y v vectores en Rn que son linealmente independientes. Dado cualquier
número real α 6= 0, el conjunto {v, v+αu} es una base del subespacio generado por los vectores
v, v + u, v + 2u, . . . , v + nu, . . .
En efecto, en primer lugar probaremos que el conjunto {v, v +αu} es linealmente independien-
te. Considere entonces la combinación lineal βv + λ(v + αu) = 0. De aquı́ se tiene la igualdad
(β + λ) · v + λα · u = 0 lo cual implica, por ser u y v vectores L.I., β + λ = 0 = λα. Siendo
α 6= 0 se concluye que λ = β = 0.
En segundo lugar considere el conjunto X = {v, v + u, v + 2u, . . . , v + nu, . . .} y F = S(X),
subespacio generado por X. Dado un vector cualquiera w ∈ F existe números reales β1 , . . . ,
βk , y vectores v + n1 u, . . . , v + nk u en X tales que
w = β1 (v + n1 u) + · · · + βk (v + nk u),
donde suponemos 0 ≤ n1 ≤ · · · ≤ nk . Entonces
w = (β1 + · · · + βk ) · v + (β1 n1 + · · · + βk nk )u
(β1 n1 + · · · + βk nk ) (β1 n1 + · · · + βk nk )
= (β1 + · · · + βk ) · v + αu + v
α α
(β1 n1 + · · · + βk nk )
− v
    α
β1 n1 + · · · + βk nk β1 n1 + · · · + βk nk
= β1 + · · · + βk − v+ (v + αu)
α α
Esto significa que el subespacio F es generado por el conjunto B = {v, v + αu} y como además
este conjunto es L.I. se concluye que es base de F . ❚
E JEMPLO 1.6. Considere los vectores v1 = (1, 2, . . . , n), v2 = (n + 1, n + 2, . . . , 2n), . . . ,
vn = (n2 − n + 1, n2 − n + 2, . . . , n2 ) en Rn . Por otro lado considere los vectores w1 = (1, n +
1, 2n+1, . . . , n2 −n+1), w2 = (2, n+2, 2n+2, . . . , n2 −n+2), . . . , wn = (n, 2n, 3n, . . . , n2 ).
Los conjuntos V = {v1 , . . . , vn } y W = {w1 , . . . , wn } generan en Rn el mismo subespacio F .
Demostración. En primer lugar observe que
v1 = (1, 2, . . . , n) = 0 · n(1, 1, . . . , 1) + v1 ,
v2 = (n + 1, n + 2, . . . , 2n) = 1 · n(1, 1, . . . , 1) + v1 ,
v3 = (2n + 1, 2n + 2, . . . , 3n) = 2n(1, 1, . . . , 1) + v1 ,
.. .. ..
. . .
2 2 2
vn = (n − n + 1, n − n + 2, . . . , n ) = (n − 1)n(1, 1, . . . , 1) + v1 .
Es decir, los elementos del conjunto V se escriben como combinación lineal de los vectores
u = (1, 1, . . . , 1) ∈ Rn y v1 = (1, 2, . . . , n), por lo tanto V puede ser escrito como
V = {v1 + αnu : 0 ≤ α ≤ n − 1}.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 5

Por otro lado, de forma análoga, se tiene que

w1 = (1, n + 1, 2n + 1, . . . , n2 − n + 1) = n(0, 1, 2, . . . , n − 1) + u,
w2 = (2, n + 2, 2n + 2, . . . , n2 − n + 2) = n(0, 1, 2, . . . , n − 1) + 2u,
w3 = (3, n + 3, 2n + 3, . . . , n2 − n + 3) = n(0, 1, 2, . . . , n − 1) + 3u,
.. .. ..
. . .
2
wn = (n, n + n, 2n + n, . . . , n − n + n) = n(0, 1, 2, . . . , n − 1) + nu.

Estas igualdades muestran que los elementos de W se escriben como combinación lineal de los
vectores w = (0, 1, 2, . . . , n − 1) y u = (1, 1, . . . , 1), es decir, W se escribe como

W = {nw + αu : 1 ≤ α ≤ n}.

En resumen se tienen los conjuntos

V = {v1 + αnu : 0 ≤ α ≤ n − 1} y W = {nw + αu : 1 ≤ α ≤ n}.

donde v1 = (1, 2, . . . , n), u = (1, 1, . . . , 1), w = (0, 1, 2, . . . , n−1). Como w = v1 −u entonces

W = {nv1 − αu : 0 ≤ α ≤ n − 1}.

Considere entonces el conjunto B = {v1 , u}. Demostraremos que S(B) = S(V) = S(W).
Como para cualquier x ∈ S(V) se tiene que

x = α1 v1 + α2 (v1 + n.u) + α3 (v1 + 2n.u) + · · · + αn (v1 + (n2 − n).u)


= (α1 + α2 + · · · + αn )v1 + (nα2 + 2nα3 + · · · + (n2 − n)αn )u

por tanto, x ∈ S(B). Lo cual demuestra que S(V) ⊂ S(B). Análogamente se demuestra que
S(W) ⊂ S(B).
Se demuestra fácilmente que si B1 = {v1 , v1 + nu} entonces S(B) = S(B1 ) y como B1 ⊂ V
entonces S(B1 ) ⊂ S(V). Por tanto, S(B) ⊂ S(V). Análogamente al considerar el conjunto
B2 = {nv1 , nv1 − u} se tiene que S(B) = S(B2 ) y como B2 ⊂ W se concluye que S(B) ⊂
S(W). Esto demuestra las igualdades S(B) = S(V) = S(W). En conclusión, V y W generan
el mismo subespacio F del Rn .
Por otro lado, al tomar la combinación lineal αu + βv1 = 0 y debido a las coordenadas de u y
v1 se obtiene
α + β = 0 = α + 2β = · · · = α + nβ
de donde α = β = 0. Por tanto B es L.I. Esto quiere decir que B = {v1 , u} es base del
subespacio F . En particular dim F = 2. ❚

O. Santamaria S.
6 1.2. Transformaciones Lineales

1.2. Transformaciones Lineales


Una transformación lineal es una aplicación entre espacios euclidianos que de alguna manera
“conserva” las operaciones de suma de vectores y multiplicación de vectores por escalares. Mas
precisamente,
Una transformación lineal es una aplicación T : Rm → Rn que cumple con las igualdades
T (x + y) = T (x) + T (y)
T (α · x) = α · T (x)
para todo x, y ∈ Rm y todo α ∈ R.
Es sencillo ver que si T : Rm → Rn es una transformación lineal entonces T (0) = 0. La versión
contra-recı́proca de esta afirmación nos permite decir que dada una aplicación T : Rm → Rn ,
si T (0) 6= 0 entonces dicha aplicación no es transformación lineal.
Dada una transformación lineal T : Rm → Rn , aparecen en escena dos conjuntos especiales:
El primero de ellos es el conjunto de vectores en Rm cuya imagen es el vector nulo de Rn .
Este conjunto es llamado núcleo de T y usaremos la notación ker T cada vez que queramos
referirnos a este. En sı́mbolos
ker(T ) := {x ∈ Rm : T (x) = 0}.
El otro conjunto especial es formado por la imagen de Rm mediante T . Como es natural, este
conjunto se llama imagen de T y se denota por Imag T . En sı́mbolos:
Imag(T ) = {T (x) : x ∈ Rm }.
El núcleo de T : Rm → Rn es subespacio de Rm y la imagen Imag(T ) es subespacio de Rn .
Asimismo, el ker(T ) arroja información sobre la inyectividad de T como veremos a continua-
ción.
P ROPOSICI ÓN 1.2. Una transformación lineal T : Rm → Rn es inyectiva si y solo si
ker T = {0}.
Demostración. Si T es inyectiva y x ∈ ker T entonces T (x) = 0 = T (0), luego x = 0 ∈ {0}.
Recı́procamente, si ker T = {0} y x, y ∈ Rm son tales que T (x) = T (y) entonces T (x−y) = 0,
lo cual implica que x − y ∈ ker T = {0}. Es decir, x − y = 0 y, por tanto, x = y. ❚
E JEMPLO 1.7. Sea A una matriz real de orden n × n. La aplicación T : Rn → Rn definida por
T x = Ax es una transformación lineal. En el caso de ser A una matriz invertible, ker T = {0}
y, por tanto, T es inyectiva. Si A es la matriz nula, Imag T = {0}. Si A es la matriz identidad
entonces Imag T = Rn .
Dada una transformación lineal T : Rm → Rn , la dimensión del núcleo es llamada nulidad
de T mientras que la dimensión de la imagen de T se denomina rango de T . Al respecto se
tiene el siguiente resultado.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 7

P ROPOSICI ÓN 1.3. Sea T : Rm → Rn una transformación lineal. Entonces

nulidad(T ) + rango(T ) = m.

Demostración. Elija una base {v1 , . . . , vk } para ker T y extienda esta a una base {v1 , . . . , vm }
m m
PmR . En particular se tiene k = nulidad(T ). Cualquier vector x ∈ R es de la forma x =
de
i=1 λi vi , ası́ que

m
! m m
X X X
T (x) = T λi vi = λi T (vi ) = λi T (vi ),
i=1 i=1 i=k+1

donde la última igualdad es debido a que T (v1 ) = · · · = T (v Pkm) = 0. Luego los vectores
T (vk+1 ), . . . , T (vm ) generan la imagen de T . Por otro lado si i=k+1 λi T (vi ) = 0 entonces
Pm Pm
T i=k+1 λi vi = 0 y asi i=k+1 λi vi ∈ ker T y por tanto existen escalares αj tales que

m
X k
X
λi vi = αi vi .
i=k+1 i=1

Como el conjunto {v1 , . . . , vm } es linealmente independiente y


m
X k
X
λi vi − αi vi = 0
i=k+1 i=1

se tendrá que λi = 0 para todo i, luego el conjunto {T (vk+1 ), . . . , T (vm )} es linealmente inde-
pendiente y, por tanto, una base de Imag T . Siendo ası́,

rango T = m − k = m − nulidad T,

como lo afirma la proposición. ❚


Sea L(Rm ; Rn ) el conjunto de transformaciones lineales de Rm en Rn . Con la suma usual de
aplicaciones y el producto usual de un escalar por una aplicación, el conjunto L(Rm ; Rn ) es
un espacio vectorial. Podemos incluso exhibir una base para este espacio. Para ello considere
las bases canónicas {e1 , . . . , em } y {ē1 , . . . , ēn } de Rm y Rn respectivamente. Para cada i =
m n
P.m. . , m y cada j = 1, . . . , n considere las aplicaciones Tij : R → R tales que si x =
1,
i=1 xi ei entonces
Tij (x) := xi ēj .
En particular, 
0, 6 i
si k =
Tij (ek ) = (1.1)
ēj , si k = i.
Es claro que cada una de las aplicaciones Tij es lineal. Pero aún mas,

O. Santamaria S.
8 1.2. Transformaciones Lineales

P ROPOSICI ÓN 1.4. El conjunto B = {Tij : i = 1, . . . , m, j = 1, . . . , n} es una base de


L(Rm ; Rn ). En particular L(Rm ; Rn ) tiene dimensión mn.

Demostración. Para mostrar la independencia lineal de B considere la combinación lineal


m X
X n
αij Tij = 0.
i=1 j=1

Entonces en cada vector básico ek se tiene


m X
X n
αij Tij (ek ) = 0,
i=1 j=1

de donde
n
X
αkj ēj = 0.
j=1

Como {ē1 , . . . , ēn } es base de Rn entonces αk1 = · · · = αkn = 0 y siendo k arbitrario conclui-
mos que αij = 0 para todo i = 1, . . . , m y todo j = 1, . . . , n.
Por otro lado, para mostrar que B genera a L(Rm ; Rn ), considere una transformación lineal
arbitraria T : Rm → Rn . Considere los escalares αij = hT (ei ), ēj i y la aplicación
m X
X n
S= αij Tij .
i=1 j=1

Entonces
m X
X n n
X n
X
S(ek ) = αij Tij (ek ) = αkj ēj = hT (ek ), ēj i ēj = T (ek ).
i=1 j=1 j=1 j=1

ComoPestoPes válido para todo k = 1, . . . , m se concluye que S = T . Es decir,


T = m i=1
n m n
j=1 αij Tij . Esto muestra que B genera L(R ; R ).
Finalmente como B tiene mn elementos concluimos que L(Rm ; Rn ) tiene dimensión mn. ❚

Por otro lado el conjunto M(n × m), formado por matrices reales de orden n × m, es también
un espacio vectorial con las operaciones usuales de suma de matrices y multiplicación de una
matriz por un escalar. Tiene además la misma dimensión nm que L(Rm ; Rn ) y un resultado del
álgebra lineal (ver [3], pag. 141, corolario 4) nos permite concluir entonces que dichos espacios
son isomorfos.
Aún cuando ya sabemos que M(n × m) y L(Rm ; Rn ) son isomorfos, serı́a bueno mostrar
un isomorfismo entre estos espacios. Considere entonces las bases canónicas {e1 , . . . , em } y

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 9

{ē1 , . . . , ēn } de Rm y Rn respectivamente y considere también la transformación lineal


T : Rm → Rn . Entonces las igualdades
n
X
T (ej ) = αij ēi , j = 1, . . . , m,
i=1

permiten construir la matriz


 
α11 α12 · · · α1m

 α21 α22 · · · α2m 

[T ] =  .. .. .. .. 
 . . . . 
αn1 αn2 · · · αnm

la misma que es llamada matriz asociada a T . Observe que

αij = hēi , T (ej )i ,

donde h , i indica producto interno canónico.


Se tiene entonces que cada transformación lineal se encuentra asociada a una matriz y en reali-
dad veremos en breve que cada matriz real de orden n × m se encuentra asociada a alguna
transformación lineal T : Rm → Rn .

P ROPOSICI ÓN 1.5. La aplicación Φ : L(Rm ; Rn ) → M(n×m, R) que a cada T ∈ L(Rm ; Rn )


le hace corresponder la matriz
Φ(T ) := [hēi , T (ej )i]
es un isomorfismo de espacios vectoriales.

Demostración. En primer lugar observe que para cada T, S ∈ L(Rm ; Rn ) y cada c ∈ R,

Φ(cT + S) = [hēi , (cT + S)(ej )i] = c [hēi , T (ej )i] + [hēi , S(ej )i]
= cΦ(T ) + Φ(S).

Luego Φ es transformación lineal.


Para mostrar la inyectividad de Φ considere T, S ∈ L(Rm ; Rn ) tales que Φ(T ) = Φ(S). Enton-
ces
[hēi , T (ej )i] = [hēi , S(ej )i]
y de la definición de igualdad de matrices se tienePhēi , T (ej )i = hēi , S(ej )i, de donde
hēi , (T − S)(ej )i = 0. Esto implica que para cada y = ni=1 yi ēi ∈ Rn ,
n
X
hy, (T − S)(ej )i = yi hēi , (T − S)(ej )i = 0
i=1

O. Santamaria S.
10 1.2. Transformaciones Lineales

Pm
y por tanto (T − S)(ej ) = 0 para cada j = 1, . . . , m. Luego para todo x = j=1 xj ej ∈ Rm se
tiene m
X
(T − S)(x) = xj (T − S)(ej ) = 0
j=1

de donde T = S. Entonces Φ es inyectiva.


Finalmente a fin de mostrar la sobreyectiva de Φ considere la matriz real [αij ], elemento de
∈ M(n×m; R). Usando cada columna de esta matriz, considere los vectores w1 , . . . , wm ∈ Rn
tales que
Xm
wj := αij ēi .
i=1
m n
Considere la aplicación T : R → R definida por
m
X
T (x) = xj wj ,
j=1
Pm
para cada x = j=1 xj ej ∈ Rm . Es sencillo mostrar que T es lineal. Además de esto T (ej ) =
wj , luego
αij = hēi , wj i = hēi , T (ej )i
y entonces Φ(T ) = [hēi , T (ej )i] = [αij ]. ❚
Se denomina funcional lineal a toda transformación lineal f : Rn → R. De acuerdo a la
proposición 1.4, el espacio vectorial L(Rn ; R) es de dimensión n. Las igualdades que definen a
las transformaciones Tij , de la proposición 1.4, aplicadas a este caso particular se convierten en
los funcionales lineales f1 , . . . , fn : Rn → R tales que

1, si i = j,
fi (ej ) =
0, si i 6= j,
para todo i, j = 1, . . . , n.
Se deduce de la proposición 1.4 que {f1 , . . . , fn } es una base de L(Rn ; R). Esta es llamada base
dual de la base canónica de Rn . Además L(Rn ; R) es llamado espacio dual de Rn y es común
usar la notación (Rn )∗ para este espacio. Siendo (Rn )∗ y Rn de la misma dimensión deducimos
que ellos son isomorfos.
E JEMPLO 1.8. Sea E un subespacio m-dimensional de Rn (m ≤ n) y F un subespacio de Rn
tal que E ⊕ F = Rn . En particular F es de dimensión n − m y si {v1 , . . . , vn−m } es una base
de F , esta puede ser extendida a una base
B = {u1 , . . . , um , v1 , . . . , vn−m }
de Rn de tal forma que {u1 , . . . , um } es base de E. Considere los funcionales lineales
g1 , . . . , gn : Rn → R con la condición que {g1 , . . . , gn } sea base (dual de B) de L(Rn ; R).

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 11

A partir de esto considere los funcionales f1 = gm+1 , f2 = gm+2 , . . . , fn−m = gn . Es claro


entonces que si x ∈ E entonces f1 (x) = · · · = fn−m (x) = 0. Recı́procamente si x ∈ Rn es tal
que f1 (x) = · · · = fn−m (x) = 0 y escribimos
m
X n−m
X
x= αi u i + βi vi
i=1 i=1

entonces lasPigualdades f1 (x) = · · · = fn−m (x) = 0 implican βi = 0. Esto muestra que el


vector x = m i=1 αi ui es elemento de E. En conclusión

E = {x ∈ Rn : f1 (x) = · · · = fn−m (x) = 0} .


Adicional a esto, considere la aplicación T : Rn = E ⊕ F → F definida por
T (x) = f1 (x)v1 + · · · + fn−m (x)vn−m .
Es claro que T es lineal y E = T −1 (0). Además de esto T es sobreyectiva, pues si y ∈ F
Pn−m y1 , . . . , ynn−m tales que y = y1 v1 + · · · + yn−m vn−m . Si consideramos
entonces existen escalares
el vector v = 0 + i=1 yi vi ∈ R se tiene entonces T (v) = y. Por otro lado F es isomorfo
a Rn−m y si h : F → Rn−m es tal isomorfismo concluimos que existe una aplicación lineal
sobreyectiva A : Rn → Rn−m tal que E = A−1 (0). Esta aplicación es dada por A = h ◦ T . ❚
Una función ϕ : Rm × Rn → R es bilineal si para todo x, y ∈ Rm , z, w ∈ Rn y todo α ∈ R, se
satisfacen las igualdades:
1. ϕ(αx + y, z) = αϕ(x, z) + ϕ(y, z)
2. ϕ(x, αz + w) = αϕ(x, z) + ϕ(x, w).
Estamos interesados principalmente en el caso m = n. Una aplicación bilineal ϕ : Rn ×Rn → R
es simétrica si ϕ(x, y) = ϕ(y, x) para todo (x, y) ∈ Rn × Rn .
Denote por B(Rn × Rn ; R) a la colección todas las funciones bilineales ϕ : Rn × Rn → R
y considere en Rn la base canónica {e1 , . . . , en }. A cada ϕ ∈ B(Rn × Rn ; R) se encuentra
asociada la matriz [aij ]n×n cuyas entradas son dadas por
aij := ϕ(ei , ej ).
P ROPOSICI ÓN 1.6. La aplicación Ψ : B(Rn × Rn ; R) → M(n × n; R) definida por
Ψ(ϕ) = [ϕ(ei , ej )]n×n
es un isomorfismo de espacios vectoriales. En particular B(Rn × Rn ; R) es de dimensión n2 .
Observe que si ϕ ∈ B(Rn × Rn ; R) es simétrica entonces
aij = ϕ(ei , ej ) = ϕ(ej , ei ) = aji .
Es decir si ϕ es función bilineal simétrica, la respectiva matriz Ψ(ϕ) = [aij ] es también simétri-
ca.
Una función bilineal ϕ : Rn × Rn → R es no degenerada si la igualdad ϕ(x, y) = 0, para todo
y ∈ Rn , implica que x = 0.

O. Santamaria S.
12 1.2. Transformaciones Lineales

P ROPOSICI ÓN 1.7. Sea ϕ : Rn × Rn → R una función bilineal. La matriz Ψ(ϕ) = [ϕ(ei , ej )]
es invertible si y solo si ϕ es no degenerada.
Demostración. En primer lugar observe que dados x, y ∈ Rn ,
n X
X n
ϕ(x, y) = xi yj ϕ(ei , ej ) = xΨ(ϕ)y T .
i=1 j=1

Aquı́ hacemos la identificación x = (x1 , . . . , xn ) con la matriz [ x1 · · · xn ] y algo similar


para y = (y1 , . . . , yn ).
Suponga entonces que Ψ(ϕ) es invertible. Si fuera ϕ(x, y) = 0 para todo y ∈ Rn entonces
xΨ(ϕ)y T = 0 para todo y ∈ Rn y, por tanto, xΨ(ϕ) = 0. Como Ψ(ϕ) es invertible resulta
x = 0. Luego ϕ es no degenerada.
Recı́procamente, si la matriz Ψ(ϕ) es no invertible entonces existe una solución no trivial al
sistema Ax = 0. Es decir, existe un x 6= 0 en Rn tal que xA = 0 y, por tanto, para todo y ∈ Rn
se tiene xAy T = 0. Luego existe x 6= 0 tal que ϕ(x, y) = 0 para todo y ∈ Rn . Luego ϕ es
degenerada. ❚
Finalmente consideremos mas generalmente el conjunto B(Rm × Rn ; Rp ) formado por aplica-
ciones bilineales ϕ : Rm × Rn → Rp , esto es, aplicaciones que satisfacen las igualdades
1. ϕ(αx + y, z) = αϕ(x, z) + ϕ(y, z)
2. ϕ(x, αz + w) = αϕ(x, z) + ϕ(x, w).
para todo x, y ∈ Rm , z, w ∈ Rn y todo α ∈ R. Es sencillo comprobar que B(Rm × Rn ; Rp )
es un espacio vectorial con las operaciones usuales. Pero además de esto, este espacio es de di-
mensión mnp. Para mostrar esta última afirmación considere las bases canónicas {e1 , . . . , em },
{ē1 , . . . , ēn } y {u1 , . . . , up } de Rm , Rn y Rp , respectivamente. Hecho esto, consideremos apli-
caciones
ϕijk : Rm × Rn → Rp
definidas por
ϕijk (x, y) = xi yj uk .
En particular 
uk , si (i, j) = (r, s);
ϕijk (er , ēs ) =
0, si (i, j) 6= (r, s).
No es complicado mostrar que estas aplicaciones son bilineales. Para ver que forman un con-
junto linealmente independiente considere la combinación nula
X
αijk ϕijk = 0.
i,j,k

Entonces para cada 1 ≤ r ≤ m y 1 ≤ s ≤ n,


X
αijk ϕijk (er , ēs ) = 0,
i,j,k

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 13

de donde
p
X
αrsk uk = 0.
k=1

La independencia lineal de los vectores uk implica

αrs1 = αrs2 = · · · = αrsp = 0,

y como esto es válido para cada r, s, concluimos que αijk = 0 para todo i, j, k.
Sólo resta ver que los ϕijk forman un conjunto generador de B(Rm × Rn ; Rp ). Para ello sea
T : Rm × Rn → Rp una aplicación bilineal arbitraria y considere los escalares

αijk = hT (ei , ēj ), uk i ,

donde h , i denota el producto escalar en Rp . Entonces


p
X X
αijk ϕijk (er , ēs ) = αrsk uk
i,j,k k=1
p
X
= hT (er , ēs ), uk i uk
k=1
= T (er , ēs ).
P
Es decir, T (er , ēs ) = i,j,k αijk ϕijk (er ,P
ēs ). Como esto es válido para todos los vectores básicos
er y ēs concluimos en la igualdad T = i,j,k αijk ϕijk .

1.3. Productos Internos


A estas alturas el estudiante ha tomado ya conocimiento de los productos

(x1 , x2 ) · (y1 , y2) = x1 y1 + x2 y2


(x1 , x2 , x3 ) · (y1 , y2 , y3) = x1 y1 + x2 y2 + x3 y3 .

mas conocidos con el nombre de “producto escalar” en R2 y R3 respectivamente. Veremos en


breve que estos son casos particulares del concepto general de producto interno. En un espa-
cio general Rn , ángulos entre vectores cobran sentido con la noción de producto escalar. El
producto escalar origina también una norma particular que a su vez es muy utilizada en geo-
metrı́a euclidiana. En la definición que sigue por tradición agregamos el axioma de bilinealidad.
Aunque un producto interno en Rn es, por definición, bilineal esta condición puede verificarse
mostrando linealidad solamente en un argumento. Explicaremos esto luego de la definición.

O. Santamaria S.
14 1.3. Productos Internos

Una función ϕ : Rn × Rn → R se llama producto interno en Rn si es simétrico, bilineal y


definido positivo.

En esta definición de producto interno, la condición de simetrı́a significa que


ϕ(x, y) = ϕ(y, x) para todo x, y ∈ Rn . La condición de bilinealidad indica que deben veri-
ficarse las igualdades
ϕ(αx + y, z) = αϕ(x, z) + ϕ(y, z) y ϕ(x, αy + z) = αϕ(x, y) + ϕ(x, z)
para todo x, y, z ∈ Rn y todo α ∈ R. Sin embargo, la simetrı́a de ϕ nos permite la libertad de
comprobar sólo la primera de estas dos igualdades: la segunda se obtiene como consecuencia
de la primera, pues ϕ(x, αy + z) = ϕ(αy + z, x). Finalmente la condición definido positivo
significa que debe verificarse la desigualdad ϕ(x, x) > 0 siempre que x ∈ Rn \ {0}.
P
E JEMPLO 1.9. La función ϕ : Rn × Rn → R definida por ϕ(x, y) = ni=1 xi yi es un producto
interno. Por ser el mas “natural” de definir, es usualmente llamado producto interno canónico y
es común denotarlo por el sı́mbolo h , i.
E JEMPLO 1.10. Sea A = [aij ]n×n una matriz real simétrica con la propiedad de que para todo
P P
x 6= 0 se tiene ni,j=1 aij xi xj > 0. Observe que ni,j=1 aij xi xj = xAxT . Entonces la función
ϕ : Rn × Rn → R definida por
n
X
ϕ(x, y) = aij xi yj = xAy T
i,j=1

es un producto interno en Rn .
Observe que si A es la matriz identidad entoncesP aii = 1 y aij = 0 para i 6= j. Luego la
función ϕ del ejemplo 1.10 se reduce a ϕ(x, y) = ni=1 xi yi . Es decir, obtenemos nuevamente
el producto interno canónico.
O BSERVACI ÓN 1.1. Sea ϕ un producto interno en Rn y v ∈ Rn . Si ϕ(x, v) = 0 para todo
x ∈ Rn entonces v = 0. Pues si fuera v 6= 0 entonces en particular para x = v se tendrı́a
ϕ(v, v) > 0.
Esta observación dice que todo producto interno es una forma bilineal no degenerada.
n ∗
E JEMPLO 1.11. Sea h , i el producto interno canónico. Para Pn cada f ∈ (R ) existe un único
n
vector v ∈ R tal que f (x) = hx, vi. En efecto, si x = i=1 xi ei entonces considerando el
vector v = (f (e1 ), . . . , f (en )) se tiene
n
! n
X X
f (x) = f xi ei = xi f (ei ) = hx, vi .
i=1 i=1

Para ver que v es único considere otro vector w ∈ Rn tal que hx, vi = hx, wi. Entonces para
todo x ∈ Rn se tiene que hx, v − wi = 0. Luego, por la observación 1.1, resulta v − w = 0.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 15

E JEMPLO 1.12. Sean a, b y c números reales cualesquiera. Supongamos que en R2 existe un


producto interno ϕ tal que ϕ(e1 , e1 ) = a, ϕ(e1 , e2 ) = ϕ(e2 , e1 ) = b y ϕ(e2 , e2 ) = c, donde
e1 = (1, 0) y e2 = (0, 1).
Observe que como e1 6= 0̄ entonces a = ϕ(e1 , e1 ) > 0. Es decir, a > 0. Análogamente se
demuestra que c > 0.
Como ϕ es un producto interno entonces para todo x = (x1 , x2 ) e y = (y1 , y2 ) se tiene
ϕ(x, y) = ϕ(x1 e1 + x2 e2 , y1 e1 + y2 e2 )
= x1 y1 ϕ(e1 , e1 ) + (x1 y2 + x2 y1 )ϕ(e1 , e2 ) + x2 y2 ϕ(e2 , e2 ).
En particular, para x = (x1 , x2 ) se obtiene, de la última de las igualdades anteriores, que
ϕ(x, x) = ax21 + 2bx2 x1 + cx22 . (*)
Como ϕ es un producto interno entonces para x = (x1 , x2 ) 6= 0 se tiene en la ecuación (*) que
ϕ(x, x) > 0. Es decir ax21 + 2bx2 x1 + cx22 > 0. Siendo a > 0 y suponiendo x2 6= 0 esto implica
que 4x22 b2 − 4acx22 < 0, de lo cual obtenemos b2 < ac.
Análogamente si suponemos x1 6= 0. Como c > 0 entonces de la ecuación (*) se obtiene
cx22 + 2bx2 x1 + ax21 > 0, de lo cual resulta 4x21 b2 − 4acx21 < 0 y por tanto nuevamente b2 < ac.
En conclusión, dado un producto interno ϕ en R2 tal que ϕ(e1 , e1 ) = a, ϕ(e1 , e2 ) = ϕ(e2 , e1 ) =
b y ϕ(e2 , e2 ) = c, donde e1 = (1, 0) y e2 = (0, 1), entonces b2 < ac.
Recı́procamente, sea ϕ : R2 × R2 → R una función definida por
ϕ(x, y) = ax1 y1 + b(x1 y2 + x2 y1 ) + cx2 y2 .
y suponga que a > 0 y b2 < ac. Es claro que ϕ es bilineal, simétrico y además ϕ(e1 , e1 ) = a,
ϕ(e1 , e2 ) = ϕ(e2 , e1 ) = b y ϕ(e2 , e2 ) = c. Además de esto, si x = (x1 , x2 ) 6= 0 entonces
ϕ(x, x) = ax21 + 2bx1 x2 + cx22 > 0.
Dos vectores x, y ∈ Rm son ortogonales respecto a un producto interno ϕ en Rm si ϕ(x, y) = 0.
El vector 0 ∈ Rn es ortogonal a todo vector x ∈ Rn , cualquiera sea el producto interno que se
considere. De esto y de la observación 1.1 se deduce que para un producto interno ϕ en Rn se
tiene que ϕ(x, y) = 0, para todo y ∈ Rn , si y solo si x = 0.
E JEMPLO 1.13. En R2 considere los productos internos
ϕ(x, y) = x1 y1 + x2 y2 ,
ψ(x, y) = 3x1 y1 + 4(x1 y2 + x2 y1 ) + 3x2 y2
donde x = (x1 , x2 ) y y = (y1 , y2 ). La función ϕ es el producto interno canónico y respecto a ψ
el lector deberá mostrar que realmente es un producto interno en R2 .
Considere los vectores e1 = (1, 0) y e2 = (0, 1). Entonces
ϕ(e1 , e2 ) = 0 y ψ(e1 , e2 ) = 4.
Por tanto e1 y e2 son ortogonales respecto al producto interno canónico ϕ pero no respecto al
producto ψ.

O. Santamaria S.
16 1.3. Productos Internos

E JEMPLO 1.14 (Adjunta de una transformación lineal). Considere Rm y Rn con su respectivo


producto interno canónico. Denotaremos a ambos productos por el mismo sı́mbolo h,i. Sea
T : Rm → Rn una transformación lineal y (aij )n×m la matriz asociada a T respecto a las bases
m
canónicas {e1 , . . . , eP
m } y {ē1 , . . . , ēn } de R y Rn , respectivamente. Se tienen entonces las
igualdades T (ej ) = ni=1 aij ēi para todo j = 1, . . . , m. Considere los vectores
m
X
vi = aij ej ,
j=1

donde i = 1, . . . , n, y defina la aplicación T ∗ : Rn → Rm por medio de la regla


n
X

T (y) = yi vi .
i=1
Pm
En particular T ∗ (ēi ) = j=1 aij ej . Es claro que T ∗ es lineal y además
* n +
X
hT ej , ēk i = aij ēi , ēk = akj ,
i=1

mientras que * +
n
X
hej , T ∗ēk i = ej , akj ej = akj .
j=1

Pm m
Es
Pn decir hT ēj , ek i = hēj , T ek i. Por tanto, para todo x = j=1 xj ej ∈ R y todo y =
m
k=1 yk ēk ∈ R se cumple que
X X
hT x, yi = xj yk hT ej , ēk i = xj yk hej , T ∗ ēk i = hx, T ∗ yi .
j,k j,k

Esto muestra que dada una transformación lineal T : Rm → Rn , existe una transformación
lineal T ∗ : Rn → Rm , llamada adjunta de T , tal que hT x, yi = hx, T ∗ yi para todo x ∈ Rm
y todo y ∈ Rn . La transformación lineal T ∗ es única, pues si S es otra transformación tal que
hT x, yi = hx, Syi para todo x ∈ Rm y todo y ∈ Rn entonces en particular se tiene

hx, (S − T ∗ )(ēj )i = hx, Sēj i − hx, T ∗ ēj i = hT x, ēj i − hT x, ēj i = 0.

Es decir (S − T ∗ )(ēj ) = 0. Como esto es válido para cada vector básico ēj se concluye fácil-
mente que S − T ∗ = 0. ❚

E JEMPLO 1.15. Respecto al ejemplo anterior, considere la transformación lineal A : Rm → Rn


y su transpuesta A∗ : Rn → Rm . La ecuación Ax = b, cuando b = 0, admite como solución
por lo menos a x = 0 ∈ Rm . Como b = 0 es ortogonal a todo Rn , en particular es ortogonal a

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 17

todo elemento del núcleo de A∗ . Dado b ∈ Rn , analizamos a continuación la ecuación Ax = b


cuando b 6= 0.
Suponga que existe x ∈ Rm tal que b = Ax. Entonces para todo elemento y ∈ ker A∗ se tiene

hb, yi = hAx, yi = hx, A∗ yi = hx, 0i = 0.

Es decir, si la ecuación b = Ax tiene alguna solución x ∈ Rm entonces b es ortogonal a todo


elemento del núcleo de A∗ .
Recı́procamente, si b es ortogonal a todo elemento de ker A∗ entonces b no puede ser elemento
del núcleo de A∗ (de lo contrario b tendrı́a que ser ortogonal a si mismo, lo cual no es posible
por ser b 6= 0). Observe que si b fuera ortogonal a todo elemento a la imagen de A entonces
para todo x ∈ Rm se tendrı́a 0 = hb, Axi = hA∗ b, xi lo cual implica que A∗ b = 0, es decir
b es elemento del núcleo de A∗ , una contradicción. Por tanto b no puede ser ortogonal a todo
elemento de la imagen de A y esto a su vez implica que b está en la imagen de A. Es decir existe
x ∈ Rm tal que b = Ax.
En conclusión: dado b ∈ Rn , la ecuación Ax = b admite solución x ∈ Rm si y solo si b es
ortogonal a todo elemento del núcleo de A∗ . Dicho de otra manera, b está en la imagen de A
si y solo si es ortogonal a todo elemento de ker A∗ . Denotando por (ker A∗ )⊥ al conjunto de
vectores que son ortogonales a todo elemento de ker A∗ , lo que acabamos de demostrar indica
que Imag(A) = (ker A∗ )⊥ . En particular (ker A∗ )⊥ es subespacio de Rn . De la proposición 1.3
deducimos entonces que

n = dim(img A∗ ) + dim(kerA∗ ) = dim(kerA∗ )⊥ + dim(kerA∗ ).

Por tanto
dim(img A∗ ) = dim(kerA∗ )⊥ = dim(img A). ❚
E JEMPLO 1.16. Una aplicación lineal T : Rn → Rn es simétrica si T = T ∗ . Sea S ≡
S(Rn ; Rn ) la colección de transformaciones lineales simétricas T : Rn → Rn . Observe que las
transformaciones identidad y nula son elementos de S. Además de esto si T, S ∈ S y α ∈ R
entonces
(αT + S)∗ = αT ∗ + S ∗ = αT + S,
es decir αT + S ∈ S, lo cual demuestra que S es un subespacio vectorial de L(Rn ; Rn ).
Podemos incluso exhibir una base para S. Para ello recordemos las transformaciones lineales
Tij dadas en las igualdades (1.1). Estas son definidas como Tij (x) = xi ej , de modo que

0, si k 6= i,
Tij (ek ) =
ej , si k = i.

La aplicación transpuesta Tij∗ : Rn → Rn es tal que



∗ 0, si l 6= j,
Tij (el ) =
ei , si l = j.

O. Santamaria S.
18 1.3. Productos Internos

Observe que Tij∗ = Tji . Considere las aplicaciones Sij : Rn → Rn , con i ≤ j, dadas por
Sii = Tii y Sij = Tij + Tji para i < j. Observe que Sii∗ = Tii∗ = Tii = Sii y también para i < j,
Sij∗ = Tij∗ + Tji∗ = Tji + Tij = Sij . Esto muestra que cada Sij es una aplicación lineal simétrica.
Pero además de esto, la colección {Sij : i, j = 1, . . . , n, i ≤ j} es una base del espacio S. Es
claro que dicha colección es linealmente independiente. Para mostrar que genera a S considere
un elemento arbitrario T : Rn → Rn en S. Puesto que la colecciónP {Tij : i, j = 1, . . . , n}
n n ∗
es
P base de L(R ; R ) entonces existen escalares α ij tales que T = ij αij Tij . Luego T =
∗ ∗
ij αij Tij . Evaluando T y T en los vectores canónicos ek se tiene
X X
T (ek ) = αij Tij (ek ) = αkj ej ,
ij j
X X

T (ek ) = αij Tij∗ (ek ) = αik ei .
ij i

Siendo T simétrica, la igualdad T (ek ) = T ∗ (ek ) nos muestra que αij = αji . Por tanto,
X X X X
αij Tij = αii Tii + αij Tij + αij Tij
ij i i<j i>j

y cambiando los ı́ndices en la última sumatoria resulta


X X X
T = αii Tii + αij Tij + αji Tji .
i i<j j>i

Como αij = αji entonces


X X X X
T = αii Tii + αij (Tij + Tji ) = αii Sii + αij Sij .
i i<j i i<j

Como la colección {Sij : i, j = 1, . . . , n, i ≤ j} tiene 1 + 2 + · · · + n = n(n + 1)/2


elementos concluimos que el espacio S de transformaciones lineales simétricas es de dimensión
n(n + 1)/2.
E JEMPLO 1.17. Una transformación lineal T : Rn → Rn es antisimétrica si T ∗ = −T . Sea
A ≡ A(Rn ; Rn ) la colección de todas las transformaciones lineales T : Rn → Rn que son
antisimétricas. Si S, T : Rn → Rn son elementos de A entonces para cada α ∈ R,

(αS + T )∗ = αS ∗ + T ∗ = α(−S) + (−T ) = −(αS + T ).

Es decir αS + T ∈ A y por tanto A es subespacio vectorial de L(Rn ; Rn ). Considerando


nuevamente la colección {Tij } como en el ejemplo anterior, construimos las funciones Aij =
Tij − Tji para i < j, con i, j = 1, . . . , n. Observe que A∗ij = Tij∗ − Tji∗ = Tji − Tij = −Aij ,
luego cada Aij es antisimétrica. Procediendo como en el ejemplo anterior se comprueba que
{Aij : i, j = 1, . . . , n, i < j} es base de A. En particular A es de dimensión n(n − 1)/2.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 19

Adicionalmente podemos ver que si T : Rn → Rn es cualquier transformación lineal entonces


T + T∗ T − T∗
las transformaciones lineales S = y A = son simétrica y antisimétrica, res-
2 2
pectivamente. Además T = S + A y como la transformación lineal nula es la única simétrica y
antisimétrica a la vez, concluimos que L(Rn ; Rn ) = S ⊕ A. Esto es, el espacio de transforma-
ciones lineales es la suma directa del espacio de transformaciones simétricas con el espacio de
transformaciones antisimétricas.
Un conjunto no vacı́o X ⊂ Rn es ortogonal respecto a un producto interno ϕ si todo par de
vectores distintos en X son ortogonales.
E JEMPLO 1.18. Todo conjunto ortogonal X ⊂ Rn que no contiene al vector nulo es lineal-
mente independiente. Pues si v1 , . . . , vk son vectores distintos en X y formamos la combinación
lineal nula α1 v1 + · · · + αk vk = 0 entonces

0 = ϕ(0, vj ) = ϕ(α1 v1 + · · · + αk vk , vj ) = αj ϕ(vj , vj )

y por ser ϕ(vj , vj ) > 0, pues vj 6= 0, entonces αj = 0. Como esto sucede para cada j concluimos
que α1 = · · · = αk = 0. ❚
Un conjunto no vacı́o X ⊂ Rn es ortonormal, respecto a un producto interno ϕ, si para todo
x, y ∈ X se tiene 
1, si x = y,
ϕ(x, y) =
0, si x 6= y.
E JEMPLO 1.19. Todo conjunto ortonormal es parte de una base ortonormal.
En efecto, sea B = {v1 , . . . , vk } un conjunto ortonormal en Rn , con k ≤ n. Si k = n tendrı́amos
del ejemplo 1.18 que B es un conjunto linealmente independiente con n elementos y por tanto
de Rn . Si k < n entonces elegimos un vector no nulo w ∈ Rn y formamos el vector
una base P
v = w − ki=1 ϕ(w, vi )vi . Entonces
k
!
X
ϕ(v, vj ) = ϕ w − ϕ(w, vi )vi , vj = ϕ(w, vj ) − ϕ(w, vj ) = 0.
i=1
p
Es decir, v es ortogonal a todos los vectores v1 , . . . , vk . Considerando vk+1 = v/ ϕ(v, v)
construimos el conjunto {v1 , . . . , vk+1 }. Continuando de esta manera extendemos B a una base
ortonormal.
Por ejemplo, respecto al producto interno canónico, la base canónica es base ortonormal.
Por otro lado si {u1, . . . , un } es una base ortonormal y x ∈ Rn entonces existen escalares
Pn
α1 , . . . , αn ∈ R tales que x = αi ui . Debido a la ortonormalidad de los ui resulta
i=1

n
!
X
ϕ(x, uj ) = ϕ αi u i , u j = αj .
i=1

O. Santamaria S.
20 1.3. Productos Internos

n
P
Luego x = ϕ(x, ui )ui . ❚
i=1

P ROPOSICI ÓN 1.8. Todo subespacio E de Rn admite una base ortonormal.


Demostración. Consideramos Rn con producto interno ϕ. Suponemos que E es de dimensión
k y sea {v1 , . . . , vk } una base de E. Elija un vector w1 = v1 . Observe que por ser v1 6= 0 (pues
pertenece a una base) entonces w1 6= 0. A continuación construimos el vector
ϕ(v2 , w1 )
w2 = v2 − w1 .
ϕ(w1 , w1 )
Observe que w1 y w2 son ortogonales, pues
 
ϕ(v2 , w1 )
ϕ(w1 , w2 ) = ϕ w1 , v2 − w1
ϕ(w1 , w1 )
 
ϕ(v2 , w1 )
= ϕ(w1 , v2 ) − ϕ w1 , w1
ϕ(w1 , w1 )
ϕ(v2 , w1 )
= ϕ(w1 , v2 ) − ϕ (w1 , w1 ) = 0
ϕ(w1 , w1 )
Además de esto observe que, por ser v1 y v2 linealmente independientes, el vector w2 es no
nulo.
Suponga que hemos construido vectores w1 , . . . , wm−1 tal que ellos constituyen un conjunto
ortogonal, entonces el siguiente vector wm es dado por
m−1
X ϕ(vm , w` )
wm = vm − w` .
`=1
ϕ(w` , w` )

Entonces para todo r = 1, . . . , m − 1,


m−1
!
X ϕ(vm , w` )
ϕ(wm , wr ) = ϕ vm − w` , wr
`=1
ϕ(w` , w` )
m−1
X ϕ(vm , w` )
= ϕ(vm , wr ) − ϕ(w` , wr )
`=1
ϕ(w` , w` )
= ϕ(vm , wr ) − ϕ(vm , wr ) = 0.
Es claro que cada wi es combinación lineal de los vectores vi y como estos son linealmente inde-
pendientes entonces wi es vector no nulo. Continuando de esta manera construimos el conjunto
ortogonal {w1 , . . . , wk }, donde
m−1
X ϕ(vm , w` )
w1 = v1 , wm = vm − w` , m = 2, . . . , k.
`=1
ϕ(w` , w` )

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 21

La base ortonormal buscada es entonces


 
w1 w2 wk
, ,..., . ❚
ϕ(w1 , w1 ) ϕ(w2 , w2 ) ϕ(wk , wk )

El ejemplo 1.11 puede ser generalizado de la siguiente manera.

P ROPOSICI ÓN 1.9. Considere Rn con producto interno ϕ. Dado un funcional f ∈ (Rn )∗ ,
existe un único vector w ∈ Rn tal que f (x) = ϕ(x, w) para todo x ∈ Rn .
n
P
Demostración. Sea {e1 , . . . , en } una base ortonormal de Rn y elija el vector w = f (ei )ei .
i=1
Por otro lado considere la aplicación fw : Rn → R definida por fw (x) = ϕ(x, w). Es sencillo
comprobar que fw ∈ (Rn )∗ y además fw (ei ) = f (ei ) para todo i = 1, . . . , n, lo cual implica
que fw = f . Finalmente, si existiera algún otro vector u tal que ϕ(x, w) = ϕ(x, u) para todo
x ∈ Rn entonces ϕ(x, w − u) = 0 de donde w = u. ❚

Considere Rn provisto de algún producto interno ϕ. Dado un subconjunto X de Rn , se llama


complemento ortogonal de X (respecto a ϕ) al conjunto

X ⊥ = {y ∈ Rn : ϕ(x, y) = 0 para todo x ∈ X}.

P ROPOSICI ÓN 1.10. Para todo conjunto X contenido en Rn , el complemento ortogonal X ⊥


es subespacio de Rn . Además, si X ⊂ Y entonces Y ⊥ ⊂ X ⊥ .

Demostración. Como ϕ(x, 0) = 0 para todo x ∈ Rn entonces el vector nulo 0 es ortogonal a


todo elemento de Rn , en particular es ortogonal a todo elemento de X, luego X ⊥ es no vacı́o.
Además si y y z son elementos de X ⊥ y α es cualquier real entonces para todo x ∈ X se tiene

ϕ(αy + z, x) = αϕ(y, x) + ϕ(z, x) = α · 0 + 0 = 0,

luego αy + z ∈ X ⊥ . Esto muestra que X ⊥ es subespacio de Rn .


Para demostrar la segunda afirmación, sea v ∈ Y ⊥ un elemento arbitrario entonces ϕ(y, v) = 0
para todo y ∈ Y . Como Y ⊃ X entonces también se tiene ϕ(y, v) = 0 para todo y ∈ X, luego
v ∈ X ⊥. ❚

P ROPOSICI ÓN 1.11. Si E es un subespacio vectorial de Rn entonces

1. dim E ⊥ = n − dim E.

2. E ⊥⊥ = E.

3. E ∩ E ⊥ = {0}.

O. Santamaria S.
22 1.3. Productos Internos

Demostración. Para demostrar (1) elija una base {u1 , . . . , uk } de E y elija vectores v1 , . . . , vm
tales que {u1, . . . , uk , v1 , . . . , vm } es base de Rn (luego k + m = n). Considere la base dual
{f1 , . . . , fk , g1, . . . , gm } en (Rn )∗ . De acuerdo a la proposición 1.9, para cada gi podemos en-
contrar un wi tal que gi = ϕ(wi , ·). Afirmamos que {w1 , . . . , wm } es base de E ⊥ . Observe que
ϕ(wi , uj ) = gi (uj ) = 0 para todo j = 1, . . . , k, es decir, cada wi es ortogonal a todo elemen-
to de la base de E y por tanto ortogonal a todo E. Luego cada vector wi es elemento de E ⊥ .
Los vectores w1 , . . . , wm son linealmente independientes pues si consideramos la combinación
lineal
β1 w1 + β2 w2 + · · · + βm wm = 0
entonces !
k
X m
X
βi ϕ(wi , ·) = ϕ βi wi , · = ϕ(0, ·) = 0,
i=1 i=1
Pm
lo cual equivale a la igualdad i=1 βi gi = 0 y como los funcionales gi forman un conjunto
linealmente independiente entonces cada βi = 0. Pero además de esto, los vectores w1 , . . . , wm
generan a E ⊥ . Para sustentar esta afirmación considere un vector no nulo w ∈ E ⊥ . Entonces el
funcional g = ϕ(w, ·) puede escribirse en la forma
k
X m
X
g= αi fi + βj gj .
i=1 j=1

Para todo vector ul en la base de E,


k
X m
X
0 = ϕ(w, ul) = g(ul ) = αi fi (ul ) + βj gj (ul ) = αl
i=1 j=1
Pm
entonces g = j=1 βj gj . Por tanto para todo x ∈ Rn ,
m m m
!
X X X
ϕ(w, x) = g(x) = βj gj (x) = βj ϕ(wj , x) = ϕ βj wj , x
j=1 j=1 j=1

P
de donde w = m ⊥
j=1 βj wj . Podemos en particular concluir que el espacio E es de dimensión
m = n − k. Es decir dim E ⊥ = n − dim E.
Ahora procedemos a demostrar (2), es decir, la igualdad E ⊥⊥ = E. En primer lugar mostrare-
mos que E ⊥⊥ ⊂ E. Si fuera que E ⊥⊥ 6⊂ E entonces existe algún x ∈ E ⊥⊥ tal que x ∈ / E.
⊥⊥ ⊥
Siendo x elemento de E entonces ϕ(x, u) = 0 para todo u ∈ E . Esto significa que cada
elemento u ∈ E ⊥ es ortogonal a todo E y a x, es decir, al subespacio W = S(E ∪ {x}),
luego E ⊥ ⊂ W ⊥ . Pero como E ⊂ W entonces W ⊥ ⊂ E ⊥ , luego debe ser E ⊥ = W ⊥ . La
parte (1) implica la igualdad dim E = dim W y por tanto E = W ; en particular x ∈ E. Una
contradicción.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 23

Recı́procamente, si x ∈ E entonces x es ortogonal a todo elemento de E ⊥ . Pero nuevamente


por definición, si x es ortogonal a E ⊥ entonces x ∈ E ⊥⊥ .
Finalmente, para mostrar (3) observe que si x ∈ E ∩ E ⊥ entonces ϕ(x, x) = 0. Luego x = 0.
Es decir, E ∩ E ⊥ ⊂ {0} y como es evidente que {0} ⊂ E ∩ E ⊥ , se concluye en la igualdad. ❚

1.4. Normas
Una función N : Rn → R se llama norma en Rn si para todo x, y ∈ Rn y todo α ∈ R:
N1. N(x + y) ≤ N(x) + N(y),

N2. N(αx) = |α| N(x),

N3. Si x 6= 0 entonces N(x) > 0.


En la definición de norma, si en el item (N2) hacemos α = 0 obtenemos N(0) = 0. Si α = −1
entonces N(−x) = N(x). Si x = −y entonces reemplazando en (N1) resulta,

0 = N(x + y) ≤ N(x) + N(y) = N(x) + N(−x) = 2N(x),

de donde N(x) ≥ 0 para todo x ∈ Rn . De esto deducimos que (N3) equivale a mostrar que la
igualdad N(x) = 0 implica x = 0.
E JEMPLO 1.20. Considere la función N : Rn → R definida por
n
X
N(x) = an |xi |
i=1

para todo x = (x1 , . . . , xn ). Entonces N es una norma en Rn si y solo si a1 > 0, . . . , an > 0.


En efecto, si N es una norma entonces para cada vector ej , de la base canónica del Rn , se tiene

0 < N(ej ) = a1 · |0| + · · · + aj · |1| + · · · + an · |1| = aj .

Recı́procamente, si a1 > 0, . . . , an > 0 es un buen ejercicio comprobar que N cumple con los
axiomas requeridos para ser una norma.
O BSERVACI ÓN 1.2. En lo que sigue usaremos la notación tradicional k·k en vez de N y h , i
en vez de ϕ. Es decir N(x) ≡ kxk y ϕ(x, y) ≡ hx, yi.
Una norma k·k en Rn proviene de un producto interno h·, ·i en Rn si para todo x ∈ Rn se tiene
p
kxk = hx, xi.

Una desigualdad importante que involucra norma y producto interno será dada en breve. Antes
necesitamos del siguiente:

O. Santamaria S.
24 1.4. Normas

L EMA 1.1. Si a, b, c ∈ R son tales que a > 0 y aλ2 + 2bλ + c ≥ 0 para todo λ ∈ R entonces
b2 ≤ ac.
Demostración. Basta observar que
 
2 1 2 b2
0 ≤ aλ + 2bλ + c = (aλ + b) + c −
a a
y como esta desigualdad es verdadera para todo λ ∈ R, en particular es verdadera para λ = − ab .
2
Por tanto c − ba ≥ 0 de donde b2 ≤ ac. ❚
Veremos dentro de poco que no todas las normas en Rn provienen de un producto interno.
Mientras tanto daremos una desigualdad muy importante.
T EOREMA 1.1 (Desigualdad de Cauchy-Schwartz). Si k·k es una norma en Rn que proviene
de un producto interno h·, ·i entonces para todo x, y ∈ Rn ,
|hx, yi| ≤ kxk · kyk .
La igualdad ocurre si y solo si uno de ellos es múltiplo del otro.
Demostración. Si suponemos que x = 0 (ó y = 0) es claro que la desigualdad es verdadera.
Por otro lado, si x 6= 0 entonces para todo λ ∈ R se tiene se tiene
0 ≤ hλx + y, λx + yi = aλ2 + 2λb + c,
donde a = hx, xi, b = hx, yi = hy, xi y c = hy, yi. Del lema 1.1 se tiene entonces
hx, yi2 ≤ hx, xi hy, yi ,
lo cual muestra la desigualdad enunciada.
Ahora mostraremos que la igualdad ocurre si y solo si uno es múltiplo del otro. Si fuera y = αx
para algún real α entonces
kxk · kyk = |α| kxk2 = |α| hx, xi = |hx, αxi| = |hx, yi| .
Recı́procamente, suponga que |hx, yi| = kxk · kyk. Para vectores x e y tales que kxk = kyk = 1
se tiene |hx, yi| = 1, es decir, hx, yi = 1 o hx, yi = −1. Si hx, yi = 1 entonces
0 ≤ hx − y, x − yi = kxk2 + kyk2 − 2 hx, yi = 0.
Análogamente, si hx, yi = −1 entonces
0 ≤ hx + y, x + yi = kxk2 + kyk2 + 2 hx, yi = 0.
Es decir, en el caso de ser kxk = kyk = 1, si |hx, yi| = 1 = kxk · kyk entonces y = ±x.
Finalmente para vectores x e y arbitrarios no nulos (en el caso de que un vector sea nulo la
situación es trivial)
D consideramos
E los vectores x/ kxk e y/ kyk. De lo demostrado previamente
x y y x kyk
se tiene que si kxk , kyk = 1 entonces kyk = ± kxk , luego y = ± kxk x. Es decir, y es múltiplo
escalar de x. ❚

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 25

Veamos ahora algunos ejemplos donde usaremos el teorema 1.1.


E JEMPLO 1.21. Dados a, b ∈ Rn , se llama segmento de extremos a y b al conjunto

[a, b] := {(1 − t)a + tb : 0 ≤ t ≤ 1}.

1. Suponga que c ∈ [a, b] entonces existe algún t ∈ [0, 1] tal que c = (1 − t)a + tb. Si k·k es
una norma arbitraria en Rn entonces

kb − ck + kc − ak = kb − (1 − t)a − tbk + k(1 − t)a + tb − ak


= (1 − t) kb − ak + t kb − ak = kb − ak .

2. Recı́procamente, suponga que para una norma k·k, que proviene de un producto interno, se
tiene la igualdad
kb − ak = kb − ck + kc − ak .
Entonces al elevar al cuadrado y hacer las simplificaciones correspondientes se obtiene

hb − c, a − ci = kb − ck ka − ck

lo cual, según la desigualdad de Cauchy-Schwartz, implica que los vectores b − c y a − c


son paralelos y del mismo sentido. Es decir, existe λ ≥ 0 tal que b − c = λ(c − a) de donde
1 λ
c = 1+λ b + 1+λ a. Por tanto c ∈ [a, b].

3. Cuando la norma no proviene de un producto interno bien podrı́a suceder que kb − ak =


kb − ck + kc − ak y sin embargo c ∈ / [a, b]. Para ver esto basta considerar en R2 la norma de
la suma y los puntos a = (1, 0), b = (0, 1) y c = (0, 0).
n n
p 1.22. Dado un producton interno h·, ·i en R , la función k·k : R → R definida por
E JEMPLO
kxk = hx, xi es una norma en R .
En efecto,
1. Usando la desigualdad de Cauchy-Schwartz se tiene
p q
kx + yk = hx + y, x + yi = kxk2 + 2 hx, yi + kyk2
q
≤ kxk2 + 2 kxk kyk + kyk2 = kxk + kyk .

Es decir, kx + yk ≤ kxk + kyk.


p
2. kαxk = α2 hx, xi = |α| kxk.

3. Si x 6= 0 entonces hx, xi > 0 y por tanto kxk > 0.


E JEMPLO 1.23. Las siguientes funciones son normas en Rn : para cada x = (x1 , . . . , xn ) ∈ Rn ,

O. Santamaria S.
26 1.4. Normas

r n
P
1. kxk := x2i .
i=1

n
P
2. kxkS := |xi |.
i=1

3. kxkM := máx{|x1 | , . . . , |xn |}.

La primera de ellas, k·k, es llamada norma euclidiana. Asimismo k·kS se denomina norma de
la suma o norma de Minkowski o `1 -norma y, k·kM recibe el nombre de norma del máximo o
norma uniforme. Observe que la norma de la suma, k·kS , aparece como caso particular de la
norma definida en el ejemplo 1.20, pues basta hacer a1 = · · · = an = 1.
Observe que si h , i es el producto internopcanónico en Rn , entonces la norma euclidiana de
un vector x puede escribirse como kxk = hx, xi. Es decir, la norma euclidiana proviene del
producto interno canónico.

No todas las normas provienen de un producto interno. Un criterio para determinar cuándo
sucede esto se da en el resultado que sigue.

P ROPOSICI ÓN 1.12 (Identidad del paralelogramo). Si una norma k·k proviene de un producto
interno entonces satisface la igualdad

kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ).

Usando este resultado es sencillo comprobar que las normas de la suma y del máximo no provie-
nen de ningún producto interno. Por ejemplo si x = e1 , y = e2 entonces kx + yk2S +kx − yk2S =
22 + 22 mientras que 2(kxk2S + kyk2S ) = 2(1 + 1). Es decir, k·kS no satisface la identidad del
paralelogramo.

E JEMPLO 1.24. Fije números reales α y β con α < β. Para cada x = (x1 , . . . , xn ) en Rn , con
n ≥ 2, ponga
kxk = sup x1 + x2 t + · · · + xn tn−1 .
α≤t≤β

En primer lugar observe que esto define una norma en Rn : es sencillo comprobar que kx + yk ≤
kxk + kyk y kcxk = |c| kxk para todo x, y ∈ Rn y todo c ∈ R. Además, si x = (x1 , . . . , xn ) es
tal que kxk = 0 entonces

sup x1 + x2 t + · · · + xn tn−1 = 0
α≤t≤β

lo cual implica que |x1 + x2 t + · · · + xn tn−1 | = 0 para todo t ∈ [α, β] y si esto ocurre entonces
x1 + x2 t + · · · + xn tn−1 = 0 para todo t ∈ [α, β]. De aquı́ resulta x1 = · · · = xn = 0, es decir,
x = 0.

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 27

En segundo lugar, afirmamos que esta norma no proviene de ningún producto interno. Para
sustentar esta afirmación considere los vectores

x = (−α, 1, 0, . . . , 0) y y = (−β, 1, 0, . . . , 0).

Entonces

x + y = (−α − β, 2, 0, . . . , 0) y x − y = (β − α, 0, 0, . . . , 0).

Puesto que α ≤ t ≤ β entonces 0 ≤ t − α ≤ β − α y α − β ≤ t − β ≤ 0. Luego

kxk = sup |−α + t| = β − α,


α≤t≤β
kyk = sup |−β + t| = β − α.
α≤t≤β

Además de esto, nuevamente por ser α ≤ t ≤ β entonces 2α ≤ 2t ≤ 2β lo que a su vez nos


lleva a que α − β ≤ −α − β + 2t ≤ β − α. Luego

kx + yk = sup |−α − β + 2t| = β − α,


α≤t≤β
kx − yk = sup |β − α| = β − α.
α≤t≤β

Obviamente no se cumple la identidad del paralelogramo y por tanto la norma no proviene de


un producto interno. ❚

E JEMPLO 1.25. Para cada 1 ≤ p < ∞, la función k·kp : Rn → R definida por

n
!1/p
X
kxkp = |xi |p ,
i=1

es una norma en Rn . Esta norma proviene de un producto interno si y solo si p = 2.


Demostrar que k·k es una norma, se hará en tres pasos:
(1) En primer lugar demostraremos la desigualdad
m m
!1/p m
!1/q
X X X
|xi yi | ≤ |xi |p · |yi |q (1.2)
i=1 i=1 i=1

1 1
donde p > 1 y q > 1 son números reales tales que + = 1. La desigualdad (1.2) es conocida
p q
como desigualdad de Hölder. Para demostrar esta relación considere la función f : R+ → R
up p v q −q
definida por f (t) = t + t , donde u, v ≥ 0 y p, q ≥ 1. Esta tiene como derivada a
p q

O. Santamaria S.
28 1.4. Normas

v 1/p
f 0 (t) = up tp−1 − v q t−q−1 y entonces f 0 (t) = 0 si y solo si t = 1/q (aquı́ usamos el hecho de
u
1 1
que + = 1 y, por lo tanto, p + q = pq). Por lo tanto f podrı́a tener un mı́nimo o un máximo
p q
en este valor de t. Para averiguarlo calculamos la segunda derivada de f . Esta es

f 00 (t) = (p − 1)v p tp−2 + (q + 1)v q t−q−2

y entonces

   p−2  −q−2
00 v 1/p p v 1/p q v 1/p
f = (p − 1)v + (q + 1)v ≥ 0,
u1/q u1/q u1/q

pues p, q ≥ 1. Por el criterio de la segunda derivada se concluye que f asume un mı́nimo en


t = v 1/p /u1/q .
Este valor mı́nimo es

   p  −q
v 1/p up v 1/p vq v 1/p
f = +
u1/q p u1/q q u1/q
p q
up v vq u vup− q uv q− p
= + = + = uv.
pup/q qv q/p p q

up p v q −q
Luego uv ≤ t + t para todo t > 0. En particular, si t = 1, resulta
p q

up v q
uv ≤ + .
p q

Usando
|xk | |yk |
u = Pm 1/p
y v = Pm 1/q
( i=1 |xi |p ) ( i=1 |yi |q )

se concluye rápidamente en la desigualdad de Hölder.


(2) Considere la identidad

(|a| + |b|)p = (|a| + |b|)p−1 |a| + (|a| + |b|)p−1 |b| ,

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 29

entonces, usando Hölder en la primera desigualdad que aparece a continuación,


m
X m
X m
X
p p−1
(|ai | + |bi |) = |ai | (|ai | + |bi |) + |bi | (|ai | + |bi |)p−1
i=1 i=1 i=1
m
!1/p m
!1/q
X X
≤ |ai |p (|ai | + |bi |)q(p−1) +
i=1 i=1
m
!1/p m
!1/q
X X
+ |bi |p (|ai | + |bi |)q(p−1)
i=1 i=1
m
!1/q  m !1/p m
!1/p 
X X X
= (|ai | + |bi |)q(p−1)  |ai |p + |bi |p 
i=1 i=1 i=1

1 1
Como p
+ q
= 1 entonces q(p − 1) = p. Luego la última desigualdad se convierte en

m m
!1/q  m
!1/p m
!1/p 
X X X X
(|ai | + |bi |)p ≤ (|ai | + |bi |)p  |ai |p + |bi |p ,
i=1 i=1 i=1 i=1

de donde
m
! p1 m
!1/p m
!1/p
X X p
X p
(|ai | + |bi |)p ≤ |ai | + |bi | . (*)
i=1 i=1 i=1

(3) Nuestro tercer paso consiste es probar de lleno que la función k·kp es una norma: sean
x = (x1 , . . . , xn ), y = (y1, . . . , yn ) elementos arbitrarios en Rn y α ∈ R, entonces

N1. De la desigualdad (*),

n
!1/p n
!1/p
X X
kx + ykp = |xi + yi |p ≤ (|xi | + |yi |)p
i=1 i=1
m
!1/p m
!1/p
X X
≤ |xi |p + |yi |p = kxkp + kykp .
i=1 i=1

Pn 1/p
N2. kαxkp = ( i=1 |αxi |p ) = |α| kxkp .

N3. Si x 6= 0 entonces al menos una coordenada xi es no nula, luego |xi |p > 0. Se tiene
entonces en este caso que kxkp > 0.

O. Santamaria S.
30 1.4. Normas

Finalmente probaremos que la norma kxkp proviene de un producto interno si y solo si p =


2. En efecto, si p = 2 entonces kxkp es la norma euclidiana, la cual proviene del producto
interno canónico. Recı́procamente, supongamos que kxkp proviene de algún producto interno.
En particular satisface la identidad del paralelogramo y entonces para x = e1 = (1, 0, . . . , 0) y
y = (0, 1, 0, . . . , 0) se tiene

ke1 + e2 k2p + ke1 − e2 k2p = 2(ke1 k2p + ke2 k2p ).

Esto equivale a la igualdad 22/p + 22/p = 2(1 + 1), de donde p = 2.

E JEMPLO 1.26. Sea Cp ⊂ Rn un conjunto convexo, p ∈ Rn y ϕ : C → R la función definida


por ϕ(x) = kx − pk = hx − p, x − pi. Existe como máximo un punto a ∈ C tal que ϕ(a) =
ı́nf{ϕ(x) : x ∈ C}.
Supongamos que existen puntos a, b ∈ C tal que ϕ(a) = ı́nf{ϕ(x) : x ∈ C} = ϕ(b). Como la
norma considerada proviene de un producto interno entonces por la identidad del paralelogramo
se tiene

ka − bk2 = k(a − p) − (b − p)k2


= 2 ka − pk2 + 2 kb − pk2 − k(a − p) + (b − p)k2
2
2 2
1
= 2 ka − pk + 2 kb − pk − 4 2 (a + b) − p .

Como C es convexo y a, b ∈ C entonces 21 (a + 1b) ∈ C. Siendo


ϕ(a) ≤ ϕ(x) = kx − pk
para todo x ∈ C entonces en particular ϕ(a) ≤ 2 (a + b) − p y, por tanto, de las igualdades

anteriores se obtiene

0 ≤ ka − bk2 ≤ 2ϕ(a) + 2ϕ(b) − 4ϕ(a) = 0.

Luego a = b.
Observe la importancia que tiene el hecho de que C sea convexo. En la figura 1.1 se ilustra el
caso no convexo, donde podrı́an existir infinitos a ∈ C tales que ϕ(a) = ı́nf{ϕ(x) : x ∈ C}.
Se ilustra también el caso convexo.

Figura 1.1:

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 31

P ROPOSICI ÓN 1.13. Considere en Rm y Rn la norma euclidiana. Las siguientes afirmaciones


respecto de una aplicación lineal T : Rm → Rn son equivalentes:
1. kT xk = kxk.

2. kT x − T yk = kx − yk.

3. hT x, T yi = hx, yi.

4. Todo conjunto ortonormal en Rm es transformado por T en un conjunto ortonormal en


Rn .

5. T ∗ ◦ T = Im (aplicación identidad en Rm ).

6. Las columnas de la matriz de T forman un conjunto ortonormal en Rn .


Demostración. Puesto que se están considerando las normas euclidianas, las cuales provienen
del respectivo producto interno canónico, entonces

ku + vk2 = hu + v, u + vi = kuk2 + kvk2 + 2 hu, vi .

Suponiendo (1) entonces

kT (x) − T (y)k = kT (x − y)k = kx − yk ,

luego (1) implica (2).


Suponiendo (2), se tiene en particular

kT x + T yk = kT (x + y) − T (0)k = kx + y − 0k = kx + yk .

Luego
1 
hT x, T yi = kT x + T yk2 − kT x − T yk2
4
1 
= kx + yk2 − kx − yk2
4
= hx, yi .

Luego (2) implica (3).


Suponiendo (3) y si X es un conjunto ortonormal en Rm entonces para u, v ∈ T (X) existen
x, y ∈ X tales que u = T x y v = T y. Luego

hu, vi = hT x, T yi = hx, yi = δij ,

donde la última igualdad es debido a que X es ortonormal. Luego T (X) es ortonormal y por
tanto (3) implica (4).

O. Santamaria S.
32 1.4. Normas

Suponga la validez de (4). Considere las bases canónicas


m n
Pn {e1 , . . . , em } y
{ē1 , . . . , ēP
n } en R y R respectivamente. Si T (ej ) = i=1 aij ēi entonces
∗ m
T (ēi ) = j=1 aij ej (ver ejemplo 1.14). Luego para cada j = 1, 2, . . . , m,

n
!
X
T ∗ ◦ T (ej ) = T ∗ aij ēi = a1j T ∗ (ē1 ) + a2j T ∗ (ē2 ) + · · · + anj T ∗ (ēn )
i=1
m
! m
! m
!
X X X
= a1j a1j ej + a2j a2j ej + · · · + anj anj ej
j=1 j=1 j=1
n
! n
! n
!
X X X
= akj ak1 e1 + akj ak2 e2 + · · · + akj akm em
k=1 k=1 k=1
= hT ej , T e1 i e1 + hT ej , T e2 i e2 + · · · + hT ej , T em i em .

Como la base canónica {e1 , . . . , em } es ortogonal y T transforma conjuntos ortonormales en


conjuntos ortonormales entonces {T e1 , . . . , T em } es también ortonormal, es decir hT ej , T ek i =
0 cuando k 6= j y hT ej , T ek i = 1 cuando k = j, luego

T ∗ ◦ T (ej ) = ej .

Como esto vale para cada j = 1, . . . , m, resulta finalmente T ∗ ◦ T = Im . Luego (4) implica (5).
Suponga la validez de (5). Si A = (aij )n×m es la matriz asociada a T entonces A∗ = (aji )m×n
es la matriz asociada a T ∗ . Luego T ∗ ◦ T tiene como matriz asociada al producto A∗ A, cuyos
elementos son
Xn
cij = aki akj = hT ei , T ej i .
k=1
∗ ∗
Pero como T ◦ T = Im entonces A A es la matriz identidad, luego cij = 1 para i = j y cij = 0
para i 6= j. Esto se traduce en las igualdades hT ei , T ej i = 1 para i = j y hT ei , T ej i = 0
para i 6= j. Pero como los vectores T (ej ) son precisamente las columnas de A, se obtiene lo
afirmado en (6).
Finalmente suponga la validez de (6), es decir, hT ei , T ej i = δij . Entonces
* m m
+
X X
kT xk2 = hT x, T xi = xi T ei , xj T ej
i=1 j=1
X m
X
= xi xj hT ei , T ej i = x2i = kxk2 ,
ij i=1

de donde kT xk = kxk, que es lo afirmado en (1). ❚

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 33

E JEMPLO 1.27. Una transformación lineal T : Rm → Rm es ortogonal si


T ∗ ◦ T = In = T ◦ T ∗ . Como la matriz asociada a T ∗ ◦ T es la matriz identidad entonces
det(T ∗ ◦ T ) = 1. Luego

(det T )2 = det T det T = det T ∗ det T = det(T ∗ ◦ T ) = det In = 1,

de donde det T = ±1.


Observe que una aplicación T : Rm → Rm es ortogonal si y solo si cumple una (y por tanto
todas) de las condiciones de la proposición 1.13.

Una transformación lineal A : Rn → Rn se llama semejanza si existe un real α > 0 tal que para
todo x, y ∈ Rn ,
hAx, Ayi = α2 hx, yi .

P ROPOSICI ÓN 1.14. Sea A : Rn → Rn una transformación lineal. Las siguientes afirmaciones
son equivalentes:

1. A es una semejanza.

2. kAxk = α kxk para todo x ∈ Rn .

3. Si {e1 , . . . , en } es una base ortonormal entonces hAei , Aej i = 0 para i 6= j y kAei k = α


para cualesquiera i, j = 1, . . . , n.

Demostración. Suponga que A es una semejanza. Existe un número real α > 0 tal que hAx, Ayi =
α2 hx, yi para todo x, y ∈ Rn . En particular, para x = y, hAx, Axi = α2 hx, xi. Luego (1) im-
plica (2).
Suponga que se cumple (2) y sea {e1 , . . . , en } una base ortonormal. Entonces

1 
hAei , Aej i = kAei + Aej k2 − kAei − Aej k2
4
1 
= kA(ei + ej )k2 − kA(ei − ej )k2
4
α2 
= kei + ej k2 − kei − ej k2
4
α2
= (2 + 2 hei , ej i − 2 + 2 hei , ej i)
4
= α2 hei , ej i .

Usando la ortonormalidad de los vectores ei se obtiene lo que afirma (3).

O. Santamaria S.
34 1.4. Normas

Finalmente, suponga que se cumple (3)Py considere x e P y, elementos arbitrarios en Rn . Entonces


en términos de la base canónica, x = ni=1 xi ei e y = ni=1 yi ei , luego
* n n
+
X X
hAx, Ayi = xi Aei , yj Aej
i=1 j=1
n
X
= xi yj hAei , Aej i
i,j=1
n
X
= xi yi α2 = α2 hx, yi .
i=1

Y ası́, (3) implica (1). ❚


P ROPOSICI ÓN 1.15 (Proyección Ortogonal). Sea E un subespacio
P vectorial de Rn , {e1 , . . . , ek }
una base ortonormal de E y π : Rn → E definida por π(a) = ki=1 ha, ei i ei . Entonces
a) Para cada a ∈ Rn , el vector a − π(a) es elemento de E ⊥ ;
b) La aplicación π es lineal y ker(π) = E ⊥ ;
c) Para cada a ∈ Rn , la función fa : E → R, definida por fa (y) = ka − yk, alcanza su valor
mı́nimo solamente en π(a);
d) Rn = E ⊕ E ⊥ .
Demostración.
a) Para cada elemento ej de la base ortonormal dada, se tiene

ha − π(a), ej i = ha, ej i − hπ(a), ej i


* k +
X
= ha, ej i − ha, ei i ei , ej
i=1
k
X
= ha, ej i − ha, ei i hei , ej i
i=1
= ha, ej i − ha, ej i = 0.
Pk
Luego dado cualquier v = i=1 vi ei , vector en E,
k
X
ha − π(a), vi = vj ha − π(a)ej i = 0.
j=1

Es decir a − π(a) está en E ⊥ .

O. Santamaria S.
Cap. 1: El Espacio Vectorial Euclidiano 35

Es sencillo mostrar que π es lineal. Además si a ∈ ker(π) entonces π(a) = 0, es decir,


b) P
k
i=1 ha, ei i ei = 0. Debido a la independencia lineal de los vectores ei , la última igualdad
implica que ha, ei i = 0 para todo i = 1, . . . , n, luego a es ortogonal al espacio E, es
decir, a ∈ E ⊥ . Recı́procamente, si a ∈ E ⊥ entonces, en particular, ha, ej i = 0 para todo
j = 1, . . . , k. De la definición de π resulta π(a) = 0 y, por tanto, a debe ser elemento del
ker(π).
c) Sea a ∈ Rn y considere la función fa : Rn → R definida por fa (y) = ka − yk. Como
π(a) ∈ E entonces π(a) − y es elemento del subespacio E, para todo y en E. De item (a)
sabemos que a − π(a) está en E ⊥ y por tanto ha − π(a), π(a) − yi = 0. Luego,

[fa (π(a))]2 = ka − π(a)k2 ≤ ka − π(a)k2 + kπ(a) − yk2


= ka − π(a) + π(a) − yk2 = ka − yk2 = [fa (y)]2 .
Es decir, fa (π(a)) ≤ fa (y) para todo y ∈ E y, por tanto, f tiene un mı́nimo en π(a). Siendo
E convexo, del ejemplo 1.26 deducimos que π(a) es el único punto donde fa asume su valor
mı́nimo.
d) Finalmente, de la proposición 1.11 sabemos que E ∩ E ⊥ = {0}, ası́ que sólo queda mostrar
la igualdad Rn = E + E ⊥ . Para ello será suficiente probar que Rn ⊂ E + E ⊥ . Si a ∈ Rn , de
lo demostrado en (a) y (c) deducimos que π(a) es el único elemento de E tal que a − π(a)
es ortogonal a E, es decir, tal que a − π(a) ∈ E ⊥ . Si y = a − π(a) y x = π(a), deducimos
que a = x + y. Esto muestra que cada a ∈ Rn se escribe de modo único como la suma de
dos elementos: uno x en E y otro y en E ⊥ , luego Rn ⊂ E + E ⊥ . ❚
Dos normas k·k1 y k·k2 en Rn son equivalentes si existen constantes a > 0 y b > 0 tales que
kxk1 ≤ a kxk2 y kxk2 ≤ b kxk1 .
E JEMPLO 1.28. Las normas euclidiana y de la suma son equivalentes. En efecto, si x =
(x1 , . . . , xn ) ∈ Rn entonces
sX Xq X
kxk = x2i ≤ x2i = |xi | = kxkS .
i=1 i=1 i=1
X sX
kxkS = |xi | ≤ n x2i = n kxk .
i=1 i=1

Es decir, kxk ≤ kxkS y kxkS ≤ n kxk.


De manera análoga se comprueba la equivalencia entre k·kS y k·kM y también la equivalencia
entre k·k y k·kM .
Mas adelante comprobaremos que todas las normas en Rn son equivalentes. Como veremos,
algunos conceptos permanecen invariantes bajo normas equivalentes.

O. Santamaria S.
36 1.5. Distancias en Rn

1.5. Distancias en Rn
Una distancia en Rn es una función d : Rn × Rn → R que satisface, para todo x, y, z ∈ Rn , las
siguientes propiedades:

1. d(x, y) = 0 si y solo si x = y;

2. d(x, y) ≤ d(z, x) + d(z, y).

P ROPOSICI ÓN 1.16. Una función d : Rn × Rn → R es una métrica si y solo si para todo
x, y, z ∈ Rn ,

1. d(x, z) ≤ d(x, y) + d(y, z);

2. d(x, y) = d(y, x);

3. Si x 6= y entonces d(x, y) > 0.

Demostración. Suponga que d es una métrica. ❚


Considere Rn provisto de alguna norma k·k. La función d : Rn ×Rn → R definida por d(x, y) =
kx − yk

1.6. Ejercicios
1. Determine si las siguientes funciones k·k : Rn → R son normas en Rn :

a) kxk = máx{|x1 | , 2 |x2 | , . . . , n |xn |}.


b) kxk = |x1 | + 2 |x2 | + . . . + n |xn |.

donde x = (x1 , . . . , xn ).

O. Santamaria S.