Vous êtes sur la page 1sur 24

Captulo 1

Espacios vectoriales
Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continuacion revisaremos algunos de los conceptos m
as importantes relativos a vectores, cuya generalizacion
al caso de tensores sera el objeto de esta parte del curso. Concretamente revisaremos los conceptos
de vector, espacio vectorial, normas, distancias, productos escalares, bases, aplicaciones lineales y
veremos como cambian las componentes de un vector, o de una aplicacion lineal, al realizar un
cambio de base en el espacio, esto nos servira de punto de partida para definir el concepto de tensor
en el proximo captulo.

1.1.

Concepto de espacio vectorial

En el lenguaje coloquial se denomina con cierta frecuencia vector a cualquier lista unidimensional de datos numericos dispuestos entre parentesis y separados por comas. Desde el punto de vista
matematico esto no siempre es correcto. Por ejemplo, si consideramos el conjunto de datos dados
por el a
no en curso, la temperatura del sitio donde nos encontremos y la cotizacion de cualquier
moneda frente al euro, es evidente que dicho conjunto de datos difcilmente podra considerarse
como un vector. Sin embargo, la posicion de un m
ovil en el espacio o su velocidad s estan dados
por vectores.
Que es lo que distingue a un verdadero vector de un mero conjunto de datos?
Un vector es un elemento de un espacio vectorial, es decir, es un miembro de una estructura
de elementos sobre los que se han definido ciertas operaciones (suma de vectores y multiplicaci
on
por escalares) que tienen unas determinadas propiedades (conmutativa, asociativa, elemento neutro, elemento opuesto) las cuales dotan al conjunto de una determinada estructura. Concretamente
estas propiedades garantizan que podemos construir cualquiera de los elementos de este espacio
como combinacion lineal de unos pocos de ellos. Es decir, cualquier elemento del espacio vectorial
puede construirse como combinacion lineal de un conjunto de vectores linealmente independientes,
que forman una base del espacio vectorial en consideracion, y definimos la dimension del espacio
vectorial como el cardinal (el n
umero de elementos) de cualquiera de sus bases. Esto es muy importante, ya que nos permite trabajar con vectores por medio de sus componentes respecto a una base
cualquiera del espacio, y tambien nos permite describir cualquier aplicacion lineal definida sobre
el espacio vectorial por medio su matriz asociada, dada por la accion de la aplicacion lineal sobre
cualquier base del espacio. Lo que diferencia a un vector (o a una matriz) de una mera caja de
n
umeros es que los vectores son objetos geometricos pertenecientes a un espacio vectorial, de tal
1

CAPITULO 1. ESPACIOS VECTORIALES

forma que sus componentes son las proyecciones de estos vectores sobre una determinada base del
espacio, y las matrices por su parte son las proyecciones de la actuacion de una determinada aplicacion lineal, aplicada sobre una base del espacio vectorial. Como consecuencia de esto, si aplicamos
un cambio de base en el espacio vectorial, las componentes de los vectores y de las aplicaciones
lineales definidas sobre estos vectores cambian siguiendo una ley de transformacion que esta determinada por el cambio de base aplicado, tal y como veremos en este captulo. Es muy importante
que estos conceptos queden claros, ya que son la base indispensable para comprender los tensores.
Normalmente los vectores que se emplean en fsica pertenecen a espacios vectoriales normados,
es decir, espacios vectoriales sobre los que se ha definido una operacion (norma) que permite medir la
longitud de los vectores. Se entiende que esta longitud esta medida en las unidades que tengan
los vectores del espacio en consideracion (p. ej. velocidad, aceleracion, fuerza, campo electrico, . . . ),
de forma que no tiene por que ser una longitud en el sentido coloquial del termino. La operacion
norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio (dada por la
norma del vector diferencia), lo cual nos permite juzgar si dos vectores de este espacio son proximos
o no, y tambien nos permite juzgar si una sucesion de elementos de este espacio es convergente o
no (dependiendo de si la distancia entre dos elementos consecutivos de la sucesion tiende a cero).
La operacion distancia dota al conjunto de vectores que forma el espacio vectorial de una topologa
inducida por la metrica, convirtiendo el espacio vectorial en un objeto con significado geometrico,
apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios con una
metrica diferente y por extension nos permite tambien imaginar espacios similares con un n
umero
de dimensiones diferente a las 3 a las que estamos habituados,
En el contexto de la fsica es habitual definir como magnitudes escalares a aquellas para cuya
especificacion completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la
masa, la carga electrica o el tiempo en la mecanica Newtoniana. Por oposicion a las anteriores, se
definen como magnitudes vectoriales a aquellas para las que es preciso especificar, ademas de su
magnitud, una direccion y un sentido. De esta forma resulta muy natural describir como vectores
a la posicion, la velocidad, la aceleracion, o las fuerzas. Estas magnitudes fsicas, que nos resultan
tan conocidas y naturales, hacen que el concepto de vector resulte facil e intuitivo. Tambien resulta
intuitivo el significado de las operaciones basicas definidas sobre los vectores. Por ejemplo, si un
movil esta en el punto A y realiza un movimiento dado por el vector B, la posicion final del movil
esta dada por A + B, si sobre un m
ovil se aplican simult
aneamente las fuerzas f 1 y f 2 el movil se
ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir
al punto B tendremos que desplazarnos seg
un el vector dado por la diferencia B A.

1.1.1.

Definici
on y propiedades

Un espacio vectorial , sobre el cuerpo de escalares , se define como una estructura dada por
un conjunto de elementos llamados vectores (x), sobre los que se han definido las operaciones de
suma de vectores y producto por escalares:
Suma de vectores: Para cualquier pareja de vectores x y y pertenecientes a
vector z perteneciente a dado por la suma x + y.

x, y

E,

! z = x + y

E existe un unico
(1.1)

La operacion suma de vectores cumple las siguientes propiedades:


Propiedad conmutativa
x, y

E,

x+y =y+x

(1.2)

1.1. CONCEPTO DE ESPACIO VECTORIAL


Propiedad asociativa
x, y, z

E,

(x + y) + z = x + (y + z)

(1.3)

Elemento nulo: Existe un u


nico vector nulo (0) en
tal que para cualquier x de
se
cumple
!0
/ x , 0 + x = x
(1.4)

Elemento opuesto: Para cualquier x de


suma con x es el elemeno nulo
x

E,

E existe un unico vector x de E tal que su

! x

/ x + (x) = 0

Producto por escalares: Para cualquier vector x perteneciente a


teneciente al cuerpo
existe un u
nico vector perteneciente a

E, K,

! z = x

(1.5)

E y cualquier escalar perE dado por el producto x

(1.6)

La operacion producto por escalares cumple las siguientes propiedades:


Propiedad asociativa
x

E, , K,

(x) = () x

(1.7)

Propiedad distributiva respecto de la suma de escalares


x

E, , K,

( + ) x = x + x

(1.8)

Propiedad distributiva respecto de la suma de vectores


x, y

E, K,

Elemento neutro:
x

E,

(x + y) = x + y

(1.9)

1x = x

(1.10)

Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composicion
de movimientos, o de fuerzas, que a todos nos resulta familiar. Los dos casos de cuerpos de escalares
y el de los n
umeros complejos . En fsica es
mas frecuentes son el de los n
umeros reales
especialmente frecuente considerar espacios vectoriales definidos sobre el cuerpo de los n
umeros
reales, en este curso este sera el caso que consideraremos salvo que se diga lo contrario.

1.1.2.

Bases y dimensi
on

Un conjunto de n vectores {e1 , . . . , en } se dice linealmente independiente cuando es imposible


encontrar n n
umeros {1 , . . . , n } no todos nulos, tales que
1 e 1 + 2 e 2 + + n e n = 0

(1.11)

y en caso contrario se dice linealmente dependiente. Es obvio que la Ec. (1.11) siempre tiene la
solucion trivial 1 = 2 = = n = 0, si esta ecuaci
on tiene alguna otra solucion diferente de la
trivial lo que sucede es que, en ese caso, podemos despejar uno de estos vectores como combinacion
lineal de los restantes. Si la u
nica solucion de Ec. (1.11) es la solucion trivial, entonces resulta
imposible despejar ninguno de los vectores {e1 , . . . , en } como combinacion lineal de los restantes,
esto es lo que significa que el conjunto {e1 , . . . , en } sea linealmente independiente.

CAPITULO 1. ESPACIOS VECTORIALES

Cual es el n
umero maximo de vectores linealmente independientes que podemos tomar en
un espacio vectorial?
Consideremos el caso de un conjunto formado por un u
nico vector {e1 } (distinto de 0), es
evidente que este conjunto siempre es linealmente independiente. La envolvente lineal del conjunto
{e1 }, definida por los vectores x dados por

x = 1 e 1

(1.12)

nos genera la recta que pasa por el origen 0 y que tiene direccion dada por e1 . Para cualquier vector
x que pertenezca a esta recta el sistema {e1 , x} es linealmente dependiente, lo que implica que x es
sencillamente proporcional a e1 . Supongamos ahora un vector e2 que no pertenezca a la envolvente
lineal de e1 . En este caso el conjunto {e1 , e2 } es linealmente independiente, y la envolvente lineal
de este conjunto, definida por los vectores x dados por

x = 1 e 1 + 2 e 2

1 , 2

(1.13)

nos genera el plano que pasa por el origen y contiene a e1 y e2 . Para cualquier vector x contenido en
este plano el conjunto {e1 , e2 , x} es linealmente dependiente, lo que indica que x puede escribirse
como combinacion lineal de {e1 , e2 }. Si a
nadimos otro vector e3 que no pertenezca a este plano el
conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio
tridimensional engendrado por los vectores {e1 , e2 , e3 }, de tal forma que cualquier vector de este
espacio puede construirse como combinacion lineal de {e1 , e2 , e3 }.
En principio podramos seguir a
nadiendo sucesivamente m
as vectores ei
linealmente independientes a todos los anteriores, pero si nuestro espacio vectorial es de dimension finita (n)
llega un momento que la envolvente lineal del conjunto {e1 , . . . , en }, dada por

x = 1 e 1 + 2 e 2 + + n e n

1 , 2 , . . . , n

(1.14)

coincide con todo el espacio vectorial . En ese caso resulta imposible a


nadir ning
un elemento
en+1 (distinto de 0) que sea linealmente independiente a todos los anteriores.
En consecuencia, dado un espacio vectorial de dimension finita n se define como base de a
cualquier conjunto de n vectores linealmente independientes {e1 , . . . , en }, todos ellos pertenecientes
a y distintos de 0. La propiedad importante que define a una base es que para cualquier x el
conjunto {e1 , . . . , en , x} es linealmente dependiente, lo que implica que x puede expresarse como
combinacion lineal de {e1 , . . . , en }

x = x 1 e1 + x 2 e2 + + xn en

(1.15)



y se definen los n
umeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x respecto a la base {e1 , . . . , en }. Por otra parte, el cardinal del mayor conjunto de vectores linealmente
independientes que podamos tomar en el espacio vectorial
se define como la dimension del espacio vectorial. En la discusion anterior hemos asumido t
acitamente que el espacio vectorial
estaba definido sobre el cuerpo de los reales , para simplificar la exposicion. En un caso mas
general podemos repetir los mismos pasos haciendo que los n
umeros i tomen valores en el cuerpo
correspondiente, y el resultado final es totalmente an
alogo.
En este curso solo estudiaremos espacios vectoriales de dimension finita. En algunos casos consideraremos una dimension finita arbitraria (n) y en otros nos centraremos en el caso especialmente

1.1. CONCEPTO DE ESPACIO VECTORIAL

relevante del espacio tridimensional. De todas formas conviene recordar que tambien existen espacios vectoriales de dimension infinita, de gran importancia en ciertas areas de las matematicas
(p. ej. en analisis funcional) y tambien extremadamente relevantes en fsica, por sus aplicaciones
en el estudio de ecuaciones diferenciales y en mecanica cu
antica. Como ejemplo de espacio vectorial de dimension infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son
funciones. Por ejemplo, es muy facil ver que el conjunto de polinomios de una variable (x)
p(x) = a0 + a1 x + a2 x2 + a3 x3 + + an xn

(1.16)

cumple todas las propiedades necesarias para ser un espacio vectorial. Tambien es muy facil ver
que las funciones xn y xm son linealmente independientes siempre que n 6= m, esto parece indicar

que podramos tomar como base de este espacio funcional al conjunto 1, x, x2 , x3 , . . . , xn , . . . .
Pero en ese caso cual es el valor m
aximo de n que debemos tomar para garantizar que cualquier
polinomio de x esta incluido en la envolvente lineal de la base? Claramente ning
un valor finito de
n es suficiente, por tanto la dimension de este espacio vectorial es infinita. Los espacios funcionales
tienen (normalmente) infinitas dimensiones, y esa circunstancia hace que en ellos aparezcan otros
problemas que no aparecen en los de dimension finita.
Volviendo a los espacios de dimension finita, una propiedad interesante de las envolventes lineales
de los sucesivos conjuntos de vectores que hemos ido considerando ({e1 }, {e1 , e2 }, {e1 , e2 , e3 }, . . . ,
{e1 , . . . , en }), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que ademas
estan contenidos en el espacio vectorial
y por tanto se denominan subespacios vectoriales. La
demostracion de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial
se deja para los ejercicios. Otra propiedad importante cuya demostraci
on se deja para los ejercicios,
es que la descomposicion de cualquier vector x como combinacion lineal de la base (Ec. (1.15)) es
u
nica. Por u
ltimo, dada cualquier base {e1 , . . . , en } del espacio , se dice que se descompone en
suma directa () de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)

E=

n
M

envolvente lineal de ei

(1.17)

i=1

E E

donde la suma directa de dos subespacios vectoriales independientes 1 y 2 (es decir, cuya interseccion se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que
pueden definirse como combinacion lineal de vectores de 1 y 2 .
En general, dado un espacio vectorial con n dimensiones, se llama base can
onica a la formada
por los vectores

E E

e1 = {1, 0, 0, . . . , 0}

(1.18)

e2 = {0, 1, 0, . . . , 0}

(1.19)

... ... ... ... ... ...

(1.20)

en = {0, 0, 0, . . . , 1}

(1.21)

Esta sera la base que emplearemos constantemente. Uno de los temas centrales del estudio de
tensores es como cambian las componentes de diversos objetos definidos en un espacio vectorial
(vectores, aplicaciones lineales, tensor metrico, etc.) al realizar un cambio de base en el espacio, es
decir, al pasar de la base canonica a otra base distinta.

CAPITULO 1. ESPACIOS VECTORIALES

1.2.

M
etrica

1.2.1.

Espacios vectoriales normados

El siguiente ingrediente que necesitamos para dotar al espacio vectorial de significado geometrico es definir una operacion distancia. Para ello basta con disponer de una funcion, llamada norma
k k, que nos permita medir la longitud de cada vector x de . Una vez definida esta funcion, la
distancia entre cualquier par de vectores x, y (d(x, y)) puede definirse, p. ej., como la norma
del vector diferencia
(1.22)
x, y , d(x, y) ky xk

Para que la funcion distancia se corresponda con lo que intuitivamente se entiende por distancia
esta funcion debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser
igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad
triangular y que la distancia de x a 0 debe ser || veces la distancia de x a 0 (para cualquier
vector x y cualquier escalar , siendo || el valor absoluto de ). Como consecuencia se
define la operacion norma k k como cualquier funcion definida sobre el espacio vectorial
que
cumpla las siguientes propiedades

La operacion norma es definida positiva


x
El u
nico elemento de

E,

kxk 0

(1.23)

E con longitud cero es el elemento nulo de E


kxk = 0 si y solo si x = 0

(1.24)

Comportamiento respecto al producto por escalares


x

E, K,

Desigualdad triangular
x, y

E,

kxk = || kxk

(1.25)

kx + yk kxk + kyk

(1.26)

Una vez definida una operacion norma, la distancia entre dos vectores cualesquiera del espacio
puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.22)), aunque esta no es
la u
nica posibilidad. En general puede tomarse como operacion distancia a cualquier funcion que
cumpla las siguientes propiedades
La operacion distancia es definida positiva
x, y

E,

d(x, y) 0

(1.27)

Dos vectores separados por una distancia nula son el mismo vector
d(x, y) = 0 si y solo si x = y
Simetra
x, y

E,

d(x, y) = d(y, x)

(1.28)

(1.29)


1.2. METRICA

Desigualdad triangular
x, y, z

E,

d(x, z) d(x, y) + d(y, z)

(1.30)

En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.22)),
que es la opcion mas habitual, las propiedades que cumple la operacion norma garantizan que la
operacion distancia d cumple las propiedades anteriores. Un espacio vectorial sobre el que se ha
definido una operacion norma se denomina espacio normado, los espacios vectoriales sobre los que
se ha definido una operacion distancia se denominan espacios metricos.

1.2.2.

Producto escalar

Una vez definida la operacion distancia, el u


ltimo ingrediente que necesitamos para dotar a
los elementos de
de una estructura geometrica es definir una operacion que nos permita medir
angulos, lo cual nos permitira definir el concepto de ortogonalidad. Para ello se introduce la funcion
producto escalar (o producto interior), que denotaremos indistintamente por

producto escalar de x por y (x, y) x y

E
E E

(1.31)

Dado el espacio vectorial sobre el cuerpo , se define la operacion producto escalar ( , ) como
una funcion definida sobre con imagen en
x1 , x2

E,

(x1 , x2 )

(1.32)

que cumpla las siguientes propiedades


Propiedad hermtica
x1 , x2

E,

(x1 , x2 ) = (x2 , x1 )

(1.33)

umero complejo z.
donde z es el complejo conjugado del n
Si el cuerpo

K es el de los numeros reales esta propiedad se reduce a la relacion de simetra


x1 , x2 E, (x1 , x2 ) = (x2 , x1 )
(1.34)

Propiedad distributiva respecto a la suma de vectores en el segundo argumento


x1 , x2 , x3

E,

(x1 , x2 + x3 ) = (x1 , x2 ) + (x1 , x3 )

(1.35)

x1 , x2 , x3

E,

(x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 )

(1.36)

de donde se deduce

Linealidad respecto al producto por escalares en el primer argumento


x1 , x2

E, K,

(x1 , x2 ) = (x1 , x2 )

(1.37)

x1 , x2

E, K,

(x1 , x2 ) = (x1 , x2 )

(1.38)

de donde se deduce

K = R esta propiedad se reduce a


x1 , x2 E, R, (x1 , x2 ) = (x1 , x2 ) = (x1 , x2 )

En el caso en que

(1.39)

CAPITULO 1. ESPACIOS VECTORIALES

El producto escalar de un vector por s mismo es definido positivo


x

E,

(x, x) 0

(1.40)

El u
nico vector con producto escalar por s mismo nulo es el vector nulo
(x, x) = 0 si y solo si x = 0

(1.41)

Un espacio vectorial en el que se ha definido un producto escalar se denomina espacio dotado


de producto interno. Una vez definido el producto escalar podemos definir el angulo () formado
por dos vectores x e y a partir de la relaci
on
x y kxkkyk cos

(1.42)

de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto
escalar x ei (con kei k = 1) corresponde a la proyecci
on ortogonal de x sobre la direccion definida
por el vector unitario ei . Si
=
y la metrica de
es eucldea esta definicion de x y se
corresponde con la definicion clasica del angulo formado por estos dos vectores. Definimos tambien
que dos vectores son ortogonales si y solo si su producto escalar es nulo

x y si y solo si x y = 0

(1.43)

Las propiedades que cumple la operacion producto escalar permiten definir una operacion norma
de manera natural por medio de
kxk (x, x)1/2
(1.44)
A partir de las propiedades que cumple la operacion producto escalar es muy facil comprobar que
la anterior relacion define una norma.
La existencia de una funcion producto escalar implica que podemos definir una funcion norma
por medio de Ec. (1.44), sin embargo el recproco no es cierto. Es decir, dada una funcion norma
no esta garantizado que sea posible definir una operacion producto escalar compatible con esta
norma. Existen funciones norma que no provienen de (o que no son compatibles con) ning
un
producto escalar. No obstante los espacios vectoriales que suelen emplearse en fsica se caracterizan
precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de
espacios vectoriales se denominan en general pre-Hilbert, y se denominan espacios de Hilbert cuando,
ademas de tener una norma inducida por el producto escalar, son completos (o de Banach). Donde
se entiende por espacio de Banach (o completo) aquel en el que para toda sucesion convergente de
vectores enteramente contenida en el espacio (es decir, para toda sucesion de Cauchy), el lmite al
que tiende la sucesion tambien esta contenido en el espacio. Para darse cuenta del significado de
esta propiedad es interesante considerar el ejemplo del espacio funcional dado por los polinomios de
una variable a los que hacamos referencia antes. Para ver que este espacio no es completo podemos
considerar, p. ej., el desarrollo en serie de Taylor de sin x hasta orden N centrado en x = 0, que
definimos como sN (x)
N
X
(1)n 2n+1
sN (x) =
x
(2n + 1)!
n=0

Como es bien sabido, en el lmite N este desarrollo converge uniformamente a sin x (x ).


Para cualquier N finito este desarrollo es un polinomio, por tanto la sucesion {si (x)}N
i=1 (N =
1, 2, 3, . . . ) es convergente y esta enteramente contenida en el espacio, pero el lmite al que tiende


1.2. METRICA

Espacios Lineales Normados


Espacios de Banach
(completos)

Norma inducida por


el Producto Escalar
PreHilbert
Hilbert

Figura 1.1: Esquema de inclusiones para espacios vectoriales normados.

esta sucesion al hacer N no pertenece al espacio, ya que sin x no es un polinomio. Como


consecuencia deducimos que el espacio vectorial definido por los polinomios de una variable no es
completo.
Los espacios de Hilbert son los espacios con un significado geometrico mas intuitivo y sencillo, y
son los mas empleados en fsica. Como ejemplos tpicos de espacios de Hilbert con dimension finita
tenemos n y n , y con dimension infinita tenemos el espacio de Lebesgue 2 , formado por las
funciones de cuadrado integrable.

1.2.3.

Tensor m
etrico

A partir de este momento consideramos solamente el caso de un espacio vectorial de dimension


finita (n) definido sobre el cuerpo de los reales.
Consideremos el producto escalar de dos vectores cualesquiera x e y. Dada una base cualquiera
del espacio vectorial, x e y estan dados por sus correspondientes desarrollos en componentes
x = x 1 e1 + x 2 e2 + + xn en ,

y = y 1 e1 + y 2 e 2 + + y n en

(1.45)

Aplicando las propiedades de linealidad del producto escalar, x y puede ponerse como
xy =

n
n X
X

gij xi y j

(1.46)

i=1 j=1

donde hemos definido el tensor metrico gij como la tabla de todos los productos escalares de los
vectores de la base
gij ei ej ,
i, j, = 1, . . . , n
(1.47)
Mas adelante veremos por que denominamos tensor a la matriz gij , lo que debe quedar claro
de momento es que gij contiene toda la informacion necesaria para calcular el producto escalar de
cualquier par de vectores del espacio en consideracion. Por otra parte, en el caso de un espacio
vectorial sobre los reales es evidente que el tensor metrico debe ser simetrico
gij = gji

(1.48)

CAPITULO 1. ESPACIOS VECTORIALES

10
Convenio de Suma de Einstein

Al manejar tensores aparecen con mucha frecuencia expresiones como Ec. (1.46), donde se
realiza la suma de una expresi
on dependiente de uno o m
as ndices (aqu i y j) para todos los
valores posibles de los mismos (es decir, desde 1 hasta la dimension del espacio n). El convenio de
suma de Einstein es un metodo muy extendido para simplificar la escritura de este tipo de formulas,
consiste en asumir que:
cualquier monomio donde aparezca un ndice repetido representa la suma del monomio respecto al ndice repetido, para todos los valores posibles del ndice.
Aplicando el convenio de suma de Einstein el desarrollo de un vector en componentes (Ec.
(1.15)) se escribe como
x = xi ei
(1.49)
y el producto escalar x y (Ec. (1.46)) puede escribirse sencillamente como
x y = gij xi y j

(1.50)

donde los sumatorios respecto de i y j se sobreentienden.


En la anterior expresion los ndices i y j se denominan ndices mudos ya que el resultado no
depende de los smbolos empleados para estos ndices
gij xi y j = gpq xp y q = g x y = g11 x1 y 1 + g12 x1 y 2 + + g21 x2 y 1 + . . .

(1.51)

Por el contrario, se denominan ndices libres a aquellos respecto de los que no se realiza la suma.
En los dos ejemplos anteriores todos los ndices eran mudos. En la expresion
Aij xj = y i

(1.52)

no hay ning
un monomio en el que el ndice i este repetido, esto nos indica que no se realiza la suma
respecto del ndice i, y por tanto el resultado de esta operacion depende del valor que asignemos
a este ndice. De hecho, Aij xj representa la componente i del vector y, resultante de aplicar la
aplicacion lineal A (con matriz Aij ) sobre el vector x (con componentes xj ). El uso de subndices y
superndices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a cambios
de base que existen (covariante y contravariante), tal y como veremos al final de este captulo.
A partir de este momento supondremos que se aplica el convenio de suma de Einstein para
cualquier expresion en la que aparezca un monomio con ndices repetidos, a menos que se diga
explcitamente lo contrario.

1.2.4.

Topologa m
etrica

La operacion distancia induce en el espacio vectorial una topologa, dada por la topologa
metrica. Es decir, una vez definida la operacion distancia d sobre el espacio vectorial, podemos
definir el conjunto de bolas abiertas (con radio r) en torno a cualquier punto x de , como el
conjunto de puntos y tales que d(x, y) < r. Existen muchos ejemplos de normas y de distancias
diferentes, cada uno de estos ejemplos genera una topologa diferente en el espacio. El ejemplo mas
habitual es el de la metrica eucldea, en el que definimos como distancia entre x e y a la longitud
de la lnea recta que une estos puntos.

1.3. ESPACIOS EUCLIDEOS Y NO EUCLIDEOS

1.3.

11

Espacios Eucldeos y no Eucldeos

En general se llama metrica Riemanniana a cualquier metrica definida a traves de la norma


inducida por un producto escalar dado por un tensor metrico gij que cumpla las dos propiedades
siguientes:
simetra: gij = gji
invertibilidad: det gij 6= 0
Los espacios dotados de una metrica Riemanniana se llaman espacios de Riemann o Riemannianos.
Un caso particular de estos espacios son los espacios Eucldeos, definidos por la metrica Eucldea
habitual. En un espacio Eucldeo la distancia entre los puntos x e y esta dada por la longitud de la
lnea recta que une estos puntos, cuyo valor puede calcularse por medio del teorema de Pitagoras
q
(1.53)
d(x, y) = (y 1 x1 )2 + (y 2 x2 )2 + + (y n xn )2
o lo que es lo mismo, el elemento diferencial de longitud (ds) esta dado por
2
2
(ds)2 = dx1 + dx2 + + (dxn )2

(1.54)

donde xi , y i son las proyecciones de x e y sobre n direcciones mutuamente perpendiculares.


El producto escalar que induce esta metrica es el producto escalar habitual
x y = x1 y 1 + x2 y 2 + + xn y n

(1.55)

que corresponde al caso en que el tensor metrico es la identidad gij = ij (i, j, = 1, . . . , n), donde
se define la delta de Kronecker como

1 si i = j
ij
i
ij = = j =
(1.56)
0 si i 6= j
En general se define como espacio Eucldeo a cualquier espacio Riemanniano en el que existe
al menos una base tal que el tensor metrico en esa base esta dado por la delta de Kronecker. Los
espacios Riemannianos en los que no existe ninguna base en la que gij sea la identidad se dicen no
Eucldeos. En general, dependiendo de la base que tomemos el tensor metrico puede dejar de ser la
identidad incluso si el espacio es Eucldeo (esto es lo que sucede si tomamos como base un conjunto
de vectores que no sean mutuamente ortogonales).

1.3.1.

Bases ortonormales

En los espacios Eucldeos se definen las bases ortonormales como aquellas en las que el tensor
metrico es la identidad. Como puede verse, la propiedad que caracteriza a las bases ortonormales
es que todos los vectores de la base tienen longitud unidad (est
an normalizados) y son mutuamente
perpendiculares
ei ej = ij ; i, j = 1, . . . , n
(1.57)
Multiplicando escalarmente el desarrollo en componentes de un vector cualquiera (Ec. (1.15))
por ej y recordando las relaciones de ortogonalidad Ec. (1.57), encontramos que la componente xj
del vector x respecto de una base ortonormal esta dada por
xj = (ej , x) ;

j = 1, . . . , n

(1.58)

CAPITULO 1. ESPACIOS VECTORIALES

12

por tanto xj = kxk cos (siendo el angulo formado por x y ej ), es decir, xj es la proyeccion
ortogonal de x sobre la direccion definida por ej . En el caso de una base ortornormal las componentes de un vector estan, por tanto, dadas por las correspondientes proyecciones ortogonales del
vector sobre cada uno de los elementos de la base.
M
etodo de ortonormalizaci
on de Gram-Schmidt
Dada una base cualquiera de un espacio Eucldeo, el metodo de ortonormalizacion de GramSchmidt es un procedimiento muy sencillo que permite construir una base ortonormal a partir de la
base de partida. Supongamos que tenemos una base cualquiera dada por los vectores {t1 , t2 , . . . , tn },
siguiendo el metodo de ortonormalizacion de Gram-Schmidt definimos:
t1
,
kt1 k
t
e2 = 2 ,
kt2 k
t
e3 = 3 ,
kt3 k

e1 =
t2 = t2 (e1 , t2 ) e1 ,
t3 = t3 (e1 , t3 ) e1 (e2 , t3 ) e2 ,
...

...
tn = tn

...
n1
X

...

(ei , tn ) ei ,

i=1

en =

tn
ktn k

(1.59)

De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno
de los tj su proyeccion sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j 1) y
posteriormente normalizando. Dejamos para los ejercicios la demostraci
on de que este procedimiento
genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales,
tambien son linealmente independientes, y como son combinacion lineal de los ti de partida y el
cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la
base de partida.

1.3.2.

Espacios no Eucldeos: espacio dual y base dual

Seg
un hemos visto previamente, siempre es posible escribir un vector como combinacion lineal
de los vectores de una base cualquiera, independientemente de si el espacio es Eucldeo o no. Si el
espacio es Eucldeo y se emplea una base ortonormal las componentes de un vector estan dadas
por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la
base. En el caso general de un espacio vectorial no necesariamente Eucldeo como se definen las
componentes de un vector? Para responder esta pregunta es necesario introducir los conceptos de
espacio dual y base dual.
Dado el espacio vectorial
sobre el cuerpo de los reales, el conjunto de aplicaciones lineales

(a ) definidas sobre con imagen en

a : x a (x)

(1.60)

tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual . En espacios de
dimension finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial
de partida. En este caso se deduce el teorema de Riesz-Frechet, seg
un el cual

1.3. ESPACIOS EUCLIDEOS Y NO EUCLIDEOS


dada la aplicaci
on lineal a
producto escalar a x
a

13

E, existe un unico a E tal que a(x) es sencillamente el


E, !a E / a(x) = (a, x) = a x

(1.61)

El teorema de Riesz-Frechet permite identificar, por medio de un isomorfismo, cada elemento


de un espacio vectorial con un elemento del espacio dual, de la manera que acabamos de indicar
(a (x) = (a, x)). Por su propia definicion esta claro que el isomorfismo que asocia la aplicacion
lineal a de con el vector a de
(y viceversa) depende del producto escalar que estemos
considerando en , de modo que distintos productos escalares nos llevaran a asociar elementos
distintos.
Una vez definido el espacio dual podemos considerar el espacio de las aplicaciones lineales
definidas sobre , es decir, el dual del dual de . En este caso se puede comprobar que el dual del
dual es isomorfo al espacio de partida , y que el isomorfismo que relaciona cada elemento de
con uno de
es independiente de cu
al sea el producto escalar que estemos considerando en ,
motivo por el cual este isomorfismo se denomina isomorfismo can
onico. Como resultado tenemos
que el espacio coincide con el espacio de partida , independientemente del producto escalar
considerado.
Dado un vector x de y una base cualquiera {ei }ni=1 , la aplicacion que genera la componente
i
x de x respecto de esta base es una aplicacion lineal (que llamaremos ei )

ei (x) = xi

(1.62)

Como ei es una aplicacion lineal, ei pertenece al espacio dual

E.

Como sabemos que la aplicacion que define cada componente i de un vector respecto a una
base arbitraria es una aplicacion lineal?
A primera vista esta afirmacion podra parecer arbitraria, sin embargo es totalmente natural.
La aplicacion que genera las componentes de un vector respecto de una base cualquiera debe ser
una aplicacion continua y diferenciable. Esto es necesario si queremos que las componentes de
cualquier vector varen de forma continua y diferenciable al variar el vector de forma continua y
diferenciable. Tambien parece l
ogico exigir que el vector nulo tenga todas sus componentes nulas,
independientemente de la base considerada. Por otra parte, tambien exigimos que las operaciones
de suma de vectores y multiplicaci
on por escalares puedan calcularse componente a componente en
cualquier base. El resultado de estas condiciones es que la aplicacion que produce la componente
del vector x respecto del elemento ei de cualquier base tiene que ser necesariamente una aplicacion
lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Frechet, para cada aplicacion
tal que xi = ei (x) esta dado sencillamente por el
lineal ei existe un u
nico vector ei
i
i
producto escalar x = e x.
El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base
cualquiera {ei }ni=1 son linealmente independientes y forman una base del espacio dual, llamada
base dual. Claramente la base dual cumple

ei (ej ) = (ei , ej ) = ji ,

i, j = 1, . . . , n

(1.63)

independientemente de si la metrica de este espacio es Eucldea o no, e independientemente de si


la base {ei }ni=1 es ortogonal o no. Dado que el espacio dual es isomorfo al espacio de partida, la
base {ei }ni=1 del espacio dual tambien es base del espacio de partida.

CAPITULO 1. ESPACIOS VECTORIALES

14

(no necesariamente Eucldeo), dada una base


Como consecuencia, en un espacio vectorial
cualquiera ({ei }ni=1 ) existe otra base, llamada base dual ({ei }ni=1 ), tal que ei ej = ji . Proyectando
entonces el desarrollo en componentes de x (Ec. (1.15)) sobre la direccion ej de la base dual y
aplicando las relaciones Ec. (1.63), encontramos que la componente xi de x respecto de {ei }ni=1
esta dada por la proyeccion ortogonal de x sobre el vector ei de la base dual. En general la base dual
de una base dada cualquiera sera otra base distinta. En el caso particular de un espacio vectorial
Eucldeo, cuando se usa una base ortonormal se da la circunstancia excepcional de que la base dual
coincide con la base de partida. Normalmente esto no se cumplira, en el caso general la base dual
a una base dada sera diferente de la base dada. M
as adelante veremos como calcular cada una de
estas bases cuando se conoce la otra.
Dejamos para las ejercicios la demostraci
on de las siguientes propiedades importantes: la base
i
n
dual siempre existe y es u
nica; si {e }i=1 es la base dual de {ei }ni=1 , entonces {ei }ni=1 es la base
i
n
dual de {e }i=1 (es decir, el dual del dual nos devuelve a la base de partida).
Normalmente emplearemos subndices para numerar los vectores de la base de partida, y superndices para numerar los vectores de la base dual. Como ya se ha mencionado, el uso de suby super-ndices no es arbitrario, sino que corresponde a los comportamientos co- y contra-variante
de estos objetos al aplicar un cambio de base, tal y como veremos a continuacion.
Tensor m
etrico: relaci
on entre una base y su dual
Aplicando que el espacio dual es isomorfo al espacio de partida hemos identificado los vectores
de la base dual con vectores del espacio de partida, en el sentido del teorema de Riesz-Frechet (Ec
(1.61)). Dado que son vectores del mismo espacio, entonces podemos escribir los vectores de la base
dual como combinacion lineal de los vectores de la base, escribimos esta combinacion lineal como
ei = g ij ej

(1.64)

Nos queda por determinar cu


ales son las componentes de este objeto g ij . Para ello basta con
sustituir en la propiedad que define a la base dual (Ec. (1.63)), de donde deducimos
g ik gkj = ji

(1.65)

por tanto la matriz g ij es sencillamente la inversa del tensor metrico gij (recordar que en espacios
Riemannianos el tensor metrico siempre es invertible det gij 6= 0). Por tanto, la inversa del tensor
metrico aplicada sobre la base de partida nos genera la base dual. Esta relacion nos indica de forma
trivial que en el caso de un espacio Eucldeo, la base dual de una base ortonormal coincide con ella
misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.64)) en ei ej es inmediato demostrar
que
ei ej = g ij , i, j = 1, . . . , n
(1.66)
por tanto la inversa del tensor metrico nos proporciona la tabla de productos escalares de los
vectores de la base dual. En otras palabras, el objeto g ij es el tensor metrico de la base dual, o
tensor metrico dual.
Por u
ltimo, dado que son vectores del mismo espacio tambien podemos escribir los vectores
de la base de partida como combinacion lineal de la base dual. En este sentido dejamos para los
ejercicios demostrar que el tensor metrico aplicado sobre la base dual nos genera la base de partida
ei = gij ej

(1.67)

15

1.4. CAMBIOS DE BASE


Matriz correspondiente a una aplicaci
on lineal

Una vez hemos visto como se calculan las componentes de un vector en el caso general (respecto
de una base cualquiera en un espacio no necesariamente Eucldeo)

x = ei , x ei = xi ei

(1.68)

veamos ahora como se calculan las componentes de una aplicacion lineal A, que transforma vectores
de en vectores de :

A : x A(x) = y

(1.69)

Escribiendo los vectores x e y en componentes encontramos



A xj ej = y k ek

(1.70)

multiplicando escalarmente por ei por la izquierda y recordando que la aplicacion A es lineal


encontramos

ei A(ej ) xj = y i
(1.71)
donde identificamos ei A(ej ) como la componente i del vector que resulta de aplicar A sobre ej . Si
definimos esto como la componente Aij de la aplicacion A respecto de la base {ei }ni=1 , encontramos
que la aplicacion de A sobre x puede ponerse en componentes como
Aij xj = y i

(1.72)

es decir, como el producto de la matriz Aij por el vector columna xj . Por tanto, dada una aplicacion
lineal A y una base cualquiera {ei }ni=1 (no necesariamente ortonormal), la matriz Aij correspondiente
a esta aplicacion esta dada por

(1.73)
Aij ei , Aej

donde el super-ndice i recorre las filas y el sub-ndice j las columnas de la matriz Aij . En el caso
en que el espacio
sea Eucldeo y la base {ei }ni=1 sea ortonormal (y solo en ese caso) tendremos
i
que e = ei , en un caso general ei estara dado por el correspondiente vector de la base dual.

1.4.

Cambios de base

El metodo de ortonormalizacion de Gram-Schmidt nos proporciona el primer ejemplo de cambio


de base. En general, cuando se aplica un cambio de base sobre en espacio vectorial esta claro que los
vectores y las aplicaciones lineales definidas sobre estos vectores no cambian, es decir, permanecen
invariantes bajo el cambio de base. Por el contrario, las componentes de estos vectores y aplicaciones
lineales respecto a una base concreta s cambian al cambiar los vectores de la base. Precisamente, la
ley de transformacion que siguen las componentes de un vector se deduce al imponer que el vector
es el mismo independientemente de cu
al sea la base a la que esten referidas sus componentes
i
x = xi ei = x
i e

(1.74)

CAPITULO 1. ESPACIOS VECTORIALES

16

1.4.1.

Definici
on de cambio de base

Dado un espacio vectorial


y dos bases, la base antigua {e1 , . . . , en } y la base nueva
n }, se define como cambio de base a la aplicacion invertible C tal que al aplicarla sobre
{
e1 , . . . , e
la base antigua genera la base nueva y viceversa.
C : {e1 , . . . , en }
C

n }
: {
e1 , . . . , e

n }
{
e1 , . . . , e

{e1 , . . . , en }

(1.75)

Para ver de que tipo de aplicacion estamos hablando recordamos que cada uno de los vectores de
la base nueva pertenecen a , por tanto pueden ponerse como combinacion lineal de los vectores
de la base antigua. Escribimos esta relaci
on en la forma siguiente

i = Cij ej ,
e

i = 1, . . . , n

(1.76)

(donde se aplica el convenio de suma de Einstein para el ndice mudo j). Esto nos indica que la
aplicacion cambio de base es una aplicacion lineal, descrita por una matriz con componentes Cij ,
dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Es decir, la matriz
del cambio de base esta formada por las componentes de los vectores de la base nueva respecto a
la base antigua, escritos como vectores columna

2 . . . e
n
1 e
C= e
(1.77)

Para que la base nueva sea una base valida es necesario que sus vectores sean linealmente
independientes, lo cual queda garantizado si el determinante de la matriz del cambio de base
es distinto de cero (en caso contrario el cambio de base no es valido). Suponiendo entonces que
det C 6= 0 tenemos que la matriz del cambio C es invertible. Para simplificar las expresiones
definimos la matriz D como la inversa de C
Dki Cjk = Cki Djk = ji

D C 1 ,

(1.78)

Aplicando el cambio inverso D sobre la relaci


on Ec. (1.76) encontramos directamente
j ,
ei = Dij e

i = 1, . . . , n

(1.79)

que nos proporciona la expresi


on de los vectores de la base antigua como combinacion lineal de la
base nueva.
Ley de transformaci
on de la base dual
Por medio del cambio de base C (Ec. 1.75) pasamos a la nueva base {
ei }ni=1 , cuya base dual
{
ei }ni=1 cumple por definicion
i e
j = ji
e
(1.80)
de donde se deduce directamente que la base dual se transforma con la matriz inversa a la matriz
del cambio de base
i = Dji ej
e
(1.81)
i como combinacion lineal de la base dual antigua, sustituir en Ec.
para verlo basta con escribir e
(1.80) y aplicar la propiedades de linealidad del producto escalar (los detalles se dejan para los
ejercicios). A partir de esta relaci
on (Ec. (1.81)) es trivial verificar
j
ei = Cji e

(1.82)

que nos proporciona los vectores de la base dual antigua como combinacion lineal de los vectores
de la base dual nueva.

17

1.4. CAMBIOS DE BASE


Comportamiento covariante y contravariante

Seg
un hemos visto al aplicar un cambio de base los vectores de la base se transforman con la
matriz del cambio de base (C) y los vectores de la base dual se transforman con la matriz inversa
del cambio de base (D). Estos dos tipos de comportamiento se denominan respectivamente como
covariante y contravariante
vectores de la base

ei :

comportamiento covariante

i = Cij ej
e

vectores de la base dual

ei :

comportamiento contravariante

i = Dji ej
e

En general emplearemos superndices para denotar objetos con comportamiento contravariante y


subndices para los objetos con comportamiento covariante

1.4.2.

Cambios de base sobre vectores

Un vector cualquiera puede expresarse indistintamente en terminos de cualquier base (Ec.


(1.74)) Que relacion existe entre las componentes de x en ambas bases? Sustituyendo la expresion
de los vectores de la base antigua en terminos de la nueva (Ec. (1.79)) en Ec. (1.74), e identificando
componente a componente, deducimos
x
i = Dji xj
(1.83)
Por tanto las componentes de un vector respecto de una base cualquiera tienen comportamiento
contravariante. A partir de esta relaci
on es inmediato demostrar la ralacion inversa xi = Cji x
j , lo
cual se deja para los ejercicios.
Por otra parte, dado que la base dual tambien es una base valida del espacio vectorial, podemos
expresar cualquier vector del espacio por medio de sus componentes respecto a la base dual (antigua
o nueva)
i
(1.84)
x = xi ei = x
i e
Por medio de la ley de transformacion de los vectores de la base dual (Ecs. (1.81) y (1.82)) es muy
facil comprobar que las componentes de x respecto a la base dual se transforman seg
un
x
i = Cij xj ,

xi = Dij x
j

(1.85)

Las componentes de un vector respecto de una base cualquiera tienen compontamiento contravariante y se denominan componentes contravariantes, mientras que las componentes respecto a la
base dual de una base dada tienen comportamiento covariante, y se denominan componentes covariantes. En general las componentes co- y contra-variantes son distintas. En el caso particular de
un espacio Eucldeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes
de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distincion entre
ellas. En el contexto del calculo tensorial tendremos siempre en mente el caso general de un espacio
vectorial no necesariamente Eucldeo, por tanto es fundamental no confundir las componentes de
uno y otro tipo.
La relacion existente entre los vectores de la base de partida y la base dual y viceversa (Ecs.
(1.64) y (1.67)) nos permiten calcular las componentes co-variantes de un vector a partir de sus
componentes contravariantes relativas a cualquier base (y viceversa). El resultado es
xi = gij xj ,

xi = g ij xj

(1.86)

CAPITULO 1. ESPACIOS VECTORIALES

18

(dejamos la demostracion para los ejercicios) que ilustra la conocida propiedad de subida y bajada
de ndices por medio del tensor metrico y su inversa, que emplearemos con mucha frecuencia a lo
largo del curso.
Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguiente: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto
escalar x y puede calcularse indistintamente seg
un cualquiera de las expresiones siguientes
x y = gij xi y j = g ij xi yj = xi yi = xi y i

(1.87)

Observese que las dos u


ltimas expresiones son an
alogas a la que encontraramos al usar una base
ortonormal en el caso de una espacio vectorial Eucldeo, sin embargo x y = xi yi = xi y i es correcto
independientemente de cual sea la base y de si el espacio es o no Eucldeo.

1.4.3.

Cambios de base sobre aplicaciones lineales

Analogamente a como hemos hecho con el caso de los vectores, imponiendo que las aplicaciones
lineales permanecen invariantes al aplicar un cambio de base podemos deducir como se transforman
las componentes de estas aplicaciones lineales respecto de una base cualquiera bajo un cambio de
base. Si la imagen de un vector x al aplicar la aplicacion lineal A es Ax = y, la expresion en
componentes de esta igualdad debe cumplirse independientemente de cu
al sea la base empleada
Aij xj = y i ,

Aij x
j = yi

(1.88)

donde Aij , xj e y i son las componentes de A, x e y respecto a la base antigua ei y Aij , x


j e yi son las
i , definida por medio del cambio Ec. (1.76). Sustituyendo la
componentes respecto a la base nueva e
ley de transformacion de las componentes de un vector (Ec. (1.83)) es inmediato deducir la relacion
que todos conocemos
Aij = Dki Akl Cjl ,
Aij = Cki Akl Djl
(1.89)
Tambien podemos llegar al mismo resultado sustituyendo la ley de transformacion de los vectores
de la base (de partida y dual) en la expresi
on an
aloga a Ec. (1.73) pero en terminos de la base
nueva, es decir

i , A
(1.90)
Aij e
ej
Por tanto, vemos que la matriz correspondiente a una aplicacion lineal es un objeto 1-covariante
1-contravariante, ya que tiene un ndice de cada tipo.

1.4.4.

Ley de transformaci
on del tensor m
etrico

Dada una base cualquiera y su dual se define el tensor metrico gij y su inverso de acuerdo a
las relaciones Ec. (1.47) y Ec. (1.66) respectivamente. Por tanto, en terminos de la base nueva y su
dual tenemos las relaciones
i e
j ,
i e
j
gij = e
gij = e
(1.91)
i y e
i deducimos que el tensor metrico en terminos de
Aplicando las leyes de transformacion de e
la nueva base esta dado por
gij = Cik Cjl gkl ,

gij = Dik Djl gkl

(1.92)

mientras que para el tensor metrico de la base dual encontramos


gij = Dki Dlj g kl ,

g ij = Cki Clj gkl

(1.93)

19

1.4. CAMBIOS DE BASE

Este resultado indica que gij es un objeto 2-covariante, ya que se transforma aplicando 2 veces
la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de
la matriz del cambio.
Expresi
on matricial de operaciones tensoriales
Similarmente a como sucede para la ley de transformacion de vectores (p. ej., para las componentes contravariantes [
x] = [D][x]), la ley de transformacion que hemos encontrado para aplicaciones lii
k
i
= [D][A][C]).

neales (Aj = Dk Al Cjl ) puede escribirse directamente como un producto matricial ([A]
Sin embargo el producto Cik Cjl gkl no coincide con el producto matricial [C][C][g], ni tampoco con
[C][g][C]. Recordando que en Cik el ndice k recorre las filas e i las columnas, si asignamos el
primer ndice de gkl a las filas y el segundo a las columnas vemos que la expresion matricial de
gij = Cik Cjl gkl estara dada por [
g ] = [C]T [g][C], donde [C]T es la traspuesta de la matriz [C].
Por tanto la ley de transformacion de gij es distinta de la ley de transformacion que cumplen las
matrices, a pesar de que ambos son objetos tensoriales de orden 2.
Como veremos en este curso el algebra tensorial generaliza al algebra matricial, de forma que
hay expresiones tensoriales cuya transcripcion en terminos de matrices es difcil, o incluso imposible.
Por este motivo al trabajar con tensores lo normal es escribir todos los productos en componentes, y
no se insiste en la transcripcion en terminos de matrices de estos productos, ni siquiera en aquellos
casos en los que la transcripcion matricial es posible.
Ley de transformaci
on de productos escalares
Por u
ltimo es muy facil comprobar que el producto escalar de dos vectores es, efectivamente, un
escalar, es decir, un invariante bajo cambios de base. Independientemente de la base que estemos
empleando el producto escalar x y se define como gij xi y j . Sustituyendo la ley de transformacion
de gij , xi e y j es muy facil comprobar que el comportamiento 2-covariante de gij cancela los
comportamientos 1-contravariante de xi e y j , de forma que el resultado final es invariante bajo
cambios de base, es decir, el producto escalar de dos vectores es un escalar.
Tambien es un escalar la traza de las aplicaciones lineales, definida como la suma de los elementos
de la diagonal, trA Aii , en cualquier base. Aplicando la ley de transformacion de las aplicaciones
lineales (Ec. (1.89)) se comprueba que, al tomar la traza, el comportamiento contravariante del
superndice se cancela con el comportamiento covariante del subndice, de forma que el resultado
final es el mismo independientemente de que base estemos empleando.
Transformaciones ortogonales
A lo largo de este curso veremos con mucha frecuencia como se comportan las componentes
de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base
totalmente generales, descritos por la matriz del cambio C (Ec. (1.77)) y su correspondiente inversa D C 1 (Ec. (1.78)). En un cambio de base general la matriz inversa D no coincide con la
traspuesta C 1 6= C T , la excepcion a esta regla esta dada por las conocidas transformaciones ortogonales en espacios Eucldeos. Para evitar confusiones en este sentido, vamos a ver a continuacion
que tipo de transformaciones cumplen la relaci
on excepcional C 1 = C T .
Se denomina transformacion unitaria (U ) a aquella que preserva los productos escalares para
todo par de vectores x e y pertenecientes a un espacio vectorial

x, y

E,

(U x, U y) = (x, y)

(1.94)

CAPITULO 1. ESPACIOS VECTORIALES

20

Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transformaciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales.
Aplicando la relacion que define las transformaciones unitarias (Ec. (1.94)) puede demostrarse
facilmente que en un espacio vectorial Eucldeo la matriz de una transformacion unitaria respecto
de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple:
T

U 1 = U ,

en componentes

U 1

i

= Ui

(1.95)

donde U se denomina matriz adjunta de U y esta dada por la traspuesta del complejo conjugado
esta definido sobre el cuerpo de los reales, entonces la anterior relacion se
de U . Si el espacio
simplifica a
i
U 1 = U T ,
en componentes
U 1 j = Uij
(1.96)

Este es el u
nico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la
relacion Ec. (1.96) se denominan matrices ortogonales.
Por su propia definicion, esta claro que en un espacio vectorial Eucldeo las aplicaciones unitarias
transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de
transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C
coincide con C T solo si la base nueva es el resultado de aplicar una transformacion ortogonal sobre
la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes
operaciones:
rotaciones (rotacion de los vectores de la base un cierto angulo respecto a un eje dado que
pase por el origen),
inversiones (reflexion de los vectores de la base seg
un un determinado plano que pase por el
origen),
permutaciones (intercambio de dos vectores de la base antigua),
cualquier combinacion de las anteriores.
Si el cambio de base C es ortogonal entonces det(C) = 1. Los cambios de base con det(C) = +1
corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base,
mientras que los cambios con det(C) = 1 corresponden a inversiones o a permutaciones con
paridad negativa.
En la practica los cambios de base ortogonales se emplean con muchsima frecuencia, pero no
son los u
nicos posibles. Por ejemplo, el cambio de la base canonica de 3 , {i, j, k}, a la base dada
por {2i, 2j, 2k} (que sigue siendo una base ortogonal pero no ortonormal), no es un cambio de base
ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no
ortogonales.

1.4.5.

Resumen

En este apartado hemos visto las leyes de transformacion de los 3 tipos de tensores mas habituales: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2
(aplicaciones lineales y tensor metrico); y los 2 tipos de comportamiento posibles bajo cambios de
base: covariante y contravariante. Los resultados obtenidos son validos para un espacio vectorial
de dimension finita arbitraria n, dotado de una metrica de Riemann no necesariamente Eucldea.

21

1.5. PROBLEMAS
Tensores de orden 2
orden

tipo

ley de transformacion

escalares

invariantes

vector contravariante

x
i = Dji xj

vector covariante

x
i = Cij xj

aplicaciones lineales

Aij = Dki Cjl Akl

tensor metrico

gij = Cik Cjl gkl

tensor metrico dual

gij = Dki Dlj g kl

Cuadro 1.1: Comportamiento de tensores de orden 2 bajo cambios de base (


ei = Cij ej ,
D C 1 ).

La siguiente tabla resume los tipos de tensores que hemos visto hasta ahora y su comportamiento
bajo cambios de base:
En los captulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden
r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operaciones de calculo (derivacion e integracion) con campos tensoriales de orden arbitrario. Por tanto es
fundamental comprender bien todos los conceptos introducidos en este captulo.

1.5.

Problemas

1. Demostrar que para cualquier pareja de vectores x, y

E existe un unico z E tal que

x=y+z
2. Dado un vector cualquiera x

E, demostrar la relacion
0x = 0

3. Dado un vector cualquiera x

E, demostrar la relacion
(1) x = (x)

4. Demostrar que la envolvente lineal de cualquier conjunto de vectores {e1 , . . . , ep }


p n, siendo n la dimension de ) es un espacio vectorial.

E (con

5. Demostrar que si e1 y e2 son linealmente independientes, entonces la interseccion de las


envolventes lineales de estos vectores se reduce a 0.

6. Dado un vector cualquiera x y una base {e1 , . . . , en } de , demostrar que la descomposicion de x como combinacion lineal de la base (Ec. (1.15)) es u
nica.

E E

7. Dados los subespacios vectoriales independientes 1 y 2 , demostrar que la descomposicion


de un vector x 1 2 como x = x1 + x2 , donde x1 1 y x2 2 , es u
nica.

CAPITULO 1. ESPACIOS VECTORIALES

22

8. Dados los subespacios vectoriales independientes


que la dimension del espacio suma directa 1

E1 y E2 con dimensiones n1 y n2, demostrar


E2 es n1 + n2.

9. Demostrar que Eq. (1.35) implica que


x1 , x2 , x3

E,

(x1 + x2 , x3 ) = (x1 , x3 ) + (x2 , x3 )

10. Dado el espacio vectorial definido sobre el cuerpo de los n


umeros complejos
que x el producto escalar x x es real (para cualquier producto escalar).

C, demostrar

11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x y = 0
y 6= 0, entonces x = 0.
12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente
independientes.
13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser
ortogonales.
14. Demostrar que el metodo de ortonormalizacion de Gram-Schmidt genera una base ortonormal.
15. Demostrar que la base dual siempre existe y es u
nica.
16. Demostrar que la base dual del dual de una base cualquiera esta dado por la base de partida.
17. Demostrar las ecuaciones Ecs. (1.64, 1.65 y 1.67) que relacionan la base dual con la base de
partida.
18. Demostrar que la inversa del tensor metrico esta dada por Ec. (1.66).
19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec.
(1.81)).
20. Deducir la ley de transformacion que cumplen las componentes de un vector bajo el cambio
de base C:
x
i = Dji xj ,
xi = Cji x
j
donde D C 1 .
21. Deducir la ley de transformacion que cumplen las componentes de un vector respecto a la
base dual bajo el cambio de base C, dada por Ec. (1.85).
22. Deducir la relacion entre las componentes co- y contra-variantes de un vector, dada por Ec.
(1.86).
23. Demostrar la relacion Ec. (1.87).
24. Demostrar la relacion Ec. (1.89).
25. Demostrar las relaciones Ec. (1.92) y Ec. (1.93).
26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto invariante bajo cambios de base).

1.6. BIBLIOGRAFIA

23

27. Demostrar que la traza de cualquier aplicacion lineal es un escalar.


28. Demostrar que la matriz correspondiente a una transformacion unitaria, respecto de una base
T
ortonormal, cumple U 1 = U .
29. Demostrar que la matriz correspondiente a una transformacion ortogonal, respecto de una
base ortonormal, cumple U 1 = U T .
30. Dado el cambio de base no ortogonal (pero extremadamente sencillo) que pasa de la base
{i, j, k} de 3 (con metrica Eucldea) a {2i, 2j, 2k}, calcule la matriz del cambio de base y
su inversa, calcule como cambia la base dual y como cambian las componentes de un vector
contravariante y uno covariante.

31. Repita el ejercicio anterior considerando un tensor metrico arbitrario. Calcule tambien como
cambian las componentes del tensor metrico y del tensor metrico dual.

1.6.

Bibliografa

Para los apuntes de esta captulo se ha consultado el texto de Burgos [3], junto con [8] y los
textos clasicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].
Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro
de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].

24

CAPITULO 1. ESPACIOS VECTORIALES

Vous aimerez peut-être aussi