Académique Documents
Professionnel Documents
Culture Documents
Espacios vectoriales
Los espacios vectoriales son el punto de partida natural para el estudio de tensores. A continuacion revisaremos algunos de los conceptos m
as importantes relativos a vectores, cuya generalizacion
al caso de tensores sera el objeto de esta parte del curso. Concretamente revisaremos los conceptos
de vector, espacio vectorial, normas, distancias, productos escalares, bases, aplicaciones lineales y
veremos como cambian las componentes de un vector, o de una aplicacion lineal, al realizar un
cambio de base en el espacio, esto nos servira de punto de partida para definir el concepto de tensor
en el proximo captulo.
1.1.
En el lenguaje coloquial se denomina con cierta frecuencia vector a cualquier lista unidimensional de datos numericos dispuestos entre parentesis y separados por comas. Desde el punto de vista
matematico esto no siempre es correcto. Por ejemplo, si consideramos el conjunto de datos dados
por el a
no en curso, la temperatura del sitio donde nos encontremos y la cotizacion de cualquier
moneda frente al euro, es evidente que dicho conjunto de datos difcilmente podra considerarse
como un vector. Sin embargo, la posicion de un m
ovil en el espacio o su velocidad s estan dados
por vectores.
Que es lo que distingue a un verdadero vector de un mero conjunto de datos?
Un vector es un elemento de un espacio vectorial, es decir, es un miembro de una estructura
de elementos sobre los que se han definido ciertas operaciones (suma de vectores y multiplicaci
on
por escalares) que tienen unas determinadas propiedades (conmutativa, asociativa, elemento neutro, elemento opuesto) las cuales dotan al conjunto de una determinada estructura. Concretamente
estas propiedades garantizan que podemos construir cualquiera de los elementos de este espacio
como combinacion lineal de unos pocos de ellos. Es decir, cualquier elemento del espacio vectorial
puede construirse como combinacion lineal de un conjunto de vectores linealmente independientes,
que forman una base del espacio vectorial en consideracion, y definimos la dimension del espacio
vectorial como el cardinal (el n
umero de elementos) de cualquiera de sus bases. Esto es muy importante, ya que nos permite trabajar con vectores por medio de sus componentes respecto a una base
cualquiera del espacio, y tambien nos permite describir cualquier aplicacion lineal definida sobre
el espacio vectorial por medio su matriz asociada, dada por la accion de la aplicacion lineal sobre
cualquier base del espacio. Lo que diferencia a un vector (o a una matriz) de una mera caja de
n
umeros es que los vectores son objetos geometricos pertenecientes a un espacio vectorial, de tal
1
forma que sus componentes son las proyecciones de estos vectores sobre una determinada base del
espacio, y las matrices por su parte son las proyecciones de la actuacion de una determinada aplicacion lineal, aplicada sobre una base del espacio vectorial. Como consecuencia de esto, si aplicamos
un cambio de base en el espacio vectorial, las componentes de los vectores y de las aplicaciones
lineales definidas sobre estos vectores cambian siguiendo una ley de transformacion que esta determinada por el cambio de base aplicado, tal y como veremos en este captulo. Es muy importante
que estos conceptos queden claros, ya que son la base indispensable para comprender los tensores.
Normalmente los vectores que se emplean en fsica pertenecen a espacios vectoriales normados,
es decir, espacios vectoriales sobre los que se ha definido una operacion (norma) que permite medir la
longitud de los vectores. Se entiende que esta longitud esta medida en las unidades que tengan
los vectores del espacio en consideracion (p. ej. velocidad, aceleracion, fuerza, campo electrico, . . . ),
de forma que no tiene por que ser una longitud en el sentido coloquial del termino. La operacion
norma nos permite medir la distancia que separa dos vectores cualesquiera del espacio (dada por la
norma del vector diferencia), lo cual nos permite juzgar si dos vectores de este espacio son proximos
o no, y tambien nos permite juzgar si una sucesion de elementos de este espacio es convergente o
no (dependiendo de si la distancia entre dos elementos consecutivos de la sucesion tiende a cero).
La operacion distancia dota al conjunto de vectores que forma el espacio vectorial de una topologa
inducida por la metrica, convirtiendo el espacio vectorial en un objeto con significado geometrico,
apropiado, por ejemplo, para describir el espacio en el que nos movemos, u otros espacios con una
metrica diferente y por extension nos permite tambien imaginar espacios similares con un n
umero
de dimensiones diferente a las 3 a las que estamos habituados,
En el contexto de la fsica es habitual definir como magnitudes escalares a aquellas para cuya
especificacion completa basta con proporcionar su magnitud, como por ejemplo la temperatura, la
masa, la carga electrica o el tiempo en la mecanica Newtoniana. Por oposicion a las anteriores, se
definen como magnitudes vectoriales a aquellas para las que es preciso especificar, ademas de su
magnitud, una direccion y un sentido. De esta forma resulta muy natural describir como vectores
a la posicion, la velocidad, la aceleracion, o las fuerzas. Estas magnitudes fsicas, que nos resultan
tan conocidas y naturales, hacen que el concepto de vector resulte facil e intuitivo. Tambien resulta
intuitivo el significado de las operaciones basicas definidas sobre los vectores. Por ejemplo, si un
movil esta en el punto A y realiza un movimiento dado por el vector B, la posicion final del movil
esta dada por A + B, si sobre un m
ovil se aplican simult
aneamente las fuerzas f 1 y f 2 el movil se
ve sometido a una fuerza neta dada por la suma f 1 + f 2 , si estamos en el punto A y queremos ir
al punto B tendremos que desplazarnos seg
un el vector dado por la diferencia B A.
1.1.1.
Definici
on y propiedades
Un espacio vectorial , sobre el cuerpo de escalares , se define como una estructura dada por
un conjunto de elementos llamados vectores (x), sobre los que se han definido las operaciones de
suma de vectores y producto por escalares:
Suma de vectores: Para cualquier pareja de vectores x y y pertenecientes a
vector z perteneciente a dado por la suma x + y.
x, y
E,
! z = x + y
E existe un unico
(1.1)
E,
x+y =y+x
(1.2)
E,
(x + y) + z = x + (y + z)
(1.3)
E,
! x
/ x + (x) = 0
E, K,
! z = x
(1.5)
(1.6)
E, , K,
(x) = () x
(1.7)
E, , K,
( + ) x = x + x
(1.8)
E, K,
Elemento neutro:
x
E,
(x + y) = x + y
(1.9)
1x = x
(1.10)
Estas propiedades garantizan que la suma de vectores responde a la idea intuitiva de composicion
de movimientos, o de fuerzas, que a todos nos resulta familiar. Los dos casos de cuerpos de escalares
y el de los n
umeros complejos . En fsica es
mas frecuentes son el de los n
umeros reales
especialmente frecuente considerar espacios vectoriales definidos sobre el cuerpo de los n
umeros
reales, en este curso este sera el caso que consideraremos salvo que se diga lo contrario.
1.1.2.
Bases y dimensi
on
(1.11)
y en caso contrario se dice linealmente dependiente. Es obvio que la Ec. (1.11) siempre tiene la
solucion trivial 1 = 2 = = n = 0, si esta ecuaci
on tiene alguna otra solucion diferente de la
trivial lo que sucede es que, en ese caso, podemos despejar uno de estos vectores como combinacion
lineal de los restantes. Si la u
nica solucion de Ec. (1.11) es la solucion trivial, entonces resulta
imposible despejar ninguno de los vectores {e1 , . . . , en } como combinacion lineal de los restantes,
esto es lo que significa que el conjunto {e1 , . . . , en } sea linealmente independiente.
Cual es el n
umero maximo de vectores linealmente independientes que podemos tomar en
un espacio vectorial?
Consideremos el caso de un conjunto formado por un u
nico vector {e1 } (distinto de 0), es
evidente que este conjunto siempre es linealmente independiente. La envolvente lineal del conjunto
{e1 }, definida por los vectores x dados por
x = 1 e 1
(1.12)
nos genera la recta que pasa por el origen 0 y que tiene direccion dada por e1 . Para cualquier vector
x que pertenezca a esta recta el sistema {e1 , x} es linealmente dependiente, lo que implica que x es
sencillamente proporcional a e1 . Supongamos ahora un vector e2 que no pertenezca a la envolvente
lineal de e1 . En este caso el conjunto {e1 , e2 } es linealmente independiente, y la envolvente lineal
de este conjunto, definida por los vectores x dados por
x = 1 e 1 + 2 e 2
1 , 2
(1.13)
nos genera el plano que pasa por el origen y contiene a e1 y e2 . Para cualquier vector x contenido en
este plano el conjunto {e1 , e2 , x} es linealmente dependiente, lo que indica que x puede escribirse
como combinacion lineal de {e1 , e2 }. Si a
nadimos otro vector e3 que no pertenezca a este plano el
conjunto resultante vuelve a ser linealmente independiente, y su envolvente lineal nos da el espacio
tridimensional engendrado por los vectores {e1 , e2 , e3 }, de tal forma que cualquier vector de este
espacio puede construirse como combinacion lineal de {e1 , e2 , e3 }.
En principio podramos seguir a
nadiendo sucesivamente m
as vectores ei
linealmente independientes a todos los anteriores, pero si nuestro espacio vectorial es de dimension finita (n)
llega un momento que la envolvente lineal del conjunto {e1 , . . . , en }, dada por
x = 1 e 1 + 2 e 2 + + n e n
1 , 2 , . . . , n
(1.14)
x = x 1 e1 + x 2 e2 + + xn en
(1.15)
y se definen los n
umeros x1 , x2 , . . . , xn como las componentes (o coordenadas) del vector x respecto a la base {e1 , . . . , en }. Por otra parte, el cardinal del mayor conjunto de vectores linealmente
independientes que podamos tomar en el espacio vectorial
se define como la dimension del espacio vectorial. En la discusion anterior hemos asumido t
acitamente que el espacio vectorial
estaba definido sobre el cuerpo de los reales , para simplificar la exposicion. En un caso mas
general podemos repetir los mismos pasos haciendo que los n
umeros i tomen valores en el cuerpo
correspondiente, y el resultado final es totalmente an
alogo.
En este curso solo estudiaremos espacios vectoriales de dimension finita. En algunos casos consideraremos una dimension finita arbitraria (n) y en otros nos centraremos en el caso especialmente
relevante del espacio tridimensional. De todas formas conviene recordar que tambien existen espacios vectoriales de dimension infinita, de gran importancia en ciertas areas de las matematicas
(p. ej. en analisis funcional) y tambien extremadamente relevantes en fsica, por sus aplicaciones
en el estudio de ecuaciones diferenciales y en mecanica cu
antica. Como ejemplo de espacio vectorial de dimension infinita tenemos los espacios funcionales, es decir, espacios cuyos elementos son
funciones. Por ejemplo, es muy facil ver que el conjunto de polinomios de una variable (x)
p(x) = a0 + a1 x + a2 x2 + a3 x3 + + an xn
(1.16)
cumple todas las propiedades necesarias para ser un espacio vectorial. Tambien es muy facil ver
que las funciones xn y xm son linealmente independientes siempre que n 6= m, esto parece indicar
que podramos tomar como base de este espacio funcional al conjunto 1, x, x2 , x3 , . . . , xn , . . . .
Pero en ese caso cual es el valor m
aximo de n que debemos tomar para garantizar que cualquier
polinomio de x esta incluido en la envolvente lineal de la base? Claramente ning
un valor finito de
n es suficiente, por tanto la dimension de este espacio vectorial es infinita. Los espacios funcionales
tienen (normalmente) infinitas dimensiones, y esa circunstancia hace que en ellos aparezcan otros
problemas que no aparecen en los de dimension finita.
Volviendo a los espacios de dimension finita, una propiedad interesante de las envolventes lineales
de los sucesivos conjuntos de vectores que hemos ido considerando ({e1 }, {e1 , e2 }, {e1 , e2 , e3 }, . . . ,
{e1 , . . . , en }), es que todas estas envolventes lineales son, a su vez, espacios vectoriales, que ademas
estan contenidos en el espacio vectorial
y por tanto se denominan subespacios vectoriales. La
demostracion de que la envolvente lineal de cualquier conjunto de vectores es un espacio vectorial
se deja para los ejercicios. Otra propiedad importante cuya demostraci
on se deja para los ejercicios,
es que la descomposicion de cualquier vector x como combinacion lineal de la base (Ec. (1.15)) es
u
nica. Por u
ltimo, dada cualquier base {e1 , . . . , en } del espacio , se dice que se descompone en
suma directa () de los subespacios vectoriales engendrados por cada uno de los ei (con i = 1, . . . , n)
E=
n
M
envolvente lineal de ei
(1.17)
i=1
E E
donde la suma directa de dos subespacios vectoriales independientes 1 y 2 (es decir, cuya interseccion se reduzca al elemento nulo 0), se define sencillamente como el conjunto de vectores que
pueden definirse como combinacion lineal de vectores de 1 y 2 .
En general, dado un espacio vectorial con n dimensiones, se llama base can
onica a la formada
por los vectores
E E
e1 = {1, 0, 0, . . . , 0}
(1.18)
e2 = {0, 1, 0, . . . , 0}
(1.19)
(1.20)
en = {0, 0, 0, . . . , 1}
(1.21)
Esta sera la base que emplearemos constantemente. Uno de los temas centrales del estudio de
tensores es como cambian las componentes de diversos objetos definidos en un espacio vectorial
(vectores, aplicaciones lineales, tensor metrico, etc.) al realizar un cambio de base en el espacio, es
decir, al pasar de la base canonica a otra base distinta.
1.2.
M
etrica
1.2.1.
El siguiente ingrediente que necesitamos para dotar al espacio vectorial de significado geometrico es definir una operacion distancia. Para ello basta con disponer de una funcion, llamada norma
k k, que nos permita medir la longitud de cada vector x de . Una vez definida esta funcion, la
distancia entre cualquier par de vectores x, y (d(x, y)) puede definirse, p. ej., como la norma
del vector diferencia
(1.22)
x, y , d(x, y) ky xk
Para que la funcion distancia se corresponda con lo que intuitivamente se entiende por distancia
esta funcion debe cumplir ciertas propiedades, como por ejemplo que la distancia de x a y debe ser
igual a la de y a x, que debe ser siempre mayor o igual que cero, que debe cumplir la propiedad
triangular y que la distancia de x a 0 debe ser || veces la distancia de x a 0 (para cualquier
vector x y cualquier escalar , siendo || el valor absoluto de ). Como consecuencia se
define la operacion norma k k como cualquier funcion definida sobre el espacio vectorial
que
cumpla las siguientes propiedades
E,
kxk 0
(1.23)
(1.24)
E, K,
Desigualdad triangular
x, y
E,
kxk = || kxk
(1.25)
kx + yk kxk + kyk
(1.26)
Una vez definida una operacion norma, la distancia entre dos vectores cualesquiera del espacio
puede definirse de manera natural como se ha dicho anteriormente (Ec. (1.22)), aunque esta no es
la u
nica posibilidad. En general puede tomarse como operacion distancia a cualquier funcion que
cumpla las siguientes propiedades
La operacion distancia es definida positiva
x, y
E,
d(x, y) 0
(1.27)
Dos vectores separados por una distancia nula son el mismo vector
d(x, y) = 0 si y solo si x = y
Simetra
x, y
E,
d(x, y) = d(y, x)
(1.28)
(1.29)
1.2. METRICA
Desigualdad triangular
x, y, z
E,
(1.30)
En el caso particular de definir la distancia como la norma del vector diferencia (Ec. (1.22)),
que es la opcion mas habitual, las propiedades que cumple la operacion norma garantizan que la
operacion distancia d cumple las propiedades anteriores. Un espacio vectorial sobre el que se ha
definido una operacion norma se denomina espacio normado, los espacios vectoriales sobre los que
se ha definido una operacion distancia se denominan espacios metricos.
1.2.2.
Producto escalar
E
E E
(1.31)
Dado el espacio vectorial sobre el cuerpo , se define la operacion producto escalar ( , ) como
una funcion definida sobre con imagen en
x1 , x2
E,
(x1 , x2 )
(1.32)
E,
(x1 , x2 ) = (x2 , x1 )
(1.33)
umero complejo z.
donde z es el complejo conjugado del n
Si el cuerpo
E,
(1.35)
x1 , x2 , x3
E,
(1.36)
de donde se deduce
E, K,
(x1 , x2 ) = (x1 , x2 )
(1.37)
x1 , x2
E, K,
(x1 , x2 ) = (x1 , x2 )
(1.38)
de donde se deduce
En el caso en que
(1.39)
E,
(x, x) 0
(1.40)
El u
nico vector con producto escalar por s mismo nulo es el vector nulo
(x, x) = 0 si y solo si x = 0
(1.41)
(1.42)
de tal forma que en el caso de un espacio vectorial definido sobre el cuerpo de los reales el producto
escalar x ei (con kei k = 1) corresponde a la proyecci
on ortogonal de x sobre la direccion definida
por el vector unitario ei . Si
=
y la metrica de
es eucldea esta definicion de x y se
corresponde con la definicion clasica del angulo formado por estos dos vectores. Definimos tambien
que dos vectores son ortogonales si y solo si su producto escalar es nulo
x y si y solo si x y = 0
(1.43)
Las propiedades que cumple la operacion producto escalar permiten definir una operacion norma
de manera natural por medio de
kxk (x, x)1/2
(1.44)
A partir de las propiedades que cumple la operacion producto escalar es muy facil comprobar que
la anterior relacion define una norma.
La existencia de una funcion producto escalar implica que podemos definir una funcion norma
por medio de Ec. (1.44), sin embargo el recproco no es cierto. Es decir, dada una funcion norma
no esta garantizado que sea posible definir una operacion producto escalar compatible con esta
norma. Existen funciones norma que no provienen de (o que no son compatibles con) ning
un
producto escalar. No obstante los espacios vectoriales que suelen emplearse en fsica se caracterizan
precisamente por tener funciones norma definidas a partir de un producto escalar. Este tipo de
espacios vectoriales se denominan en general pre-Hilbert, y se denominan espacios de Hilbert cuando,
ademas de tener una norma inducida por el producto escalar, son completos (o de Banach). Donde
se entiende por espacio de Banach (o completo) aquel en el que para toda sucesion convergente de
vectores enteramente contenida en el espacio (es decir, para toda sucesion de Cauchy), el lmite al
que tiende la sucesion tambien esta contenido en el espacio. Para darse cuenta del significado de
esta propiedad es interesante considerar el ejemplo del espacio funcional dado por los polinomios de
una variable a los que hacamos referencia antes. Para ver que este espacio no es completo podemos
considerar, p. ej., el desarrollo en serie de Taylor de sin x hasta orden N centrado en x = 0, que
definimos como sN (x)
N
X
(1)n 2n+1
sN (x) =
x
(2n + 1)!
n=0
1.2. METRICA
1.2.3.
Tensor m
etrico
y = y 1 e1 + y 2 e 2 + + y n en
(1.45)
Aplicando las propiedades de linealidad del producto escalar, x y puede ponerse como
xy =
n
n X
X
gij xi y j
(1.46)
i=1 j=1
donde hemos definido el tensor metrico gij como la tabla de todos los productos escalares de los
vectores de la base
gij ei ej ,
i, j, = 1, . . . , n
(1.47)
Mas adelante veremos por que denominamos tensor a la matriz gij , lo que debe quedar claro
de momento es que gij contiene toda la informacion necesaria para calcular el producto escalar de
cualquier par de vectores del espacio en consideracion. Por otra parte, en el caso de un espacio
vectorial sobre los reales es evidente que el tensor metrico debe ser simetrico
gij = gji
(1.48)
10
Convenio de Suma de Einstein
Al manejar tensores aparecen con mucha frecuencia expresiones como Ec. (1.46), donde se
realiza la suma de una expresi
on dependiente de uno o m
as ndices (aqu i y j) para todos los
valores posibles de los mismos (es decir, desde 1 hasta la dimension del espacio n). El convenio de
suma de Einstein es un metodo muy extendido para simplificar la escritura de este tipo de formulas,
consiste en asumir que:
cualquier monomio donde aparezca un ndice repetido representa la suma del monomio respecto al ndice repetido, para todos los valores posibles del ndice.
Aplicando el convenio de suma de Einstein el desarrollo de un vector en componentes (Ec.
(1.15)) se escribe como
x = xi ei
(1.49)
y el producto escalar x y (Ec. (1.46)) puede escribirse sencillamente como
x y = gij xi y j
(1.50)
(1.51)
Por el contrario, se denominan ndices libres a aquellos respecto de los que no se realiza la suma.
En los dos ejemplos anteriores todos los ndices eran mudos. En la expresion
Aij xj = y i
(1.52)
no hay ning
un monomio en el que el ndice i este repetido, esto nos indica que no se realiza la suma
respecto del ndice i, y por tanto el resultado de esta operacion depende del valor que asignemos
a este ndice. De hecho, Aij xj representa la componente i del vector y, resultante de aplicar la
aplicacion lineal A (con matriz Aij ) sobre el vector x (con componentes xj ). El uso de subndices y
superndices no es arbitrario, responde a los dos tipos de comportamiento tensorial frente a cambios
de base que existen (covariante y contravariante), tal y como veremos al final de este captulo.
A partir de este momento supondremos que se aplica el convenio de suma de Einstein para
cualquier expresion en la que aparezca un monomio con ndices repetidos, a menos que se diga
explcitamente lo contrario.
1.2.4.
Topologa m
etrica
La operacion distancia induce en el espacio vectorial una topologa, dada por la topologa
metrica. Es decir, una vez definida la operacion distancia d sobre el espacio vectorial, podemos
definir el conjunto de bolas abiertas (con radio r) en torno a cualquier punto x de , como el
conjunto de puntos y tales que d(x, y) < r. Existen muchos ejemplos de normas y de distancias
diferentes, cada uno de estos ejemplos genera una topologa diferente en el espacio. El ejemplo mas
habitual es el de la metrica eucldea, en el que definimos como distancia entre x e y a la longitud
de la lnea recta que une estos puntos.
1.3.
11
(1.54)
(1.55)
que corresponde al caso en que el tensor metrico es la identidad gij = ij (i, j, = 1, . . . , n), donde
se define la delta de Kronecker como
1 si i = j
ij
i
ij = = j =
(1.56)
0 si i 6= j
En general se define como espacio Eucldeo a cualquier espacio Riemanniano en el que existe
al menos una base tal que el tensor metrico en esa base esta dado por la delta de Kronecker. Los
espacios Riemannianos en los que no existe ninguna base en la que gij sea la identidad se dicen no
Eucldeos. En general, dependiendo de la base que tomemos el tensor metrico puede dejar de ser la
identidad incluso si el espacio es Eucldeo (esto es lo que sucede si tomamos como base un conjunto
de vectores que no sean mutuamente ortogonales).
1.3.1.
Bases ortonormales
En los espacios Eucldeos se definen las bases ortonormales como aquellas en las que el tensor
metrico es la identidad. Como puede verse, la propiedad que caracteriza a las bases ortonormales
es que todos los vectores de la base tienen longitud unidad (est
an normalizados) y son mutuamente
perpendiculares
ei ej = ij ; i, j = 1, . . . , n
(1.57)
Multiplicando escalarmente el desarrollo en componentes de un vector cualquiera (Ec. (1.15))
por ej y recordando las relaciones de ortogonalidad Ec. (1.57), encontramos que la componente xj
del vector x respecto de una base ortonormal esta dada por
xj = (ej , x) ;
j = 1, . . . , n
(1.58)
12
por tanto xj = kxk cos (siendo el angulo formado por x y ej ), es decir, xj es la proyeccion
ortogonal de x sobre la direccion definida por ej . En el caso de una base ortornormal las componentes de un vector estan, por tanto, dadas por las correspondientes proyecciones ortogonales del
vector sobre cada uno de los elementos de la base.
M
etodo de ortonormalizaci
on de Gram-Schmidt
Dada una base cualquiera de un espacio Eucldeo, el metodo de ortonormalizacion de GramSchmidt es un procedimiento muy sencillo que permite construir una base ortonormal a partir de la
base de partida. Supongamos que tenemos una base cualquiera dada por los vectores {t1 , t2 , . . . , tn },
siguiendo el metodo de ortonormalizacion de Gram-Schmidt definimos:
t1
,
kt1 k
t
e2 = 2 ,
kt2 k
t
e3 = 3 ,
kt3 k
e1 =
t2 = t2 (e1 , t2 ) e1 ,
t3 = t3 (e1 , t3 ) e1 (e2 , t3 ) e2 ,
...
...
tn = tn
...
n1
X
...
(ei , tn ) ei ,
i=1
en =
tn
ktn k
(1.59)
De esta forma vamos construyendo una base ortonormal de forma sucesiva, restando a cada uno
de los tj su proyeccion sobre el subespacio generado por todos los ei anteriores (i = 1, . . . , j 1) y
posteriormente normalizando. Dejamos para los ejercicios la demostraci
on de que este procedimiento
genera una base ortonormal. Dado que los ei generados por este mecanismo son ortonormales,
tambien son linealmente independientes, y como son combinacion lineal de los ti de partida y el
cardinal de la base es el mismo, deducimos que la envolvente lineal de los ei coincide con la de la
base de partida.
1.3.2.
Seg
un hemos visto previamente, siempre es posible escribir un vector como combinacion lineal
de los vectores de una base cualquiera, independientemente de si el espacio es Eucldeo o no. Si el
espacio es Eucldeo y se emplea una base ortonormal las componentes de un vector estan dadas
por las correspondientes proyecciones ortogonales del vector sobre cada uno de los elementos de la
base. En el caso general de un espacio vectorial no necesariamente Eucldeo como se definen las
componentes de un vector? Para responder esta pregunta es necesario introducir los conceptos de
espacio dual y base dual.
Dado el espacio vectorial
sobre el cuerpo de los reales, el conjunto de aplicaciones lineales
a : x a (x)
(1.60)
tiene a su vez estructura de espacio vectorial y recibe el nombre de espacio dual . En espacios de
dimension finita (y en general en espacios de Hilbert) el espacio dual es isomorfo al espacio vectorial
de partida. En este caso se deduce el teorema de Riesz-Frechet, seg
un el cual
13
(1.61)
ei (x) = xi
(1.62)
E.
Como sabemos que la aplicacion que define cada componente i de un vector respecto a una
base arbitraria es una aplicacion lineal?
A primera vista esta afirmacion podra parecer arbitraria, sin embargo es totalmente natural.
La aplicacion que genera las componentes de un vector respecto de una base cualquiera debe ser
una aplicacion continua y diferenciable. Esto es necesario si queremos que las componentes de
cualquier vector varen de forma continua y diferenciable al variar el vector de forma continua y
diferenciable. Tambien parece l
ogico exigir que el vector nulo tenga todas sus componentes nulas,
independientemente de la base considerada. Por otra parte, tambien exigimos que las operaciones
de suma de vectores y multiplicaci
on por escalares puedan calcularse componente a componente en
cualquier base. El resultado de estas condiciones es que la aplicacion que produce la componente
del vector x respecto del elemento ei de cualquier base tiene que ser necesariamente una aplicacion
lineal, que denotamos por ei . Aplicando ahora el teorema de Riesz-Frechet, para cada aplicacion
tal que xi = ei (x) esta dado sencillamente por el
lineal ei existe un u
nico vector ei
i
i
producto escalar x = e x.
El conjunto de aplicaciones lineales que nos dan las componentes xi respecto de una base
cualquiera {ei }ni=1 son linealmente independientes y forman una base del espacio dual, llamada
base dual. Claramente la base dual cumple
ei (ej ) = (ei , ej ) = ji ,
i, j = 1, . . . , n
(1.63)
14
(1.64)
(1.65)
por tanto la matriz g ij es sencillamente la inversa del tensor metrico gij (recordar que en espacios
Riemannianos el tensor metrico siempre es invertible det gij 6= 0). Por tanto, la inversa del tensor
metrico aplicada sobre la base de partida nos genera la base dual. Esta relacion nos indica de forma
trivial que en el caso de un espacio Eucldeo, la base dual de una base ortonormal coincide con ella
misma. Por otra parte, sustituyendo este desarrollo (Ec. (1.64)) en ei ej es inmediato demostrar
que
ei ej = g ij , i, j = 1, . . . , n
(1.66)
por tanto la inversa del tensor metrico nos proporciona la tabla de productos escalares de los
vectores de la base dual. En otras palabras, el objeto g ij es el tensor metrico de la base dual, o
tensor metrico dual.
Por u
ltimo, dado que son vectores del mismo espacio tambien podemos escribir los vectores
de la base de partida como combinacion lineal de la base dual. En este sentido dejamos para los
ejercicios demostrar que el tensor metrico aplicado sobre la base dual nos genera la base de partida
ei = gij ej
(1.67)
15
Una vez hemos visto como se calculan las componentes de un vector en el caso general (respecto
de una base cualquiera en un espacio no necesariamente Eucldeo)
x = ei , x ei = xi ei
(1.68)
veamos ahora como se calculan las componentes de una aplicacion lineal A, que transforma vectores
de en vectores de :
A : x A(x) = y
(1.69)
(1.70)
(1.72)
es decir, como el producto de la matriz Aij por el vector columna xj . Por tanto, dada una aplicacion
lineal A y una base cualquiera {ei }ni=1 (no necesariamente ortonormal), la matriz Aij correspondiente
a esta aplicacion esta dada por
(1.73)
Aij ei , Aej
donde el super-ndice i recorre las filas y el sub-ndice j las columnas de la matriz Aij . En el caso
en que el espacio
sea Eucldeo y la base {ei }ni=1 sea ortonormal (y solo en ese caso) tendremos
i
que e = ei , en un caso general ei estara dado por el correspondiente vector de la base dual.
1.4.
Cambios de base
(1.74)
16
1.4.1.
Definici
on de cambio de base
n }
: {
e1 , . . . , e
n }
{
e1 , . . . , e
{e1 , . . . , en }
(1.75)
Para ver de que tipo de aplicacion estamos hablando recordamos que cada uno de los vectores de
la base nueva pertenecen a , por tanto pueden ponerse como combinacion lineal de los vectores
de la base antigua. Escribimos esta relaci
on en la forma siguiente
i = Cij ej ,
e
i = 1, . . . , n
(1.76)
(donde se aplica el convenio de suma de Einstein para el ndice mudo j). Esto nos indica que la
aplicacion cambio de base es una aplicacion lineal, descrita por una matriz con componentes Cij ,
dadas por la coordenada j del vector i de la base nueva referido a la base antigua. Es decir, la matriz
del cambio de base esta formada por las componentes de los vectores de la base nueva respecto a
la base antigua, escritos como vectores columna
2 . . . e
n
1 e
C= e
(1.77)
Para que la base nueva sea una base valida es necesario que sus vectores sean linealmente
independientes, lo cual queda garantizado si el determinante de la matriz del cambio de base
es distinto de cero (en caso contrario el cambio de base no es valido). Suponiendo entonces que
det C 6= 0 tenemos que la matriz del cambio C es invertible. Para simplificar las expresiones
definimos la matriz D como la inversa de C
Dki Cjk = Cki Djk = ji
D C 1 ,
(1.78)
i = 1, . . . , n
(1.79)
(1.82)
que nos proporciona los vectores de la base dual antigua como combinacion lineal de los vectores
de la base dual nueva.
17
Seg
un hemos visto al aplicar un cambio de base los vectores de la base se transforman con la
matriz del cambio de base (C) y los vectores de la base dual se transforman con la matriz inversa
del cambio de base (D). Estos dos tipos de comportamiento se denominan respectivamente como
covariante y contravariante
vectores de la base
ei :
comportamiento covariante
i = Cij ej
e
ei :
comportamiento contravariante
i = Dji ej
e
1.4.2.
xi = Dij x
j
(1.85)
Las componentes de un vector respecto de una base cualquiera tienen compontamiento contravariante y se denominan componentes contravariantes, mientras que las componentes respecto a la
base dual de una base dada tienen comportamiento covariante, y se denominan componentes covariantes. En general las componentes co- y contra-variantes son distintas. En el caso particular de
un espacio Eucldeo, cuando se emplea una base ortonormal las componentes co- y contra-variantes
de cualquier vector coinciden, y en ese caso no es necesario establecer ninguna distincion entre
ellas. En el contexto del calculo tensorial tendremos siempre en mente el caso general de un espacio
vectorial no necesariamente Eucldeo, por tanto es fundamental no confundir las componentes de
uno y otro tipo.
La relacion existente entre los vectores de la base de partida y la base dual y viceversa (Ecs.
(1.64) y (1.67)) nos permiten calcular las componentes co-variantes de un vector a partir de sus
componentes contravariantes relativas a cualquier base (y viceversa). El resultado es
xi = gij xj ,
xi = g ij xj
(1.86)
18
(dejamos la demostracion para los ejercicios) que ilustra la conocida propiedad de subida y bajada
de ndices por medio del tensor metrico y su inversa, que emplearemos con mucha frecuencia a lo
largo del curso.
Una de las propiedades interesantes que tiene conocer ambos tipos de componentes es la siguiente: una vez conocemos las componentes co- y contra-variantes de dos vectores x e y, su producto
escalar x y puede calcularse indistintamente seg
un cualquiera de las expresiones siguientes
x y = gij xi y j = g ij xi yj = xi yi = xi y i
(1.87)
1.4.3.
Analogamente a como hemos hecho con el caso de los vectores, imponiendo que las aplicaciones
lineales permanecen invariantes al aplicar un cambio de base podemos deducir como se transforman
las componentes de estas aplicaciones lineales respecto de una base cualquiera bajo un cambio de
base. Si la imagen de un vector x al aplicar la aplicacion lineal A es Ax = y, la expresion en
componentes de esta igualdad debe cumplirse independientemente de cu
al sea la base empleada
Aij xj = y i ,
Aij x
j = yi
(1.88)
1.4.4.
Ley de transformaci
on del tensor m
etrico
Dada una base cualquiera y su dual se define el tensor metrico gij y su inverso de acuerdo a
las relaciones Ec. (1.47) y Ec. (1.66) respectivamente. Por tanto, en terminos de la base nueva y su
dual tenemos las relaciones
i e
j ,
i e
j
gij = e
gij = e
(1.91)
i y e
i deducimos que el tensor metrico en terminos de
Aplicando las leyes de transformacion de e
la nueva base esta dado por
gij = Cik Cjl gkl ,
(1.92)
(1.93)
19
Este resultado indica que gij es un objeto 2-covariante, ya que se transforma aplicando 2 veces
la matriz del cambio, y g ij 2-contravariante, ya que se transforma aplicando 2 veces la inversa de
la matriz del cambio.
Expresi
on matricial de operaciones tensoriales
Similarmente a como sucede para la ley de transformacion de vectores (p. ej., para las componentes contravariantes [
x] = [D][x]), la ley de transformacion que hemos encontrado para aplicaciones lii
k
i
= [D][A][C]).
neales (Aj = Dk Al Cjl ) puede escribirse directamente como un producto matricial ([A]
Sin embargo el producto Cik Cjl gkl no coincide con el producto matricial [C][C][g], ni tampoco con
[C][g][C]. Recordando que en Cik el ndice k recorre las filas e i las columnas, si asignamos el
primer ndice de gkl a las filas y el segundo a las columnas vemos que la expresion matricial de
gij = Cik Cjl gkl estara dada por [
g ] = [C]T [g][C], donde [C]T es la traspuesta de la matriz [C].
Por tanto la ley de transformacion de gij es distinta de la ley de transformacion que cumplen las
matrices, a pesar de que ambos son objetos tensoriales de orden 2.
Como veremos en este curso el algebra tensorial generaliza al algebra matricial, de forma que
hay expresiones tensoriales cuya transcripcion en terminos de matrices es difcil, o incluso imposible.
Por este motivo al trabajar con tensores lo normal es escribir todos los productos en componentes, y
no se insiste en la transcripcion en terminos de matrices de estos productos, ni siquiera en aquellos
casos en los que la transcripcion matricial es posible.
Ley de transformaci
on de productos escalares
Por u
ltimo es muy facil comprobar que el producto escalar de dos vectores es, efectivamente, un
escalar, es decir, un invariante bajo cambios de base. Independientemente de la base que estemos
empleando el producto escalar x y se define como gij xi y j . Sustituyendo la ley de transformacion
de gij , xi e y j es muy facil comprobar que el comportamiento 2-covariante de gij cancela los
comportamientos 1-contravariante de xi e y j , de forma que el resultado final es invariante bajo
cambios de base, es decir, el producto escalar de dos vectores es un escalar.
Tambien es un escalar la traza de las aplicaciones lineales, definida como la suma de los elementos
de la diagonal, trA Aii , en cualquier base. Aplicando la ley de transformacion de las aplicaciones
lineales (Ec. (1.89)) se comprueba que, al tomar la traza, el comportamiento contravariante del
superndice se cancela con el comportamiento covariante del subndice, de forma que el resultado
final es el mismo independientemente de que base estemos empleando.
Transformaciones ortogonales
A lo largo de este curso veremos con mucha frecuencia como se comportan las componentes
de diversos objetos al aplicar un cambio de base. Normalmente consideraremos cambios de base
totalmente generales, descritos por la matriz del cambio C (Ec. (1.77)) y su correspondiente inversa D C 1 (Ec. (1.78)). En un cambio de base general la matriz inversa D no coincide con la
traspuesta C 1 6= C T , la excepcion a esta regla esta dada por las conocidas transformaciones ortogonales en espacios Eucldeos. Para evitar confusiones en este sentido, vamos a ver a continuacion
que tipo de transformaciones cumplen la relaci
on excepcional C 1 = C T .
Se denomina transformacion unitaria (U ) a aquella que preserva los productos escalares para
todo par de vectores x e y pertenecientes a un espacio vectorial
x, y
E,
(U x, U y) = (x, y)
(1.94)
20
Como caso particular de las anteriores, se denominan transformaciones ortogonales a las transformaciones unitarias definidas en un espacio vectorial sobre el cuerpo de los reales.
Aplicando la relacion que define las transformaciones unitarias (Ec. (1.94)) puede demostrarse
facilmente que en un espacio vectorial Eucldeo la matriz de una transformacion unitaria respecto
de una base ortonormal es una matriz unitaria, es decir, una matriz que cumple:
T
U 1 = U ,
en componentes
U 1
i
= Ui
(1.95)
donde U se denomina matriz adjunta de U y esta dada por la traspuesta del complejo conjugado
esta definido sobre el cuerpo de los reales, entonces la anterior relacion se
de U . Si el espacio
simplifica a
i
U 1 = U T ,
en componentes
U 1 j = Uij
(1.96)
Este es el u
nico caso en que la inversa coincide con la traspuesta. Las matrices que verifican la
relacion Ec. (1.96) se denominan matrices ortogonales.
Por su propia definicion, esta claro que en un espacio vectorial Eucldeo las aplicaciones unitarias
transforman bases ortonormales en bases ortonormales, lo que hace que este tipo particular de
transformaciones sea especialmente importante. En un cambio de base la inversa de la matriz C
coincide con C T solo si la base nueva es el resultado de aplicar una transformacion ortogonal sobre
la base antigua. Como casos particulares de cambios de base ortogonales tenemos las siguientes
operaciones:
rotaciones (rotacion de los vectores de la base un cierto angulo respecto a un eje dado que
pase por el origen),
inversiones (reflexion de los vectores de la base seg
un un determinado plano que pase por el
origen),
permutaciones (intercambio de dos vectores de la base antigua),
cualquier combinacion de las anteriores.
Si el cambio de base C es ortogonal entonces det(C) = 1. Los cambios de base con det(C) = +1
corresponden a rotaciones, o a permutaciones con paridad positiva de los vectores de la base,
mientras que los cambios con det(C) = 1 corresponden a inversiones o a permutaciones con
paridad negativa.
En la practica los cambios de base ortogonales se emplean con muchsima frecuencia, pero no
son los u
nicos posibles. Por ejemplo, el cambio de la base canonica de 3 , {i, j, k}, a la base dada
por {2i, 2j, 2k} (que sigue siendo una base ortogonal pero no ortonormal), no es un cambio de base
ortogonal. En este curso veremos diversos cambios de base concretos tanto ortogonales como no
ortogonales.
1.4.5.
Resumen
En este apartado hemos visto las leyes de transformacion de los 3 tipos de tensores mas habituales: tensores de orden 0 (escalares), tensores de orden 1 (vectores) y tensores de orden 2
(aplicaciones lineales y tensor metrico); y los 2 tipos de comportamiento posibles bajo cambios de
base: covariante y contravariante. Los resultados obtenidos son validos para un espacio vectorial
de dimension finita arbitraria n, dotado de una metrica de Riemann no necesariamente Eucldea.
21
1.5. PROBLEMAS
Tensores de orden 2
orden
tipo
ley de transformacion
escalares
invariantes
vector contravariante
x
i = Dji xj
vector covariante
x
i = Cij xj
aplicaciones lineales
tensor metrico
La siguiente tabla resume los tipos de tensores que hemos visto hasta ahora y su comportamiento
bajo cambios de base:
En los captulos siguientes generalizaremos estos conceptos al caso general, de tensores de orden
r + s (r-covariante s-contravariante), posteriormente describiremos campos tensoriales y operaciones de calculo (derivacion e integracion) con campos tensoriales de orden arbitrario. Por tanto es
fundamental comprender bien todos los conceptos introducidos en este captulo.
1.5.
Problemas
x=y+z
2. Dado un vector cualquiera x
E, demostrar la relacion
0x = 0
E, demostrar la relacion
(1) x = (x)
E (con
6. Dado un vector cualquiera x y una base {e1 , . . . , en } de , demostrar que la descomposicion de x como combinacion lineal de la base (Ec. (1.15)) es u
nica.
E E
22
E,
C, demostrar
11. Demostrar que si en un espacio vectorial dotado de producto escalar tenemos que x y = 0
y 6= 0, entonces x = 0.
12. Demostrar que dos vectores no nulos que sean ortogonales son, necesariamente, linealmente
independientes.
13. Demostrar que dos vectores no nulos que sean linealmente independientes pueden no ser
ortogonales.
14. Demostrar que el metodo de ortonormalizacion de Gram-Schmidt genera una base ortonormal.
15. Demostrar que la base dual siempre existe y es u
nica.
16. Demostrar que la base dual del dual de una base cualquiera esta dado por la base de partida.
17. Demostrar las ecuaciones Ecs. (1.64, 1.65 y 1.67) que relacionan la base dual con la base de
partida.
18. Demostrar que la inversa del tensor metrico esta dada por Ec. (1.66).
19. Demostrar que la base dual se transforma con la matriz inversa del cambio de base (Ec.
(1.81)).
20. Deducir la ley de transformacion que cumplen las componentes de un vector bajo el cambio
de base C:
x
i = Dji xj ,
xi = Cji x
j
donde D C 1 .
21. Deducir la ley de transformacion que cumplen las componentes de un vector respecto a la
base dual bajo el cambio de base C, dada por Ec. (1.85).
22. Deducir la relacion entre las componentes co- y contra-variantes de un vector, dada por Ec.
(1.86).
23. Demostrar la relacion Ec. (1.87).
24. Demostrar la relacion Ec. (1.89).
25. Demostrar las relaciones Ec. (1.92) y Ec. (1.93).
26. Demostrar que el producto escalar de 2 vectores define un escalar (es decir, un objeto invariante bajo cambios de base).
1.6. BIBLIOGRAFIA
23
31. Repita el ejercicio anterior considerando un tensor metrico arbitrario. Calcule tambien como
cambian las componentes del tensor metrico y del tensor metrico dual.
1.6.
Bibliografa
Para los apuntes de esta captulo se ha consultado el texto de Burgos [3], junto con [8] y los
textos clasicos de Synge y Schild [13], Lichnerowicz [10] y Bowen y Wang [2].
Cualquiera de ellos es muy recomendable para profundizar en este tema. Especialmente el libro
de Lichnerowicz [10] (lamentablemente descatalogado) y el de Burgos [3].
24