Vous êtes sur la page 1sur 8

Espacios vectoriales con producto interior

Longitud, norma o módulo de vectores y distancias entre puntos


Generalizando la fórmula pitagórica de la longitud de un vector de R2 o de R3 , definimos la
norma, longitud o módulo de un vector v = (v1 , . . . , vn ) en Rn mediante la fórmula
q
kvk = v21 + · · · + v2n .

Análogamente, si v es un vector de Cn , la norma, módulo o longitud de v se define mediante


la fórmula: q
k v k = | v1 |2 + · · · + | v n |2 .
Como vemos, en el caso complejo es necesario asegurarse de calcular previamente el módulo
de cada componente del vector antes de elevarla al cuadrado, de lo contrario podría resultar un
radicando negativo o incluso no real que nos impidiese demostrar las propiedades deseadas de
la norma. Otra forma de escribir la norma de un vector complejo es:

kvk = v̄1 v1 + · · · + v̄n vn .

En cualquiera de los dos casos, la “función norma” definida en Rn o Cn tiene todas las
propiedades algebraicas del módulo de un vector del plano o del espacio, a saber:

1. kvk ≥ 0, siendo kvk = 0 solamente en el caso v = 0.


2. kcvk = |c|kvk.

3. ku + vk ≤ kuk + kvk (desigualdad triangular).

Longitudes de vectores y distancias

La posibilidad de calcular longitudes de vectores de un espacio vectorial es equivalente a


la de calcular distancias entre pares de puntos de ese espacio vectorial ya que, por un lado, la
longitud de un vector es la distancia desde el punto representado por ese vector al origen de
coordenadas (toda longitud de un vector es una distancia) y, por otro lado, la distancia entre
los puntos representados por dos vectores u, v es igual a la longitud del vector diferencia u − v
(toda distancia es la longitud de un vector). Así, por el mero hecho de poder calcular la norma
de cada vector, podemos definir la distancia entre dos vectores cualesquiera:

dist(u, v) = ku − vk.
Versión de 26 de noviembre de 2015, 23:10 h.

Producto escalar y producto hermítico


A continuación vamos a ver que la posibilidad de calcular longitudes de vectores de un
espacio vectorial real se puede obtener como consecuencia de poder realizar una operación

1
algebraica con vectores llamada producto escalar, la cual es conocida por los estudiantes de Física
para los vectores del plano y del espacio.
Empezamos observando que el cuadrado de la norma de un vector de Rn ,
kvk2 = v21 + · · · + v2n
se puede obtener como resultado de una operación que ya conocemos, a saber: la multiplicación
de matrices. Efectivamente, kvk2 es igual al producto de la matriz 1 × n obtenida a hallar la
traspuesta de v (considerado como un vector columna) por el propio vector v (como matriz
n × 1):  
v1
 .. 
v v = (v1 · · · vn )  .  = v21 + · · · + v2n = kvk2 .
T

vn
Esta propiedad nos lleva definir la operación de producto escalar de dos vectores de Rn me- producto escalar
diante  
v1
 .. 
v · u = u v = ( u1 · · · u n )  .  = u1 v1 + · · · + u n v n
T
(1)
vn
Análogamente, definimos la operación de producto interior complejo (o producto hermítico) de producto
dos vectores de Cn mediante multiplicación, no por el vector traspuesto, sino por el conjugado hermítico
traspuesto u∗ = (ū)T = uT : conjugado
traspuesto
 
v1
 .. 
v ·u = u v = (ū) v = (ū1 · · · ūn )  .  = ū1 v1 + · · · + ūn vn
∗ T
(2)
vn

En ambos casos, la norma euclidiana de los vectores se expresa en términos del producto
escalar/producto hermítico mediante

kvk = v·v (3)

Propiedades del producto escalar en Rn

La definición (1) del producto escalar en Rn nos permite demostrar muy fácilmente las
siguientes propiedades:
1. (cu)·v = c(u·v).
2. (u + w)·v = u·v + w·v.
3. u ·v = v ·u (conmutatividad o simetría).
4. u ·u ≥ 0 siendo u ·u = 0 solamente en el caso u = 0 (definida positiva).

En vista de la tercera propiedad, las dos primeras son equivalentes a (cada una de) las
siguientes:

1’ (cu)·v = c(u ·v) y (u + w)·v = u ·v + w ·v.


(“linealidad en la primera variable”: la aplicación ( )·v definida por x 7→ x ·v es lineal).
2’. u ·(cv) = c(u ·v) y u ·(v + w) = u ·v + u ·w.
(“linealidad en la segunda variable”: la aplicación u ·( ) definida por x 7→ u ·x es lineal).

Al expresar de esta forma las propiedades características del producto escalar en Rn , vemos
que se puede decir que el producto escalar en Rn es una función real de dos variables vectoriales
que es bilineal, simétrica y definida positiva.

2
Consecuencia de la propiedad “definida positiva”: Si A es una matriz real, el espacio nulo de
AT A es el mismo que el de A.
Por un lado, es evidente que los vectores del espacio nulo de A son también vectores del
espacio nulo de AT A ya que si Ax = 0 entonces también AT Ax = 0.
Supongamos ahora que x es un vector del espacio nulo de AT A, es decir, AT Ax = 0. Entonces
x AT Ax = 0. Pero esto significa que el vector Ax tiene norma cero porque xT AT Ax = k Axk2 .
T

Pero si Ax tiene norma cero, por la propiedad de definida positiva, el propio Ax es el vector
cero y x pertenece al espacio nulo de A.

Propiedades del “producto interior complejo” o producto hermítico en Cn

El producto interior que hemos definido en Cn tiene propiedades muy parecidas a las del
producto escalar de Rn . La diferencia fundamental es que la tercera propiedad toma ahora la
forma:

3. u ·v = v ·u (“simetría conjugada” o “simetría hermitiana”).

Ésta es justamente la propiedad necesaria para garantizar que la función (3) definida a partir
del producto hermítico tenga todas las propiedades de una norma.
Como consecuencia de esta diferencia entre el producto hermítico y el producto escalar,
las dos primeras propiedades (que se pueden describir juntas como “linealidad en la primera
variable”) ya no tienen como consecuencia la linealidad en la segunda variable, sino una especie
de “linealidad conjugada” que se expresa como:

u ·(cv) = c̄(u ·v) y


u ·(v + w) = u ·v + u ·w.

Evidentemente las propiedades del producto escalar de Rn son un caso particular de las del
producto hermítico de Cn y, por tanto, todas las consecuencias de la últimas se cumplen también
para las primeras. A partir de este momento, todos los razonamientos y cálculos estarán basados
en el producto escalar (en Rn ) o el producto hermítico (en Cn ) por lo que todos los resultados que
obtengamos serán consecuencia de las propiedades características del producto hermítico (de
las que las propiedades del producto escalar son un caso particular) y que se pueden enunciar
en forma completamente general como los axiomas de un producto interior en un espacio vectorial
(real o complejo), a saber: Si V es un espacio real o complejo, se llama producto interior en V a
toda función compleja hu, vi definida para u, v ∈ V y tal que:

1. hcu, vi = chu, vi,


hu + w, vi = hu, vi + hw, vi.
(“lineal en la primera variable”: la aplicación h · , vi definida por x 7→ hx, vi es lineal).
2. hu, vi = hv, ui (simetría compleja, conjugada o hermitiana).
3. hu, ui ≥ 0 siendo hu, ui = 0 solamente en el caso u = 0 (definida positiva).

Combinando las dos primeras se deduce que todo producto interior complejo es una aplica-
ción sesquilineal (versión compleja de la propiedad de ser bilineal de producto escalar de Rn ):

1’. hu, cvi = c̄hu, vi,


hu, v + wi = hu, vi + hu, wi.
(“conjugada lineal en la segunda variable”: la aplicación hu, · i definida por x 7→ hu, xi es
conjugada lineal).

3
Se llama forma hermitiana a toda forma sesquilineal que tiene simetría conjugada (o simetría forma
hermitiana); por tanto: hermitiana

Un producto interior en un espacio real o complejo es una forma hermitiana definida positiva. En el
caso real esto es lo mismo que una forma bilineal simétrica definida positiva.

Perpendicularidad y ángulo entre dos vectores


La posibilidad de calcular la longitud de los vectores nos permite definir el concepto de
“perpendicularidad” y por lo tanto de “angulo recto”. Además, la posibilidad de calcular el
producto escalar o hermítico de dos vectores cualesquiera nos permite definir también el ángulo
que forman dos vectores no nulos cualesquiera.

Vectores perpendiculares

Definición: Diremos que dos vectores u, v son perpendiculares u ortogonales si las dos diagona- Definición de
les, u + v y u − v, del paralelogramo que forman tienen la misma longitud, y escribiremos perpendiculari-
dad u ortogona-
lidad.
u⊥v si y sólo si k u + v k = k u − v k.

Dado que la norma o longitud de vectores se puede expresar en términos del producto
escalar o hermítico, una forma equivalente de expresar la perpendicularidad de vectores es la
igualdad de las siguientes dos normas al cuadrado

ku + vk2 = (u + v)·(u + v) = u·u + v·v + 2u·v (4)

ku − vk2 = (u − v)·(u − v) = u·u + v·v − 2u·v (5)

Por tanto podemos escribir:


u⊥v si y sólo si u · v = 0.

Así, usando el producto escalar, es muy sencillo saber si dos vectores de Rn o de Cn son
perpendiculares: si su producto escalar es cero lo son, en caso contrario no lo son.
El ejemplo fundamental de vectores perpendiculares es el los vectores de la base canónica
de Rn o de Cn , que son las columnas e1 , . . . , en de la matriz identidad n × n.

Conjuntos ortogonales, vectores unitarios y conjuntos ortonormales

Se llama conjunto ortogonal de vectores a todo conjunto de vectores u1 , . . . , uk tales que


ui ·u j = 0 siempre que i 6= j.
Una matriz A (que no tiene porqué ser cuadrada) es tal que AT A es una matriz diagonal si y
sólo si las columnas de A forman un conjunto ortogonal.
Si u1 , . . . , uk es un conjunto ortogonal de vectores no nulos y tomamos esos vectores como
columnas para definir una matriz A = [u1 , . . . , uk ], entonces A tiene la propiedad de que el
producto AT A (cuyos elementos son todos los productos escalares ui ·u j ) es una matriz cuadrada
cuyos elementos diagonales son no nulos (es más, son positivos por ser los cuadados de las
normas de los vectores no nulos u1 , . . . , uk ) y los elementos fuera de la diagonal son cero por
ser cada uno un producto escalar de vectores perpendiculares.
De lo dicho hasta aquí se deduce la siguiente propiedad:

4
Propiedad: Todo sistema ortogonal de vectores no nulos, u1 , . . . , uk , es un conjunto libre.
Para comprender el porqué, observamos que, según lo dicho más arriba, si formamos la ma-
triz que tiene esos vectores como columnas, A = [u1 , . . . , uk ], entonces AT A = [ AT u1 , . . . , AT uk ]
es una matriz diagonal con elementos diagonales no nulos y por tanto sus columnas son li-
nealmente independientes. Esto implica que los vectores u1 , . . . , uk son independientes. De lo
contrario, dado que el producto matriz por vector conserva las relaciones de dependencia lineal,
cualquier relación de dependencia lineal que hubiera entre los vectores u1 , . . . , uk persistiría en-
tre los AT u1 , . . . , AT uk .
Otra forma de llegar a la misma conclusión es pensar que, al ser AT A una matriz diagonal,
su determinante es det( AT A) = Πik=1 kui k2 6= 0. Pero también det( AT A) = (det AT )(det A) =
(det A)2 de donde det A 6= 0 y por tanto las columnas de A son independientes.

Vectores unitarios. Un vector de longitud (o norma, o módulo) igual a 1 se llama un vector


unitario. Dado que la norma de un vector es un número no negativo, las siguientes ecuaciones
son expresiones equivalentes de que u es un vector unitario:

kuk = 1 , k u k2 = 1 , u ·u = 1.

La idea más importante que se debe tener en mente en relación con los vectores unitarios
es el hecho de que todo vector no nulo v 6= 0 se puede reescalar para convertirlo en un vector
unitario:

1
Proposición. Para todo vector no nulo v, el vector u = kvk
v es un vector unitario.

Sistemas ortonormales. Un sistema ortogonal de vectores, los cuales, además, son unitarios se
llama un sistema ortonormal. A partir de un sistema ortogonal cualquiera de vectores no nulos
se puede obtener un sistema ortonormal sin más que reescalar cada vector apropiadamente.
Las columnas de una matriz real U forman un conjunto ortonormal si y sólo si U T U = I.

Matrices Ortogonales. Se llama matriz ortogonal a toda matriz cuadrada real cuyas columnas
son vectores unitarios ortogonales dos a dos, es decir una matriz cuadrada real cuyas columnas
forman un sistema ortonormal.
¡Cuidado! Una matriz ortogonal no es aquella cuya columnas forman un sistema ortogonal.
Es requisito de una matriz ortogonal que, además de ser las columnas un sistema ortogonal, sea
una matriz cuadrada y que sus columnas sean vectores unitarios.

Caracterización: Si A es una matriz ortogonal, AT A es una matriz identidad y por tanto AT


es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que AT A = I entonces las
columnas de A forman un sistema ortonormal y por tanto A es una matriz ortogonal.

Caso complejo: Matrices Unitarias. Se llama matriz unitaria a toda matriz cuadrada compleja
cuyas columnas son vectores unitarios ortogonales dos a dos, es decir cuyas columnas forman
un sistema ortonormal.
Si todos los elementos de una matriz unitaria son números reales (esto es, tienen todos parte
imaginaria nula) entonces esa matriz es una matriz ortogonal. Por tanto, el conjunto de las
matrices unitarias contie al conjunto de las matrices ortogonales.

5
La caracterización de matrices unitarias se apoya en la operación de “traspuesta conjugada”
o adjunta1 de una matriz compleja. Si A es una matriz compleja, se llama matriz adjunta de
A, y se denota A∗ , a la matriz cuyos elementos son los conjugados de los elementos de la
matriz traspuesta de A o, equivalentemente, la traspuesta de aquella cuyos elementos son los
conjugados de los elementos de A:

A∗ = AT = Ā .
T
Matriz
adjunta.

Propiedades: La operación de calcular la matriz adjunta de una matriz dada tiene las siguien-
tes propiedades:

1. ( A∗ )∗ = A. 3. (cA)∗ = c̄A∗ . A −1 = ( A ∗ ) −1 .

5.
2. ( A + B)∗ = A∗ + B∗ . 4. ( AB)∗ = B∗ A∗ . 6. det A∗ = det A.

Caracterización de matrices unitarias: Si A es una matriz unitaria, A∗ A es una matriz iden-


tidad y por tanto A∗ es la inversa de A. Recíprocamente: Si A es una matriz cuadrada tal que
A∗ A = I entonces las columnas de A forman un sistema ortonormal para el producto hermítico
y por tanto A es una matriz unitaria.

El producto escalar asociado con una norma y el teorema de Pitágoras

Cualquiera de las fórmulas (4) o (5) nos permite dar una fórmula para el producto esca-
lar en términos de la función norma: Despejando en dichas fórmulas el producto escalar u ·v
obtenemos las siguientes “fórmulas de polarización”:

u·v = 1
k u + v k2 − k u k2 − k v k2

2 (6)

u·v = 1
k u k2 + k v k2 − k u − v k2

2 (7)

Cualquiera de esas fórmulas es equivalente al teorema de Pitágoras. Por ejemplo, la primera


de ellas, (6), implica que si u y v son perpendiculares entonces u ·v = 0 y por tanto: Teorema de
Pitágoras
k u + v k2 = k u k2 + k v k2

Componentes longitudinal y transversal de un vector respecto a una dirección dada

Se llama proyección ortogonal de un vector v sobre (la recta definida por) un vector no nulo u, proyección
y se denota por proyu (v), a aquél múltiplo de u que restado de v da como resultado un vector ortogonal
perpendicular a u. Es decir: un múltiplo de u, cu, es la proyección ortogonal de v sobre u si el
vector diferencia v − cu es perpendicular a u, es decir, si

(v − cu)·u = 0.

De esta ecuación se deduce:


v·u · u.
v u
c= y por tanto: proyu (v) = (8)
u·u u·u

La proyección ortogonal nos permite calcular la descomposición de un vector dado en suma


de dos vectores que sean uno de ellos paralelo y el otro perpendicular a una dirección dada. Sea
1 No confundir con la matriz de adjuntos.

6
v un vector dado y supongamos dada una dirección (o subespacio vectorial unidimensional)
mediante un vector u, Las componentes longitudinal (paralela) y transversal (perpendicular) de
v respecto a la dirección de u son dos vectores denotados respectivamente vk y v⊥ tales que

vk + v⊥ = v, vk = cu y v⊥ · u = 0

En consecuencia, la componente longitudinal es la proyección ortogonal y la componente transversal es


la diferencia entre el vector dado y su proyección ortogonal:

vk = proyu (v), v⊥ = v − proyu (v).

Matriz de la proyección ortogonal

Si deseamos hallar la proyección ortogonal de varios vectores v1 , . . . , vk sobre un mismo


vector u, es conveniente disponer los cálculos de forma que se evite repetir el mismo cálculo
varias veces. Observando la fórmula de la proyección ortogonal hallada más arriba, (8), vemos
que se puede reescribir en términos de productos de matrices de la siguiente forma:

proyu (v) =
· u = 1 (v·u)u = 1 u(v·u) = 1 u(uT v) = 1 (uuT )v = Pu v
v u
u·u u·u u·u uT u uT u
donde hemos denotado Pu la matriz cuadrada
1 1
Pu = ( u uT ) = ( u uT ). (9)
uu
T
k u k2
Esta matriz se llama la matriz de la proyección ortogonal sobre la recta de u. Por tanto, si queremos
hallar las proyecciones ortogonales de varios vectores v1 , . . . , vk sobre un mismo vector u, basta
calcular una sola vez la matriz Pu y luego calcular los productos

Pu v1 , . . . , Pu vk .

Observación: En la fórmula (9) de la matriz Pu es importante comprender que la matriz u uT


está dada por:
 2 
  u1 u1 u2 ... u1 u n
u1  u2 u1 u22 ... u2 u n 
uuT =  ...  u1 . . . un =  .

..  .
   
..
 .. . . 
un
u n u1 u n u2 ... u2n

Ángulo entre dos vectores y la fórmula del coseno para el producto escalar

Sabiendo calcular la proyección ortogonal de un vector sobre otro, es muy sencillo medir el
ángulo entre dos vectores no nulos u, v. Para ello basta hallar la proyección ortogonal de uno de
ellos sobre el otro: proyu (v) y observar que se obtiene un triángulo rectángulo en el que v es la
“hipotenusa” y las componentes longitudinal y transversal de v son los “catetos”. Suponiendo
v ·u ≥ 0, el ángulo entre u y v es el que tiene a vk = proyu (v) como “cateto adyacente”, por lo
que la definición “cateto adyacente partido por la hipotenusa” nos dice que su coseno es:

k proyu (v)k v·u u = v·u v·u


 
1
cos α = = kuk = .
kvk kvk u·u kvkkuk2 kvkkuk
De aquí se obtiene la conocida fórmula de los libros de Física:

v ·u = kvkkuk cos α.

7
La desigualdad de Cauchy-Schwartz

Dado que el coseno de cualquier ángulo tiene un valor absoluto menor o igual que uno, de
la “fórmula de los físicos” del producto interior, v ·u = kvkkuk cos α, se puede deducir otra
famosa e importante relación entre el producto escalar y la norma, conocida como la desigualdad desigualdad de
de Cauchy-Schwartz: Cauchy-
Schwartz
|u·v| ≤ kukkvk.
Al apoyar esta desigualdad en la definición del coseno, estamos haciéndola provenir del hecho
de que todo cateto en un triángulo rectángulo es menor o igual que la hipotenusa, lo cual a su
vez es consecuencia del teorema de Pitágoras. Sin embargo, esta desigualdad se puede deducir
directamente de las propiedades del producto interior de la siguiente forma: Comenzamos con
la siguiente desigualdad, válida para cualesquiera números reales a y b:

k au − bvk2 ≥ 0.

Expandiendo este cuadrado de una norma como producto escalar de au − bv por sí mismo, se
obtiene:

k au − bvk2 = ( au − bv)·( au − bv) = a2 (u·u) + b2 (v·v) − 2ab(u·v) = a2 kuk2 + b2 kvk2 − 2ab(u·v)

Esto tiene un valor no negativo también en el caso particular a = kvk y b = kuk, en el cual se
reduce a:
2kukkvk kukkvk − u ·v .


La desigualdad de Cauchy-Schwartz es equivalente a decir que este paréntesis es no negativo.

Vous aimerez peut-être aussi