Académique Documents
Professionnel Documents
Culture Documents
En cualquiera de los dos casos, la “función norma” definida en Rn o Cn tiene todas las
propiedades algebraicas del módulo de un vector del plano o del espacio, a saber:
dist(u, v) = ku − vk.
Versión de 26 de noviembre de 2015, 23:10 h.
1
algebraica con vectores llamada producto escalar, la cual es conocida por los estudiantes de Física
para los vectores del plano y del espacio.
Empezamos observando que el cuadrado de la norma de un vector de Rn ,
kvk2 = v21 + · · · + v2n
se puede obtener como resultado de una operación que ya conocemos, a saber: la multiplicación
de matrices. Efectivamente, kvk2 es igual al producto de la matriz 1 × n obtenida a hallar la
traspuesta de v (considerado como un vector columna) por el propio vector v (como matriz
n × 1):
v1
..
v v = (v1 · · · vn ) . = v21 + · · · + v2n = kvk2 .
T
vn
Esta propiedad nos lleva definir la operación de producto escalar de dos vectores de Rn me- producto escalar
diante
v1
..
v · u = u v = ( u1 · · · u n ) . = u1 v1 + · · · + u n v n
T
(1)
vn
Análogamente, definimos la operación de producto interior complejo (o producto hermítico) de producto
dos vectores de Cn mediante multiplicación, no por el vector traspuesto, sino por el conjugado hermítico
traspuesto u∗ = (ū)T = uT : conjugado
traspuesto
v1
..
v ·u = u v = (ū) v = (ū1 · · · ūn ) . = ū1 v1 + · · · + ūn vn
∗ T
(2)
vn
En ambos casos, la norma euclidiana de los vectores se expresa en términos del producto
escalar/producto hermítico mediante
√
kvk = v·v (3)
La definición (1) del producto escalar en Rn nos permite demostrar muy fácilmente las
siguientes propiedades:
1. (cu)·v = c(u·v).
2. (u + w)·v = u·v + w·v.
3. u ·v = v ·u (conmutatividad o simetría).
4. u ·u ≥ 0 siendo u ·u = 0 solamente en el caso u = 0 (definida positiva).
En vista de la tercera propiedad, las dos primeras son equivalentes a (cada una de) las
siguientes:
Al expresar de esta forma las propiedades características del producto escalar en Rn , vemos
que se puede decir que el producto escalar en Rn es una función real de dos variables vectoriales
que es bilineal, simétrica y definida positiva.
2
Consecuencia de la propiedad “definida positiva”: Si A es una matriz real, el espacio nulo de
AT A es el mismo que el de A.
Por un lado, es evidente que los vectores del espacio nulo de A son también vectores del
espacio nulo de AT A ya que si Ax = 0 entonces también AT Ax = 0.
Supongamos ahora que x es un vector del espacio nulo de AT A, es decir, AT Ax = 0. Entonces
x AT Ax = 0. Pero esto significa que el vector Ax tiene norma cero porque xT AT Ax = k Axk2 .
T
Pero si Ax tiene norma cero, por la propiedad de definida positiva, el propio Ax es el vector
cero y x pertenece al espacio nulo de A.
El producto interior que hemos definido en Cn tiene propiedades muy parecidas a las del
producto escalar de Rn . La diferencia fundamental es que la tercera propiedad toma ahora la
forma:
Ésta es justamente la propiedad necesaria para garantizar que la función (3) definida a partir
del producto hermítico tenga todas las propiedades de una norma.
Como consecuencia de esta diferencia entre el producto hermítico y el producto escalar,
las dos primeras propiedades (que se pueden describir juntas como “linealidad en la primera
variable”) ya no tienen como consecuencia la linealidad en la segunda variable, sino una especie
de “linealidad conjugada” que se expresa como:
Evidentemente las propiedades del producto escalar de Rn son un caso particular de las del
producto hermítico de Cn y, por tanto, todas las consecuencias de la últimas se cumplen también
para las primeras. A partir de este momento, todos los razonamientos y cálculos estarán basados
en el producto escalar (en Rn ) o el producto hermítico (en Cn ) por lo que todos los resultados que
obtengamos serán consecuencia de las propiedades características del producto hermítico (de
las que las propiedades del producto escalar son un caso particular) y que se pueden enunciar
en forma completamente general como los axiomas de un producto interior en un espacio vectorial
(real o complejo), a saber: Si V es un espacio real o complejo, se llama producto interior en V a
toda función compleja hu, vi definida para u, v ∈ V y tal que:
Combinando las dos primeras se deduce que todo producto interior complejo es una aplica-
ción sesquilineal (versión compleja de la propiedad de ser bilineal de producto escalar de Rn ):
3
Se llama forma hermitiana a toda forma sesquilineal que tiene simetría conjugada (o simetría forma
hermitiana); por tanto: hermitiana
Un producto interior en un espacio real o complejo es una forma hermitiana definida positiva. En el
caso real esto es lo mismo que una forma bilineal simétrica definida positiva.
Vectores perpendiculares
Definición: Diremos que dos vectores u, v son perpendiculares u ortogonales si las dos diagona- Definición de
les, u + v y u − v, del paralelogramo que forman tienen la misma longitud, y escribiremos perpendiculari-
dad u ortogona-
lidad.
u⊥v si y sólo si k u + v k = k u − v k.
Dado que la norma o longitud de vectores se puede expresar en términos del producto
escalar o hermítico, una forma equivalente de expresar la perpendicularidad de vectores es la
igualdad de las siguientes dos normas al cuadrado
Así, usando el producto escalar, es muy sencillo saber si dos vectores de Rn o de Cn son
perpendiculares: si su producto escalar es cero lo son, en caso contrario no lo son.
El ejemplo fundamental de vectores perpendiculares es el los vectores de la base canónica
de Rn o de Cn , que son las columnas e1 , . . . , en de la matriz identidad n × n.
4
Propiedad: Todo sistema ortogonal de vectores no nulos, u1 , . . . , uk , es un conjunto libre.
Para comprender el porqué, observamos que, según lo dicho más arriba, si formamos la ma-
triz que tiene esos vectores como columnas, A = [u1 , . . . , uk ], entonces AT A = [ AT u1 , . . . , AT uk ]
es una matriz diagonal con elementos diagonales no nulos y por tanto sus columnas son li-
nealmente independientes. Esto implica que los vectores u1 , . . . , uk son independientes. De lo
contrario, dado que el producto matriz por vector conserva las relaciones de dependencia lineal,
cualquier relación de dependencia lineal que hubiera entre los vectores u1 , . . . , uk persistiría en-
tre los AT u1 , . . . , AT uk .
Otra forma de llegar a la misma conclusión es pensar que, al ser AT A una matriz diagonal,
su determinante es det( AT A) = Πik=1 kui k2 6= 0. Pero también det( AT A) = (det AT )(det A) =
(det A)2 de donde det A 6= 0 y por tanto las columnas de A son independientes.
kuk = 1 , k u k2 = 1 , u ·u = 1.
La idea más importante que se debe tener en mente en relación con los vectores unitarios
es el hecho de que todo vector no nulo v 6= 0 se puede reescalar para convertirlo en un vector
unitario:
1
Proposición. Para todo vector no nulo v, el vector u = kvk
v es un vector unitario.
Sistemas ortonormales. Un sistema ortogonal de vectores, los cuales, además, son unitarios se
llama un sistema ortonormal. A partir de un sistema ortogonal cualquiera de vectores no nulos
se puede obtener un sistema ortonormal sin más que reescalar cada vector apropiadamente.
Las columnas de una matriz real U forman un conjunto ortonormal si y sólo si U T U = I.
Matrices Ortogonales. Se llama matriz ortogonal a toda matriz cuadrada real cuyas columnas
son vectores unitarios ortogonales dos a dos, es decir una matriz cuadrada real cuyas columnas
forman un sistema ortonormal.
¡Cuidado! Una matriz ortogonal no es aquella cuya columnas forman un sistema ortogonal.
Es requisito de una matriz ortogonal que, además de ser las columnas un sistema ortogonal, sea
una matriz cuadrada y que sus columnas sean vectores unitarios.
Caso complejo: Matrices Unitarias. Se llama matriz unitaria a toda matriz cuadrada compleja
cuyas columnas son vectores unitarios ortogonales dos a dos, es decir cuyas columnas forman
un sistema ortonormal.
Si todos los elementos de una matriz unitaria son números reales (esto es, tienen todos parte
imaginaria nula) entonces esa matriz es una matriz ortogonal. Por tanto, el conjunto de las
matrices unitarias contie al conjunto de las matrices ortogonales.
5
La caracterización de matrices unitarias se apoya en la operación de “traspuesta conjugada”
o adjunta1 de una matriz compleja. Si A es una matriz compleja, se llama matriz adjunta de
A, y se denota A∗ , a la matriz cuyos elementos son los conjugados de los elementos de la
matriz traspuesta de A o, equivalentemente, la traspuesta de aquella cuyos elementos son los
conjugados de los elementos de A:
A∗ = AT = Ā .
T
Matriz
adjunta.
Propiedades: La operación de calcular la matriz adjunta de una matriz dada tiene las siguien-
tes propiedades:
1. ( A∗ )∗ = A. 3. (cA)∗ = c̄A∗ . A −1 = ( A ∗ ) −1 .
5.
2. ( A + B)∗ = A∗ + B∗ . 4. ( AB)∗ = B∗ A∗ . 6. det A∗ = det A.
Cualquiera de las fórmulas (4) o (5) nos permite dar una fórmula para el producto esca-
lar en términos de la función norma: Despejando en dichas fórmulas el producto escalar u ·v
obtenemos las siguientes “fórmulas de polarización”:
u·v = 1
k u + v k2 − k u k2 − k v k2
2 (6)
u·v = 1
k u k2 + k v k2 − k u − v k2
2 (7)
Se llama proyección ortogonal de un vector v sobre (la recta definida por) un vector no nulo u, proyección
y se denota por proyu (v), a aquél múltiplo de u que restado de v da como resultado un vector ortogonal
perpendicular a u. Es decir: un múltiplo de u, cu, es la proyección ortogonal de v sobre u si el
vector diferencia v − cu es perpendicular a u, es decir, si
(v − cu)·u = 0.
6
v un vector dado y supongamos dada una dirección (o subespacio vectorial unidimensional)
mediante un vector u, Las componentes longitudinal (paralela) y transversal (perpendicular) de
v respecto a la dirección de u son dos vectores denotados respectivamente vk y v⊥ tales que
vk + v⊥ = v, vk = cu y v⊥ · u = 0
proyu (v) =
· u = 1 (v·u)u = 1 u(v·u) = 1 u(uT v) = 1 (uuT )v = Pu v
v u
u·u u·u u·u uT u uT u
donde hemos denotado Pu la matriz cuadrada
1 1
Pu = ( u uT ) = ( u uT ). (9)
uu
T
k u k2
Esta matriz se llama la matriz de la proyección ortogonal sobre la recta de u. Por tanto, si queremos
hallar las proyecciones ortogonales de varios vectores v1 , . . . , vk sobre un mismo vector u, basta
calcular una sola vez la matriz Pu y luego calcular los productos
Pu v1 , . . . , Pu vk .
Ángulo entre dos vectores y la fórmula del coseno para el producto escalar
Sabiendo calcular la proyección ortogonal de un vector sobre otro, es muy sencillo medir el
ángulo entre dos vectores no nulos u, v. Para ello basta hallar la proyección ortogonal de uno de
ellos sobre el otro: proyu (v) y observar que se obtiene un triángulo rectángulo en el que v es la
“hipotenusa” y las componentes longitudinal y transversal de v son los “catetos”. Suponiendo
v ·u ≥ 0, el ángulo entre u y v es el que tiene a vk = proyu (v) como “cateto adyacente”, por lo
que la definición “cateto adyacente partido por la hipotenusa” nos dice que su coseno es:
v ·u = kvkkuk cos α.
7
La desigualdad de Cauchy-Schwartz
Dado que el coseno de cualquier ángulo tiene un valor absoluto menor o igual que uno, de
la “fórmula de los físicos” del producto interior, v ·u = kvkkuk cos α, se puede deducir otra
famosa e importante relación entre el producto escalar y la norma, conocida como la desigualdad desigualdad de
de Cauchy-Schwartz: Cauchy-
Schwartz
|u·v| ≤ kukkvk.
Al apoyar esta desigualdad en la definición del coseno, estamos haciéndola provenir del hecho
de que todo cateto en un triángulo rectángulo es menor o igual que la hipotenusa, lo cual a su
vez es consecuencia del teorema de Pitágoras. Sin embargo, esta desigualdad se puede deducir
directamente de las propiedades del producto interior de la siguiente forma: Comenzamos con
la siguiente desigualdad, válida para cualesquiera números reales a y b:
k au − bvk2 ≥ 0.
Expandiendo este cuadrado de una norma como producto escalar de au − bv por sí mismo, se
obtiene:
Esto tiene un valor no negativo también en el caso particular a = kvk y b = kuk, en el cual se
reduce a:
2kukkvk kukkvk − u ·v .