Vous êtes sur la page 1sur 17

Tema 2

Matrices y Determinantes

2.1 Introducción
Presentaremos en este tema las matrices y los determinantes, centrándonos en particular
en el caso de matrices constituidas por números reales.

2.2 Matrices. Conceptos Fundamentales


Definición: Dado un conjunto C, una matriz A de orden m × n de elementos de C es
toda colección de mn elementos de C colocados en m filas y n columnas, de la forma:
 
a11 a12 ... a1n
 a 
 21 a22 ... a2n 
A = (aij ) =  
 .. .. ... .. 
am1 am2 ... amn

Donde i = 1, . . . , m, y j = 1, . . . , n. La notación usual es por tanto aij para representar


la componente fila-i columna-j de la matriz.
Al conjunto de las matrices de orden m×n con componentes en el conjunto C se le denota
por Mm×n (C). Consideraremos en este tema esencialmente matrices de número reales,
es decir el conjunto Mm×n (R), si bien la mayor parte de las propiedades y definiciones
que expondremos serán válidas para cualquier otro tipo de conjunto.
Definiciones básicas:
Sea A una matriz de orden m × n de números reales, A ∈ Mm×n (R), A = (aij ),
i = 1, . . . , m, j = 1, . . . , n.

1. Si n = 1, entonces A es una matriz columna. Si m = 1, A es una matriz fila.

2. Si aij = 0, ∀i, j, entonces A es la matriz nula de orden m × n.

13
14 MATRICES Y DETERMINANTES

3. Si m = n la matriz A es cuadrada, en caso contrario es una matriz rectangular.

4. La matriz opuesta de A = (aij ), que denotamos por: −A, es la que tiene como
componentes a los opuestos de los de A, es decir −A = (−aij ).

5. Dada una matriz A de orden m × n se llama matriz traspuesta de A a la matriz At


de orden n × m en la que se intercambian las filas de A con sus columnas. Es decir
el elemento que ocupa la posición (ij) en A pasa ocupar la posición (ji) en At . De
esta forma: si A = (aij ), entonces At = (atij ) = (aji ). Evidentemente (At )t = A.

Para el caso particular de las matrices cuadradas, A ∈ Mn×n (R), definiremos a su vez:

1. La diagonal principal de A son los elementos de la forma aii , con i = 1, . . . , n, es


decir: a11 , a22 ,..., ann .

2. A es triangular superior si aij = 0 para todas las componentes tales que i > j.

3. A es triangular inferior si aij = 0, ∀i < j.

4. A es una matriz diagonal si aij = 0 para i ̸= j. Las matrices diagonales a veces


se presentan especificando únicamente los elementos no necesariamente nulos, es
decir: A = diag {a11 , a22 , . . . , ann }.

5. A es simétrica si para cualquier i, j se verifica que aij = aji . Equivalentemente, A


será simétrica si At = A.

6. A es antisimétrica si para cualquier i, j se verifica que aij = −aji . Equivalente-


mente: At = −A.

7. Se denomina traza de una matriz A a la suma de los elementos de la diagonal


principal, es decir:

n
tr A = aii
i=1

2.3 El Espacio Vectorial (Mm×n (R), +, · R)


El conjunto de matrices de número reales de m filas y n columnas, Mm×n (R), tiene
estructura de espacio vectorial real (de dimensión m n) con las operaciones suma y
producto por escalares definidas de la forma siguiente:

Suma: Dadas dos matrices A = (aij ) y B = (bij ) de orden m × n, se define la matriz


suma: A + B, como la matriz m × n cuyos elemento ij es: aij + bij , A + B = (aij + bij ).
Es decir, la suma se realiza elemento a elemento.
MATRICES Y DETERMINANTES 15

Producto por un escalar: Dados λ ∈ R y una matriz A ∈ Mm×n (R), A = (aij ), se


define λA ∈ Mm×n (R) como la matriz cuyos elementos son: λ A = (λaij ), es decir la
matriz que se obtiene al multiplicar por λ todos y cada uno de los elementos de A.

Es trivial comprobar que con estas definiciones (Mm×n (R), +, · R) verifica las ocho
propiedades de la definición de espacio vectorial. Evidentemente el elemento neutro de
la suma será la matriz nula, mientras que el elemento opuesto de una matriz no es más
que su matriz opuesta. La dimensión del espacio vectorial real (Mm×n (R), +, · R) es
obviamente igual a mn.

Desde otro punto de vista, una matriz A ∈ Mm×n (R) puede ser interpretada como
un sistema de m vectores (vectores fila) del espacio vectorial Rn , o bien como un sistema
de n vectores (vectores columna), de Rm , veamos:
   
a11 . . . a1n f⃗1 ( )
 . ..   
A = (aij ) = 
.. ..
. .  =  ...  = ⃗c1 . . . ⃗cn
  
am1 . . . amn f⃗m
{ }
siendo Sc = {⃗c1 , ⃗c2 , . . . , ⃗cn } y Sf = f⃗1 , . . . , f⃗m los sistemas de vectores columna y de
vectores fila de A respectivamente. ⃗c1 , . . . , ⃗cn ∈ Rm , f⃗1 , . . . , f⃗n ∈ Rn .

⃗cj = (a1j , a2j , . . . , amj ) , j = 1, . . . , n


f⃗i = (ai1 , ai2 , . . . , ain ) , i = 1, . . . , m

2.4 Producto de Matrices. Matrices Invertibles


En el conjunto de las matrices es posible definir una operación de tipo multiplicación, el
producto de matrices, cuando el número de columnas de la primera matriz coincide con
el número de filas de la segunda. Veamos:

Producto de matrices: Sea A una matriz de m filas y p columnas, A ∈ Mm×p (R),


y sea B con p filas y n columnas, B ∈ Mp×n (R), es decir el número de columnas de
A coincide con el número de filas de B. En tal situación, se define la matriz producto
C = A · B, con C ∈ Mm×n (R), como la matriz C = (cij ) con elementos:


p
cij = aih bhj = ai1 b1j + ai2 b2j + ... + aip bpj
h=1

Desde el punto de vista citado en el apartado anterior, mediante el cual “vemos” una
matriz de números reales como un sistema de vectores fila (o de vectores columna),
el producto de matrices puede interpretarse de la siguiente forma: para construir el
16 MATRICES Y DETERMINANTES

producto A · B consideremos A como un sistema de vectores fila y B como un sistema


de vectores columna:
 
f⃗1A
 .  ( )
C = A·B =  
..  · ⃗cB
 1 . . . ⃗
cB
n = (cij )
f⃗mA

Dadas las condiciones del producto, tanto las filas de A como las columnas de B son vec-
tores del espacio vectorial Rp . Introduciremos ahora el producto escalar estándar en Rp ,
al que nos referiremos con mucho más detalle en un tema próximo. Si ⃗v1 = (x1 , . . . , xp )
y ⃗v2 = (x′1 , . . . , x′p ) son dos vectores del espacio vectorial Rp , entonces llamaremos pro-
ducto escalar estándar (o simplemente producto escalar) de ⃗v1 y ⃗v2 , y lo denotamos por
⃗v1 · ⃗v2 , (o alternativamente: ⟨⃗v1 |⃗v2 ⟩) al número real:

⃗v1 · ⃗v2 = x1 x′1 + x2 x′2 + . . . + xp x′p

De esta forma, concluimos con que el producto de las matrices A y B puede expresarse
de la siguiente forma:

C = A · B = (cij ) , cij = f⃗iA · ⃗cB


j

( ) ( )
1 2 1 2 3
Ejemplo: Sean A = yB= .
0 1 0 1 2
En primer lugar, es fácil concluir que no existe B · A, pues el número de columnas de B no
coincide con el número de filas de A. Sin embargo A · B sı́ que está bien definido y será una
matriz de orden 2 × 3 (nótese que: A2×2 · B2×3 = C2×3 ). Aplicando la definición:
( )( ) ( )
1 2 1 2 3 1 4 7
AB = =
0 1 0 1 2 0 1 2

Propiedades del producto de matrices:


1. Asociativa. El producto de matrices es asociativo. Sean A ∈ Mm×p (R), B ∈
Mp×q (R) y C ∈ Mq×n (R), entonces (A · B) · C = A · (B · C).
2. El producto de matrices no es conmutativo. Evidentemente, tal y como se ha definido
el producto, no puede ser conmutativo pues puede existir la matriz A · B y no hacerlo la
correspondiente B · A (ver el ejemplo anterior donde se presenta esta situación). Aunque
existieran ambos productos, serán matrices de diferentes tamaños (excepto en el caso de
tratarse de matrices cuadradas). Finalmente, incluso en el caso de matrices cuadradas:
A ∈ Mn×n (R), B ∈ Mn×n (R), entonces existen A · B y B · A, y ambas son matrices
n × n, pero no tienen porqué ser iguales.
MATRICES Y DETERMINANTES 17

3. Distributiva. Se verifica la propiedad distributiva del producto con respecto a la


suma. Sean A ∈ Mm×p (R), B ∈ Mp×n (R), C ∈ Mp×n (R), entonces:

A · (B + C) = A · B + A · C

Y análogamente para el producto: (A + B ′ ) · C = A · C + B ′ · C, siendo B ′ ∈ Mm×p (R).


4. Matriz Identidad. Se llama matriz identidad In ∈ Mn×n (R) a la matriz diagonal
In = diag{1, 1, . . . , 1}. Otra notación habitual es In = (δij ), siendo δij la delta de
Kronecker, sı́mbolo que representa:
{
1 si i = j
δij = i, j = 1, . . . , n
0 si i ̸= j

La matriz identidad verifica, para cualquier matriz A ∈ Mm×n (R):

Im · A = A , A · In = A

Normalmente se escribe simplemente I para la matriz identidad, sobre-entendiéndose


el sub-ı́ndice que determina el tamaño en cada caso.
Teniendo en cuenta las propiedades anteriores, el conjunto de matrices cuadradas
Mn×n (R) con las operaciones suma y producto de matrices es un anillo unitario no
conmutativo.
5. Sean A ∈ Mm×p (R) y B ∈ Mp×n (R). Entonces:

(A · B)t = B t · At

6. Si A y B son dos matrices cuadradas triangulares superiores (o inferiores), entonces


su producto A · B también es triangular superior (respectivamente inferior).
7. Si A ∈ Mn×n (R) es una matriz cuadrada, entonces tiene sentido plantear el concepto
de potencias de dicha matriz:

A2 = A · A , A3 = A · A · A , ...

de manera que se verifican trivialmente las propiedades habituales de la exponencianción:


Aa · Ab = Aa+b , etc. Por definición tomaremos: A0 = In .

Matrices Invertibles
Definición: Una matriz cuadrada A ∈ Mn×n (R) es invertible si existe otra matriz de
igual tamaño, llamada inversa de A y que denotaremos A−1 , que verifica:

A · A−1 = A−1 · A = In
18 MATRICES Y DETERMINANTES

Propiedades de las matrices invertibles:


1. Si A es una matriz invertible, entonces su inversa es única.
2. Si A es invertible, entonces A−1 también lo es, y obviamente: (A−1 )−1 = A, es decir
la inversa de la matriz inversa de A es la propia matriz A.
3. Si A y B son invertibles, entonces su producto A·B también es invertible, verificándose:

(A · B)−1 = B −1 · A−1

4. Si A es invertible, entonces su traspuesta At también lo es, y además: (At )−1 =


(A−1 )t .
5. Para las matrices invertibles tiene sentido definir las potencias negativas, de forma
evidente:
A−2 = A−1 · A−1 , A−3 = A−1 · A−1 · A−1 . . .

6. El conjunto de las matrices invertibles con la operación producto de matrices tiene


estructura de grupo no conmutativo.
Nota: Es interesante comentar que en la práctica, para comprobar que dos matrices dadas
son una inversa de la otra, basta con hacerlo únicamente en uno de las dos ordenaciones
posibles. Es decir: Si A y B son matrices cuadradas del mismo orden y además A·B = I,
entonces necesariamente B = A−1 , no es necesario por tanto comprobar que B · A = I.
Bastarı́a ası́ con definir matriz inversa por la derecha (o por la izquierda) para que una
matriz fuera invertible. Existe una demostración ingeniosa de este hecho, partiendo de
que existe B tal que A · B = I, y dando por demostrado que la inversa por la derecha
es única, se define: C = B · A − I + B, y se calcula A · C, concluyéndose que B · A = I
necesariamente.

2.5 Transformaciones elementales. Matrices elementales.


En el tema anterior se definieron las transformaciones elementales en un sistema de
vectores. Gracias a ellas podı́amos aplicar el método de eliminación Gaussiana en los
sistemas de vectores de Rn , con los consiguientes resultados prácticos de gran utilidad.
Las transformaciones elementales por filas o por columnas en una matriz van a ser
exactamente las mismas, sin más que interpretar a la matriz A ∈ Mm×n (R) como un
sistema de vectores fila o un sistema de vectores columna, respectivamente.
Tendremos por tanto que las transformaciones elementales por filas en una matriz
son las siguientes:

• Intercambiar el orden entre las filas i-ésima y j-ésima de la matriz. Se denota por
Fij .
MATRICES Y DETERMINANTES 19

• Multiplicar la fila i-ésima por un número real escalar k ̸= 0. Fi (k).

• Sumar a la fila i-ésima la fila j-ésima multiplicada por k ∈ R. Fij (k).

y análogamente para las columnas, es decir: Cij , Ci (k) y Cij (k).


Centraremos todo el análisis que viene a continuación en las transformaciones elemen-
tales por filas, si bien es completamente equivalente el análisis de las transformaciones
elementales por columnas (salvo pequeños detalles que se especificarán).
Definición: Se llama matriz elemental a la que resulta de aplicar una transformación
elemental a la matriz identidad. Si la transformación es por filas, tendremos una matriz
elemental por filas, y análogamente para el caso de columnas.
Dado que hay tres tipos de transformaciones elementales, tendremos entonces tres
diferentes tipos de matrices elementales, que denotaremos: Eij , Ei (k), Eij (k), con no-
tación heredada de la transformación elemental correspondiente.

Ejemplo: Algunas matrices elementales por filas para el caso de n = 3:


     
1 0 0 7 0 0 1 0 0
     
E23 = 0 0 1 , E1 (7) =  0 1 0 , E31 (−5) =  0 1 0 
0 1 0 0 0 1 −5 0 1

Proposición: Sea A una matriz A ∈ Mm×n (R). Sea E una matriz elemental (por filas)
de orden m × m. Entonces la matriz producto E · A es igual a la matriz que se obtiene
al realizar en A la transformación elemental por filas correspondiente a la matriz E.
Nota: Esta proposición es cierta para transformaciones por columnas, pero en ese caso
el producto debe realizarse por la derecha, es decir: A · E.
Proposición: Las matrices elementales son invertibles y sus inversas son de nuevo
matrices elementales del mismo tipo. Es fácil deducir (utilizando la proposición anterior)
cuáles son las inversas de las matrices elementales (tal y como se ha especificado antes
nos referiremos siempre, salvo que se especifique lo contrario, a matrices elementales por
filas).
- Matrices Eij . Si a la matriz Eij se le aplica la transformación elemental Fij se obtiene
obviamente la identidad, ası́ tendremos:

−1
Eij · Eij = I ⇒ Eij = Eij

- Matrices Ei (k). De manera análoga, aplicando Fi ( k1 ) a la matriz Ei (k) se obtiene la


identidad (recordemos que k ̸= 0 necesariamente). Entonces:
1 1
Ei ( ) · Ei (k) = I ⇒ Ei (k)−1 = Ei ( )
k k
20 MATRICES Y DETERMINANTES

- Matrices Eij (k). Si se aplica Fij (−k) a Eij (k) resulta nuevamente la identidad.

(Eij (k))−1 = Eij (−k)

Definición: Una matriz A′ es equivalente por filas a otra matriz A si A′ se obtiene


aplicando un número finito de transformaciones elementales por filas en A.
De esta forma, si A′ se obtiene aplicando p transformaciones elementales por filas en
A, tendremos que existen p matrices elementales: E1 , E2 , . . . , Ep de tal manera que:

A′ = Ep · Ep−1 · . . . · E1 · A

La matriz:
P = Ep · Ep−1 · . . . · E1

recibe el nombre de “matriz de paso” de A a A′ . En general, por tanto, una matriz de


paso no es más que una matriz producto de matrices elementales (evidentemente nos
referimos a matrices de paso por filas, de manera análoga se definirı́an las matrices de
paso por columnas).
Proposición: Si P es una matriz de paso, entonces es invertible, y su inversa es la
matriz de paso de la transformación inversa. Es decir:

A′ = P.A ⇔ A = P −1 .A′

Teniendo en cuenta las propiedades de las matrices invertibles, se obtiene de manera


directa:
P = Ep · Ep−1 · . . . · E1 ⇔ P −1 = E1−1 · E2−1 · . . . · Ep−1

La consecuencia inmediata de los razonamientos anteriores es que si A′ es equivalente


por filas a A, entonces A también lo es a A′ . De hecho se trata de una relación de
equivalencia (como puede comprobarse trivialmente) en el conjunto de las matrices de
un tamaño dado, y lo denotaremos de la forma: A ∼ A′ .
Definición: Sea A ∈ Mm×n (R) una matriz número de filas menor o igual que de
columnas, es decir: m ≤ n. Se dice que A es una matriz escalonada por filas si cada
vector fila de A comienza con un número de ceros superior a la fila anterior. En el caso
de matrices con mayor número de filas que de columnas, m > n, la definición anterior
es válida para las primeras n filas, siendo necesariamente nulas las m − n filas restantes.
Para el caso particular de matrices cuadradas, de la definición anterior se deduce que
una matriz escalonada por filas es necesariamente triangular superior.
El concepto de matriz escalonada por filas es completamente análogo al de sistema de
vectores escalonado que fue introducido en el tema anterior. De hecho una matriz es
MATRICES Y DETERMINANTES 21

escalonada por filas si su sistema de vectores fila es un sistema escalonado. Las técnicas
de eliminación gaussiana que planteamos entonces para los sistemas de vectores son ahora
igualmente válidas, y ası́, trivialmente, toda matriz (del tamaño que sea) es equivalente
por filas a una matriz escalonada por filas.
Teorema: Sea A ∈ Mn×n (R) una matriz cuadrada. La condición necesaria y suficiente
para que A sea una matriz invertible es que sea equivalente por filas a la matriz identidad.
Demostración: Como es lógico, separaremos la demostración en dos partes:
• A es invertible ⇒ A es equivalente por filas a la matriz identidad.
Por medio de elimación gaussiana la matriz A es equivalente por filas a una matriz escalonada U
(dado que es cuadrada, de hecho es triangular superior). Demostremos que entonces los elementos
diagonales de U deben ser no nulos necesariamente. Si alguno de los elementos diagonales fuera
nulo, entonces la última fila de U serı́a completamente nula, dado que está escalonada por filas.
Pero entonces U no podrı́a ser una matriz invertible (una matriz invertible no puede tener una fila
nula, pues su producto con otra matriz cualquiera generarı́a siempre una fila nula en el resultado,
lo cual impide la obtención de la matriz identidad). Sin embargo, tenemos que:

U = Ep · Ep−1 · . . . · E1 · A

y ası́ U es igual al producto de p + 1 matrices invertibles, luego es invertible. Concluimos por


tanto que uii ̸= 0, ∀i = 1, . . . , n.
Aplicando entonces las n transformaciones elementales por filas Fi ( u1ii ) a U , convertiremos
la matriz en una cuya diagonal principal sea enteramente de unos. A continuación, basta con
utilizar la eliminación gaussiana “hacia arriba” (proceso habitualmente llamado “remonte”),
comenzando por la última fila y eligiendo como pivotes los elementos de la diagonal. El proceso
concluirá al obtenerse la matriz identidad.
• A es equivalente por filas a la matriz identidad ⇒ A es invertible.
Si A ∼ I, entonces existen r matrices elementales de manera que:

I = Er · Er−1 · . . . · E1 · A ⇔ I = P · A , P = Er · Er−1 · . . . · E1

pero entonces es evidente que la matriz de paso P no es más que la matriz inversa de A, y en
consecuencia A es invertible. Q.E.D.

Método de Cálculo de la Matriz Inversa: Una posible manera de calcular la matriz


inversa de una matriz invertible A se deduce directamente del Teorema anterior. La
matriz inversa es simplemente la matriz de paso que lleva de A a la identidad mediante
transformaciones elementales por filas. Si escribimos (I|A), es decir la matriz identidad
y la matriz A como si constituyeran una matriz n × (2n), y aplicamos transformaciones
elementales a dicha matriz “doble” hasta llegar a que A se convierta en la identidad,
entonces, trivialmente, la matriz identidad original, bajo las mismas transformaciones,
se convertirá en la matriz de paso, es decir, la matriz inversa de A

(I|A) ∼ . . . ∼ (A−1 |I)


22 MATRICES Y DETERMINANTES

Ejemplo: Obtener la inversa de la matriz:


 
1 0 1
 
A= 1 2 2 
0 1 1

Se tiene que:
     
1 0 1 1 0 0 1 0 1 1 0 0 1 0 1
1 0 0
     
 1 2 2 0 1 0 ∼ 0 1 1 0 0 1 ∼ 0 1 1 0 0 1 ∼

0 1 1 0 0 1 1 2 2 0 1 0 0 2 1 −1 1 0
     
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 0 1 −2
     
∼ 0 1 1 0 0 1 ∼ 0 1 1 0 0 1 ∼ 0 1 0 −1 1 −1 

0 0 −1 −1 1 −2 0 0 1 1 −1 2 0 0 1 1 −1 2
 
0 1 −2
 
A−1 =  −1 1 −1 
1 −1 2

Factorización L · U
Una interesante aplicación de las matrices elementales es la descomposición L · U de una
matriz cuadrada A. Se trata de encontrar dos matrices, una triangular inferior, L, y
otra triangular superior, U , de tal manera que A = L · U . Esta descomposición tiene
especial utilidad en la resolución de sistemas de ecuaciones lineales, que veremos en un
tema posterior.
Como veremos a continuación, no siempre es posible esta descomposición. Analice-
mos el caso A ∈ M3×3 (R): buscamos una matriz L = (lij ) triangular inferior, lij = 0,
∀i < j, y tal que todos los elementos diagonales sean igual a 1: lii = 1, ∀i = 1, 2, 3:
     
a11 a12 a13 1 0 0 u11 u12 u13
     
 a21 a22 a23  =  l21 1 0  ·  0 u22 u23 
a31 a32 a33 l31 l32 1 0 0 u33

Desarrollando el producto tendremos, para la primera fila:

a11 = u11 ; a12 = u12 ; a13 = u13

es decir, la primera fila de U coincide con la primera de A. Si observamos ahora la


primera columna del producto, y suponemos que a11 ̸= 0, tendremos:
a21 a31
a21 = l21 u11 ⇒ l21 = ; a31 = l31 u11 ⇒ l31 =
a11 a11
MATRICES Y DETERMINANTES 23

y ası́ l21 y l31 son calculables en términos de los coeficientes aij (siempre y cuando
a11 ̸= 0). Pasemos a la segunda fila:

a22 = l21 u12 + u22 ⇒ u22 = a22 − l21 u12 ; a23 = l21 u13 + u23 ⇒ u23 = a23 − l31 u13

y conoceremos entonces la segunda fila de U como función de cantidades conocidas.


Continuando con el razonamiento, para la segunda columna de L y posteriormente para
la tercera de U , obtendremos todos los coeficientes de L y U con el único requisito de
que a11 y a22 sean no nulos. Sin embargo, si por ejemplo a11 = 0 la descomposición ya
no será posible. En la práctica aplicaremos el siguiente razonamiento:
Si la matriz A puede ser convertida en una matriz triangular superior utilizando
exclusivamente transformaciones elementales de los tipos: Fi (λ) y Fij (λ), siempre con
i > j, entonces las matrices elementales involucradas son necesariamente triangulares
inferiores, y sus inversas también, de esta manera:

U = Ep · Ep−1 · ... · E1 · A ⇒ A = (Ep · Ep−1 · ... · E1 )−1 · U

y dado que el producto de matrices triangulares inferiores es también triangular inferior,


tendremos que L viene dadad directamente por el producto:

L = (Ep · Ep−1 · ... · E1 )−1

Para el caso general pueden demostrarse los siguientes resultados interesantes:


Proposición 1: Si A es una matriz invertible y factorizable como producto L · U (con
lii = 1, ∀i), entonces esa factorización es única.
Proposición 2: Si A es invertible, siempre es posible encontrar una matriz de per-
mutación de filas P tal que P A sea factorizable LU .
Finalmente, anticiparemos un último resultado importante, que utiliza el concepto de
menor principal que será definido en una próxima sección de este tema:
Proposición 3: Una condición necesaria y suficiente para que una matriz invertible sea
factorizable LU es que todos los menores principales de la matriz sean no nulos.
Ejemplo: Encontrar la factorización LU de la matriz
 
1 −1 0
 
A1 =  −1 2 −1 
0 −1 2

     
1 −1 0 1 −1 0 1 −1 0
  F21 (1)   F32 (1)  
A =  −1 2 −1  ∼  0 1 −1  ∼  0 1 −1  = U
0 −1 2 0 −1 2 0 0 1
24 MATRICES Y DETERMINANTES

−1 −1
A1 = (F32 (1)F21 (1))−1 U = F21 (1)F32 (1)U = F21 (−1)F32 (−1)U ⇒ L = F21 (−1)F32 (−1)
  
1 0 0 1 −1 0
  
A = L · U =  −1 1 0  0 1 −1 
0 −1 1 0 0 1

2.6 Rango de una matriz


Definición: Se llama rango por filas de una matriz A ∈ Mm×n (R) al rango del
sistema de vectores fila de A, rf (A) = rango(Sf ) = dim L(Sf ), con Sf = {f⃗1 , . . . , f⃗m }.
Evidentemente, coincide con el número de filas linealmente independientes que aparecen
en la matriz A.

De manera equivalente se define el rango por columnas de A, considerando ahora,


lógicamente, el sistema de vectores columna de A: Sc = {⃗c1 , . . . , ⃗cn }. rc (A) = rango(Sc )
= dim L(Sc ).

Teorema del Rango: (primera versión). Dada una matriz A ∈ Mm×n (R), su rango
por filas y su rango por columnas coinciden.

Demostración. Demostraremos que si el rango por filas de una matriz A es rf (A) = r, y el


rango por columnas es rc (A) = r′ , entonces se cumple necesariamente que: r′ ≤ r.
Supongamos que la matriz A está presentada de manera que son precisamente las r primeras filas
las que son linealmente independientes (intercambiando filas si fuera necesario, lo que obviamente
no afecta al rango por filas).
 
a11 a12 ··· a1r a1,r+1 ··· a1n
 
 a21 a22 ··· a2r a2,r+1 ··· a2n 
 
 ··· ··· 
 
A=
 ar1 ar2 ··· arr ar,r+1 ··· arn 

 a · · · ar+1,r · · · ar+1,n 
 r+1,1 ar+1,2 ar+1,r+1 
 
 ··· ··· 
am,1 am,2 · · · am,r am,r+1 · · · am,n

Entonces el resto de filas, m − r, son combinación lineal de las anteriores:


r
(i)
f⃗i = λk f⃗k , i = r + 1, ..., m
k=1

o equivalentemente, para las componentes de dichas filas:


r
(i)
aij = λk akj , i = r + 1, ..., m ; j = 1, ..., n
k=1
MATRICES Y DETERMINANTES 25

Consideremos ahora un vector columna genérico de A, ⃗cj , j = 1, . . . , n. Se tiene:

⃗cj = (a1j , a2j , ..., arj , ar+1,j , ..., amj ) =


∑r
(r+1)

r
(m)
= (a1j , a2j , ..., arj , λk akj , ..., λk akj ) =
k=1 k=1
(r+1) (m) (r+1) (m)
= a1j (1, 0, ..., 0, λ1 , ..., λ1 ) + a2j (0, 1, ..., 0, λ2 , ..., λ2 ) + ... +
+arj (0, 0, ..., 1, λ(r+1)
r , ..., λ(m)
r )

y por tanto cualquier columna puede expresarse como una combinación lineal de r vectores. Esto
significa que el rango del sistema de columnas, es decir r′ , es necesariamente menor o igual que
r, puesto que todas las columnas pertenecen a un subespacio generado por r vectores.
Repitiendo el mismo razonamiento pero comenzando el mismo con las columnas deducirı́amos
que r′ ≥ r, y ası́, en definitiva, tendremos que r = r′ . Q.E.D.

2.7 Determinantes. Definición


Dada una matriz cuadrada Mn×n (R), definiremos su determinante como un número real
asociado a ella. Para el caso de matrices 2 × 2, el determinante puede ser definido de
una forma muy sencilla:
( )
a b
a b
det = = ad − bc
c d c d

Sin embargo, para tamaños superiores, la definición no es tan trivial, de manera que
debemos recordar como paso previo algunos conceptos acerca del conjunto de permuta-
ciones posibles de los elementos de un conjunto dado.

Grupo Simétrico
Denominemos N al conjunto de los n primero número naturales: N = {1, 2, ..., n}.
Llamaremos Sn al conjunto de todas las permutaciones posibles de dichos números.
Definición: Llamaremos permutación σ de n elementos a toda aplicación biyectiva del
conjunto N = {1, 2, ..., n} en sı́ mismo:
( )
1 2 ... n
σ:N →N , σ≡
σ(1) σ(2) ... σ(n)

se trata por tanto de todo reordenamiento posible de los elementos que pertenecen al
conjunto N . Suele utilizarse una notación abreviada, escribiendo: σ = (σ(1) . . . σ(n)).

Ejemplo: El grupo simétrico S3 tiene los siguientes elementos:


( ) ( ) ( )
σ1 = 1 2 3 σ2 = 1 3 2 σ3 = 2 1 3
26 MATRICES Y DETERMINANTES

( ) ( ) ( )
σ4 = 2 3 1 σ5 = 3 1 2 σ6 = 3 2 1

Recordemos que el número de permutaciones de n elementos, es decir el cardinal de Sn ,


es el factorial de n, n!.

Composición (Producto) de permutaciones: Dadas dos permutaciones σ1 y σ2 de


los elementos del conjunto N , se define el producto de permutaciones, que denotaremos
como σ2 ◦σ1 , como la simple composición de ambas aplicaciones, es decir, la permutación:
( ) ( )
1 2 ... n 1 2 ... n
σ2 ◦ σ1 = ◦
σ2 (1) σ2 (2) ... σ2 (n) σ1 (1) σ1 (2) ... σ1 (n)
( )
1 2 ... n
=
σ2 (σ1 (1)) σ2 (σ1 (2)) ... σ2 (σ1 (n))

Obviamente a partir de la operación producto de permutaciones se puede definir la


permutación inversa σ −1 como aquella que verifica que σ −1 ◦ σ = σ ◦ σ −1 = Id, siendo
Id la permutación identidad.
Es fácil dmostrar que el conjunto de las permutaciones Sn de un conjunto N con la
composición posee estructura de Grupo, el cual recibe el nombre de Grupo simétrico.

Trasposiciones: Se llama trasposición a la permutación consistente en el intercambio


de sólo dos elementos en el conjunto N . De forma genérica se tiene que,
( )
1 ... i ... j ... n
τ :N →N , τ≡
1 ... j ... i ... n

Con cierta frecuencia se utiliza la notación τij para denotar la trasposición anterior.

Proposición: Toda permutación puede escribirse como el producto (composición) de


trasposiciones, esto es, ∀σ ∈ Sn se verifica que σ = τp τp−1 · ... · τ1 .

Proposición: Si una permutación σ puede descomponerse en el producto de p trasposi-


ciones, con p par, entonces todas las descomposiciones posibles de σ requieren un número
par de trasposiciones, y análogamente si p es impar.
Se dice que una permutación es par si descompone en un número par de trasposi-
ciones. En caso de que dicho número sea impar hablaremos de permutaciones impares.

Definición: El signo de una permutación, que denotaremos por sign(σ) es,


{
+1 si σ es par
sign(σ) =
−1 si σ es impar
MATRICES Y DETERMINANTES 27

Definicion de Determinante
Definición: Dada una matriz cuadrada A de números reales, A = (aij ), se llama
determinante de A, |A| o det(A), al número real:

det(A) = |A| = sign(σ) a1σ(1) · a2σ(2) · ... · anσ(n)
σ∈Sn

En la definición anterior se ha elegido que en cada término de la suma estén fijadas


las filas y se permuten los números de columna. Es posible definir alternativamente el
determinate intercambiando dichos papeles entre filas y columnas. Aclararemos esta idea
a continuación, en las propiedades de los determinantes. En cualquier caso, la definición
alternativa serı́a:

det(A) = |A| = sign(σ) aσ(1)1 · aσ(2)2 · ... · aσ(n)n
σ∈Sn

Determinantes de orden 2: Si A es de orden 2, es evidente que la definición nos


conduce a la expresión que ya habı́a sido introducida en el apartado anterior:

|A| = sign(σ) a1σ(1) a2σ(2) = 1 · a11 a22 + (−1) · a12 a21 = a11 a22 − a12 a21
σ∈S2

Determinantes de orden 3: De manera análoga, para el caso 3 × 3 se tiene:



|A| = sign(σ) a1σ(1) a2σ(2) a3σ(3) =
σ∈S3
= 1a11 a22 a33 − 1a11 a23 a32 − 1a12 a21 a32 + 1a12 a23 a31 − 1a13 a22 a31 + 1a13 a21 a32 =
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − (a13 a21 a32 + a12 a21 a33 + a11 a23 a32 )

que frecuentemente es llamada “Regla de Sarrus”.

2.8 Propiedades de los determinantes


Presentaremos a continuación una serie de propiedades básicas de los determinantes,
cuyas demostraciones son sencillas (aunque no las incluiremos):
Sea A una matriz cuadrada de orden n × n. Denotaremos:
 
f⃗1
 ⃗ 
 f2 
A = (aij ) = 
 .. 

 . 
f⃗n

y ası́ f⃗1 , . . . , f⃗n son los vectores fila de A.


28 MATRICES Y DETERMINANTES

1. El determinante de la matriz A y el de su traspuesta At coinciden, es decir: |A| = |At |.


Esta propiedad tiene como consecuencia que todo lo que se exponga a continuación
relativo a las filas de un determinante será válido también para las columnas.
2. El determinante es lineal en cada fila y cada columna (suele utilizarse entonces el
término “multilineal”). Esto significa que se verifican las siguientes relaciones:

f⃗ + f⃗′ f⃗ f⃗′ λ f⃗ f⃗
1 1 1 1 1
. .1 . .
.
.. = .. + .. , .. = λ ..

⃗ ⃗
fn ⃗ fn fn
⃗ ⃗ fn fn

y análogamente para cualquiera de las restantes filas. En el Tema próximo se explicará


con detalle qué significa el concepto de aplicación lineal.
3. Si la matriz A tiene una fila nula, entonces |A| = 0.
4. Si la matriz A′ se obtiene intercambiando en A el orden de dos filas, entonces |A′ | =
−|A|, es decir el determinante cambia de signo bajo una transformación elemental por
filas de tipo Fij . Como consecuencia directa de esta propiedad, si una matriz tiene dos
filas iguales automáticamente su determinante es nulo.
5. Si la matriz A′ se obtiene aplicando una transformación elemental por filas de tipo
Fi (k) en la matriz A, entonces: |A′ | = k |A|. Nótese que esta propiedad está incluida
en la anteriormente expuesta Propiedad 2.
6. Si la matriz A′ se obtiene aplicando en A una transformación elemental de tipo Fij (k),
entonces sus determinantes coinciden, es decir: |A′ | = |A|.
7. Si A es una matriz triangular (superior o inferior), entonces el determinante de A
es igual al producto de los elementos de la diagonal principal de A. En particular,
evidentemente, esta propiedad se aplica a las matrices diagonales.
8. El determinante del producto de dos matrices A y B es igual al producto de los
determinantes de cada matriz, es decir: |A · B| = |A| |B|.
9. Si una de las filas de la matriz A depende linealmente de las demás, entonces |A| = 0.
Entonces evidentemente, si |A| ̸= 0, el sistema de vectores fila de A es un sistema libre.
10. Una matriz A es invertible si y sólo si su determinante es distinto de cero. Además,
el determinante de la matriz inversa es igual al inverso del determinante de la matriz A.

2.9 Menores, adjuntos y Matriz adjunta


Definición: Dada una matriz A de orden m × n, llamaremos menor de orden p de A
al determinante de cualquier submatriz que se obtenga a partir de A por la intersección
de p filas y p columnas.
MATRICES Y DETERMINANTES 29

Definición: Dada una matriz cuadrada A se llama menor complementario αij de la


posición ij al menor de orden n − 1 que se obtiene al eliminar en A la fila i−ésima y la
columna j−ésima.
Definición: Sea A una matriz cuadrada de orden n, se llama adjunto del elemento ij
al número real:
Aij = (−1)i+j αij

Definición: Sea A una matriz cuadrada de orden n. Se llama matriz adjunta de la


matriz A, y de denota por Ad(A) a la matriz que tiene como elementos a los adjuntos
de los elementos de la matriz A: Ad(A) = (Aij )
Proposición: Sea A ∈ Mn×n (R) una matriz invertible, entonces se verifica:
1 1
A−1 = Ad(At ) = (Ad(A))t
|A| |A|

Proposición. Desarrollo de un determinante por una fila o columna. Sea A ∈ Mn×n (R)
una matriz cuadrada, entonces se verifica:

n
|A| = aij Aij ∀j = 1, . . . , n
i=1
∑n
|A| = aij Aij ∀i = 1, . . . , n
j=1

La primera expresión es lo que se conoce como desarrollo del determinante por la columna
j−ésima, mientras que la segunda es el desarrollo por la fila i−ésima. Esta propiedad de
los determinantes (llamada a veces Desarrollo de Lagrange) nos indica que es posible re-
ducir el cálculo de un determinante de orden n a una combinación lineal de determinantes
de orden n − 1 (los que aparecen en los adjuntos correspondientes). En particular, una
elección adecuada de la fila o columna por la que se va a desarrollar permite simplificar
mucho el cálculo final.

2.10 Teorema del Rango


En una sección anterior se defició el rango por filas y el rango por columnas de una matriz
A ∈ Mm×n (R). Definiremos ahora una tercera posibilidad, el rango por menores:
Definición: Se llama rango por menores de una matriz A ∈ Mm×n (R) al mayor de los
ordenes de los menores no nulos contenidos en dicha matriz.
Teorema del Rango. Dada una matriz A ∈ Mm×n (R), su rango por filas, su rango
por columnas y su rango por menores coinciden.
Gracias a este Teorema toda matriz de números reales tiene un único rango definido
que puede ser calculado independientemente por filas, por columnas o por menores.

Vous aimerez peut-être aussi