Vous êtes sur la page 1sur 16

CAPÍTULO 1

OPERACIONES ALGEBRAICAS, MATRICES Y DETERMINANTES

1.1 MATRICES
Definición 1.1
Una matriz de números reales de orden n x m es una tabla de n filas y m columnas de
números reales. Cada número tiene asignada una posición (i, j) de modo que, fijado su orden,
podemos representar una matriz genérica por , en donde representa el valor situado
en la fila i y columna j, para = 1,2, … , y = 1,2, … , es decir


= ⋮ ⋱ ⋮

Al conjunto de todas las matrices de n filas y m columnas lo denotaremos por

Definición 1.2
Una matriz se dice cuadrada si el número de filas coincide con el de las columnas, es decir =
. En caso contrario, si n distinto de m la matriz se dice rectangular. Al conjunto de matrices
cuadradas se les dice matrices de orden n y se les suele denotar simplemente por .

Observación 1.1
Dada una matriz = ∈ , una submatriz de A es cualquier matriz de tamaño menor
formada por un subconjunto de las filas y columnas de A.

Definición 1.3
En el conjunto de las matrices de orden n x m se define la suma y el producto por un
número real ∈ ℝ de la forma siguiente

+ = + , =

Definición 1.4
Dada dos matrices = ∈ , = ∈ , en donde asumimos que el número
de columnas de la primera sea igual al número de filas de la segunda, entonces el producto de
A por B, denotado por AB, es la matriz = ( ) ∈ definida de la manera siguiente

( )= =( + + ⋯+ )=

Observación 1.2
En algunas referencias, se utiliza la notación x para denotar el producto de matrices. Es decir
AB = A x B.
En general, a la matriz

0 ⋯ 0
0= ⋮ ⋱ ⋮
0 ⋯ 0

con todas sus entradas nulas la denominaremos matriz nula para cualquier tamaño de matriz.
Se verifican las siguientes propiedades, en donde todas las matrices tiene un tamaño adecuado
que hace que la operación correspondiente tenga sentido.

Proposición 1.1
Se cumplen las siguientes propiedades:
 + = +
 ( )=( )
 0=0
 ( + )= +
 ( + ) = +
 ( ) = ( ) = ( ) ∈ℝ

Definición 1.5
Sea ∈ . Se llama matriz traspuesta de A a la matriz ∈ que se obtiene
cambiando filas por columnas, es decir, si = , entonces = .

Proposición 1.2
Sean A y B matrices de tamaño adecuado, se tienen las siguientes propiedades inmediatas.
 =( )
 ( + ) = +
 ( ) =
 ( ) =

1.1.1 Matrices cuadradas

Sea el conjunto de las matrices cuadradas de orden n

Definición 1.6
Sea ∈ . Definimos los siguientes tipos de matrices.
 A es una matriz diagonal si todos los elementos que no pertenecen a la diagonal
principal son cero, es decir, = 0 si ≠ .
 A es una matriz simétrica si = para todo , = 1,2, … , .. Es decir, si

Definición 1.7
La matriz cuadrada de orden n cuya diagonal principal está formada por unos y el resto ceros
se llama matriz unidad o identidad y se denota por
1 0 … 0
0 1 … 0
=
… … … …
0 0 … 1

Al igual que en el producto de números reales, al multiplicar cualquier matriz por la unidad se
vuelve a obtener la misma matriz. Es decir, dada ∈ se tiene

= =

Definición 1.8
En general diremos que ∈ es la matriz inversa de una matriz no nula ∈ si

= =

En general denotaremos la matriz inversa por =

Observación 1.3.
La matriz inversa, si existe, es única. Una matriz cuadrada A se dice que es regular si existe su
matriz inversa, y singular en el caso de que no exista.

Para un número real no nulo ≠ 0, su inverso (multiplicativo) = siempre existe. En


cambio, no toda matriz no nula 0 ≠ ∈ tiene inversa.

1.2 OPERACIONES Y ESTRUCTURAS ALGEBRAICAS

1.2.1 Definición de operación

Dado dos conjuntos M, N su producto cartesiano M x N, (no confundir con el producto de


matrices), viene dado por el conjunto de pares ordenados ( , ) de dichos conjuntos,

= {( , ): ∈ , ∈ }

Por ejemplo, si = { , , }, = {1,2},

= {( , 1), ( , 2), ( , 1), ( , 2), ( , 1), ( , 2)}

Definición 1.9
Una operación o ley de composición interna ⋄ en un conjunto cualquiera M, es una aplicacion
de M x M en M, es decir,

⋄ ∶ →
( , ) ⟼ ⋄

es una relación que a cada par de elementos a,b de M le hace corresponder un elemento de M
que designamos por ⋄
1.3 Propiedades de una operación
Definición 1.10
Sea o una operación definida sobre un conjunto M.
 Una operación ⋄ es conmutativa si ⋄ = ⋄ para todo , ∈ .
 ⋄ es asociativa si ( ⋄ ) ⋄ = ⋄ ( ⋄ ) para todo , ∈ .
 ⋄ posee elemento neutro ∈ si ⋄ = ⋄ = para todo , ∈ .
 Si ⋄ posee elemento neutro , se dice que ′ ∈ es el elemento inverso de si

⋄ = ⋄ =

Durante el curso nuestro interés estará puesto en las operaciones involucradas en la


resolución y clasificación de sistemas lineales. Por ello, como iremos viendo en esta y en la
siguiente unidad didáctica, estamos interesados en las operaciones definidas sobre el
conjunto de vectores de n componentes reales.

ℝ = { = ( ,…, ): ∈ ℝ}

La primera operación a considerar es la suma de vectores.

Observación 1.4
Sobre el conjunto de los vectores de n componentes reales

ℝ = { = ( ,…, ): ∈ ℝ}

podemos definir una operación suma + de manera natural. Para todos = ( ,… ), =


( , … , ) ∈ ℝ definimos la suma + por

( ,… ) + ( ,…, )=( + ,…, + )

 + es conmutativa
 + es asociativa. Para todos , , ∈ ℝ , se tiene + ( + ) = ( + ) +
 Existe elemento neutro dado por vector nulo = 0 = (0, … ,0) tal que + 0 =
 Todo elemento = ( , … , ) ∈ ℝ tiene inverso dado por el vector opuesto − =
(− , … , − ) ∈ ℝ para el que + (− ) = 0

Otro tipo de operaciones fundamentales, asimismo involucradas en la resolución de sistemas


lineales, son las operaciones suma y producto sobre el conjunto de matrices.

Observación 1.5
La suma de matrices de números reales de cualquier tamaño es conmutativa, asociativa, y
tiene elemento neutro dado por la matriz nula. Es consecuencia directa de las mismas
propiedades de los números reales.
su suma se puede escribir del siguiente modo

 + es conmutativa y asociativa, sin más que aplicar a cada entrada de la matriz las
propiedades correspondientes de los números reales.
 El elemento neutro es

 Y siempre existe inverso (opuesto) de cualquier matriz A dado por

Ya que claramente

Observación 1.6
Hemos visto que el producto se define entre matrices de determinado tamaño, y por tanto la
operación solamente tiene sentido entre ciertos tipos de matrices. En el caso de las matrices
cuadradas , la operación producto siempre tiene sentido, y además verifica las propiedades
de asociatividad y existencia de elemento neutro, dado por la matriz identidad. En cambio no
es conmutativo en general.

El producto de matrices

 Es asociativo.
 No es conmutativo.
 Existe elemento neutro dado por la matriz identidad
1 0
= =
0 1
 No toda matriz no nula tiene inversa.

1.3.1 Ley de composición externa

Existen otro tipo de operaciones que involucran dos conjuntos diferentes, por ejemplo cuando
multiplicamos una matriz o un vector por un escalar. En este caso, tenemos lo que se llama
una operación o ley de composición externa. En el curso solamente consideraremos leyes de
composición externa de tipo producto por un escalar.

1.3.2 Estructuras algebraicas

Una estructura algebraica es un conjunto (no vacío) en el que están definidas una o más
operaciones que poseen determinadas propiedades.

Definición 1.11
Sea un conjunto sobre el que hay definida una operación ⋄. Diremos que ( ,⋄) es un grupo
si para todos , , ∈ se verifica:
 ⋄( ⋄ )=( ⋄ )⋄ Ley asociativa
 Existe tal que ⋄ = ⋄ = Existencia de elemento neutro
 Existe tal que ⋄ = Existencia de elemento inverso

Un grupo se dice conmutativo o abeliano si además verifica

⋄ = ⋄ Ley conmutativa de la suma

La principal estructura algebraica que estudiaremos a lo largo del curso será la de espacio
vectorial.

Definición 1.12
Sea un conjunto dotado de una operación interna + y una operación producto por escalar ∙.
( , +,∙) se dice espacio vectorial si
 ( , +) es un grupo conmutativo.
 Además, para todo , ∈ ℝ, , ∈ se tiene
o ∙( + )= ∙ + ∙ Distributiva respecto a +
o ( )
+ ∙ = ∙ + ∙ Distributiva respecto a + ℝ
o ( ∙ ) =( )∙ Asociativa respecto al producto por un escalar de
o 1∙ =

Observación 1.7
 (ℝ , +,∙), el conjunto de vectores de n componentes con su suma usual + y el
producto por un escalar ∙ es un espacio vectorial.
 ( , +,∙) el conjunto de matrices de números reales de orden cualquiera con
la suma y producto por escalar verifican también la estructura de espacio vectorial.
Por ello, solemos referirnos a dichas operaciones globalmente como operaciones vectoriales.
Junto con el producto de matrices son las operaciones involucradas en la resolución y
clasificación de sistemas lineales.

1.4 Métodos de eliminación de Gauss


Los métodos de eliminación de Gauss para resolver sistemas lineales, coloquialmente hacer
ceros por filas (o columnas), busca reducir dicha matriz a una matriz equivalente más sencilla
aplicando una serie de operaciones elementales (permutación de filas, multiplicación por un
escalar, etc.) a la matriz. Se trata en esta sección de entender desde una perspectiva práctica
que dicho algoritmo no es más que la multiplicación reiterada por determinadas matrices
denominadas elementales.

1.4.1. Operaciones y matrices elementales

Definición 1.13
Las operaciones elementales por fila son:
 Intercambiar dos filas ⟷ , ≠
 Multiplicar una fila por un escalar ≠ 0 ( → )
 Sumar a una fila otra fila distinta multiplicada por un escalar → + ≠

Las operaciones elementales nos permiten simplificar un sistema lineal a uno equivalente
fácilmente calculable.

Cada una de las operaciones equivale a multiplicar por la izquierda por una determinada
matriz elemental.

Definición 1.14
Se define la matriz elemental como la matriz resultado de permutar las filas y en la
matriz identidad.

Definición 1.15
Se define la matriz elemental ( ) la matriz resultado de sustituir en la matriz identidad, la
entrada ( , ) por el número .

Definición 1.16
Se define la matriz elemental ( ) como la matriz resultado de añadir a la matriz identidad el
número real en la entrada ( , ).

La transformación de una matriz mediante operaciones elementales se corresponde a


multiplicar por matrices elementales siguiendo el orden dado. Al producto de dichas
matrices elementales , se le suele denominar matriz de paso y verifica que = ′

Observación 1.8
Téngase en cuenta que las transformaciones elementales no solamente se aplican a matrices
cuadradas, sino a cualquier matriz rectangular.
Observación 1.9
Aunque nuestro interés primordial está puesto en las operaciones elementales por filas, es
evidente que también podemos considerar las correspondientes operaciones elementales por
columna.
 Intercambiar dos columnas ⟷ , ≠
 Multiplicar una columna por un escalar ≠ 0 ( → )
 Sumar a una columna otra columna distinta multiplicada por un escalar
→ + ≠

En este caso, las operaciones elementales por columnas so corresponden con multiplicar por la
derecha las correspondientes matrices elementales.

= =
( )= ( ) = ( )
( )= ( ) = ( )

1.4.2 Matriz escalonada. Rango de una matriz

Definición 1.17
Una matriz ∈ se dice escalonada si cumple:
 Si hay filas nulas están al final de la matriz.
 Cada fila debe comenzar con al menos un cero más que la fila anterior. Al primer
elemento no nulo de cada fila lo denominamos pivote.

A partir de la noción de matriz escalonada podemos definir la noción de rango que como
veremos es un concepto fundamental en Álgebra.

Definición 1.18
Diremos que dos matrices , ∈ son equivalentes si una es el resultado de aplicar
operaciones elementales sobre la otra. En dicho caso lo denotaremos por ≈ .

Definición 1.19
Sea una matriz ∈ . El rango de es el número de filas no nulas de cualquier matriz
escalonada equivalente. Lo denotaremos por rango( )

1.4.3 Teorema de Gauss-Jordan

Un caso de matriz escalonada es aquella donde los pivotes valen 1 y son los únicos elementos
no nulos de las columnas. El teorema de Gauss-Jordan nos asegura que para cada matriz
existe una única matriz escalonada equivalente de este tipo que denominaremos matriz
escalonada reducida.

Definición 1.20
Dada ∈ su matriz escalonada reducida viene dada por las siguientes propiedades:
 Está en forma escalonada.
 Los pivotes valen 1.
 En cada columna donde hay un pivote, el resto de los elementos son ceros.

La matriz escalonada reducida es única y se denotará por red( ).

Teorema 1.1
Toda matriz ∈ se puede transformar en una matriz en forma escalonada reducida
mediante operaciones elementales por filas. Es decir existe una matriz de paso ∈
producto de matrices elementales, tal que ( )=

1.4.4 Sistemas lineales. Método de eliminación de Gauss-Jordan

Las transformaciones elementales sobre matrices nos permiten definir diversos algoritmos
para clasificar y resolver sistemas lineales, es decir, para estudiar si un sistema lineal tiene o no
solución y para calcular dichas soluciones explícitamente.

En el método Gauss-Jordan se transforman mediante operaciones elementales las matrices


asociadas al sistema lineal hasta llegar a su matriz escalonada reducida que nos proporciona
un sistema lineal equivalente y simplificado, que nos permite analizar de manera sencilla si
tiene solución y hallar explícitamente las mismas.

Así, consideramos ahora un sistema lineal estándar de incógnitas y ecuaciones


 Encontrar = ( , … , ) ∈ ℝ verificando

+ ⋯+ =
⋮ ⋮ ⋮
+ ⋯+ =

Denotando matricialmente

Podemos expresar el sistema lineal de la siguiente manera, en donde ∈ es la


matriz de coeficientes del sistema lineal, x el vector de incógnitas y b el término
independiente del sistema lineal.

 Encontrar = ( ,…, ) ∈ ℝ tal que


Si conseguimos la matriz de paso de y multiplicamos por la derecha a ambos lados del
sistema lineal

= ⇔ =

llegamos a un sistema lineal equivalente es decir que tiene las mismas soluciones que el
anterior. Y tal que la nueva matriz del sistema red( ) = es escalonada reducida. El sistema
resultante = es un sistema lineal trivial.

El proceso anterior se corresponde con transformaciones elementales sobre la matriz


ampliada ∗ = ( | ) resultado de adjuntar el término independiente a la matriz de
coeficientes.

Un sistema lineal puede tener solución o no, y en caso de tenerla puede ser única o un
conjunto de infinitas soluciones dependiendo de una serie de parámetros. La condición que
determina si un sistema tiene solución es que el rango de la matriz de coeficientes y la matriz
ampliada coincidan ( )= ( ∗)

En caso de que los rangos coincidan = ( )= ( ∗ ), el número de parámetros


del conjunto solución viene dado por la diferencia entre el número de incógnitas y el rango
= − .

El algoritmo de Gauss-Jordan nos permite clasificar y resolver un sistema en base a las dos
condiciones siguientes:
[ 1] La condición de resolubilidad ( )= ( ∗ ) implica que una vez que
hemos llegado mediante transformaciones elementales a la matriz escalonada
reducida, el número de filas no nulas de la matriz ampliada coincide con el número de
filas no nulas de la matriz escalonada equivalente a A. En caso contrario el sistema
lineal no tiene solución.
[ 2] Cuando se cumple la condición = − , el sistema lineal tiene por tanto
solución y el conjunto de soluciones se puede determinar por un conjunto finito de
parámetros. Los parámetros no son más que las variables cuyas columnas no
contienen un pivote. En caso de que todas las columnas contengan un pivote,
entonces el sistema lineal tiene cero parámetros y por tanto solución única.

1.5 Determinantes
A cualquier matriz cuadrada ∈ de orden cualquiera ≥ 1 le podemos asociar un número
real que denominamos determinante y que nos permite determinar numerosas propiedades
de dicha matriz, por ejemplo, su rango o si la matriz tiene inversa.

1.5.1 Definición de determinante

El determinante de una matriz cuadrada ∈ que denotaremos indistintamente por det


o | | cuando no es posible confundirlo con el valor absoluto, es una aplicación

: → ℝ
↦ ( )

Que tiene una definición general complicada.

Para orden = 1, el determinante simplemente

( )=
Para orden 2 toma la expresión

= −

En general, dada una matriz cuadrada ∈ , designamos por , ∈ la submatriz


asociada al elemento obtenida al suprimir la fila y la columna de . Podemos definir el
determinante , ( ), de como la suma

( )=| |= (−1) ,

= (−1) , + (−1) , +⋯+ (−1) ,

Para cualquier columna ∈ {1, … , }. El término

≔ (−1) ,

Se dice adjunto de siendo , el menor de

En general, la definición también funciona si desarrollamos por filas en vez de columnas.

Siguiendo el proceso anterior, aplicando la definición para = 3 hallamos la regla de Sarrus


para el cálculo de un determinante de orden 3.

= + + − −

1.5.2 Propiedades de los determinantes

Proposición 1.3
El determinante de una matriz cuadrada coincide con el de su traspuesta. Sea ∈ se
cumple

=
Proposición 1.4
El determinante del producto de dos matrices es igual al producto de los determinantes. Sean
, ∈ se cumple

Determinantes de las matrices elementales


 El determinante de la matriz elemental que permuta las filas y vale siempre −1

= −1 para ≠ ∈ {1, … , }
Luego si tenemos una matriz ∈ la matriz

Resultado de intercambiar las filas y , aplicando la propiedad del producto tiene


determinante

= = (−1) ∙ para todo ≠

De signo contrario al de . De aquí deducimos que si intercambiamos las filas de una


matriz, su determinante cambia de signo.

 El determinante de la matriz elemental correspondiente a multiplicar una fila por un


escalar ≠ 0 no nulo vale siempre dicho escalar . Es decir:

( ) = , para todo ∈ {1, … , }

Luego para una matriz arbitraria ∈ , la matriz

( )

Resultado multiplicar la fila por , aplicando la propiedad del producto, tiene por
determinante

( ) = ( ) = para todo

De aquí deducimos que si a una matriz le multiplicamos una fila por un número real,
su determinante se multiplica asimismo por dicho número.

 El determinante de la matriz elemental ( ) que a la fila le suma la fila


multiplicada por un escalar vale siempre 1.

( ) = 1 para todo ≠ ∈ {1, … , }, ∈ ℝ

Luego para una matriz arbitraria ∈ , la matriz

( )
Resultado de sumar a la fila la fila multiplicada por , aplicando la propiedad del
producto, tiene el mismo determinante

( ) = para todo ≠ ∈ {1, … , }

De aquí deducimos que si a la fila de una matriz le sumamos otra fila multiplicada por
un escalar, su determinante no varía.

A partir de estas propiedades se pueden deducir otras. Por ejemplo, si tenemos una matriz ∈
que tiene dos filas iguales, por ejemplo , ∈ ℕ, restando a la fila la fila mediante la
operación elemental correspondiente llegamos a otra matriz

(−1)

Que tiene una fila nula, luego su determinante es nulo. Como hemos visto que dicha operación
elemental no varía el determinante, llegamos a la conclusión que el determinante de la matriz
original es nulo también.

= (−1) = 0

Esto prueba en general que si una matriz tiene dos filas iguales su determinante es nulo. Del
mismo modo se puede razonar otras propiedades. Las más importantes son:

Proposición 1.5
Se cumplen las siguientes propiedades elementales:
 Si una matriz tiene dos filas (o columnas) iguales, entonces su determinante es cero.
 Si dos filas (o columnas) de una matriz se permutan entre sí, el determinante de la
nueva matriz es −| |
 Si a una fila (o columna) de una matriz le sumamos otra fila (o columna) de la matriz,
entonces el determinante de la matriz resultante es igual al determinante de , es
decir | | = | |
 Si a una fila (o columna) la multiplicamos por un número , entonces el determinante
de la matriz resultante es igual al determinante de multiplicado por , es decir
| |= | |
 Si una fila (o columna) de una matriz es combinación lineal de otras filas (o
columnas), entonces el determinante de es cero.
 Si a una fila (o columna) de una matriz se suma una combinación lineal de las demás
el determinante de la nueva matriz es igual al determinante de .
 El determinante de una matriz diagonal es igual al producto de los elementos de su
diagonal.
 El determinante de una matriz escalonada cuadrada es igual al producto de los
elementos de su diagonal.

1.5.3 Definición de rango mediante el determinante


En general, como las operaciones elementales nunca tienen determinante nulo, el
determinante de la matriz de paso es siempre no nulo y por tanto no puede anular el
determinante de la matriz.

Proposición 1.6
En general, dada una matriz cuadrada ∈ se verifica que

= ( )

Con ≠ 0. El factor = | | se corresponde con el inverso del determinante de la matriz de


paso que necesariamente es no nulo.

Hemos definido el rango de una matriz como el número de filas no nulas de cualquier matriz
escalonada asociada. En particular se puede probar que, debido a la especial forma de las
matrices escalonadas, esto es equivalente al mayor orden para el que podemos encontrar una
submatriz de determinante no nulo. De hecho, en el caso de las matrices escalonadas nos
podemos ceñir a los determinantes de las submatrices principales, es decir aquellas
submatrices que tiene el primer elemento de la primera fila, , como extremo superior
izquierdo.

Como las operaciones elementales no pueden anular el determinante, razonado en general


mediante el producto de submatrices se puede probar que el rango de una matriz coincide
con el mayor orden para el que podemos encontrar una submatriz, no necesariamente
principal, de determinante no nulo.

Teorema 1.2
El rango de una matriz cualquiera ∈ viene dado como el mayor orden para el que
podemos encontrar una submatriz cuadrada de determinante no nulo.

1.6 Matrices inversas

1.6.1 Teorema de la caracterización de la inversa


Dada una matriz cuadrada ∈ recordemos que su matriz inversa ∈ se define
como el elemento inverso con respecto del producto

= =

Contrariamente a los números reales, no toda matriz no nula tiene inversa.

La herramienta que determina si una matriz tiene o no inversa es el determinante. Mediante la


definición de determinante se puede probar que una matriz tiene inversa si y solamente si su
determinante es no nulo. Además podemos obtener una fórmula de la inversa mediante la
matriz adjunta asociada. A este resultado se denomina teorema de caracterización de la
inversa.

Denotamos por adjunto de


≔ (−1) ,

Por ( )∈ denotaremos la matriz adjunta

( )=

Teorema 1.3
El teorema de caracterización de la inversa nos dice cuándo existe inversa y nos da una
fórmula para calcularla.

Sea una matriz cuadrada = ∈ . tiene inversa si y solamente si su determinante es


no nulo, es decir, )
( ≠ 0. En dicho caso, la matriz inversa viene dada por

1
= ( )

1.6.2 Calculando la matriz inversa mediante operaciones elementales

Supongamos que ∈ es una matriz cuadrada regular, es decir, una matriz que tiene
inversa. Al calcular su matriz escalonada reducida estamos determinando una matriz de
paso ∈ tal que =

Como la matriz es regular, por tanto de determinante no nulo por el teorema de


caracterización de la inversa, no es difícil ver que la matriz escalonada reducida es
necesariamente la matriz unidad. Piense que en caso contrario contendría una fila nula, lo que
haría que su determinante fuese nulo y necesariamente también el de la matriz lo que
contradice que es regular. Esto también prueba que el rango de es maximal, es decir igual
a . Por tanto, ( ) = y se tiene que

= ( )= ⇒ =

Lo que prueba que la matriz de paso en el caso de matrices regulares es la propia matriz
inversa

Y justifica el algoritmo conocido de cálculo de la matriz inversa mediante el método de


eliminación de Gauss.

Una manera de escribir este desarrollo es el método de eliminación gaussiana para calcular la
matriz inversa. Adjuntando en una misma matriz, a la izquierda la matriz y a la derecha la
matriz identidad.

( | )
Se realizan operaciones elementales en ambas matrices hasta llegar a la identidad en la
derecha, matriz escalonada reducida de ,

( | ) → ( | ) ,

De manera que en la parte izquierda obtengamos la matriz de paso y por tanto su inversa.

Proposición 1.7
Sea = ∈ una matriz cuadrada de orden . Los siguientes enunciados son
equivalentes:
 ( )=
 ( )≠0
 ( )=
 tiene inversa. Además podemos calcularla como
1
= ( )