Académique Documents
Professionnel Documents
Culture Documents
El concepto de matriz se fraguó a lo largo de los siglos XVIII y XIX con el objetivo de sistematizar
los métodos de resolución de sistemas de ecuaciones lineales con numerosas incógnitas. En la
actualidad, la teoría de matrices se ha convertido en una poderosa herramienta al servicio de muchas
disciplinas científicas, desde la física y las ciencias naturales hasta la economía.
En sentido genérico, los elementos de la matriz se simbolizan por aij, siendo i el número de fila y j el
número de columna que ocupan. Las matrices también se representan por la notación A = (aij), con i =
1, 2, 3, ..., m, y j = 1, 2, 3, ..., n.
Una matriz formada por m filas y n columnas se dice que tiene orden o dimensión m x n. Dos
matrices del mismo orden se consideran iguales cuando son iguales, dos a dos, los elementos que
ocupan el mismo lugar.
Clases de matrices
En términos generales, una matriz tiene m filas y n columnas, siendo m n. En tal caso, la matriz se
llama rectangular. Ahora bien, cuando el número de filas y el de columnas coinciden, la matriz
es cuadrada, con dimensión n x n; en este caso, los elementos de la matriz de subíndices a11, a22, a33,
..., ann ocupan la llamada diagonal principal de la matriz. Esta diagonal adquiere importancia en la
resolución de determinantes (ver t 16).
Una matriz cuadrada se denomina triangular cuando todos los elementos situados por encima o por
debajo de la diagonal principal son nulos.
Una matriz se denomina diagonal cuando todos los elementos, excepto los de la diagonal principal,
son cero.
Otro concepto importante en la teoría de matrices es el de matriz traspuesta. Dada una matriz A de
orden m x n, su traspuesta, denotada por At, es otra matriz de dimensión n x m, donde se han
intercambiado las filas de la primera matriz por columnas y las columnas, por filas.
Suma de matrices
Al sumar dos matrices de igual orden o dimensión se obtiene una nueva matriz cuyos elementos se
calculan como la suma de los elementos de la misma fila y columna de las dos matrices, que actúan
como sumandos.
Dadas dos matrices A = (aij) y B = (bij), con i = 1, 2, 3, ..., m y j = 1, 2, 3, ..., n, ambas de orden m x n,
la matriz suma de las dos se obtendría de la forma siguiente:
Como ampliación del concepto de producto, puede definirse la potencia enésima de una
matriz como el producto de ésta por sí misma n veces. Para que una matriz pueda multiplicarse por sí
misma tiene que ser cuadrada. Es decir:
Sistemas De Ecuaciones Lineales Y Matrices
La teoría general de matrices encuentra una de sus aplicaciones más inmediatas en la resolución de
sistemas de ecuaciones lineales con múltiples incógnitas. Aunque posteriormente fue objeto de un
extenso desarrollo teórico, este campo de las matemáticas surgió en realidad como un instrumento de
cálculo para facilitar las operaciones algebraicas complejas.
Para dicha matriz A de orden n, se dice que existe una matriz inversa A-1 también de orden n, cuando
el producto de ambas es igual a la matriz identidad: A A-1= A-1 A = I.
Toda matriz que tiene inversa se dice inversible o regular, mientras que cuando carece de inversa se
denomina matriz singular.
Para calcular la matriz inversa de una dada, puede recurrirse a la resolución de las ecuaciones que
plantearía el producto de matrices A X = I, siendo los coeficientes de A e I conocidos y los de X
correspondientes a las incógnitas. También se puede aplicar el llamado método de reducción o
gaussiano, según el siguiente esquema:
Dada la matriz original A = (aij), con i, j = 1, 2, ..., n, se forma primero su matriz ampliada (A |
I).
Después, se aplican operaciones elementales sobre las filas de la matriz hasta conseguir reducir
A a la matriz unidad. Las mismas transformaciones se van haciendo en I. La nueva matriz
obtenida es A-1.
Las operaciones elementales que se pueden aplicar a las matrices ampliadas son:
Multiplicación de una fila por un número distinto de cero.
Suma ordenada a los elementos de una fila del múltiplo de los de otra.
Intercambio de filas.
donde A es la matriz de los coeficientes, X la matriz de las incógnitas y B la matriz de los términos
independientes.
Cuando la matriz de los coeficientes no es inversible, el sistema no tiene solución (es incompatible).
Resolución de un sistema por eliminación gaussiana
El procedimiento más utilizado para resolver sistemas de ecuaciones lineales mediante matrices es el
llamado método de eliminación gaussiana, que consta de los siguientes pasos:
Se forma la matriz ampliada del sistema incorporando a la de los coeficientes, por la derecha, una
nueva columna con los elementos de la matriz de los términos independientes.
Se aplican operaciones elementales sobre las filas de esta matriz ampliada, hasta lograr que por
debajo de la diagonal principal de la matriz todos los términos sean nulos.
Se obtiene entonces un sistema equivalente de ecuaciones de resolución inmediata.
Este método permite también realizar una rápida discusión del sistema:
Si la última fila de la matriz resultante de la transformación de la ampliada produce una ecuación
del tipo 0x + 0y + cz = k, con k 0, el sistema es compatible determinado (tiene una solución
única).
Cuando esta última fila corresponde a una ecuación del tipo 0x + 0y + 0z = k, el sistema
es incompatible (carece de solución).
Si esta última fila se traduce en una ecuación del tipo 0x + 0y + 0z = 0, el sistema
será compatible indeterminado (con infinitas soluciones).
Determinantes y matrices
El determinante correspondiente a una matriz cuadrada A, es el valor de la suma de determinados
productos que se realizan con los elementos que componen la matriz.
Dada una matriz cuadrada A de orden n, su determinante se denota por el símbolo |A| o det (A). El
cálculo del valor de este determinante se realiza según diversos procedimientos.
Determinantes de orden 2
El caso más sencillo de determinante es el que corresponde a una matriz cuadrada orden 2. Entonces,
el determinante es un número real obtenido como la siguiente suma de factores:
Regla de Sarrus
Cuando la matriz original A es de orden 3, para calcular su determinante se recurre al uso de la
llamada regla de Sarrus. Este determinante se obtiene de la suma de seis términos:
Tres positivos, formados por los siguientes productos de tres factores: los tres elementos de la
diagonal principal y los elementos de las dos líneas paralelas a esta diagonal, multiplicados por el
vértice opuesto.
Otros tres negativos, también constituidos por productos de tres factores: los tres elementos de la
diagonal secundaria y los de las líneas paralelas a ella, multiplicados por el vértice opuesto.
Menores complementarios
Dada una matriz cuadrada de orden n, se denomina menor complementario a cada una de la matrices
de orden (n - 1) que se obtienen al suprimir la fila y la columna donde se encuentra un elemento (aij)
de la matriz original.
Dada una matriz cuadrada A, se define su matriz adjunta, que se denota por A* o Adj(A), como
aquella en la que los elementos de A están reemplazados por sus adjuntos respectivos:
Desarrollo de un determinante
El valor de un determinante puede obtenerse a partir de los adjuntos de los elementos de su matriz
correspondiente. Así, dada una matriz A, el valor de su determinante |A| es igual a la suma de los
productos de cada uno de los elementos de una de sus filas o sus columnas por los adjuntos respectivos
de dichos elementos. Por ejemplo, si:
En este caso, el determinante se ha desarrollado por la primera fila. En general, un determinante puede
desarrollarse por filas o por columnas.
Este tipo de desarrollo permite calcular el valor del determinante de matrices cuadradas de orden
superior a 3, simplemente reduciendo este orden sucesivamente, por la regla de los adjuntos, hasta 3,
y después aplicando la regla de Sarrus.
Propiedades De Los Determinantes
El uso de determinantes simplifica de forma muy notable la resolución de sistemas de ecuaciones
lineales. Para ello, se aplican propiedades generales que permiten acometer la discusión y la
resolución de tales sistemas mediante un procedimiento riguroso.
Cálculo de determinantes
En el manejo de determinantes se pueden establecer algunas propiedades que facilitan las
operaciones de cálculo. Tales propiedades son:
1. Una matriz cuadrada con una fila o una columna en la que todos los elementos son nulos
tiene un determinante igual a cero.
2. El determinante de una matriz con dos filas o dos columnas iguales es nulo.
3. Cuando dos filas o dos columnas de una matriz son proporcionales entre sí (una se puede
obtener multiplicando la otra por un factor), su determinante es cero.
4. Al intercambiar dos filas o dos columnas de una matriz, su determinante cambia de signo.
5. Al multiplicar todos los elementos de una fila o una columna de una matriz por un número, el
determinante de la matriz resultante es igual al de la original multiplicado por ese mismo número.
6. El determinante de una matriz triangular o una matriz diagonal es igual al producto de los
elementos de su diagonal principal.
7. Cuando a una fila (o columna) de una matriz se le suma o resta una combinación lineal de
otras filas (o columnas), el valor de su determinante no se altera.
Propiedad 4.
matriz.
5. La suma de los productos de los elementos de una fila o columna de una matriz por
los adjuntos de otra fila o columna es siempre nula.
6. La matriz de los adjuntos de una matriz A dada de dimensión n tiene un determinante igual al
determinante de A elevado a n-1.
El método de Gauss
La aplicación de las propiedades de los determinantes permite obtener el valor de un determinante
dado a través de su transformación en otro de igual valor. Un procedimiento particularmente
interesante es el llamado método de Gauss, que consiste en:
Elegir el primer elemento de la diagonal principal del determinante.
Aplicar las propiedades de cálculo de los determinantes hasta lograr que todos los elementos de la
columna del elegido, salvo él mismo, sean iguales a cero.
Elegir el segundo elemento de la diagonal principal y aplicar las propiedades de los determinantes
para obtener que todos los elementos de su columna situados debajo de él sean nulos.
Aplicar sucesivamente este método hasta obtener un determinante triangular o diagonal, cuyo
valor será el producto de los elementos de su diagonal principal.
Entonces, se llama rango de una matriz al máximo orden de sus menores no nulos. El rango se
simboliza por rang (A).
Resolución De Ecuaciones Mediante Matrices
Durante los siglos XVIII y XIX se desarrollaron diversos métodos de resolución de sistemas de
ecuaciones de primer grado basados en la teoría de matrices. A los ya consabidos procedimientos
gráficos y algebraicos usados desde antiguo se sumaron los más elaborados que propusieron, con
casi un siglo de diferencia, Gabriel Cramer y Eugène Rouché.
Métodos matriciales
Un sistema de ecuaciones lineales puede expresarse en forma matricial de la manera siguiente:
CX=B
El método de la matriz inversa (ver t15) consiste en hallar la matriz inversa de C para obtener la matriz
de las incógnitas, efectuando la operación C-1 B
X = C-1 B
Por su parte, el método de eliminación gaussiana (ver t15) consiste en obtener una matriz triangular
equivalente a la matriz ampliada del sistema.
Interpretación geométrica
Si se considera que una ecuación del tipo ax + by + cz + d = 0 puede interpretarse geométricamente
como la ecuación de un plano, un sistema cuadrado de tres ecuaciones lineales se corresponde con
tres planos en el espacio cartesiano. De esta forma, las soluciones del sistema son los puntos de
confluencia de los tres planos.
En el análisis geométrico de las posiciones relativas de dos planos, pueden darse tres situaciones
distintas:
Si los planos se cortan en una recta común, se dicen secantes.
Cuando tienen todos sus puntos en común, se llaman coincidentes.
Si no se cortan, se dicen paralelos.
El estudio geométrico de planos en el espacio tiene interés para la discusión de sistemas de ecuaciones
lineales.
Regla de Cramer
Un sistema de ecuaciones lineales se dice de Cramer cuando cumple las siguientes condiciones:
Es un sistema cuadrado, con igual número de ecuaciones que de incógnitas.
El determinante de la matriz de los coeficientes asociada es distinto de cero.
Para calcular la incógnita xi del sistema de ecuaciones lineales, se sustituye la columna i de la matriz
de coeficientes por los términos independientes, se obtiene el determinante de la matriz resultante y
se divide este valor por el del determinante de la matriz de los coeficientes. Por tanto, la solución de
un sistema de Cramer se obtiene hallando cada incógnita Xi según la fórmula:
Normalmente, al calcular los determinantes de las matrices de coeficientes y ampliada, se obtiene una
dependencia de los parámetros, de manera que del estudio de sus posibles valores se deduce si el
sistema es compatible (determinado o indeterminado) o incompatible.
Programación Lineal
La programación lineal es una técnica de modelización matemática desarrollada a partir de la década
de 1930. Desde entonces, se ha aplicado con frecuencia en los procesos de toma de decisión de
numerosos ámbitos económicos y productivos, como la planificación de empresa y la ingeniería
industrial.
El grupo de las soluciones posibles recibe el nombre de conjunto restricción o conjunto solución
factible. La solución debe situarse en el área definida por las inecuaciones de restricción, que se
conoce por región factible.
La región factible puede estar acotada, como en la figura, o no acotada. Cuando está acotada, se
representa gráficamente como un polígono con un número de lados menor o igual que el de
restricciones (en la figura, el polígono acotado tiene cuatro lados, y las restricciones también son
cuatro).
Se llama solución óptima a la que maximiza o minimiza la función objetivo. Esta solución si es única
siempre se encuentra en un vértice o punto extremo de la región factible.
Tipos de soluciones
En los problemas de programación lineal con dos variables pueden darse varios tipos de soluciones
óptimas:
Solución única.
Solución múltiple (infinitas soluciones).
Solución no acotada (ausencia de solución), cuando la función objetivo no tiene valores
extremos, pues la región factible es no acotada.
Solución no factible, cuando no existe región factible por falta de puntos comunes en el sistema
de inecuaciones.
Solución degenerada, si en un solo punto (que se dice degenerado) coinciden tres o más de las
rectas que limitan la región factible.
Método Del Símplex Y Problema Del Transporte
La programación lineal se ha constituido en un método ampliamente utilizado para resolver
problemas de optimización y planificación empresarial. En este contexto, se han definido varios
procedimientos operativos avanzados, entre los que cabe citar el método del símplex y la solución de
los llamados « problemas del transporte ».
Variables y coeficientes
Para determinar las variables de un problema mediante el método del símplex, es preciso hallar
primero la base de resolución. En esta base:
Se incluye una variable de decisión, la que posee el coeficiente negativo mayor. La columna a la
que corresponde se llama columna pivote.
Se excluye una variable de holgura. Se divide cada término por el correspondiente de la columna
pivote y se calcula el menor cociente positivo.
Se aplica entonces el método de eliminación gaussiana para anular los términos de la columna pivote,
tantas veces como se precisa hasta que en la última fila sólo haya coeficientes positivos. (Tal será la
solución).