Vous êtes sur la page 1sur 3

Solucin de sistemas de ecuaciones lineales

Los mtodos para resolver estos sistemas se dividen en dos:


1 Mtodos directos: son aquellos que permiten obtener la solucin despus de un
nmero finito de operaciones aritmticas (nro. Es funcin del tamao de la matriz). La
cota del error, para una matriz y trmino independiente dados, se asocia por lo general
al nmero de operaciones de cada mtodo. Se pretende, por lo tanto, obtener mtodos
con el mnimo nmero de operaciones posible.
Mtodos fciles de resolver:
Sistemas Diagonales: supongamos que la matriz A del sistema es
diagonal. En este caso la solucin es muy sencilla de encontrar
xi = bi/aii , i = 1, 2, . . . , n
Siempre que aii sea distinto de 0, i = 1, 2, . . . , n, ya que de lo contrario el sistema
no tiene solucin. El numero de operaciones necesarias es de n divisiones, es decir, op
= n operaciones elementales.
Solucin de sistemas triangulares: Consideremos que la matriz del
sistema es una matriz triangular inferior. Supongamos que la matriz es no singular,
entonces la entradas de la diagonal principal aii, i = 1, 2, 3 son distintas de 0, Este
algoritmo es llamado sustitucin progresiva y puede ser extendido a sistemas de n n.
En el caso de un sistema n dimensional (n 2)

Formulas:
Donde A es una matriz triangular superior no-singular de orden n (n 2), en este caso
el algoritmo es llamado sustitucin regresiva y puede ser escrito como:

Mtodos de eliminacin:
Mtodo de Gauss o eliminacin gaussiana: el problema original, Ax = b,
se transforma mediante permutaciones adecuadas y combinaciones lineales de
las ecuaciones en un sistema de la forma Ux = c donde U es una matriz
triangular superior. Este nuevo sistema equivalente al original es de resolucin
inmediata, slo es necesario aplicar el algoritmo de sustitucin regresiva.
El superndice (0) significa que los coeficientes de la matriz A y el vector b no han
sido modificados. Si a11 6= 0, es posible eliminar todas las posiciones
correspondientes a la variable x1 que estn en la columna debajo del elemento
a11 simplemente restando la fila i con i = 2, ..., n con la primera fila
multiplicada

A cada uno de los trminos que aparecen en la diagonal de la matriz anterior se


le denomina pivote. Conviene resaltar que los pivotes no coinciden con los
trminos originales de la diagonal de A, es decir,
, Para
resumir todos los pasos realizados hasta obtener el sistema anterior, es
necesario suponer que todos los pivotes son no nulos, es decir,

. El numero de operaciones necesarias para realizar


esta primera fase de eliminacion es:
.
Si durante el proceso de eliminacin se obtiene un pivote nulo, se debe
buscar en la parte
inferior de la columna k-esima un coeficiente no nulo, es decir, uno distinto de
cero, Se sustituye
entonces la fila k (y su termino independiente) por la fila i (y su termino
independiente) que se haya escogido. Si dicho coeficiente no nulo no existiera,
la matriz seria singular, por consiguiente, para reducir los errores de redondeo
conviene escoger el pivote maximo en valor absoluto. Para ello,
hay dos tecnicas posibles:
1 En el k-esimo sistema se toma como pivote el coeficiente
mayor en valor absoluto de la columna k situado por debajo de la fila k
inclusive. Para ello es necesario permutar las filas k y la correspondiente
al pivote escogido en la matriz y su termino independiente. Esta tecnica
se denomina metodo de Gauss con pivoteo parcial.
2 En el k-esimo sistema, se toma como pivote el coeficiente
mayor en valor absoluto de la submatriz de orden n k definida por los
coeficientes que quedan por debajo de la fila k y a la derecha de la
columna k. Para ello, se permuta la fila k (y el termino independiente
asociado) y la columna k con las correspondientes al coeficiente que
cumple la condicion citada. Al final del proceso deben ponerse en el
orden inicial las componentes del vector solucion, puesto que su posicion
ha sido modificada al realizar las permutaciones de columnas. Esta
tecnica es el metodo de Gauss con pivoteo total.
Si podemos efectuar la eliminacion gaussiana en el sistema lineal Ax = b sin pivoteo,
entonces podemos factorizar la matriz A en el producto de una matriz triangular
inferior L y una matriz triangular superior U;
A = LU; Ax = b; LUx = b; Tomando y = Ux, obtenemos Ly = b, luego usando sustitucion
progresiva y regresiva en los respectivos sistemas se obtiene la solucion x:
1 L y U dependen solo de A y no del lado derecho.
2 U = An(La matriz de la eliminacion)
3 La misma factorizacion puede ser reusada para resolver cualquier sistema
lineal que tenga la misma matriz A sin importar cual sea el lado derecho b
Mtodos de descomposicin
Mtodos de ortogonalizacin
2 Mtodos iterativos: generan una sucesin de vectores que, en el caso ideal,
convergen a la solucin de dicho sistema. El mtodo se detiene cuando encuentra una
solucin aproximada, con cierto grado de precisin especificado de antemano.
Jacobi: En cada paso de al iteracin de Jacobi se obtiene un vector con n
coordenadas y la estimacin inicial

, se debe elegir. Cuando no

se tienen pistas sobre la solucin se suele tomar:

Formula:
Gauss-Seidel: Una variacin del mtodo de Jacobi que es mas eficiente que el
primero, la diferencia esta en que en el de Jacobi para generar el nuevo punto
del proceso iterativo se utilizan las coordenadas del punto anterior, mientras
que en el de Gauss- Seidel se van usando las coordenadas en la medida en que

se

van

generando,

esto

es,

si

se

supone

que

, la siguiente coordenada se obtiene:

ya

hemos

obtenido

Vous aimerez peut-être aussi