Vous êtes sur la page 1sur 34

ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

UNIDAD 3. SISTEMAS DE ECUACIONES LINEALES ALGEBRAICAS

Competencia específica a desarrollar.


Aplicar los distintos métodos numéricos para la búsqueda de solución de sistemas de
ecuaciones lineales algebraicas en la resolución de problemas de ingeniería mecánica y
Meca trónica.

Actividades de Aprendizaje
- Investigar en que situaciones en donde se emplean los métodos de solución de
ecuaciones lineales algebraicas
- Resolver ejercicios donde se utilicen los distintos métodos de solución de ecuaciones
lineales algebraicas, sin el uso de software.
- Elaborar pseudocódigos de los distintos algoritmos de búsqueda soluciones de las
ecuaciones lineales algebraicas.
- Elaborar diagramas de flujo de los distintos algoritmos de búsqueda las ecuaciones
lineales algebraicas.
- Elaborar los programas en un lenguaje de programación o software de aplicación
- Resolver problemas de aplicación a la ingeniería.

Introducción
En esta lectura veremos procedimientos iterativos para resolver un sistema de
ecuaciones lineales. El primero de ellos conocido como el procedimiento de Jacobi
basado en la idea de punto fijo y un segundo procedimiento conocido como método de
Gauss-Seidel el cual es una modificación simple del procedimiento de Jacobi.
Introduciremos el concepto de matriz diagonalmente dominante el cual se relaciona con
la garantía de convergencia en la aplicación de los métodos vistos. Veremos que en
algunos casos es posible replantear el sistema para garantizar la convergencia.
Asimismo se comentara en que situaciones los métodos iterativos son más convenientes
a los métodos directos.

3.1 Método de eliminación Gaussiana

Durante la derivación del algoritmo de la eliminación Gaussiana con sustitución hacia


atrás, se encontró que para obtener un cero para el elemento pivote a(k) kk era necesario
un intercambio de filas de la forma (Ek) ↔ (Ep) donde k + 1 ≤ p ≤ n era el entero más
pequeño con a (k) pk 6 ≠0. En la práctica frecuentemente es deseable realizar
intercambios de las filas que contienen a los elementos pivote, aun cuando estos no sean
cero. Cuando los cálculos se realizan usando aritmética de dígitos finitos, como será el
caso de las Soluciones generadas con calculadora u ordenador, un elemento pivote que
sea pequeño comparado con los elementos de debajo de el en la misma columna puede
llevar a un error de redondeo sustancial. En el ejemplo siguiente se da una ilustración de
esta dificultad.

31 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Ejemplo 1.

El sistema lineal

E1: 0:003 x1 + 59:14 x2 = 59:17;


E2: 5:291 x1 - 6:130 x2 = 46:78;

Tiene la solución exacta x1 = 10:00 y x2 = 1:000.

Para ilustrar las dificultades del error de redondeo, se aplicara eliminación Gaussiana a
este sistema usando aritmética de cuatro dígitos con redondeo. El primer elemento pivote
es a (1) 11 = 0:003 y su multiplicador asociado es

m21 = 5:291 / 0:003 = 1763:6;

El cual se redondea a 1764. Efectuando la operación (E2 - m21E1) → (E2) y el redondeo


apropiado (1764. 59:14 = 104322 = 104300 y 1764. 59:17 = 104375 = 104400),

0:003 x1 - 59:14 x2 = 59:17;


- 104300 x2 = - 104400:

La sustitución hacia atrás implica que

El error absoluto tan grande en la solución numérica de x1 resulta del error pequeño de
0:001 al resolver para x2. Este error absoluto fue amplificado por un factor de 20000 en la
solución de x1 debido al orden en el que fueron realizados los cálculos.

El ejemplo 1 ilustra las dificultades que pueden surgir en algunos casos cuando el
elemento pivote a(k) kk es pequeño en relación a los elementos a(k) ij para k ≤ i ≤ n y k ≤
j ≤ n. Las estrategias de pivoteo se llevan a cabo en general seleccionando un nuevo
elemento como pivote a(k) pq intercambiando las filas k y p, e intercambiando las
columnas k y q, si es necesario. La estrategia más simple consiste en seleccionar el
elemento en la misma columna que está debajo de la diagonal y que tiene el mayor valor
absoluto; es decir, se determina p tal que

y se efectúa (Ek) → (Ep). En este caso no se considera un intercambio de columnas.

32 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Ejemplo 2.
Reconsideremos el sistema lineal del ejemplo 1:

E1: 0:003 x1 + 59:14 x2 = 59:17;


E2: 5:291 x1 - 6:130 x2 = 46:78:

Usando el procedimiento de pivoteo descrito arriba resulta que primero se encuentra

Así, se realiza la operación (E2) (E1) la cual da el sistema

E1: 5:291 x1 - 6:130 x2 = 46:78;


E2: 0:003 x1 + 59:14 x2 = 59:17:

El multiplicador para este sistema es

y la operación (E2- m21E1) - (E2) con el redondeo apropiado (0:000567.6:13 = 0:003476


y 0:000567.46:78 = 0:02652) reduce el sistema a

5:291 x1 - 6:130 x2 = 46:78;


59:14 x2 = 59:14:

Las respuestas con cuatro dígitos que resultan de la sustitución hacia atrás son los
valores correctos x1 = 10:00 y x2 = 1:000. Esta técnica se conoce como pivoteo máximo
de columna o pivoteo parcial.

3.2. Método de Gauss-Jordán

Este método, que constituye una variación del método de eliminación de Gauss, permite
resolver hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las
operaciones aritméticas de la computadora. Este procedimiento se distingue del método
Gaussiano en que cuando se elimina una incógnita, se elimina de todas las ecuaciones
restantes, es decir, las que preceden a la ecuación pivote así como de las que la siguen.

33 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

El método se ilustra mejor con un ejemplo. Resolvamos el siguiente conjunto de


ecuaciones

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500

0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3

0.3 X1 - 0.2 X2 + 10 X3 = 71.4000

Primero expresemos los coeficientes y el vector de términos independientes como una


matriz aumentada.

Se normaliza el primer renglón dividiendo entre 3 para obtener:

El término X1 se puede eliminar del segundo renglón restando 0.1 veces el primero del
segundo renglón. De una manera similar, restando 0.3 veces el primero del tercer renglón
se elimina el término con X1 del tercer renglón.

En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:

Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:

34 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

El tercer renglón se normaliza dividiéndolo entre 10.010:

Finalmente, los términos con X3 se pueden reducir de la primera y segunda ecuación


para obtener:

Nótese que no se necesita sustitución hacia atrás para obtener la solución.

Las ventajas y desventajas de la eliminación gaussiana se aplican también al método de


Gauss-Jordán.

Aunque los métodos de Gauss-Jordán y de eliminación de Gauss pueden parecer casi


idénticos, el primero requiere aproximadamente 50% menos operaciones. Por lo tanto, la
eliminación gaussiana es el método simple por excelencia en la obtención de soluciones
exactas a las ecuaciones lineales simultáneas. Una de las principales razones para incluir
el método de Gauss-Jordán, es la de proporcionar un método directo para obtener la
matriz inversa.

3.3 Estrategias de pivoteo

Eliminación de Gauss con pivotes diagonales puede funcionar mal

1. Ejemplo. A =

2. Ejemplo. Resolver el sistema usando cálculos con 3 dígitos con redondeo al más
cercano:

35 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

La solución exacta es x1 = 1:00.101, x2 = 1:00. Cálculos con tres dígitos:

Apliquemos la operación R2 + =-2:33.103R1.

Se obtiene el siguiente sistema:

Calculamos x2 y x1 (los valores aproximados de x2 y x1):

En vez de la solución exacta

Obtuvimos la solución

- Eliminación gaussiana con pivoteo parcial (o pivoteo de columna máxima)

3. El mayor elemento de la columna. Consideremos la siguiente medicación del método


de Gauss: en cada paso k, (k € f1,…, m - 1) elijamos en calidad de pivote el elemento
con índices (ik, k) tal que

36 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Es decir el mayor elemento (en el sentido absoluto) de la k- esima columna empezando


con (k, k) hasta (m,k).

4. Algoritmo Reduce2.

Entrada: matriz A de tamaño m por n con m <= n;


Variables locales: B, m, n, k, i, j;
B:= una copia de A;
m:= número de renglones de A;
n:= número de columnas de A;
Para k:= 1, ..., m - 1:
imax:= el primer índice i en {k, ..., m} donde |B[i, k]| alcanza su máximo;
If imax != k:
Para j: = k, ..., n - 1:
B[imax, j] <--> B[k, j]
Para i: = k + 1, ..., m:
mu: = - B[i, k] / B[k, k];
B[i, k] := 0;
Para j: = k + 1, ..., n:
B[i, j] := B[i, j] - mu * B[k, j];
Salida: B.

5. Algoritmo para buscar el índice del elemento máximo.

L = {2,-5, 7, 1, 4} imax = 1;

Do [If [L[[i]] > L[[imax]], imax = i], {i, Length[L]}]; imax

6. Ejemplo. Resolver el sistema usando cálculos con 3 dígitos con redondeo al más
cercano. Aplicar la eliminación gaussiana con el pivoteo parcial.

7. Ejemplo cuando la eliminación gaussiana con pivoteo parcial funciona mal.

3.4 Método de descomposición LU

La factorización LU de una matriz es una factorización que resume el proceso de


eliminación gaussiana aplicado a la matriz y que es conveniente en términos del número
total de operaciones de punto flotante cuando se desea calcular la inversa de una matriz
o cuando se resolverá una serie de sistemas de ecuaciones con una misma matriz de
coeficientes. En la lectura, primeramente consideraremos la factorización LU sin

37 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

intercambio basada en matrices elementales y que es conocida como de Doolittle y


posteriormente veremos el algoritmo que da la factorización PA = LU.

Factorización LU
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos
matrices:

A = LU

Donde L es una matriz triangular inferior m×m y U es una matriz escalonada m×n.
Entonces para resolver el sistema:
Ax = b,

Escribimos
Ax = (LU) x = L (Ux).

Una posible estrategia de solución consiste en tomar y = Ux y resolver para y:

Ly = b.

Como la matriz L es triangular superior este sistema puede resolverse mediante


sustitución hacia abajo, lo cual se hace fácilmente en m2 FLOPS. Una vez con los
valores encontrados de y, las incógnitas al sistema inicial se resuelve despejando x de

Ux = y.

Nuevamente, como U es escalonada, este sistema puede resolverse en caso de tener


solución mediante sustitución hacia atrás, lo cual es sencillo. Estas observaciones nos
dan la pauta para ver la conveniencia de una factorización como la anterior, es decir
factor izar A como el producto de una matriz L triangular superior, por otra U la cual es
escalonada. Esta factorización se llama usualmente Descomposición LU.

Uso de la factorización LU

Ejemplo 14.1
Use la factorización LU de A:

Para despejar x del sistema:

38 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Solución
Sea y = (y1, y2, y3) un nuevo vector de incógnitas. Primero resolveremos el sistema
triangular inferior Ly = b:

Este sistema escrito en su forma de ecuaciones queda:


y1 = 11
5 y 1 + y2 = 70
−2 y1 + 3 y2 + y3 = 17

Por eliminación directa de la:

- primera ecuación:
y1 = 11,

- segunda ecuación:
y2 = 70 − 5 y1 = 70 − 5 (11) = 15,

- de la tercera:
y3 = 17 + 2y1 − 3 y2 = 17 + 2 (11) − 3 (15) = −6.

Ahora el sistema Ux = y:

El cual escrito en su forma de ecuaciones queda:


4 x1 − 2 x2 + x3 = 11
3 x2 +7 x3 = 15
− 2 x3 = −6

El cual al ser resuelto por sustitución hacia atrás queda:

- de la última ecuación:
x3 = 3,

- segunda ecuación:
x2 = 5 − 7/3 x3 = 5 − 7/3 (3) = −2,

39 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

- y de la primera:
x1 = 11/4 + 1/2x2 − 1/4 x3 = 11/4 + 1/2 (−2) − 1/4 (−3) = 1

Obtención de la factorización LU

Ejemplo 14.2
Determine una factorización LU de la matriz:

Solución
La idea del método es ir acumulando las inversas de las operaciones hechas sobre los
renglones la matriz para irla trasformando en una matriz escalonada. Y más que
propiamente las inversas de las operaciones sobre los renglones, las matrices
elementales involucradas. Así por ejemplo el primer cálculo que se realiza es hacer un
cero debajo del elemento (1, 1) que es el elemento 2, para ello debemos realizar la
operación R2 ← R2 +3R1, esta operación tiene como matriz elemental la matriz:

Así la situación esta:

En el siguiente paso del proceso de eliminación es R3 ← R3←2R1, esta operación tiene


como matriz elemental la matriz:

Así la situación esta:

40 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

En el siguiente paso del proceso de eliminación es R4 R4+R1, esta operación tiene


como matriz elemental la matriz:

Así la situación esta:

Observamos que el hipotético caso de que en

E3 E2 E1A = B3

La matriz B3 ya fuera escalonada, es decir la U buscada, entonces:

Lo cual indica que lo que debemos acumular son las inversas de las matrices
elementales utilizadas. La forma sistemática de ir acumulando las inversas de las Eis es
ir construyendo la matriz L:

Así, en el avance de la conversión a escalonada de A:

41 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

En este caso la matriz U está en la forma escalonada y por consiguiente el proceso se


detiene haciendo cero aquellos valores desconocidos. Por consiguiente una factorización
de A será:

3.5 Método de Gauss-Seidel

El método de eliminación para resolver ecuaciones simultáneas suministra soluciones


suficientemente precisas hasta para 15 o 20 ecuaciones. El número exacto depende de
las ecuaciones de que se trate, del número de dígitos que se conservan en el resultado
de las operaciones aritméticas, y del procedimiento de redondeo. Utilizando ecuaciones
de error, el número de ecuaciones que se pueden manejar se puede incrementar
considerablemente a más de 15 o 20, pero este método también es impráctico cuando se
presentan, por ejemplo, cientos de ecuaciones que se deben resolver simultáneamente.
El método de inversión de matrices tiene limitaciones similares cuando se trabaja con
números muy grandes de ecuaciones simultáneas.

Sin embargo, existen varias técnicas que se pueden utilizar, para resolver grandes
números de ecuaciones simultáneas. Una de las técnicas más útiles es el método de
Gauss-Seidel. Ninguno de los procedimientos alternos es totalmente satisfactorio, y el
método de Gauss-Seidel tiene la desventaja de que no siempre converge a una solución
o de que a veces converge muy lentamente. Sin embargo, este método convergirá siempre a
una solución cuando la magnitud del coeficiente de una incógnita diferente en cada ecuación
del conjunto, sea suficientemente dominante con respecto a las magnitudes de los otros
coeficientes de esa ecuación.

Es difícil definir el margen mínimo por el que ese coeficiente debe dominar a los otros
para asegurar la convergencia y es aún más difícil predecir la velocidad de la
convergencia para alguna combinación de valores de los coeficientes cuando esa
convergencia existe. No obstante, cuando el valor absoluto del coeficiente dominante
para una incógnita diferente para cada ecuación es mayor que la suma de los valores
absolutos de los otros coeficientes de esa ecuación, la convergencia está asegurada. Ese
conjunto de ecuaciones simultáneas lineales se conoce como sistema diagonal.

Un sistema diagonal es condición suficiente para asegurar la convergencia pero no es


condición necesaria. Afortunadamente, las ecuaciones simultáneas lineales que se
derivan de muchos problemas de ingeniería, son del tipo en el cual existen siempre
coeficientes dominantes.

La secuencia de pasos que constituyen el método de Gauss-Seidel es la siguiente:

42 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

1. Asignar un valor inicial a cada incógnita que aparezca en el conjunto. Si es posible


hacer una hipótesis razonable de éstos valores, hacerla. Si no, se pueden asignar
valores seleccionados arbitrariamente. Los valores iniciales utilizados no afectarán la
convergencia como tal, pero afectarán el número de iteraciones requeridas para dicha
convergencia.
2. Partiendo de la primera ecuación, determinar un nuevo valor para la incógnita que
tiene el coeficiente más grande en esa ecuación, utilizando para las otras incógnitas
los valores supuestos.
3. Pasar a la segunda ecuación y determinar en ella el valor de la incógnita que tiene el
coeficiente más grande en esa ecuación, utilizando el valor calculado para la incógnita
del paso 2 y los valores supuestos para las incógnitas restantes.
4. Continuar con las ecuaciones restantes, determinando siempre el valor calculado de
la incógnita que tiene el coeficiente más grande en cada ecuación particular, y
utilizando siempre los últimos valores calculados para las otras incógnitas de la
ecuación. (Durante la primera iteración, se deben utilizar los valores supuestos para
las incógnitas hasta que se obtenga un valor calculado). Cuando la ecuación final ha
sido resuelta, proporcionando un valor para la única incógnita, se dice que se ha
completado una iteración.
5. Continuar iterando hasta que el valor de cada incógnita, determinado en una iteración
particular, difiera del valor obtenido en la iteración previa, en una cantidad menor que
cierto seleccionado arbitrariamente. El procedimiento queda entonces completo.

Refiriéndonos al paso 5, mientras menor sea la magnitud del seleccionado, mayor


será la precisión de la solución. Sin embargo, la magnitud del épsilon no especifica el
error que puede existir en los valores obtenidos para las incógnitas, ya que ésta es una
función de la velocidad de convergencia. Mientras mayor sea la velocidad de
convergencia, mayor será la precisión obtenida en los valores de las incógnitas para un
dado.

Ejemplo:

Resolver el siguiente sistema de ecuación por el método Gauss-Seidel utilizando un =


0.001.

0.1 X1 + 7.0 X2 - 0.3 X3 = -19.30


3.0 X1 - 0.1 X2 - 0.2 X3 = 7.85
0.3 X1 - 0.2 X2 - 10.0 X3 = 71.40

Solución: Primero ordenamos las ecuaciones, de modo que en la diagonal principal estén los
coeficientes mayores para asegurar la convergencia.

3.0 X1 - 0.1 X2 - 0.2 X3 = 7.85


0.1 X1 + 7.0 X2 - 0.3 X3 = -19.30
0.3 X1 - 0.2 X2 - 10.0 X3 = 71.40

43 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Despejamos cada una de las variables sobre la diagonal:

Suponemos los valores iniciales X2 = 0 y X3 = 0 y calculamos X1

Este valor junto con el de X3 se puede utilizar para obtener X2

La primera iteración se completa sustituyendo los valores de X1 y X2 calculados


obteniendo:

En la segunda iteración, se repite el mismo procedimiento:

44 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Comparando los valores calculados entre la primera y la segunda iteración

Como podemos observar, no se cumple la condición

Entonces tomamos los valores calculados en la última iteración y se toman como


supuestos para la siguiente iteración. Se repite entonces el proceso:

Comparando de nuevo los valores obtenidos

Como se observa todavía no se cumple la condición

45 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Así que hacemos otra iteración

Comparando los valores obtenidos

Dado que se cumple la condición, el resultado es:

X1 = 3.0

X2 = -2.5

X3 = 7.0

Como se puede comprobar no se tiene un número exacto de iteraciones para encontrar


una solución. En este ejemplo, se hicieron 3 iteraciones, pero a menudo se necesitan
más iteraciones.

3.6 Método de Krylov

Las matrices de orden n x n no singulares poseen un polinomio caracterı́sco ; las


raíces de este polinomio son llamados valores característicos (eigenvalores) y cada
valor carácterı́stico tiene asociado un vector caracterı́stico (eigenvector). N
Iniciando con la determinación del polinomio característico. El
polinomio característico de la matriz A se obtiene por medio de la expresión:

|A − λI | = 0 (1)

46 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

El resultado de este determinante es un polinomio en función de λ de grado igual al


orden de la matriz A, en este caso, de orden n. Este polinomio
característico posee n raíces, o valores característicos; por lo cual, la matriz A de
orden n posee n valores característicos.
El polinomio característico de la forma:

a0 λn + a1 λn−1 + a2 λn−2 + ... + an−1 λ + an= 0 (2)

El método de Krylov se fundamenta en la aplicación del Teorema de Cayley-


Hamilton, mismo que establece que toda matriz A verifica su ecuación característica:

F (A) = 0 (3)

Es decir, si sustituimos a la matriz A en el polinomio, el resultado deberá ser cero.


Sin embargo, operativamente es necesario hacer algunos comentarios. De inicio, la
matriz A es de orden n, por lo cual la sustitución arrojar un sistema de n
ecuaciones lineales; en consecuencia, el coeficiente a0 deberá ser diferente de
cero. Resulta conveniente hacer que este coeficiente sea la unidad, por lo cual se
divide el polinomio entero por a0 , resultando:

λn + b1 λn−1 + b2 λn−2 + ... + bn−1 λ + bn= 0 (4)

Donde los coeficientes bi se obtienen como bi = ai/a0. Aplicando el teorema de


Cayley-Hamilton en el polinomio a n t e r i o r :

F (A) = An + b1 An−1 + b2 An−2 + ... + bn−1 A + bnI = 0 (5)

El polinomio 5 representa un sistema de ecuaciones lineales cuyas incógnitas son


los coeficientes bi . La solución de este sistema nos proporciona los coeficientes
bi que sustituidos en el polinomio 4 nos proporciona el polinomio característico de
A.

Una forma sencilla de realizar este procedimiento es simplificar la elevación de


la m atriz A a las potencias necesarias. Esto se logra multiplicando la matriz A por
un vector ȳ compatible diferente de cero. Debe recordarse que
la multiplicación de una matriz por un vector compatible arroja un vector.

Este vector ȳ puede ser libremente elegido, proponiéndose que


su conformación permita realizar de mejor forma las operaciones. Una buena
elección es elegir al vector con la forma:

ȳ = | 1 |
|0|
|0|
|... |
|0|

47 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Ubicando al elemento 1 en una posición estratégica de acuerdo con los coeficientes


de A de tal forma que se minimicen las operaciones.

Atendiendo a la anterior recomendación, el sistema que de la forma:

An y¯ + b1 An−1 y¯ + b2 An−2 y¯ + ... + bn−1 Aȳ + bnȳI = 0 (6)

Finalmente, el sistema de ecuaciones puede ser resuelto por el método de


preferencia.

El método de Krylov debe utilizarse en conjunto con un método de solución de


sistemas de ecuaciones lineales. Esta unión arroja una alternativa muy apropiada
cuando se trata de evitar resolver determinantes de orden mayor considerando que
se debe hacer en forma analítica.

Ejemplos de la aplicación

Sea la matriz:

El polinomio característico tendrá la forma (de acuerdo a la ecuación 4:)

El sistema de ecuaciones tendrá la forma (de acuerdo a la ecuación 6:)

Se propone al vector y de acuerdo con la forma recomendada

Realizando las multiplicaciones:

48 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Realizando las multiplicaciones:

Sustituyendo los resultados11, 12 y 13 en el esquema 9 se conforma el sistema de


ecuaciones lineales

Que se expresa en la forma más coloquial como:

Cuya solución es:

Finalmente sustituyendo, en la ecuación 8 se obtiene finalmente la ecuación


característica de la matriz A:

3.7 Obtención de Eigenvalores y Eigenvectores

Valor propio
Se dice que el número λ, real o complejo, es un valor propio A si existe un vector no nulo
u, real o complejo tal que

Au = λu, es decir (A − λI )u = 0

49 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Vector propio
El vector u se denomina vector propio de A asociado al valor propio λ.

Polinomio característico
En general, el polinomio que resulta de desarrollar |A − λI|, cuyos ceros son precisamente
los valores propios de A, se denomina polinomio característico.

Radio espectral
Se denomina radio espectral ρ de una matriz A al valor ρ(A) = max1≤i≤n|λi|

Valores propios de una matriz cualquiera


Si λ es complejo, entonces u es complejo. Los valores propios de B = C−1 AC son los
mismos de A. Si x es el vector propio asociado a λ, entonces Cx es un vector propio de B
asociado a λ.

Valores propios de matrices simétricas


Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de A,
entonces existe una matriz ortogonal Q tal que D = Q^−1 AQ = Q^t AQ. Asimismo,
existen n vectores propios de A que forman un conjunto ortonormal, y coinciden con
las columnas de la matriz ortogonal Q. Todos los valores propios de A son reales. A es
definida positiva si y solo si todos los valores propios de A son positivos.

Método de Leverrier-Faddeev para la obtención de la ecuación característica.

Este método hace uso de la traza de una matriz. (tr|A|), esta es la suma de los elementos
de la diagonal principal. Este método se expresa por el siguiente conjunto de ecuaciones
concurrentes:

50 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Donde b1, b2,…..bn, son constantes a1,a2,an, de la ecuación característica (4) a 0=1

Ejemplo 1. Resolver el sistema matricial |A| {X} = 0 utilizando eigenvalores:

a) Obtener los coeficientes de la ecuación característica de la matriz |A|, usando el


método de Leverrier-Faddeev.
b) Obtener los λ eigenvalores (raíces) de la ecuación característica
c) Obtener los {X} eigenvalores resultantes del sistema matricial

51 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

La ecuación característica es:

Utilizando el método de la bisección para obtener las raíces de la ecuación característica


se tiene:

El sistema matricial es de la forma (|A|- λ (|I| {X})= 0

Sustituyendo el eigenvalor λ1 en el sistema matricial:

Resolviendo por gauss-Jordán se tiene:

Que es equivalente al sistema:

52 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Si se hace x3=1 se obtiene que para el eigenvalor λ1= 0.416 el eigenvector es:

Sustituyendo el eigenvalor λ3 en el sistema matricial:

Resolviendo por Gauss-Jordán se tiene:

Que es equivalente el sistema:

Si se hace x2 =1, se obtiene que para el eigenvalor λ2 = 2.294, el eigenvector es:

3.8 Método de diferencias finitas

La idea del método de Diferencias Finitas consiste en aproximar las derivadas que
aparecen en el problema de ecuaciones diferenciales ordinarias (e.d.o.) de forma que se
reduzca a resolver un sistema lineal. Una vez definido el sistema lineal se estudiara
teniendo en cuenta los resultados de los Temas 1 y 2. Comenzamos viendo el método de
Diferencias Finitas para un problema de contorno de segundo orden lineal. En concreto,
consideramos la ecuación lineal:

53 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Con

Recordamos que, según vimos en el tema anterior, suponemos que

q(t) > 0 y que p(t) está acotada;

Bajo estas condiciones el problema de contorno tiene solución.


Hagamos una partición de [a; b], donde:

Usando las fórmulas de diferencias centradas para aproximar las derivadas tenemos (En
el Apéndice de este tema se explica cómo se deduce la siguiente igualdad):

Reemplazando (4.2) y (4.3) en (4.1), aproximando xj ≈ x (tj) Aj, obtenemos:

Eliminando los términos de orden O (h2) en (4.4) e introduciendo la notación pj = p (tj), qj


= q (tj), rj = r(tj), obtenemos la ecuación en diferencias:

Que se usa para calcular aproximaciones numéricas a la solución de la ecuación


diferencial (4.1).

54 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Reagrupando, teniendo en cuenta que las incógnitas son xj j = 1,…, N, tenemos el


sistema lineal de ecuaciones:

El sistema (4.6) es un sistema tridiagonal de N - 1 ecuaciones y N - 1 incógnitas, x1…,


xn-1 (pues x0 y xN son datos, las condiciones de contorno del problema). En notación
matricial podemos escribirlo como:

Ax = b;

Además, si denotamos e0 = (p1h/2 + 1) α eN = (-pN-1h/2 + 1) β, tenemos:

Aplicamos ahora algunos de los resultados que hemos estudiado para resolución
numérica de sistemas lineales. Por ejemplo, veamos si podemos utilizar los métodos
55 INGENIERIA MECATRONICA /CHL
FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

iterativos de Jacobi y Gaus-Seidel. Uno de los criterios para ver si ambos métodos son
convergentes es probar que la matriz es estrictamente diagonal dominante. Para ello,
tenemos que ver que

Por un lado tenemos que h es el tamaño de paso en la discretizacion, por lo que lo


podemos tomar suficientemente pequeño, de forma que

Como además, tenemos que q > 0, por hipótesis (lo supongamos al principio del tema,
para poder asegurar que el problema de contorno tiene solución), llegamos a que

Por lo tanto, la matriz del sistema es estrictamente diagonal dominante. Entonces,


podemos aplicar los métodos iterativos de Jacobi y Gaus-Seidel para resolver el sistema
lineal (no os parece apasionante, como justo la hipótesis que se necesita para asegurar
la existencia de solución en el problema de contorno (q > 0) es la que asegure que el
sistema es estrictamente diagonal dominante?, acabamos de relacionar dos problemas
en apariencia distintos).

3.9 Método de mínimos cuadrados

Hasta la sección precedente, se estudiaron problemas inherentes a la resolución de


sistemas de ecuaciones lineales donde la solución existe y es única. En esta sección se
estudiaran problemas m as generales, donde la existencia y unicidad no juegan un rol
tan preponderante.

56 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Mínimos cuadrados determinista

En el método de Mínimos Cuadrados deseamos minimizar la discrepancia entre los datos


observados x[n] y la señal original s[n]. Esta señal se genera a través de un modelo que
depende un conjunto de parámetros de interés agrupados en el vector θ. Aunque s[n] es
completamente determinista la presencia de inexactitudes en el modelo o ruido en los
sensores hace que las observemos una versión perturbada de ésta que denotamos por
x[n].

El objetivo del método de Mínimos Cuadrados Determinista (MCD) es el de elegir el


parámetro θ que mejor aproxima la señal original s[n] a los datos observados x[n]. El
criterio de proximidad que se aplica en este caso es el que resulta de considerar una
función de coste o discrepancia J (θ) que se forma con la norma al cuadrado del error.

57 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Así, el estimador de mínimos cuadrados es aquel que minimiza esta función de coste. Es
importante destacar que MCD es un método de aproximación pues no utiliza hipótesis
probabilísticas sobre los datos, sólo su modelo de generación. El caso más sencillo se da
cuando asumimos que la dependencia de la señal con los parámetros es lineal. La matriz
por la que se multiplican los parámetros para generar la señal recibe el nombre de matriz
de observación y sus columnas jugarán un importante papel en este método.

Dependencia Lineal

Encontrar los parámetros que dan la solución al problema, cuando las columnas de la
matriz de observación son linealmente independientes, es muy simple. Basta con calcular
la derivada y la
Matriz Hessiana para observar que ésta última es siempre estrictamente definida positiva,
lo cual, garantiza que la función de coste J (θ) es estrictamente convexa y, por tanto,
existe un único mínimo. Este se obtiene simplemente buscando el único punto crítico de
la función.

Un razonamiento cualitativo conduce al mismo resultado.

Basta observar que J (θ) es una función positiva con una dependencia cuadrática sobre
los parámetros, por tanto, su grafo traza un hiperparaboloide p-dimensional que tiene un
único mínimo y cuyas curvas de nivel son, en el caso más general, híper-elipsoides. Una
vez obtenidos los parámetros que dan la mejor aproximación, ¿cómo podemos obtener
nuestra mejor estima para la señal?… Sólo hace falta sustituir éstos en el modelo de
señal para encontrar la respuesta.

58 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Cuando las columnas de la matriz de observación son linealmente dependientes la


solución no es tan sencilla. El Hessiano es semidefinido positivo, lo cual implica que J (θ)
sigue siendo una función convexa aunque no de forma estricta.

Todos los puntos críticos de la función son, por tanto, mínimos. La expresión analítica de
estos mínimos se determina igualando la derivada de la función a cero y resolviendo el
sistema indeterminado resultante.

En este caso los parámetros originales no son identificables puesto que la solución de
MCD no es única. Lo que sí es identificable es la estima de la señal que proporciona el
método, pues ésta resulta ser común para todos los parámetros solución.

Ejemplo:

59 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

En este ejemplo se obtienen los tres parámetros que mejor ajustan una señal cuadrática
a las observaciones y se visualiza gráficamente la señal que proporciona el mejor ajuste
según el Método de mínimos cuadrados.

Interpretación Geométrica

La interpretación geométrica de los resultados nos lleva a un principio fundamental: el


“principio de ortogonalidad” o “teorema de la proyección”, que es válido para cualquier
espacio vectorial de Hilbert y que enunciamos a continuación: “Sea M (H) el subespacio

generado por las columnas de H, la norma del error entre un vector x arbitrario y
cualquier punto de este subespacio es mínima, si y sólo si, el error es ortogonal al
subespacio. Además, el punto del subespacio que minimiza la norma del error (la mejor
aproximación de la señal) es único.”

El principio de ortogonalidad está íntimamente ligado a la geometría de los espacios de


Hilbert. Una de las consecuencias de este principio es que el teorema de Pitágoras se
debe cumplir en los espacios de Hilbert.

La utilidad del principio de ortogonalidad tiene dos vertientes: por una parte nos permite
obtener la solución del problema de una forma muy elegante sin recurrir a calcular
gradientes y derivadas, por otra, nos proporciona una interpretación geométrica de los
resultados que facilita nuestra comprensión del problema y capacidad de intuición.

60 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Una vez definido el espacio vectorial de Hilbert y el producto interno entre dos vectores,
la demostración del principio de ortogonalidad se obtiene directamente de la ecuación
que nos facilita los puntos críticos.

Matrices de proyección

Llegado este punto nos podemos preguntar ¿cómo es el operador que proyecta
ortogonalmente las observaciones x sobre el subespacio generado por las columnas de
H? Como está claro que la señal estimada es el resultado de esta proyección ortogonal.
La respuesta a esta pregunta se obtiene directamente identificando este operador en la
expresión que nos da la señal estimada como mejor aproximación. Así, comprobamos
que el operador buscado es un operador lineal denominado matriz de proyección
ortogonal.

61 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Otra posible cuestión podría ser ¿cómo encontrar el operador que proyecta las
observaciones sobre el complemento ortogonal del subespacio generado por las
columnas de H?

Por la estructura del problema, las componente de las observaciones que no se puede
expresar sobre M (H) es el error mínimo. Observando la expresión del error en términos
de x resulta fácil identificar el operador de proyección sobre el complemento ortogonal al
subespacio.

Las propiedades de las matrices de proyección ortogonal nos permiten encontrar


soluciones simples a problemas, en principio, complicadas.

Estas propiedades se obtienen directamente de la descomposición en valores singulares


de H y de la definición de matriz de proyección ortogonal.

De entre todas ellas las propiedades 4 y 5 son las más interesantes:

4. Las matrices de proyección ortogonal son únicas para cada subespacio, es decir, que
columnas de H que generen el mismo subespacio tienen la misma matriz de proyección.

5. Si somos capaces de expresar el espacio generado por las columnas de H sobre dos
subespacios ortogonales el problema de la proyección se desacopla de forma
independiente sobre cada uno de ellos, de forma que, la proyección conjunta resulta ser
la suma de las proyecciones marginales.

62 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Aumentando el orden

En muchas situaciones el modelo de las observaciones nos es desconocido. En esos


casos uno puede plantearse el añadir más parámetros para mejorar la estima. Para ello,
bastaría volver a resolver el problema tras ampliar la matriz de observación con una
nueva columna por cada parámetro añadido a la estima.

Es posible encontrar una solución recursiva que aprovecha la estima hecha considerando
k-1 parámetros para obtener la solución que tiene en cuenta un parámetro más. Esta
solución recursiva conlleva, a medida que se incrementa el número de parámetros, una
reducción en la carga computacional total, a la vez que evita, mediante la utilización del
lema de inversión, la inversión explícita de matrices (operación que resulta muy costosa
en cuanto a carga computacional).

63 INGENIERIA MECATRONICA /CHL


FEBRERO 2014
ITSSAT

APUNTES: METODOS NUMERICOS AEC-1046

Mediante manipulaciones algebraicas de la solución de orden k es posible obtener


directamente la solución recursiva. No obstante, su deducción geométrica resulta mucho
más ilustrativa e intuitiva.

La clave de todo está en descomponer la nueva columna de la matriz de observación en


dos componentes. Una que contiene información redundante (que ya existía en la
aproximación basada en k-1 parámetros) y otra componente basada en la nueva
información que aparece al añadir un parámetro más al modelo. Esta última componente
recibe el nombre de innovación y es, por definición, ortogonal al subespacio generado por
el resto de columnas.

Dado que M ([Hk-1, innovación]) ≡ M (Hk) y Hk-1 es ortogonal a la innovación, la


proyección total se desacopla sobre estos dos subespacios de forma que la solución es
simplemente la suma de las proyecciones de los datos sobre cada uno de ellos. De esta
forma, re-escribiendo las matrices de proyección en términos de las variables conocidas
se llega a la solución recursiva buscada.

Esta transparencia facilita un análisis más pormenorizado de los pasos que llevan a la
solución.

64 INGENIERIA MECATRONICA /CHL


FEBRERO 2014

Vous aimerez peut-être aussi