Académique Documents
Professionnel Documents
Culture Documents
1
Resumen certamen n1 Clculo Numrico
521230
Normas Matriciales:
( |
( |
()
() { }
()
()
||
Mtodos Directos:
- LU y MEG slo si los pivotes son no nulos
()
, si hay pivotes iguales a cero, se usa la estrategia
de pivoteo parcial.
- LU sin pivoteo conserva la estructura de matrices banda.
- Si la matriz es tridiagonal y adems cumple:|
| |
| |
| |
| |
| { }
| |
|, se puede factorizar LU sin pivoteo parcial, esto resulta un proceso estable respecto de
errores de redondeo. Los coeficientes de las matrices L y U pueden obtenerse por el algoritmo de
Thomas, cuyo costo operacional es ( ). Resolver un sistema por Thomas: .
Mtodo de Cholesky:
- Se aplica en matrices simtricas y definidas positivas:
- El mtodo de Cholesky es estable respecto de la propagacin de errores de redondeo
Matrices Dispersas:
- LU, MEG y Cholesky producen el defecto de llenado (fill-in), es decir se crean entradas no nulas
donde antes haban ceros.
- Consecuencias:
o Aumento del nmero de flop
o Aumento del error de redondeo
o Aumento en las necesidades de memoria, lo que podra imposibilitar la resolucin del
sistema, mediante LU, MEG o Cholesky.
Claudio Maldonado Parra, Ingeniera Civil en Telecomunicaciones, UdeC
2
Mtodos iterativos:
- Convergencia:
o La sucesin {
()
} converge a la solucin de () , siendo M la matriz de
iteracin.
- Mtodo de Jacobi: Converge si y slo si la matriz del sistema (A) es diagonal dominante estricta:
|
| |
- Mtodo de Gauss-Seidel: Si A es simtrica y definida positiva, el mtodo converge.
- Observaciones:
o Para una matriz arbitraria A, la convergencia de uno de estos mtodos no implica la
convergencia del otro.
o Aunque A sea simtrica y definida positiva, el mtodo de Jacobi puede ser divergente.
- Mtodo del Mximo descenso: Este mtodo converge con una matriz simtrica y definida positiva
para cualquier vector inicial, su velocidad de convergencia depende del Nmero de condicin de la
Matriz A:
o
()
o
()
- Gradiente conjugado: Este mtodo converge con una matriz simtrica y definida positiva para
cualquier vector inicial en a lo ms n pasos (n = dimensin de la matriz), su velocidad de
convergencia tambin depende de la condicin de la matriz, de igual manera que el mximo
descenso. Debido a los errores de redondeo, pueden requerirse ms de n pasos.
- Gradiente conjugado precondicionado:
o Precondicionador de Jacobi: Consiste en tomar P como la diagonal de A
(), este precondicionador es efectivo cuando la Matriz A es simtrica, definida
positiva y con elementos diagonales muy distintos.
o Precondicionador de Cholesky incompleto: se toma
donde (
) se obtiene
aplicando el algoritmo del mtodo de Cholesky pero solo para las entradas
tales que
Mnimos Cuadrados: dado un conjunto de puntos (
) (
Al pasar a ecuaciones normales, se podra llegar a una matriz cuadrada, en este caso
es Simtrica y
definida positiva, por lo que podra aplicarse el mtodo de Cholesky.
Inconveniente: generalmente el condicionamiento de la matriz
() (
) {
Luego: ()
()
()
()
Error:
() () (
()
) (
)
( )
()
(
)
Fenmeno de Runge: se produce cuando se realiza una interpolacin un un gran valor de n con puntos
equiespaciados. Consiste en grandes oscilaciones del polinomio entre los puntos consecutivos del
intervalo de interpolacin, especialmente en los extremos.
Spline Cbicas: dados puntos (
) (
Una funcin es
una interpolante spline cbica en
, si existen polinomios
de grado a lo ms 3, tales
que:
()
()
)
Spline Cbica Natural:
Una Spline cbica de interpolacin se denomina Spline cbica natural si: