Académique Documents
Professionnel Documents
Culture Documents
26 de abril de 2017
ndice
1. Errores 2
5. Interpolacin 14
7. Diferenciacin numrica 18
8. Integracin numrica 19
1
Algunas deniciones preliminares:
Supongamos que la secuencia {xk } converge al nmero . Decimos que la sucesin converge con
orden q a si
|xk+1 xi | Figura 1:
lm = con >0
k |xk xi |q Precisin y
exactitud.
El nmero q es llamado orden de convergencia. En particular, convergencia de orden 1 es lla-
mada convergencia lineal, la de orden 2 convergencia cuadrtica y la convergencia de orden 3
convergencia cbica.
1 Errores
Error inherente: error de los datos de entrada que puede provenir de la precisin en la medicin de los datos,
la representacin numrica, etc. Dado un valor exacto m y una aproximacin m, denimos:
X f (x) |xi |
CP = xi |f (x)|
i
2a2 2b2
z a z b a b
CP = + = 2a 2 2
+ 2b 2 2
= 2 2
+ 2 =2
a z b z a +b a +b a +b a + b2
N
= d, d1 d2 ...dt p con base
p exponente
2
Redondeo: forma de redondear que consiste en modicar el ltimo dgito segn el siguiente criterio:
(
dk si 0 dk+1 4
dk =
dk + 1 si 5 dk+1 9
La cota para el error de redondeo es:
Error de truncamiento / discretizacin: error que aparece al transformar un procedimiento innito en uno
nito.
Error del modelo matemtico: se debe a las simplicaciones e hiptesis introducidas para denir el modelo
matemtico que representa el modelo fsico.
Error humano: error producido por la intervencin humana y/o por programas de computacin mal hechos.
erT = CP r + Te
1.2 Algoritmos
op +
x1 x1
f1 y y 1 1
x2
f2 y xy2 1 -1
Algoritmo bien condicionado: un problema matemtico est bien condicionado cuando al introducir peque-
as variaciones en los datos de entrada se producen pequeas variaciones en los resultados.
En c n E0
Te 1 =algoritmo inestable Te 6 1 =algoritmo estable
Resumiendo:
Te Te
1+ CP 1 =mal algoritmo 1+ CP 6 1 =buen algoritmo
3
1.3 Grca de proceso y perturbaciones experimentales
er
Si suponemos Te 0 =CP = r
y y
Si suponemos r 0 = Te = y ()
Y nalmente tenemos que CP = max{Cp1 , Cp2 }. Como hemos supuesto que los errores de redondeo son despre-
ciables, los Cp deberan ser similares, con lo cual tendremos una estimacin de la condicin del problema.
u = 15 u = 1014 yu = 0, 70710678293687
t = 8 t = 107 yt = 0, 7071068
s = 4 s = 103 ys = 0, 706
yu ys
Tes = yu (s u ) = 1, 565
yu yt
Tet = yu (t u ) = 0, 241
En este caso concluimos que calcular f (y ) con ms precisin mejora el resultado nal, pero esto no siempre es
cierto.
a x + ... + a1n xn = b1 a11 a1n x1 b1
11 1
. . .. . . .
. = Ax = B = . . . = .
. . . . . .
an1 ann xn bn
a x + ... + a x = b
n1 1 nn n n
Si A es una matriz cuadrada tal que det(A) 6= 0, podemos resolver el sistema mediante x = A1 B . Sin embargo,
1
los coecientes de la matriz A puede provenir de mediciones imprecisas, lo que hara que calcular A resulte
en ms errores. Por este motivo surgen alternativas a esta forma de resolucin del sistema.
4
Norma innito de una matriz A: es la mxima suma absoluta de las las de una matriz.
n
X
kAk = max |aij |
1im
j=1
Nmero de condicin de una matriz A: se dene como (A) = kAk
A1
. Puede estimarse mediante
kxxk t
kxk 10 (A). El error relativo de x al resolver Ax = B depende de (A).
Matriz bien condicionada: si (A) es chico entonces la matriz A es bien condicionada, y no hay alta propa-
gacin de errores de redondeo al resolver Ax = B . Caso contrario, A es mal condicionada. Generalmente, las
matrices mal condicionadas mezclan coecientes chicos con coecientes grandes, o satisfacen det(A) 0. Si A
es tal que 6 A1 entonces (A) = .
Ventajas Desventajas
- slo hay errores de redondeo - no resuelven bien matrices mal condicionadas
- el nmero de operaciones es nito - se vuelven inestables con matrices grandes
Eliminacin con pivoteo parcial: es necesario intercambiar de lugar las. Es del orden O(cn3 ).
Eliminacin con pivoteo total: es necesario intercambiar de lugar las y columnas.
Pn
Convergencia: cuando A es diagonal dominante, es decir |aii | > j=1,j6=i |aij |
Ventajas Desventajas
- fcil de programar - si cambia el vector B es necesario retriangular A.
- O(n3 )
4 5
convierte en:
h1i h1i
1 0 0 a a1n
11
.. . .
x1 b1 (
. .
m2,1 1 . . 0 .
.. .. Ux = y (I)
.
.
. = . 7
.. .. Ly = B (II)
.. . 0 ..
.
xn bn
mn,1 mn,n1 1 hni
0 0 ann
5
hii
aji
donde mi,j = hii son los coecientes de la triangulacin de Gauss. El sistema (I) se resuelve aplicando sustitucin
aii
inversa y para (II) sustitucin directa.
Teorema : si se puede efectuar la eliminacin de Gauss en el sistema lineal Ax = B sin intercambios de las,
entonces A se puede factorizar en el producto LU . Dos ejemplos de estos tipos de matrices son: estrictamente
diagonal dominantes, denidas positivas.
Ventajas Desventajas
- si cambia el vector B no hay que refactorizar A - determinar L y U requiere O(n3 ) pasos
2
- resolver Ax = B requiere O(n ) pasos
- no sirve para todas las A
h Pi1 i
1
lji = uii aji k=1 ljk uki
Pi1
uii = aii k=1 lik uki
Pi1
uij = aij k=1 lik ukj
4 5
q Pi1
sii = aii k=1 s2ik
h Pi1 i
sji = s1ii aji k=1 sjk sik para i 6= j
Ventajas Desventajas
- menor cantidad de clculos que Crout y Doolittle - O(n3 )
B Ax = 0
B Ax + P x = P x
B + (A + P )x = Px
x = (I P 1 A)x + P 1 B
xhi+1i = (I P 1 A)xhii + P 1
| {z B}
| {z }
T C
Son muy tiles para resolver sistemas con matrices ralas (con muchos coecientes nulos). Tambin son
tiles para resolver sistemas con matrices mal condicionadas (pero si (A) 10t , siendo t la precisin
utilizada para realizar los clculos, entonces debe aumentarse t para obtener una solucin aceptable). Y
por ltimo, son tiles cuando A es grande.
6
Para que el mtodo converja a la nica solucin con cualquier xh0i , T debe ser tal que (T ) < 1, o lo que
es lo mismo kT k < 1 para cualquier norma natural. Idealmente, debera ser kT k 1.
Nunca dan una solucin exacta, incluso si usamos una precisin innita.
Renamiento iterativo: es una tcnica que, dada una solucin obtenida por el mtodo de Gauss, factorizacin
LU o Cholesky, mejora el resultado.
Cuando la matriz A es muy mal condicionada, la primera solucin obtenida mediante un mtodo directo puede
no estar muy cerca de la solucin correcta. Entonces podemos usar el renamiento iterativo:
n
X
x = xh1i + dhii
i=1
Dado el sistema inicial Ax = B , el mtodo de Jacobi consiste en despejar de cada ecuacin las incgnitas:
b1 a12 x2 ...a1n xn Pn hii
a x + ... + a1n xn = b1 x = bi aik xk
11 1 1 a11
k6=i
. . hi+1i k=1
. = . = xi =
. .
aii
a x + ... + a x = b
x = bn an1 x1 ...an n1 xn1
n1 1 nn n n n ann
siendo:
P =D
T = D1 (L + U )
C = D1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |
El mtodo de Gauss-Seidel es similar al mtodo de Jacobi pero ms rpido, con la diferencia de que en el
clculo de xi (i > 0) se aprovecha lo calculado en el paso anterior:
7
P =D+L
T = I (D + L)1 A
C = (D + L)1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |, o bien cuando A
es simtrica y denida positiva.
El mtodo de las sobrerelajaciones es una variante del mtodo de Gauss-Seidel, pero que converge ms
rpido.
1
P = D +L
Ventajas Desventajas
- obtener no es fcil
En estos mtodos se aplica xhi+1i = T xhii + C , y las matrices T y C varan en cada iteracin.
El mtodo de los residuos mnimos consiste en buscar que Rhi+1i sea mnimo en cada iteracin. Su frmula
es:
Siendo:
8
Rh0i = B Axh0i
Ventajas Desventajas
- fcil de programar - convergencia similar a Jacobi
El mtodo del descenso ms rpido determina un mnimo local para una funcin de varias variables de la
forma g : <n <. Intuitivamente puede describirse as:
2. Determine una direccin desde xh0i que origine una disminucin en el valor de g.
3. Desplace una cantidad apropiada hacia esta direccin y llame al nuevo vector xh1i .
4. Repita los pasos 1 a 3 reemplazando xh0i con xh1i .
siendo:
Rh0i = B Axh0i
T
Rhii Rhii
i = RhiiT ARhii
Ventajas Desventajas
- converge independientemente del xh0i - convergencia lineal
- fcil de programar - puede converger en algo que no es el mnimo de g
- mejor velocidad que MRM - no usa bien las direcciones ms empinadas
- menos cantidad de operaciones
El mtodo del gradiente conjugado es muy til como mtodo iterativo de aproximacin para resolver
sistemas de gran tamao con entradas no nulas. Supondremos que A es simtrica y denida positiva.
El clculo multivariable nos dice que la direccin de mximo descenso en el valor de g(x) es la direccin dada
por g(x); es decir, en la direccin del residual r = b Ax.
con:
9
Convergencia: cuando A es simtrica y denida positiva.
Ventajas Desventajas
- convergencia muy rpida para matrices grandes - suele ser inestable
- Si A Rnn , n iteraciones alcanzan
nn
- Si AR tiene k autovalores repetidos, nk iteraciones alcanzan
Si la matriz A es mal condicionada, este mtodo es altamente susceptible a los errores de redondeo. Es por
esto que existe el mtodo de gradientes conjugados precondicionado. Un ejemplo de su uso es, en vez
de resolver Ax = B , podemos resolver AT Ax = AT B . Notar que en este caso A = AT A es simtrica y denida
positiva.
Sea el problema f (x) = 0. Resolver esta ecuacin equivale a encontrar las races de la funcin f. Sin embargo,
no siempre es posible despejar x e igualar a 0. Una forma de obtener la solucin sera gracando la funcin y
viendo donde sta corta al eje X . Pero esto es poco prctico en casos complejos.
Si tenemos como datos af (x), una tolerancia mxima y un intervalo inicial [a, b], podemos utilizar los mtodos
de arranque (biseccin y Regula Falsi) para achicar este intervalo, y luego utilizar otros mtodos para aproximar
la solucin.
Teorema del valor intermedio : sea f una funcin continua en un intervalo [a, b] y supongamos que f (a) < f (b).
Entonces para cada u tal que f (a) < u < f (b), existe al menos un c dentro de (a, b) tal que f (c) = u.
|b0 a0 |
T OL
2n+1
Es importante destacar que para elegir el intervalo donde se encuentra la raz debe vericarse que f (a)f (b) < 0.
Sin embargo, si esto no se cumple no implica que la raz no exista (pues puede ser una raz doble).
Ventajas Desventajas
- fcil de entender - convergencia lenta
- converge siempre - podemos rechazar una buena aproximacin intermedia
10
Un punto jo de una funcin g es un nmero p que satisface g(p) = p.
Teorema de suciencia para la existencia y unicidad del punto jo :
Mtodo de iteracin de punto jo: supongamos que deseamos resolver Figura 3: Mtodo del punto -
f (x) = 0. Para hallar el x tal que g(x) = x escogemos una aproximacin inicial jo.
x0 y generamos la sucesin x1 , ..., xn haciendo
Si la secuencia converge en xyg es continua, entonces obtenemos una solucin con x = g(x). El error est dado
por:
|xn x| k n |b a|
Ventajas Desventajas
- si k0 converge rpidamente - convergencia lineal
- si k1 converge lentamente
f (xhii )
xhi+1i = xhii
f 0 (xhii )
El mtodo obtiene las aproximaciones utilizando tangentes sucesivas. Comenzando
con x0 , la aproximacin x1 es la interseccin entre la lnea tangente a la grca de
f en (x0 , f (x0 )) y el eje X . La aproximacin x2 es la interseccin entre la tangente
Figura 4: Una iteracin
a la grca de f en (x1 , f (x1 )) y el eje X , y as sucesivamente.
del mtodo de Newton-
Es importante notar que no es posible continuar con este mtodo si f 0 (xn1 ) = 0
Raphson. 00
para alguna n. Adems, f (x) debe estar acotada.
Teorema de convergencia : sea f C 2 [a, b]. Si x [a, b] es tal que f (x) = 0 y f 0 (x) 6= 0, entonces existe > 0 tal
que el mtodo de Newton genera una sucesin x1 , ..., xn que converge a p para cualquier aproximacin inicial
x0 [x , x + ].
Ventajas Desventajas
- muy poderoso - necesitamos conocer la derivada de f
- convergencia cuadrtica para races simples - necesita una buena aproximacin inicial
- convergencia lineal para races dobles
11
Si queremos evitarnos el problema de evaluar la derivada en el mtodo de New-
f (xi )f (xi1 )
ton, podemos aproximarla mediante la denicin: f 0 (xi ) xi xi1 . Entonces
tenemos:
Ventajas Desventajas
- es ms rpido que el mtodo - es ms lento que el mtodo de
del punto jo Newton
- fcil de usar
- no necesitamos conocer f0
Primero elegimos p0 y p1 tales que f (p0 ) f (p1 ) < 0. p2 ser la interseccin en X de la recta secante. Luego
calculamos f (p1 ) f (p2 ), si es mayor a 0 la raz est entre p0 y p1 , sino est entre p1 y p2 . Su frmula general es:
Ventajas Desventajas
- converge siempre - requiere ms clculos que el mtodo de la secante
- ms rpido que el mtodo de la biseccin - converge lentamente
- puede fallar si el denominador se anula
Diferencias progresivas: dada la sucesin p0 , ..., pn la diferencia progresiva 4pn est dada por 4pn = pn+1 pn
con n 0.
Supongamos que p0 , ..., pn es una sucesin linealmente convergente con un lmite p. El mtodo 42 de Aitken
se basa en la suposicin de que la sucesin p0 , ..., pn denida por
(pn+1 pn )2 (4pn )2
pn = pn = pn
pn+2 2pn+1 + pn 42 pn
Ventajas Desventajas
- convergencia acelerada - poco prctico para programar
- no evaluamos la derivada
12
3.7 Mtodo de Steensen
Existe una mejora para el mtodo de Aitken, que se basa en aplicar este mtodo para una sucesin dada por
aproximaciones sucesivas, y se conoce como mtodo de Steensen.
La sucesin que genera est dada por:
Ventajas Desventajas
- Convergencia cuadrtica
f1 (x1 , . . . , xn ) = 0
f2 (x1 , . . . , xn ) = 0
. = F(x1 , . . . , xn ) = (f1 , . . . , fn )T = 0
.
.
fn (x1 , . . . , xn ) = 0
13
Podemos resolverlo mediante una adaptacin del mtodo de Gauss-Seidel a sistemas de ecuaciones mediante:
r 2
hi+1i hii
x1 = 1 x2
2
hi+1i hi+1i hi+1i
x2 = x1 2x1 +1
Ventajas Desventajas
- convergencia cuadrtica - debe conocerse un valor inicial bueno
- necesita calcular e invertir J(x) en cada paso
- O(n3 ) pasos
El mtodo de Broyden es una variante del mtodo de Newton. En este mtodo se reemplaza la matriz
jacobiana con una matriz de aproximacin que se actualiza en cada iteracin.
Supongamos que se da una aproximacin inicial xh0i a la solucin p de F (x) = 0. Calculamos xh1i como en
h2i
el mtodo de Newton, y para calcular x nos apartamos de Newton y examinamos el mtodo de la secante
para una ecuacin no lineal: reemplazamos la matriz J(xh1i ) por una matriz A que tiene la propiedad de que
h1i h0i h1i h0i
x = xh1i A1
h2i h1i
A1 x x =F x F x , es decir que 1 F x . En general, calculamos:
xhi+1i = xhii A1
i F x hii
siendo
F xhii F xhi+1i Ai1 xhii xhi+1i
Ai = Ai1 +
xhii xhi+1i
2
2
Ventajas Desventajas
- no hay que invertir matrices - hay que invertir una matriz al comienzo
- no hay que calcular el jacobiano - convergencia superlineal
- O(n2 ) pasos - debe conocerse un valor inicial bueno
5 Interpolacin
En ingeniera y algunas ciencias es frecuente disponer de un cierto nmero de puntos obtenidos por muestreo o
a partir de un experimento y pretender construir una funcin que los ajuste. Se denomina interpolacin a la
obtencin de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.
Para curvas que no pueden denirse mediante polinomios contamos con curvas paramtricas llamadas curvas
de Bezier.
Supongamos que tenemos los puntos y0 = f (x0 ), y1 = f (x1 ),...,yn = f (xn ) y queremos obtener un polinomio de
grado n que pase lo ms cerca posible de y0 , ..., yn . Lo que podemos hacer es plantear el sistema de ecuaciones:
xn0
1 x0
n
a0 + a1 x0 + ... + an x0 = y0
n a0 y0
.
1 x1 x1 . .
. = . . .. = ..
. . ..
.. .
. . .
.
a + a x + ... + a xn = y an yn
0 1 n n n n 1 xn xnn
14
La matriz de este sistema se llama matriz de Vandermonde. Esta matriz es mal condicionada. Por lo tanto,
este generalmente no es un buen mtodo.
Fenmeno de Runge: se da cuando aparecen oscilaciones no deseadas en los extremos del intervalo a interpolar.
Teorema : si x0 , . . . , x n son n+1 nmeros distintos y si f es una funcin cuyos valores estn dados en esos
nmeros, entonces existe un nico polinomio P (x) de grado a lo sumo n que satisface f (xk ) = P (xk ) con
k = 0, 1, ..., n.
Este polinomio est dado por:
n
Y (x xj )
Ln;i =
(xi xj )
j=0,j6=i
Xn
Pn (x) = [f (xi ) Ln;i ]
i=0
Ventajas Desventajas
- la distribucin de puntos no incide - O(n2 ) operaciones para evaluar Pn (x)
- es sencillo - agregar (xn+1 , yn+1 ) requiere recular todo
- es inestable
f (xi ) = yi
f (xi+1 )f (xi )
f (xi , xi+1 ) = xi+1 xi
.
.
.
P (x) = f (x0 ) + f (x0 , x1 )(x x0 ) + f (x0 , x1 , x2 )(x x0 )(x x1 ) + f (x0 , x1 , x2 , x3 )(x x0 )(x x1 )(x x2 )
donde x0 > x1 > x2 > x3 .
El mtodo de las diferencias divididas regresivas de Newton de grado 3 consiste en:
P (x) = f (x3 ) + f (x2 , x3 )(x x3 ) + f (x1 , x2 , x3 )(x x3 )(x x2 ) + f (x0 , x1 , x2 , x3 )(x x3 )(x x2 )(x x1 )
donde x0 < x1 < x2 < x3 .
Ventajas Desventajas
- agregar un punto inicial o nal es muy sencillo - O(n2 ) operaciones para obtener f (xk , . . . , xn )
- O(n) operaciones para evaluar Pn (x) - agregar un punto intermedio requiere recalcular todo
- se exigen datos xi ordenados
15
5.3 Interpolacin baricntrica de Lagrange
Qn
Sea el polinomio genrico L(x) = i=0 (x xi )
Sean los pesos baricntricos
1
wi = Qn para todo i = 0...n
k=0,k6=i xi xk
Entonces podemos denir al polinomio interpolante como:
n
X wi
Pn (x) = L(x) f (xi )
i=0
x xi
Ventajas Desventajas
- O(n) operaciones para evaluar Pn (x)
- O(n) operaciones para agregar un par de datos
- wi no depende de f (xn+1 )
- no es necesario ordenar los datos
Ventajas Desventajas
- O(n) operaciones para agregar un par de datos - es inestable
- es ms estable que Lagrange original
n
X n
X
H2n+1 (x) = f (xi )Hn;i (x) + f 0 (xi )Hn;i (x)
i=0 i=0
donde
2
Hn;i (x) = 1 2(x xi )L0n;i (xi ) [Ln;i (x)]
2
Hn;i (x) = (x xi ) [Ln;i (x)]
Este polinomio tambin se puede calcular mediante el mtodo de diferencias divididas Newton. Denimos una
sucesin {z0 , . . . , z2n+1 } dada por z2i = z2i+1 = xi , con i = 0 . . . n. Entonces:
2n+1
X k1
Y
H2n+1 (x) = f (z0 ) + f (z0 , . . . , zk ) (x zj )
k=1 j=0
zi f (zi ) f (zi , zi+1 ) f (zi , zi+1 , zi+2 ) f (zi , zi+1 , zi+2 , zi+3 )
z0 = x0 f (z0 ) = f (x0 ) f (z0 , z1 ) = f 0 (x0 )
z1 = x0 f (z1 ) = f (x0 ) f (z1 , z2 ) f (z0 , z1 , z2 ) f (z0 , z1 , z2 , z3 )
z2 = x1 f (z2 ) = f (x1 ) f (z2 , z3 ) = f 0 (x1 ) f (z1 , z2 , z3 )
z3 = x1 f (z3 ) = f (x1 ) f (z3 , z4 )
Ventajas Desventajas
- procedimiento tedioso incluso
para valores chicos de n
16
5.5 Interpolacin por splines
Figura 8: Spline.
1. Si (xi ) = f (xi ) para i = 0, . . . , n (la curva pasa por los puntos)
0
3. Si+1 (xi+1 ) = Si0 (xi+1 ) para i = 0, . . . , n 2 (Si0 es continua)
00
4. Si+1 (xi+1 ) = Si00 (xi+1 ) para i = 0, . . . , n 2 (Si00 es continua)
1
Para hallar los coecientes ai , bi , ci y di con spline de frontera libre debe plantearse:
ai = f (xi )
hi = xi+1 xi
1 0 0 0
0
.
c0
.
h0 2(h0 + h1 ) h1 3[fN (x1 , x2 ) fN (x0 , x1 )]
.
c1
0 h1 2(h1 + h2 ) h2
.
=
. .
. . . .
.
. .
. 0
3[f (x , x ) fN (xn2 , xn1 )]
.
N n1 n
cn
hn2 2(hn2 + hn1 ) hn1
0
0 0 0 1
hi
bi = fN (xi , xi+1 ) 3 (2ci + ci+1 )
ci+1 ci
di = 3hi
Para hallar los coecientes ai , bi , ci y di con spline de frontera sujeta debe plantearse:
ai = f (xi )
hi = xi+1 xi
2h0 h0 0 0
3fN (x0 , x1 ) 3f 0 (a)
.
c0
.
h0 2(h0 + h1 ) h1 3fN (x1 , x2 ) = 3fN (x0 , x1 )
.
c1
0 h1 2(h1 + h2 ) h2
.
=
. .
. . . .
.
. .
n1 , xn ) 3fN (xn2 , xn1 )
.
3f (x
0
.
N
cn
0
hn2 2(hn2 + hn1 ) hn1
3f (b) 3fN (xn1 , xn )
0 0 hn1 2hn1
hi
bi = fN (xi , xi+1 ) 3 (2ci + ci+1 )
ci+1 ci
di = 3hi
La interpolacin con spline de frontera sujeta es ms precisa que la natural, pero requiere los valores de la
derivada en los extremos, o al menos buenas aproximaciones.
Puede demostrarse que las matrices asociadas a los dos sistemas mencionados son estrictamente diagonal do-
minantes, denidas positivas, tribandas y simtricas, y que la solucin de los dos es nica.
1f
N denota la diferencia dividida de Newton
17
6 Ajuste de funciones y mejor aproximacin
Cuando para un mismo xi tenemos varios valores de f (xi ) podemos construir una
curva que ajuste lo mejor posible los datos disponibles, sin que la curva pase por los
puntos dados.
Pm
La aproximacin la hacemos con una funcin g(x) = i=0 ci i (x), donde m < n.
Figura 9: Ajuste.
El problema general de aproximar un conjunto de datos distintos (x1 , y1 ), . . . , (xm , ym ) con un polinomio
Pn (x) = a0 + a1 x + a2 x2 + + an xn de grado n < m 1 puede resolverse mediante el mtodo de los
cuadrados mnimos. Este mtodo consiste en resolver las n + 1 ecuaciones normales para las n + 1 incgnitas
aj .
n
X m
X m
X
ak xj+k
i = yi xji para cada j = 0, . . . , n
k=0 i=1 i=1
Pm Pm Pm
x0i x1i xni
i=1 i=1 i=1 a0
Pm
yi x0i
. Pi=1
m 1
. a1 i=1 yi xi
Pm 1 Pm
i=1 xi x2i .
i=1 . =
.
. .. . .
. .
Pm .
.
Pm. n
n
Pm
x2n an i=1 yi xi
i=1 xi i=1 i
Ntese que el coeciente A11 nos dice la cantidad de puntos que intervienen en el ajuste, y que la matriz es
simtrica y denida positiva, y es similar a una matriz de Vandermonde. De ah que cualquier ajuste de curvas
hecho con polinomios es un problema mal condicionado, y por ello no se recomienda trabajar con polinomios
de grado mayor a 4 o 5.
Puede demostrarse que las ecuaciones normales tienen una solucin nica, a condicin de que las xi sean
distintas.
Si sospechamos que los datos (xi , yi ) tienen una relacin exponencial, podemos proponer la funcin de ajuste
y = aebx .
7 Diferenciacin numrica
Dado que no siempre las soluciones analticas al problema de diferenciar son aplicables a los problemas, y no
siempre existe tal solucin numrica, existen mtodos numricos que aproximan las soluciones con distinto grado
de exactitud.
Sin embargo, debe notarse que la diferenciacin numrica es inestable y depende mucho de la precisin utilizada.
f (x+h)f (x)
1. Diferencias progresivas: f 0 (x) h . Su orden de convergencia es O(h).
f (x)f (xh)
2. Diferencias regresivas: f 0 (x) h . Su orden de convergencia es O(h).
18
f (x+h)f (xh)
3. Diferencias centradas: f 0 (x) 2h . Su orden de convergencia es O(h2 ). Es el que mejor
aproxima de los tres.
Tener en cuenta que achicar el paso h en los tres algoritmos anteriores no siempre es una manera de obtener
una aproximacin mejor, ya que empieza a incidir el error de redondeo, dado que el numerador se vuelve cada
vez ms chico. Adems, no es posible calcular un valor ptimo para h.
3f (x) + 4f (x + h) f (x + 2h)
f 0 (x)
2h
Su orden de convergencia es O(h2 ).
El algoritmo llamado mtodo de los cinco puntos es:
h
j1 q Nj1 (h)
N
h
Nj (h) = Nj1 +
q q j1 1
siendo N1 el resultado de aproximar la derivada con alguno de los mtodos mencionados anteriormente (por
ejemplo, diferencias progresivas).
f 0 (1)
Ejemplo: aproximar siendo f (x) = sin 3x con extrapolacin de Richardson, con q = 2.
f (1+h)f (1) N1 ( h
2 )N1 (h) N2 ( h
2 )N2 (h)
N2 = N1 ( h2 ) + h
hi N1 = h 21 1 N3 = N2 2 22 1 N4
0,2 N1 (0, 2) = 0, 4252
0,1 N1 (0, 1) = 0, 4752 N2 (0, 2) = 0, 5252
0,05 N1 (0, 05) = 0, 4996 N2 (0, 1) = 0, 5240 N3 (0, 2) = 0, 5236
0,025 N1 (0, 025) = 0, 5117 N2 (0, 05) = 0, 5238 N3 (0, 1) = 0, 5237 N4 (0, 2) = 0, 5237
Pn1
La extrapolacin puede aplicarse si el error de truncamiento es j=1 kj h
j + O(h m).
8 Integracin numrica
Cuando necesitamos obtener el valor de una integral denida, pueden ocurrir dos cosas: que la funcin no tenga
una antiderivada explcita, o que sta no sea fcil de obtener. Entonces podemos obtener una aproximacin
utilizando una cuadratura.
Rb Pn
Cuadratura numrica: a f (x) dx i=1 ci f (xi ), donde ci son los coecientes de peso y los f (xi ) son los
puntos de cuadratura.
Los siguientes mtodos aproximan la funcin f (x) con un polinomio interpolante, cuyas antiderivadas son fciles
de calcular.
19
8.1 Frmulas cerradas de Newton-Cotes
Frmula cerrada de Newton-Cotes: la frmula cerrada de n+1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a, xn = b y h = ba
n . Se llama cerrada porque se incluyen
los extremos del intervalo como nodos.
Su orden de convergencia es O(h). Esta regla da un resultado exacto para funciones del tipo f (x) = c.
Regla del trapecio (n=1): se obtiene al integrar en [a, b] el primer polinomio de Lagrange. Se aproxima
el rea bajo una funcin f de valores positivos con un trapecio.
x1
h3
Z
h
f (x) dx = [f (x0 ) + f (x1 )] f 00 ()
x0 2 12
siendo h = b a. Su convergencia es O(h2 ). Esta regla da un resultado exacto para polinomios de grado
1 o menos.
x2
h5
Z
h a+b
f (x) dx = f (a) + 4f + f (b) f (4) ()
x0 3 2 90
ba
siendo h= 2 . Su convergencia es O(h4 ). Esta regla proporciona resultados exactos al aplicarla a poli-
nomios de grado 3 o menos.
x3
3h5 (4)
Z
3h
f (x) dx = [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] f ()
x0 8 80
ba
siendo h= 3 .
Frmula abierta de Newton-Cotes: la frmula abierta de n + 1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a + h, xn = b h y h = ba
n+2 . Se llama abierta porque
no se incluyen los extremos del intervalo como nodos.
x1
h3 00
Z
f (x) dx = 2hf (x0 ) + f ()
x0 3
x0 + x1
= (x1 x0 ) f
2
En general, las frmulas de Newton-Cotes no son adecuadas para utilizarse en intervalos de integracin grandes.
Para estos casos se utilizan los siguientes mtodos, que tienen la ventaja de que son estables respecto del error
de redondeo. Todos estos algoritmos son O(h4 ), pero tienen una desventaja: el tiempo de procesamiento. Esto
quiere decir que reducir el paso h mejora la precisin, pero llegar un punto en que la representacin numrica
nos impedir anar el paso. Adems, cada vez que querramos anar el paso, deberemos calcular todo otra vez.
20
Regla compuesta del rectngulo:
"n1 #
Z b X
f (x) dx h f (xj ) + f (b)
a i=1
ba
siendo h= n y xj = a + jh.
Regla compuesta del trapecio: sea f C 2 [a, b]. Entonces la frmula compuesta del trapecio para n
subintervalos puede escribirse como
b n1
b a 2 00
Z
h X
f (x) dx = f (a) + 2 f (xj ) + f (b) h f ()
a 2 j=1
12
ba
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta de Simpson: sea f C 4 [a, b] y n par. Entonces la frmula compuesta de Simpson
para n subintervalos puede escribirse como
n n
b 2 1 2
b a 4 (4)
Z
h X X
f (x) dx = f (a) + 2 f (x2j ) + 4 f (x2j1 ) + f (b) h f ()
a 3 j=1 j=1
180
ba
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta del punto medio: sea f C 2 [a, b] y n par. Entonces la frmula compuesta del punto
medio para n+2 subintervalos puede escribirse como
n
b 2
b a 2 00
Z X
f (x) dx = 2h f (x2j ) + h f ()
a j=0
6
ba
siendo h= n+2 y xj = a + (j + 1)h para cada j = 1..(n + 1).
El mtodo de integracin de Romberg utiliza la regla compuesta del trapecio para obtener aproximaciones
preliminares y luego se aplica el proceso de extrapolacin de Richardson para mejorar las aproximaciones. Si se
verica que f C 2(k+1) [a, b], la frmula est dada por
Rk,j1 Rk1,j1
Rk,j = Rk,j1 +
4j1 1
donde k = 2, 3, . . . , n y j = 2, . . . , k . Su convergencia es O(h2j
k ). Los resultados generados con stas frmulas se
incluyen en la siguiente tabla.
R1,1
R2,1 R2,2
. . ..
. . .
. .
Rn,1 Rn,2 Rn,n
El mejor valor es Rn,n . Otra ventaja de este mtodo es que permite agregar una nueva la a la tabla con slo
hacer una aplicacin ms de la regla compuesta del trapecio (y luego promediar los dems valores).
En todas las frmulas de Newton-Cotes se emplean valores de la funcin en puntos equidistantes. Esta prctica
es til cuando utilizamos dichos mtodos en reglas compuestas, pero esta restriccin puede afectar la exactitud
de la aproximacin.
21
n xi ci
1 x0 = 0 c0 = 2
2 x0 = 0, 57735 c0 = 1
x1 = 0, 57735 c1 = 1
3 x0 = 0, 77459 c0 = 0, 55555
x1 = 0 c1 = 0, 88888
x2 = 0, 77459 c2 = 0, 55555
. . .
. . .
. . .
b 1
(b a)t + (b + a) ba
Z Z
f (x) dx = f dt
a 1 2 2
Este mtodo arroja resultados exactos cuando g 2n 1, donde g es el grado del polinomio a integrar, y n es
la cantidad de puntos de Gauss. Adems, el error cometido es proporcional a la derivada de orden 2n.
Ventajas Desventajas
- pocas evaluaciones del polinomio
- fcil de programar
- slo desconocemos el error de redondeo
d b
(b a)(d c)
Z Z
f (x, y) dxdy [f (a, c) + f (a, d) + f (b, c) + f (b, d)]
c a 4
Mtodo de Simpson
Z d Z b (b a)(d c)
f (x, y) dxdy {f (x0 , y0 ) + f (x0 , y2 ) + f (x2 , y0 ) + f (x2 , y2 )
c a 36
+4 [f (x0 , y1 ) + f (x1 , y0 ) + f (x1 , y2 ) + f (x2 , y1 ) + 4f (x1 , y1 )]}
a+b c+d
donde x0 = a, x1 = 2 , x2 = b, y0 = c, y1 = 2 , y2 = d.
Mtodo de cuadratura de Gauss
d b n m
(b a)(d c) X X
Z Z
f (x, y) dxdy ci cj f (xi , yj )
c a 4 i=1 j=1
ba b+a dc d+c
con xi =2 ti + 2 , yj = 2 tj + 2 , siendo ti , tj las races de los polinomios de Legendre y ci , cj los
coecientes de peso.
(
dy
dt = f (t, y) para atb
y(a) =
Condicin de Lipschitz: una funcin f (t, y) satisface la condicin de Lipschitz en la variable y en un conjunto
D R2 si existe una constante L>0 tal que
|f (t, y1 ) f (t, y2 )|
L para todo (t, y1 ), (t, y2 ) D
|y1 y2 |
22
Teorema
: si f (t, y) est denida en un conjunto convexo D R2 y existe una constante L > 0 tal que
f (t,y)
y L para toda (t, y) D, entonces f satisface la condicin de Lipschitz.
Teorema (de suciencia ): supongamos que D = {(t, y)|a t b; < y < } y que f (t, y) es continua en D.
Si f satisface la condicin de Lipschitz, entonces el problema de valor inicial y 0 (t) = f (t, y), a t b, y(a) =
tiene solucin nica.
dy
Problema bien planteado: el problema de valor inicial dt = f (t, y), a t b, y(a) = es bien planteado si:
Los siguientes mtodos no nos proporcionan la funcin y(t), sino que nos da aproximaciones a y(ti ) para puntos
a ti b igualmente espaciados. Si queremos valores intermedios deberemos interpolarlos, generalmente
utilizando el mtodo de Hermite.
En los mtodos de un paso la aproximacin del punto de red ti+1 contiene informacin proveniente de uno
solo de los puntos anteriores de red ti .
El mtodo de Euler es un caso particular del mtodo de Taylor para n = 1. Este mtodo no es lo sucientemente
exacto para utilizarlo en la vida real, pero resulta simple para analizarlo. Sin embargo, son mtodos estables.
ba
Mtodo de Euler explcito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresin
de este mtodo es:
wi = y(ti )
wi+1 = wi + h f (ti , wi ) parai = 0, 1, . . . , N 1
ba
Mtodo de Euler implcito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresin
de este mtodo es:
wi = y(ti )
wi+1 = wi + h f (ti+1 , wi+1 ) para i = 0, 1, . . . , N 1
El error local es O(h). El mtodo de Euler implcito suele dar mejores resultados que el explcito (aunque
esto no siempre es as). La desventaja del mtodo implcito es que no siempre es posible implementarlo.
Mtodo predictor-corrector de Euler: este mtodo consiste en obtener una primera aproximacin
con el mtodo explcito, y con sta obtener una nueva aproximacin con el mtodo implcito, que
corrige la anterior.
wi+1 = wi + h f (ti , wi )
wi+1 = wi + h f (ti , wi+1 )
w0 =
wi = y(ti )
h2 0 hn (n1)
wi+1 = wi + h f (ti , wi ) + f (ti , wi ) + + f (ti , wi ) para i = 0, . . . , n 1
2 n!
Puede demostrarse que si f C n+1 [a, b], entonces el error de truncamiento es O(hn ). Este mtodo rara vez se
emplea en la prctica, pues tiene la desventaja de requerir el clculo y evaluacin de las derivadas de f (t, y).
23
9.1.3 Mtodos de Runge-Kutta
Teorema : seaf (t, y) C n+1 en D = {(t, y)|a t b, c y d} y sea (t0 , y0 ) D. Entonces, para toda
(t, y) D, existe [t0 , t] y [y0 , y] con f (t, y) = Pn (t, y) + Rn (t, y) tal que Pn (t, y) es el n-simo polinomio
de Taylor en dos variables para la funcin f alrededor de (t0 , y0 ), y Rn (t, y) es el trmino residual asociado a
Pn (t, y).
Los mtodos de Runge-Kutta se basan en aproximar el polinomio de Taylor para una variable mediante
polinomios de Taylor de dos variables. Existen varios mtodos de Runge Kutta, que se clasican segn su orden
de convergencia. Los ms sencillos son los de orden 2:
w0 =
h h
wi+1 = wi + h f ti + , wi + f (ti , wi ) para cada i = 0, 1, . . . , N 1
2 2
w0 =
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi + h f (ti , wi ))] para cada i = 0, 1, . . . , N 1
2
w0 =
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi+1 )] para i = 0, 1, . . . , N 1
2
Mtodo de Heun:
w0 =
h 2 2
wi+1 = wi + f (ti , wi ) + 3f ti + h, wi + h f (ti , wi ) para i = 0, 1, . . . , N 1
4 3 3
Para obtener mtodos con mayor orden de convergencia se aplica el teorema antes mencionado, y con l se
obtiene el mtodo de Runge-Kutta de orden 4, que es muy preciso siempre y cuando la funcin y(t) tenga
al menos cinco derivadas continuas:
w0 =
k1 = h f (ti , wi )
h 1
k2 = h f ti + , wi + k1
2 2
h 1
k3 = h f ti + , wi + k2
2 2
k4 = h f (ti+1 , wi + k3 )
1
wi+1 = wi + (k1 + 2k2 + 2k3 + k4 ) para cada i = 0, 1, . . . , N 1
6
Los mtodos multipasos son aquellos que emplean la aproximacin en ms de uno de los puntos de red
precedentes para determinar la aproximacin en el siguiente punto. Se pueden deducir de las series de Taylor o
del polinomio interpolante de Lagrange.
Para obtener wi , wi1 , wi2 , . . . debemos utilizar un mtodo de paso simple del mismo orden que el mtodo de
paso mltiple.
24
9.2.1 Mtodos explcitos de Adams-Bashforth
Dado un orden de convergencia p, los mtodos explcitos de Adams-Bashforth usan los puntos wi , wi1 ,
. . ., wi+1p para obtener el wi+1 . El paso no puede ser arbitrario.
w0 =
w1 = 1
h
wi+1 = wi + [3f (ti , wi ) f (ti1 , wi1 )] para i = 1, 2, . . . , N 1
2
w0 =
w1 = 1
w2 = 2
w3 = 3
h
wi+1 = wi + [55f (ti , wi ) 59f (ti1 , wi1 ) + 37f (ti2 , wi2 ) 9f (ti3 , wi3 )] para i = 3, 4, . . . , N 1
24
Dado un orden de convergencia p, los mtodos implcitos de Adams-Moulton usan los puntos wi+1 , wi ,
wi1 , . . ., wi+2p para obtener el wi+1 . El tamao del paso puede ser arbitrario.
w0 =
w1 = 1
h
wi+1 = wi + [f (ti+1 , wi+1 ) f (ti , wi )] para i = 1, 2, . . . , N 1
2
w0 =
w1 = 1
w2 = 2
h
wi+1 = wi + [9f (ti+1 , wi+1 ) + 19f (ti , wi ) 5f (ti1 , wi1 ) + f (ti2 , wi2 )] para i = 2, 3, . . . , N 1
24
Como no siempre es posible transformar la expresin de Adams-Moulton a una de forma explcita, existen los
mtodos predictores-correctores de Adams, que combinan un mtodo de Adams-Bashforth y un mtodo
de Adams-Moulton, ambos del mismo orden de convergencia.
Adams-Bashforth Adams-Moulton
- ms sencillos de programar - ms estables
- menos errores de redondeo
- ms precisos
25
9.3.1 Mtodo del disparo lineal
Corolario : sea el problema y 00 = p(x)y 0 + q(x)y + r(x) con a x b y las condiciones iniciales y(a) = ,
y(b) = . Si se satisface que
El mtodo del disparo lineal tiene problemas de estabilidad. Se basa en la sustitucin del problema de valor en
la frontera por 2 problemas de valor inicial:
Si llamamos y1 (x) a la solucin de (I) e y2 (x) a la solucin de (II), la solucin nal es:
y1 (b)
y(x) = y1 (x) + y2 (b) y2 (x)
1 h2
y 00 (xi ) = 2
[y(xi+1 ) 2y(xi ) + y(xi1 )] y (4) (i )
h 12
El mtodo de diferencias nitas con error de truncamiento de orden O(h) consiste en resolver el siguiente
sistema de ecuaciones:
2 + h2 q(x1 ) h
1 + 2 p(x1 ) 0 0
h2 r(x1 ) + 1 + h
. 2 p(x1 ) w0
.
1 h p(x2 ) 2 + h2 q(x2 ) h2 r(x2 )
2 .
w1
.
. .
. . = .
0 . 0 . .
. . .
wN h2 r(xN 1 )
. . .
. . . h
1 + 2 p(xN 1 ) h2 r(xN ) + 1 + h
2 p(xN ) wN +1
0 0 1 h
2 p(xN ) 2 + h2 q(xN )
El mtodo de los elementos nitos es un mtodo para aproximar soluciones de ecuaciones diferenciales muy
utilizado en anlisis estructural.
26