Ajuste de curvas e interpolación INTRODUCCIÓN En numerosos fenómenos de la naturaleza observamos una cierta regularidad en la forma de producirse, esto nos permite sacar conclusiones de la marcha de un fenómeno en situaciones que no hemos medido directamente. Al revisar estos datos, podríamos preguntarnos si se podrían usarse para estimar razonablemente, algunas predicciones de este tipo pueden obtenerse usando una función que ajuste los datos. Este es un tema llamado Interpolación. INTERPOLACIÓN. El problema de interpolación consiste en encontrar el valor de la función F(x), de la cual sólo se conocen algunos puntos, para un valor de x que se encuentre entre dos valores consecutivos conocidos. En pocas palabras podríamos decir que: "La interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores en los extremos". El problema general de la interpolación se nos presenta cuando nos dan una función de la cual solo conocemos una serie de puntos de la misma: (xo, yo), (x1, y1),........., (xn, yn) y se pide hallar el valor de un punto x (intermedio de x 0 y xn) de esta función. Interpolación. Elección de la interpolación más adecuada. Consideremos una función de la cual solo conocemos una serie de puntos de la misma: (xo, yo), (x1, y1), .............., (xn, yn) Deseamos encontrar la expresión analítica de dicha función para poder estudiarla en otros puntos. Ahora bien, por n+1 puntos pasan infinitas funciones, ¿con cuál de ellas nos quedamos? Lo más lógico es recurrir a la más sencilla. La familia de funciones más sencillas es la de los polinomios, por tanto buscaremos el polinomio de menor grado que pase por los n+1 puntos dados.
La función polinómica de menor grado que pasa por los puntos es en principio de grado n: y= anxn+............+a1x+ao Y se obtiene resolviendo el sistema de n+1 ecuaciones con n+1 incógnitas (sistema que tiene solución única ya que el determinante de la matriz de los coeficientes es de Vandermonde y por lo tanto distinto de cero) Se le llama polinomio interpolador correspondiente a esos puntos. Una vez obtenida su expresión dando valores en él se pueden encontrar nuevos puntos de la función. Los resultados obtenidos son naturalmente estimaciones aproximadas.
Interpolación: Lineal y cuadrática. La interpolación lineal es un caso particular de la Interpolación general de Newton. Con el polinomio de interpolación de Newton se logra aproximar un valor de la función f(x) en un valor desconocido de x. El caso particular, para que una interpolación sea lineal es en el que se utiliza un polinomio de interpolación de grado 1, y se denota de la siguiente manera:
En general la interpolación consiste en hallar un dato dentro de un intervalo en el que conocemos los valores en los extremos. Se presenta cuando nos dan una función de la cuál sólo conocemos una serie de puntos de la misma:
Y si se pide hallar el valor de un punto x (intermedio de x0 y xn) de esta función. Se le llama polinomio interpolador a estos puntos, los valores obtenidos son sólo estimaciones aproximadas. La interpolación se llama lineal cuando sólo se toman dos puntos y cuadrática cuando se tomen tres.
Interpolación lineal: Sean dos puntos (x0, y0), (x1, y1), la interpolación lineal consiste en hallar una estimación del valor y, para un valor x, tal que x0
Un polinomio de interpolación es una función polinomial que además de interpolar los datos, es el de menor grado posible. Caso 1: En este caso tenemos que f (x) = y0 (polinomio constante) es el polinomio de menor grado tal que f (x0) = y0, por lo tanto, es el polinomio de interpolación: (x0, y0) Caso 2: Tenemos los datos: (x0, y0), (x1, y1) en este caso el polinomio de interpolación es la función lineal que une a los dos puntos dados. Por lo tanto tenemos que:
Es el polinomio de interpolación.
Interpolación cuadrática: Cuando se tiene más de dos puntos: Caso 3: tenemos los datos (x0, y0), (x1, y1), (x2, y2). Para este caso, el polinomio de interpolación va a ser un polinomio de grado 2, el polinomio de interpolación será como sigue.
El término cuadrático viene dado por:
Polinomios de interpolación: Diferencias divididas de Newton y de Lagrange. El problema de la interpolación tiene propiamente tres cuestiones: ·
Saber si tiene solución o no.
·
En caso de tenerla, ¿dicha solución es ´única o existen varias?
·
Y finalmente métodos de cálculo lo más eficientes posibles. A este respecto en interpolación polinómica tenemos el siguiente resultado:
Teorema 1. Supongamos conocido el valor de una función f(x) en un conjunto de puntos distintos dos a dos x0, x1,. . ., xn. Entonces, existe un único polinomio P(x) 2
Donde todos los xj se asumen distintos, el polinomio interpolador en la forma de Lagrange es la combinación lineal:
De bases polinómicas de Lagrange:
La resolución de un problema de interpolación lleva a un problema de álgebra lineal en el cual se debe resolver un sistema de ecuaciones. Usando una base monómica estándar para nuestro polinomio interpolador, llegamos a la matriz de Vandermonde. Eligiendo una base distinta, la base de Lagrange, llegamos a la forma más simple de matriz identidad = δi, j, que puede resolverse inmediatamente. Entre las desventajas de su uso tenemos que si se aumenta en número de puntos a interpolar (o nodos) con la intención de mejorar la aproximación a una función, también lo hace el grado del polinomio interpolador así obtenido, por norma general. De este modo, aumenta la dificultad en el cálculo, haciéndolo poco operativo manualmente a partir del grado 4, dado que no existen métodos directos de resolución de ecuaciones de grado 4, salvo que se puedan tratar como ecuaciones bicuadradas, situación extremadamente rara. La tecnología actual permite manejar polinomios de grados superiores sin grandes problemas, a costa de un elevado consumo de tiempo de computación. Pero, a medida que crece el grado, mayores son las oscilaciones entre puntos consecutivos o nodos. Se podría decir que a partir del grado 6 las oscilaciones son tal que el método deja de ser válido, aunque no para todos los casos. Sin embargo, pocos estudios requieren la interpolación de tan sólo 6 puntos. Se suelen contar por decenas e incluso centenas. En estos casos, el grado de este polinomio sería tan alto que seria inoperable. Por lo tanto, en estos casos, se recurre a otra técnica de interpolación, como por ejemplo a la Interpolación polinómica de Hermite o a los splines cúbicos
Otra gran desventaja, respecto a otros métodos de interpolación, es la necesidad de recalcular todo el polinomio si se varía el número de nodos.
Polinomios de interpolación con diferencias divididas de Newton. Cualquier polinomio de
Regresión por mínimos cuadrados: Lineal y Cuadrática. En el marco del análisis estadístico multidimensional interesa, en gran medida, descubrir la interdependencia o la relación existente entre dos o más de las características analizadas. La dependencia entre dos (o más) variables puede ser tal que se base en una relación funcional (matemática) exacta, como la existente entre la velocidad y la distancia recorrida por un móvil; o puede ser estadística. La dependencia estadística es un tipo de relación entre variables tal que conocidos los valores de la (las) variable (variables) independiente(s) no puede determinarse con exactitud el valor de la variable dependiente, aunque si se puede llegar a determinar un cierto comportamiento (global) de la misma. (Ej. La relación
existente entre el peso y la estatura de los individuos de una población es una relación estadística). Pues bien, el análisis de la dependencia estadística admite dos planteamientos (aunque íntimamente relacionados): · ·
El estudio del grado de dependencia existente entre las variables que queda recogido en la teoría de la correlación. La determinación de la estructura de dependencia que mejor exprese la relación, lo que es analizado a través de la regresión.
Mínimos cuadrados es una técnica de análisis numérico encuadrada dentro de la optimización matemática, en la que, dados un conjunto de pares ordenados: (variable independiente, variable dependiente) y una familia de funciones, se intenta encontrar la función, dentro de dicha familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo error cuadrático. En su forma más simple, intenta minimizar la suma de cuadrados de las diferencias ordenadas (llamadas residuos) entre los puntos generados por la función y los correspondientes en los datos. Específicamente, se llama mínimos cuadrados promedio cuando el número de datos medidos es 1 y se usa el método de descenso por gradiente para minimizar el residuo cuadrado. Se puede demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de operaciones (por iteración), pero requiere un gran número de iteraciones para converger. Desde un punto de vista estadístico, un requisito implícito para que funcione el método de mínimos cuadrados es que los errores de cada medida estén distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no tiene que ajustarse, por ejemplo, a una distribución normal. También es importante que los datos recogidos estén bien escogidos, para que permitan visibilidad en las variables que han de ser resueltas (para dar más peso a un dato en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas. Muchos otros problemas de optimización pueden expresarse también en forma de mínimos cuadrados, minimizando la energía o maximizando la entropía. La aproximación mínimo cuadrática consiste en minimizar el error cuadrático mencionado más arriba, y tiene solución general cuando se trata de un problema de aproximación lineal (lineal en sus coeficientes) cualesquiera que sean las funciones base: antes mencionadas. Por lineal se entiende que la aproximación buscada se expresa como una combinación lineal de dichas funciones base. Para hallar esta expresión se puede seguir un camino analítico, expuesto abajo, mediante el cálculo multivariable, consistente en optimizar los coeficientes; o bien, alternativamente, seguir un camino geométrico con el uso del álgebra lineal, como se explica más abajo, en la llamada deducción geométrica. Para los Modelos estáticos uniecuacionales, el método de mínimos cuadrados no ha sido superado, a pesar de diversos intentos para ello, desde principios del Siglo XIX. Se puede demostrar que, en su género, es el que proporciona la mejor aproximación.
Calcular el polinomio de Lagrange usando los siguientes datos:
Para solucionar el problema deberemos aplicar la siguiente fórmula:
donde:
Sustituyendo, el polinomio de Lagrange queda definido como sigue:
Simplificamos, y obtenemos:
Tras realizar las diferentes operaciones la ecuación resultante quedará de la siguiente forma: f(x) = -0,0739x3 + 0,3906x2 + 0,624x - 2,978 APLICACIÓN
Supongamos que colocamos en una autovía dos radares con una separación entre ellos de 5 kilómetros. Cada uno de ellos identifica cada coche que pasa a su altura y detecta su velocidad, registrando la hora exacta en la que cada coche entra en ese tramo de 5 kilómetros (mediante el primer radar) y la hora en la que sale de él (mediante el segundo). Supongamos ahora que nosotros viajamos en un coche que entra en ese tramo de carretera (donde la velocidad máxima permitida es 120 km/h) a las 12 horas, 38 minutos y 41 segundos a una velocidad de 110 km/h y sale del mismo a las 12 horas, 41 minutos y 5 segundos también a una velocidad de 90 km/h. En principio las mediciones de los radares indican que en los dos puntos circulamos a velocidad permitida tanto en el comienzo del tramo como en el final, pero ¿qué ocurre entre esos dos puntos? Pues muy sencillo: Hemos tardado 2 minutos y 24 segundos en recorrer esos 5 kilómetros, por lo que nuestra velocidad media en este tramo ha sido 125 km/h.
UNIDAD 5: DERIVACIÓN E INTEGRACIÓN NUMÉRICA 5.1 Derivación numérica. Consideremos una función f(x) de la cual se conoce un conjunto discreto de valores (x0, f0), (x1, f1),...,(xn, fn). El problema que vamos a abordar es el de calcular la derivada de la función en un punto x que en principio no tiene por qué coincidir con alguno de los que figuran en los datos de que disponemos. La forma más sencilla de resolver el problema de la diferenciación numérica consiste en estimar la derivada utilizando fórmulas obtenidas mediante la aproximación de Taylor, que se denominan fórmulas de diferencias finitas. Es importante tener en cuenta que el proceso de diferenciación numérica es inestable. Los errores que tengan los
datos, por ejemplo los cometidos en la adquisición de los mismos o los debidos al redondeo aumentan en el proceso de diferenciación como veremos a lo largo de éste capítulo. Fórmulas de diferencias de dos puntos
Este proceso de paso al límite presenta distintos problemas para ser realizado en situaciones prácticas donde no se conozca la forma explícita de f′(x). En primer lugar un límite no puede calcularse de modo aproximado en un computador donde los números que se manejan son finitos. A pesar de todo es de esperar que si la función f(x) no se comporta mal y h0 es un número finito pero pequeño se cumpla:
Es más, la misma definición de la derivada implica que si f′(x) existe, entonces hay algún h0 a partir del cual nuestra aproximación dista menos de una cantidad δ del valor real para la derivada. El problema es que esto sólo es cierto con precisión infinita ya que h0 puede ser tan pequeño que no pueda representarse en el ordenador o que la diferencia f(x + h0) − f(x) esté seriamente afectada por el error de redondeo. La ecuación (2.1) es la forma más sencilla de aproximar una derivada conocidas f(x) y f(x+h0). El siguiente teorema nos proporciona información sobre la precisión de esta aproximación. Teorema. Sea f(x) ∈ C1 (a, b) y existe f′′(x) en (a, b), entonces se cumple que:
Demostración. Escribamos la aproximación de Taylor para la función en un punto x+h:
Reordenando la expresión anterior queda demostrado el teorema. El teorema anterior nos indica que el error cometido al aproximar la derivada primera por su fórmula de diferencia adelantada es una función lineal de h. Cuanto menor sea h (o sea al tomar valores de f(x) más cercanos) la derivada numérica será más precisa. Este error se denomina error de truncación o discretización y puede acotarse fácilmente, obteniéndose que: E ≤ máx(x,x+h) |f′′(z)|. En realidad, para datos obtenidos a partir de una tabla esta
acotación no es de gran utilidad directa ya que si no se conoce la derivada primera menos aún se conocerá la segunda pero al menos nos permite conocer el orden de aproximación de la fórmula. Geométricamente el error O(h) procede del hecho de aproximar la derivada por la pendiente de la cuerda que une los puntos f(x) y f(x + h), Por otro lado, si existe la derivada deben existir las derivadas laterales y entonces
Un problema que presenta esta fórmula es que la precisión de la misma es baja y por lo tanto en situaciones donde sólo dispongamos de un muestreo de baja precisión de f(x), como ocurre en ensayos, datos experimentales, etc., será conveniente utilizar otras fórmulas de derivación más precisas. Fórmulas de orden superior El error de truncación de la fórmula de diferencia adelantada de dos puntos varía linealmente con h, de manera que es necesario usar valores de h muy pequeños para reducir suficientemente los errores de truncación. Es posible deducir fórmulas para las derivadas con errores de truncación más pequeños. Por ejemplo, tomemos
donde z1 ∈ (x, x + h) y z2 ∈ (x − h, x). Restando (2.1a) y (2.1a) obtenemos
que nos proporciona una siguiente aproximación para la derivada con un término de error de truncación que depende cuadráticamente de h. Usando el teorema del valor intermedio f′′′(z) = (f′′′(z1) + f′′′(z2))/2, y entonces, si f es suficientemente derivable.
Usando los desarrollos de Taylor de f(x+h) y f(x+2h) se encuentra la llamada fórmula de diferencia adelantada de tres puntos que es:
Reemplazando h por −h en (2.3) obtenemos una fórmula de diferencias retrasadas de tres puntos
De todas estas, la fórmula de diferencia centrada es la que tiene, en principio, menor error de truncación y la que requiere menos evaluaciones de la función, siendo por lo tanto más eficiente desde el punto de vista computacional. Utilizando el valor de la función en más puntos se construyen fórmulas más precisas para las derivadas. Alguna de ellas se muestra en la tabla siguiente junto con las que hemos deducido ya.
Derivadas de orden superior El mismo procedimiento que se ha seguido al deducir fórmulas para calcular numérica- mente las derivadas primeras puede usarse para construir derivadas de orden superior partiendo del desarrollo de Taylor y eliminando las derivadas primeras. Consideremos por ejemplo las expresiones:
Sumando las ecuaciones anteriores y despejando se encuentra que:
Procediendo de la misma forma es posible encontrar aproximaciones que usen diferentes puntos y aproximaciones para derivadas de orden superior. La tabla siguiente presenta algunas de las fórmulas más comunes para calcular derivadas de orden superior.
5.2 Integración numérica: Método del trapecio, Métodos de Simpson 1/3 y 3/8. En los cursos de Cálculo Integral, nos enseñan como calcular una integral definida de una función continua mediante una aplicación del Teorema Fundamental del Cálculo: Teorema Fundamental del Cálculo Sea f(x) una función continua en el intervalo [a,b] y sea F(x) una anti derivada def(x). Entonces:
El problema en la práctica, se presenta cuando nos vemos imposibilitados de encontrar la antiderivada requerida, aún para integrales aparentemente sencillas como:
la cual simplemente es imposible de resolver con el Teorema Fundamental del Cálculo. REGLA DEL TRAPECIO Corresponde al caso donde n=1 , es decir :
donde f1(x) es un polinomio de interpolación (obviamente de grado 1) para los datos: x a b y
f(a)
f(b)
sabemos que este polinomio de interpolación es:
Integrando este polinomio, tenemos que:
Que es la conocida Regla del Trapecio. Este nombre se debe a la interpretación geométrica que le podemos dar a la fórmula. El polinomio de interpolación para una tabla que contiene dos datos, es una línea recta. La integral, corresponde al área bajo la línea recta en el intervalo [a,b], que es precisamente el área del trapecio que se forma.
REGLA DE SIMPSON DE UN TERCIO Suponemos que tenemos los datos: a
xm
b
f(a)
f(xm)
f(b)
donde xm es el punto medio entre a y b. En este caso se tiene que:
Donde f2(x) es el polinomio de interpolación para los datos en la tabla anterior. Usaremos el polinomio de LaGrange. Así, tenemos que:
Si denotamos h= (b-a)/2 = xm-a = b-xm, entonces:
Simplificando términos:
Vemos que cada uno de los términos anteriores, es esencialmente de la misma forma, es decir, una constante por (x-α)(x-β). Así, calculamos la siguiente integral por partes:
Obteniendo, por lo tanto,
Usamos esta fórmula para calcular la integral de cada uno de los tres términos de f2(x) y obteniendo como resultado final
Debido al factor h/3 se le conoce como la regla de Simpson de un tercio. En la práctica, sustituimos el valor de h = (b-a)/ 2 para obtener nuestra fórmula final:
REGLA DE SIMPSON DE TRES OCTAVOS Este caso corresponde a n=3 , es decir,
donde f3(x) es un polinomio de interpolación para los siguientes datos: x0
x1
x2
x3
f(x0)
f(x1)
f(x2)
f(x3)
Y donde a= x0, b= x3 y x1, x2 son los puntos que dividen en tres partes iguales al intervalo [a,b]. Igual que en el caso anterior, se usa el polinomio de interpolación de Lagrange, y usando el método de integración por partes se llega a la siguiente fórmula:
donde h = (b-a) / 3 . Debido al factor 3h / 8 es que se le dio el nombre deRegla de Simpson de 3/8. En la práctica, se sustituye el valor de h para obtener:
5.3 Integración con intervalos desiguales. Cuando la longitud de los subintervalos no es igual, se usa una combinación de la regla Trapezoidal y las reglas de Simpson, procurando seguir el siguiente orden jerárquico: 1 .- Simpson 3/8 Esta se aplica, si contamos con 4 puntos igualmente espaciados. 2 .- Simpson 1/3 Esta se espaciados.
aplica si falla (1) y contamos con 3 puntos igualmente
3 .- Regla Trapezoidal Solo se aplica si no se cumple (1) y (2) Ejemplo Evaluar 1 usando la siguiente tabla:
x
0
0.1
0.3
0.5
0.7
0.95
1.2
f(x)
0
6.84
4
4.2
5.51
5.77
1
Solución. Vemos que en el intervalo [0,0.01] podemos aplicar la regla del trapecio, en el intervalo [0.1,0.7] la regla de Simpson de 3/8 y en el intervalo [0.7,1.2] la regla de Simpson de 1/3. Así, tenemos las siguientes integrales:
Finalmente, la integral buscada es la suma de las tres integrales anteriores:
5.4 Aplicaciones.
Método del trapecio
Ejemplo 1: Utilizar la regla del trapecio para aproximar la integral:
Solución. Usamos la fórmula directamente con los siguientes datos:
Por lo tanto tenemos que:
Método de Simpson 1/3
Ejemplo 1. Usar la regla de Simpson de 1/3 para aproximar la siguiente integral:
Solución. Aplicamos la fórmula directamente, con los siguientes datos:
Por lo tanto, tenemos que:
Método de Simpson 3/8
Ejemplo 1. Aproximar la siguiente integral:
aplicando la regla de Simpson de 3/8, y subdiviendo en 3 intervalos. Solución Identificamos n=3 y la partición correspondiente:
Al considerar los puntos que dividen en tres partes iguales a cada subintervalo, tenemos los siguientes datos:
Sustituyendo todos los datos en la fórmula, obtenemos:
De acuerdo a los ejemplos vistos, resulta evidente que la regla de Simpson de 3/8, es más exacta que la de 1/3 y a su vez, ésta es más exacta que la regla del trapecio. En realidad, pueden establecerse cotas para los errores que se cometen en cada uno de estos métodos.
6.1 Fundamentos de ecuaciones diferenciales. El objeto de este subtema es hacer una breve introducción al estudio de ecuaciones diferenciales, que constituye una de las ramas más importantes para el Cálculo, por sus innumerables aplicaciones en todas las ciencias. Definición 1 Se llama ecuación diferencial a aquella ecuación que contiene derivadas. Si la ecuación sólo tiene una sola variable independiente recibe el nombre de ecuaciones diferenciales ordinarias (EDO).Si la ecuación contiene más de una variable independiente, apareciendo así sus derivadas parciales, recibe el nombre de ecuaciones diferenciales en derivadas parciales. Definición 2 Se llama orden de una ecuación diferencial al orden de lamayor derivada que aparezca en ella. Definición 3 Se llama grado de una ecuación diferencial al grado de laderiva da de mayor orden que aparezca en ella. Definición 4 Se llama solución general de una ecuación diferencial a toda relación entre las variables, libres de derivadas, que satisface dicha ecuación diferencial. Por lo común, la solución general de una ecuación diferencial de orden n tiene nconstantes. Integrar o resolver una ecuación diferencial es hallar su solución general. Definición 5 Se llama solución particular de una ecuación diferencial a aquella solución que se obtiene a partir de la solución general, dando valores a las constantes.
Bibliografía http://www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r73203. PDF Steven C. Chapra, Métodos Numéricos para Ingenieros, 6ª ed., Mc Graw Hill.
Antonio Nieves Hurtado, Federico C. Domínguez Sánchez, Métodos Numéricos, 3ª ed., CESA.
6.2 Métodos de un paso: Método de Euler, Método de Euler mejorado y Método de Runge-Kutta.
Método de Euler Este método se aplica para encontrar la solución a ecuaciones diferencialesordinarias (EDO), esto es, cuando la función involucra solo una variable independiente.
El método se basa de forma general en la pendiente estimada de la función para extrapolar desde un valor anterior a un nuevo valor: Nuevo valor = valor anterior + pendiente x tamaño de paso. O bien,
De esta manera, la formula (1), se aplica paso a paso para encontrar un valor en el futuro y así trazar la trayectoria de la solución. La figura 1, muestra el procedimiento aplicado con la ecuación (1).
Predicción de un nuevo valor en la solución El método de Euler utiliza la pendiente al inicio del intervalo como unaaproximación de la pendiente promedio sobre todo el intervalo. La primera derivada proporciona una estimación directa de la pendiente en x i.
f(xi,yi), es la ecuación diferencial evaluada en xi y yi. Sustituyendo esta estimación de la pendiente en la ecuación (1), se tiene:
La ecuación (2), se le conoce como el método de Euler. En esta formula se predice un nuevo valor de y por medio de la pendiente que es igual a la primera derivada en el valor original de x, este nuevo valor habrá de extrapolarse en forma lineal sobre el tamaño de paso h. Bibliografia http://www.uaem.mx/posgrado/mcruz/cursos/mn/euler.pdf Método de Euler mejorado Este método se basa en la misma idea del método anterior, pero hace un refinamiento en la aproximación, tomando un promedio entre ciertas pendientes.
La fórmula es la siguiente:
donde,
Para entender esta fórmula, analicemos el primer paso de la aproximación, con base en la siguiente gráfica:
En la gráfica, vemos que la pendiente promedio corresponde a la pendiente de la recta bisectriz de la recta tangente a la curva en el punto de la condición inicial y la “recta tangente” a la curva en el punto (x1, y1), donde y1 es la aproximación obtenida con la primera fórmula de Euler. Finalmente, esta recta bisectriz se traslada paralelamente hasta el punto de la condición inicial, y se considera el valor de esta recta en el punto x = x1 como la aproximación de Euler mejorada. Bibliografía http://www.monografias.com/trabajos73/metodos-numericos-metodo-eulermejorado/metodos-numericos-metodo-euler-mejorado.shtml Método de Runge-Kutta En la sección anterior se estableció que el método de Euler para resolver la ecuación diferencial de primer orden
Y' = f(X, Y)
(7)
con la condición inicial Y(X0) = Y0
(8)
consiste en aplicar repetidamente la fórmula de recurrencia Yn+1 = Yn + h f(Xn, Yn) donde n = 1, 2, 3, ...
(9)
para determinar la solución de la ecuación diferencial en X = X1, X2, X3,... Sustituyendo la función f(X, Y) dada en (7), en (9), se tiene que Yn+1 = Yn + h Y'n
(10)
expresión que indica que el método de Euler consiste gráficamente, en ir de un valor Yn conocido de la solución de la ecuación diferencial (7) en un punto, al siguiente por medio de la tangente T1 a la curva integral Y = Y(X) en el mismo punto de la solución conocida, como se muestra en la siguiente figura.
De este planteamiento gráfico puede verse que una mejor aproximación a la solución de la ecuación diferencial se obtendría si en vez de ir por la tangente T1para determinar la solución en el siguiente Punto Pivote, se utiliza una secante con pendiente igual al promedio de pendientes de la curva integral en los puntos coordenados (Xn, Yn), (Xn+1, Yn+1) en donde Xn+1 y Yn+1 pueden estimarse con el procedimiento normal de Euler, como se muestra en la siguiente gráfica:
Con lo anterior se obtendría un método mejorado de Euler con error del orden deh3 definido por la expresión
en donde f(Xn+1, Yn+1) es el valor de la función f(X, Y) para: X = Xn+1 Y = Yn + h f(Xn, Yn)
Observando las expresiones para resolver la ecuación diferencial, puede decirse que ambas consisten en aplicar la fórmula de recurrencia
(12)
en donde
(13) en el método de Euler y
(14) en lo que Y' = f(X, Y) en el método de Euler Mejorado. Como se ve, estos métodos tienen los siguientes puntos en común: 1.
Son métodos de un paso; para determinar Yn+1 se necesita conocer únicamente los valores de Xn y Yn del punto anterior.
2.
No requieren evaluar ninguna derivada, sino únicamente valores de la función f(X, Y).
Estas características dan origen a una gran variedad de métodos conocidos como de Runge-Kutta. La diferencia entre ellos consiste en la forma como se define la función que aparece en la expresión (12). La ventaja de los métodos de Runge-Kutta con respecto al uso de la serie de Taylor, que es también un método de un paso, está expresado en el punto (2) anterior; es decir, los métodos de Runge-Kutta requieren sólo de la función f(X, Y)y
de ninguna derivada, mientras que la serie de Taylor sí requiere de la evaluación de derivadas. Esto hace que, en la práctica, la aplicación de los métodos de Runge-Kutta sean más simples que el uso de la serie de Taylor. Un método de Runge-Kutta para resolver ecuaciones diferenciales ordinarias de primer orden con error del orden de h5, de uso tan frecuente que en la literatura sobre métodos numéricos se le llama simplemente el Método de Runge-Kutta, se dará a conocer sin demostrar y consiste en aplicar la ecuación de recurrencia (12) en donde la función
está dada por la expresión:
(16) en el cual
(17) La ecuación (16) se obtiene haciendo un promedio de las cuatro pendientes, k1, k2, k3 y k4 a la curva integral, en forma semejante a como se procedió con las pendientes de las tangentes T1 y T2 que dieron lugar a (11).
Bibliografia http://www.google.com.mx/url? sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=0CGAQFjAC&url=h ttp%3A%2F%2Fwww.itescam.edu.mx%2Fprincipal%2Fsylabus %2Ffpdb%2Frecursos%2Fr45643.DOC&ei=c6vTT-2CLPY2AWD0ZCcDw&usg=AFQjCNHsmQzsvtyYodR6DhItiXyY1UJGeg& sig2=vSJ01IP-BoLrvU5g10RpIQ
6.3 Métodos de pasos múltiples Los métodos de un paso descritos en las secciones anteriores utilizan información en un solo punto xi para predecir un valor de la variable dependiente y i+1 en un punto futuro xi+1. Procedimientos alternativos, llamados métodos multipaso, se basan en el conocimiento de que una vez empezado el cálculo, se tiene información valiosa de los puntos anteriores y esta a nuestra disposición. La curvatura de las líneas que conectan esos valores previos proporciona información con respecto a la trayectoria de la solución. Los métodos multipaso que exploraremos aprovechan esta información para resolver las EDO. Antes de describir las versiones de orden superior, presentaremos un método simple de segundo orden que sirve para demostrar las características generales de los procedimientos multipaso.
Bibliografía http://metodosnumericos.webatu.com/tema5_2.html
6.4 Aplicaciones a la ingeniería.
Método de Euler Ejercicio 1. Use el método de Euler para integrar numéricamente la siguiente ecuación diferencial:
Desde x = 0 hasta x = 4, con un tamaño de paso h = 0.5. Con la condición inicial de que cuando x = 0 entonces y = 1. Obtenga la solución exacta integrando analíticamente y compare los resultados con los obtenidos por el método de Euler. Tabular los resultados de Euler, la solución real y el error relativo porcentual. Ejemplo: Aplicando la ecuación (2), para encontrar la primera aproximación: x1= 0 y1= 1 y2 = y1 + f (x1, y1 )h La pendiente es: f(0,1)= -2(0)3 +12(0)2 -20(0)+8.5 = 8.5 Sustituyendo en la formula de Euler y2 = 1 + 8.5(0.5) = 5.25 Método de Euler mejorado Aplicar el método de Euler mejorado, para aproximar y(0.5) si: y' = 2xy y(0) = 1
Solución Vemos que este es el mismo ejemplo 1 del método anterior. Así que definimos h = 0.1 y encontraremos la aproximación después de cinco iteraciones. A diferencia del método de Euler 1, en cada iteración requerimos de dos cálculos en vez de uno solo: el de yn* primero y posteriormente el de yn.
Para aclarar el método veamos con detalle las primeras dos iteraciones. Primero que nada, aclaramos que tenemos los siguientes datos iniciales:
En nuestra primera iteración tenemos:
Nótese que el valor de y1* coincide con el y1 (Euler 1), y es el único valor que va a coincidir, pues para calcular y2* se usará y1 y no y1*. Esto lo veremos claramente en la siguiente iteración:
Nótese que ya no coinciden los valores de y2 (Euler 1) y el de y2*. El proceso debe seguirse hasta la quinta iteración. Resumimos los resultados en la siguiente tabla: n
xn
yn
0
0
1
1
0.1
1.01
2
0.2
1.040704
3
0.3
1.093988
4
0.4
1.173192
5
0.5
1.28336
Concluímos entonces que la aproximación obtenida con el método de Euler mejorado es: y(0.5) = 1.28336 Con fines de comparación, calculamos el error relativo verdadero:
Vemos que efectivamente se ha obtenido una mejor aproximación con este método, reduciendo el error relativo verdadero de un 5.4% hasta un 0.05%. En nuestro tercer método veremos cómo se reduce aún más este error prácticamente a un 0%!
Link de aplicación del método de Euler a un sistema masa-amortiguador.