UNIVERSIDAD REGIONAL AUTONOMA DE LOS ANDES
EXTENSIÓN SANTO DOMINGO FACULTAD DE SISTEMAS MERCANTILES CARRERA INGENIERIA EN SISTEMAS SISTEMAS MODULO DE SIMULACION
TEMA: DISEÑO E IMPLEMENTACION DE RESTRICCIONES AUTOR:
FRANKLIN JAVIER BOHORQUEZ VERA
TUTOR:
ING. SANDRO TOCTAGUANO
FECHA:
Julio, 18 del 2013
PERIODO MAYO – OCTUBRE 2012
1. INTRODUCCIÓN En este capítulo se tratarán temas básicamente que tendrán que ver con la resolución de una ecuación, introduciéndonos en aquellos métodos y pasos que sirven para su resolución. Resolver un sistema de ecuaciones lineales es encontrar todas sus soluciones. Los métodos de igualación, sustitución y reducción consisten en encontrar y resolver, para cada una de las incógnitas, una ecuación con esa incógnita y con ninguna otra ( convirtiendo así un problema difícil en uno más fácil). A estas ecuaciones, con solo una incógnita, se llega a través de una serie de pasos en los que las ecuaciones intermedias que se van obteniendo tienen menos incógnitas que las ecuaciones previas. Así, es posible que en uno de estos pasos de eliminación de incógnitas se utilice un método (el de reducción, por ejemplo) y que, en el siguiente paso, se utilice otro método (el de igualación, por ejemplo). Cada vez que se encuentra la solución para una incógnita, se sustituye esta incógnita por su solución para obtener así ecuaciones con menos incógnitas. Los métodos de igualación, sustitución, reducción y Gauss se pueden utilizar para resolver sistemas de ecuaciones compatibles determinados e indeterminados. Estos mismos métodos también pueden utilizarse para comprobar si un sistema de ecuaciones es compatible o no. La utilización de cualquiera de ellos conduciría, en el caso de que el sistema fuese incompatible, a una igualdad que es falsa, por ejemplo:
El método de la matriz inversa y la regla de Cramer solo se pueden utilizar en el caso de que el sistema de ecuaciones lineales sea compatible determinado.
2. OBJETIVOS 2.1.
GENERAL Investigar y conocer el funcionamiento de cada uno de los métodos existentes para la resolución de ecuaciones.
2.2.
ESPECIFICOS
a) Tratar métodos específicos y lograr entender su funcionamiento y lógico y matemático. b) Utilizar fuentes bibliográficas para entender la lógica de la resolución de ecuaciones.
c) Aplicar ejemplos para visualizar el contenido investigado y la aplicación que tiene cada método en la resolución de una ecuación.
3.
FUNDAMENTACIÓN CIENTIFICA
3.1.
MÉTODO DE LAS APROXIMACIONES SUCESIVAS
La mayor parte de los métodos de la resolución aproximada de las ecuaciones se basa en la idea de las aproximaciones sucesivas, usando esta idea para solucionar tanto ecuaciones como problemas prácticos. Este método es usado por ejemplo por los artilleros, cuando necesitan batir algún objetivo, estableciendo graduaciones correspondientes de elevación y deriva, luego de efectuado el disparo. Luego si el tiro es fallido se realizan elevaciones graduales en referencia al tiro anterior, realizando varias aproximaciones, en donde la elevación y la graduación es de tal manera que el objetivo resulta derribado. El método de aproximaciones suscesivas consiste en reescribir la ecuación original f(x)=0 como x=g(x). En donde básicamente el algoritmo consiste en: 1. Parte de un punto inicial Xa(PRIMERA APROXIMACION A LA RAIZ) . 2. Se calcula el nuevo punto Xn=g(Xa). 3. Si Xn se aproxima lo suficiente a Xa según un criterio preestablecido, se considera que la raíz es Xn y se termina el proceso. 4. Caso contrario, se redefinen la variable Xa=Xn. 5. Se vuelve a 2. Además podemos mencionar que le método de aproximaciones sucesivas consiste en generar funciones convergentes bajo un esquema interativo partiendo de la función original, lo cual se soporta con el siguiente teorema: Teorema de convergencia La raíz de cualquier sub función extraída de una función f(x) obtenida por una iteración convergente, es también una raíz de f(x). Ejemplo de aplicación del teorema Sea f(x) =5senx - 3x, la sub función sen(x) tiene como raíz x=0, la cual resulta ser también la raíz de la función f(x).
En general este método consiste en encontrar una raíz de una ecuación algebraica o trascendente mediante la modificación de la misma y realizando un determinado número de iteraciones que indiquen que el sistema tiende a converger: F (x)=0, donde Cnxn +Cnxn - 1+…..+CnX0=0 f(x) = x+F(x)=0+x Se supon dr áuna r aíz Xi con la cual iniciar áel pr oceso de búsqueda f(xi)= Cn*(xin)+Cn(xin- 1)+…..+Cn
Por cada resultado de una iteración, éste tomará el nuevo valor de X dentro del polinomio. El número de iteraciones puede variar según veamos si este converge a un determinado valor este será el valor de la raíz del polinomio.
3.2MÉTODO DE LINEALIZACIÓN DE NEWTON- RAPHSON Considérese la ecuación f(x) = 0 en la que supondremos que f(x) es una función de clase C2([a, b]). Supongamos además que la ecuación anterior admite una solución x∗ en el intervalo [a, b]. Para cualquier otro valor x0 ∈ [a, b], denotando por h al valor tal que x∗ = x0 + h, la expresión del desarrollo en serie de Taylor Nos permitiría escribir que: 0 = f (x∗) = f(x0 + h) = f(x0) + h.f ′(x0) +h2 2 · f”(x0 + _h), _ ∈ [0, 1] Si conocido x0 se fuese capaz de determinar h resolviendo la ecuación: f(x0) + h · f ′(x0) +h22 · f”(x0 + _h) = 0 Podría determinarse x∗ como x∗ = x0+h. Pero para resolver esta ecuación primero deberíamos conocer el valor de _ (lo cual no es obvio) y una vez conocido resolver una ecuación, en general, no lineal pues obsérvese que h interviene en la expresión f”(x0 + _h). Por tanto, salvo en situaciones muy particulares, no se ganaría gran cosa remplazando el problema de resolver f(x) = 0 por el de resolver F(h) = f(x0) + h · f ′(x0) +h2 2.f”(x0 + _h) = 0 El método de Newton-Raphson (o método de linealización de Newton) se sustenta en simplificar la expresión anterior linealizandola. Para ello considera que si se está suficientemente cerca de la solución (es decir si h es suficientemente pequeño) el termino h2 2 · f”(x0 + _h) podrá despreciarse frente a los otros términos de la ecuación. Por ello resuelve la ecuación lineal: f(x0) + H · f ′(x0) = 0
De la que se obtiene que: H = −f(x0)f ′(x0) Obviamente, al ser diferente la ecuación linealizada que la proporcionada por el desarrollo de Taylor, se tendrá que H 6= h y por tanto x∗ = x0+h 6= x1 = x0+H. De una forma intuitiva (que después deberemos precisar cuándo es correcta) puede pensarse que aunque x1 sea diferente de x∗ será un valor más próximo a x∗ que x0 pues lo hemos obtenido” aproximando” el valor h que nos llevaba de x0 a x∗. Ello, al menos, será así cuando h sea suficientemente pequeño, es decir cuando x0 sea suficientemente próximo a x∗. Con ello el método de Newton-Raphson propone repetir este proceso de forma recursiva hasta estar lo suficientemente cercanos a la solución buscada. Más concretamente el método de Newton-Raphson consiste en generar la sucesión N xi+1 = xi − f(xi) f ′(xi)o∞i=0 A partir de un valor x0 dado.
3.3 MÉTODO DE “REGULA-FALSI” Y DE LA SECANTE Otro algoritmo popular para resolver ecuaciones no lineales es el método de Regula - Falsi o método de la posición falsa. Se trata de realizar un refinamiento del Método de Bisección, eligiendo la aproximación m a distancias de a y b proporcionales a f(a) y f(b). La ecuación de la recta que pasa por los puntos (a; f(a)) y (b; f(b)) es
De donde se tiene que el corte con el eje OX es, haciendo x = 0 y despejando y, el valor
3.4 MÉTODO DE LA SECANTE En análisis numérico el método de la secante es un método para encontrar los ceros de una función de forma iterativa. Es una variación del método de Newton-Raphson donde en vez de calcular la derivada de la función en el punto de estudio, teniendo en mente la definición de derivada, se aproxima la pendiente a la recta que une la función evaluada en el punto de estudio y en el punto de la iteración anterior. Este método es de especial interés cuando el coste computacional de derivar la función de estudio y evaluarla es demasiado elevado, por lo que el método de Newton no resulta atractivo.
3.5 MÉTODO DE BAIRSTOW
En análisis numérico, Método de Bairstow es un eficiente algoritmo para encontrar raíces de un verdadero polinómico del grado arbitrario. El algoritmo primero apareció en el apéndice de los 1920 que el libro “aplicó la aerodinámica” cerca Leonard Bairstow. El algoritmo encuentra las raíces adentro conjugación del complejo pares usando solamente aritmética verdadera. Vea algoritmo de la búsqueda del radical para otros algoritmos. Descripción del método El acercamiento de Bairstow es utilizar Método del neutonio para ajustar los coeficientes u y v en cuadrático x2 + ux + v hasta que sus raíces son también raíces del polinómico que son solucionadas. Las raíces de la ecuación cuadrática pueden entonces ser determinadas, y el polinomio se puede dividir por la ecuación cuadrática para eliminar esas raíces. Este proceso entonces se itera hasta que el polinomio llega a ser cuadrático o linear, y se han determinado todas las raíces. División larga de un polinomio por x2 + ux + v rinde un cociente y un resto cx + d tales que Las variables c, d, y {bi} son las funciones de u y v. Pueden ser encontrados recurrentemente como sigue. La ecuación cuadrática divide uniformemente el polinomio cuando valores de u y v para cuál ocurre él puede ser descubierto escogiendo valores que comienzan e iterando el método del neutonio en dos dimensiones hasta convergencia ocurre. Funcionamiento El algoritmo de Bairstow hereda la convergencia cuadrática del método del neutonio, excepto en el caso de factores cuadráticos de la multiplicidad más arriba de 1, cuando la convergencia puede ser algo lenta.
3.6 MÉTODO DE BIPARTICION Este es uno de los métodos más sencillos y de fácil intuición para resolver ecuaciones en una variable. Se basa en el teorema del valor intermedio (TVI), el cual establece que toda función continua f en un intervalo cerrado [a,b] toma todos los valores que se hallan entre f (a) y f (b). Esto es que todo valor entre f (a) y f (b) es la imagen de al menos un valor en el intervalo [a,b]. En caso de que f (a) y f (b) tengan signos opuestos, el valor cero sería un valor intermedio entre f (a) y f (b), por lo que con certeza existe un p en [a,b] que cumple
f ( p)=0. De esta forma, se asegura la existencia de al menos una solución de la ecuación f (a)=0.
El método consiste en lo siguiente:
Debe existir seguridad sobre la continuidad de la función f ( x) en el intervalo [a,b] A continuación se verifica que Se calcula el punto medio m del intervalo [a,b] y se evalúa f (m) si ese valor es igual a cero, ya hemos encontrado la raíz buscada En caso de que no lo sea, verificamos si f (m) tiene signo opuesto con f (a) o con f (b) Se redefine el intervalo [a, b] como [a, m] ó [m, b] según se haya determinado en cuál de estos intervalos ocurre un cambio de signo Con este nuevo intervalo se continúa sucesivamente encerrando la solución en un intervalo cada vez más pequeño, hasta alcanzar la precisión deseada
En la siguiente figura se ilustra el procedimiento descrito. El método de bisección es menos eficiente que el método de Newton, pero es mucho más seguro para garantizar la convergencia. Si f es una función continua en el intervalo [a, b] y f (a) f (b) < 0, entonces este método converge a la raíz de f . De hecho, una cota del error absoluto es:
en la n-ésima iteración. La bisección converge linealmente, por lo cual es un poco lento. Sin embargo, se garantiza la convergencia si f(a) y f(b) tienen distinto signo. Si existieran más de una raíz en el intervalo entonces el método sigue siendo convergente pero no resulta tan fácil caracterizar hacia qué raíz converge el método.
4.
CONCLUSIONES
Bueno, para determinar y concluir con este tema, debemos mencionar que una vez revisado y analizado los diferentes tipos de métodos de resoluciones de ecuaciones, estableciendo así, varias formas de resolver un caso de ecuación presentado, tomando así variadas soluciones a diferentes casos presentados y así contar con una gama de opciones a la hora de resolverlos.
5.
BIBLIOGRAFIA
5.1.
DIGITAL
a) http://es.scribd.com/doc/33686432/Metodo-de-aproximaciones-sucesivas b) http://iqc.udg.es/~emili/docent/qtc/pdf/01_raices.pdf c) http://www.sc.ehu.es/sbweb/fisica/cursoJava/numerico/raices/aproximaciones/aprox imaciones.htm
d) http://ocw.upm.es/matematica-aplicada/programacion-y-metodosnumericos/contenidos/TEMA_8/Apuntes/EcsNoLin.pdf