3 Programación no lineal. 3.1 Introducción La Programación no Lineal (PNL) es una parte de la Investigación Operativa cuya misión es proporcionar una serie de resultados y técnicas tendentes a la determinación de puntos óptimos para una función (función objetivo) en un determinado conjunto (conjunto de oportunidades), donde tanto la función objetivo, como las que intervienen en las restricciones que determinan el conjunto de oportunidades pueden ser no lineales. Evidentemente, la estructura del problema puede ser muy variada, según las funciones que en él intervengan (a diferencia de la Programación Lineal (PL) donde la forma especial del conjunto de oportunidades y de la función objetivo permiten obtener resultados generales sobre las posibles soluciones y facilitan los tratamientos algorítmicos de los problemas). Ello ocasiona una mayor dificultad en la obtención de resultados, que se refleja también en la dificultad de la obtención numérica de las soluciones. En este sentido, hay que distinguir entre las diversas caracterizaciones de óptimo, que sólo se emplean como técnicas de resolución en problemas sencillos, y los métodos numéricos iterativos, cuyo funcionamiento se basa en estas caracterizaciones, para la resolución de problemas más generales. 3.1 Planteamiento de problemas de Programación no lineal. Una suposición importante de programación lineal es que todas sus funciones (Función objetivo y funciones de restricción) son lineales. Aunque, en esencia, esta suposición se cumple para muchos problemas prácticos, es frecuente que no sea así. De hecho, muchos economistas han encontrado que cierto grado de no linealidad es la regla, y no la excepción, en los problemas de planeación económica, por lo cual, muchas veces es necesario manejar problemas de programación no lineal. De una manera general, el problema de programación no lineal consiste en encontrar
para
Maximizar
,
Sujeta ha en donde
y las
son funciones dadas de n variables de decisión.
No se dispone de un algoritmo que resuelva todos los problemas específicos que se ajustan a este formato. Sin embargo, se han hecho grandes logros en lo que se refiere a algunos casos especiales, haciendo algunas suposiciones sobre las funciones, y la investigación sigue muy activa. 3.2 Optimización clásica.
Proporciona la teoría clásica para localizar los puntos de máximos y mínimos de problemas no lineales restringidos y no restringidos. La teoría por lo general no es adecuada para propósitos de calculo. Existen pocas excepciones donde la teoría de Kuhn - Tucker es la base para el desarrollo de algoritmos de calculo eficientes. La programación cuadrática, es un ejemplo del uso de las condiciones necesarias de Kuhn - Tucker. No es posible establecer condiciones de suficiencia (similares a las de los problemas no restringidos y a los problemas con restricciones de igualdad) para programas no lineales con restricciones de desigualdad. No existe forma de verificar si un algoritmo de programación no lineal converge a un óptimo local o a uno global. Optimización La teoría de la optimización clásica usa el calculo diferencial en la optimización de los puntos máximos y mínimos para funciones con y sin restricciones. El método tal vez no sea adecuado para cálculos eficientes, la teoría que lo fundamenta proporciona las bases para desarrollar la mayor parte de los algoritmos, de programación lineal. Problemas no restringidos Un punto extremo de una función F(x) define un máximo o un mínimo de la función. Matemáticamente, un punto X = (X , … , X … X) es un máximo sí. F (x + h) < F (x) Para toda h igual (h , … h , … h) de modo que h es suficientemente pequeño para toda j. En otras palabras x un máximo si el valor de F en todo el punto de la vecindad de x no excede f (x). de manera similar, x es un mínimo si para h se definió. F (x + h ) > F (x ) F de x se llama máximo global o absoluto y F ( x ) y F ( x ) Son máximo locales o relativos. Al respecto, X se llama máximo débil comparado con X; ejemplo de F (x) define un máximo fuerte. Sin embargo esta propiedad también satisface punto de inflexión y de silla de motar, como en X.
Problemas con restricciones Optimización de las funciones restringidas que presentan caso de restricciones de igualdad y de desigualdad. Restricciones de igualdad Son dos métodos. El Jacobiano y el Lagrangiano, el segundo se desarrolla de forma lógica a partir del método jacobiano. Esta relación proporciona una interesante interpretación económica del método lagrangiano. Método De Derivadas Restringidas ( Jacobiano) La idea de utilizar derivadas restringidas es encontrar una expresión de forma cerrada para las primeras derivadas parciales de f (x) en todos puntos que satisfacen las restricciones g (x) = 0 Los correspondientes puntos estacionarios se identifican entre los puntos de las que están derivadas parciales se hacen 0. Ahora el método se desarrolla de forma matemática mediante el problema de Tyler, para los puntos x y x En vecindad factible de x, tenemos f ( x + x ) - f (x ) = f x) x + 0 ( x ) Donde f representa el gradiente restringido de f con respecto a z así f ( y, z ), deben ser unos puntos estacionarios. Entre tanto, los elementos de la matriz deben ser de la segunda derivada restringida. Para mostrar como se obtiene. Análisis de sensibilidad del método Jacobiano Este método sirve para estudiar la sensibilidad del valor optimo de f debido a cambios pequeños en los lados derechos de las restricciones. Este tipo de investigación se llama análisis de sensibilidad y de alguna manera es similar a lo que se lleva a cabo la programación lineal. 3.2.1 Puntos de inflexión.
Punto de inflexión Un punto de inflexión es un punto donde los valores de x de una función continua pasa de un tipo de concavidad a otro. La curva "atraviesa" la tangente. Matemáticamente la derivada segunda de la función f en el punto de inflexión es cero, o no existe. En el cálculo de varias variables a estos puntos de inflexión se les conoce como puntos de ensilladura.
Procedemos entonces, tras haber establecido ciertos conceptos básicos en la sección anterior, a resolver el problema Maximizarsujeta a :f (x)g(x) ≤ b(PRD) donde suponemos que se dan condiciones de diferenciabilidad sobre f y g y que el conjunto D es abierto. En esta situación, tenemos aseguradas ciertas condiciones de diferenciabilidad sobre la función de Lagrange L. Empezaremos definiendo el concepto de punto estacionario de Kuhn-Tucker a partir de L. Tras ello, estudiaremos su relación con las soluciones del problema (PRD). Como veremos, serán necesarias condiciones de convexidad en los teoremas de suficiencia, y no así en los de necesariedad (donde, eso sí, hará falta incluir cualificaciones de restricciones). Así pues, definimos
supuesto que x0 es un punto factible:
Una vez definido este concepto, veamos seguidamente los teoremas que lo relacionan con las soluciones del problema (PRD). Empezaremos dando el teorema de condiciones necesarias, es decir, el teorema en el que se establecen qué condiciones necesariamente deben verificar los óptimos de (PRD).
Como se observa, gracias a la formulación de punto estacionario de Kuhn-Tucker (4), este teorema afirma que, si se verifica la cualificación de restricciones de independencia lineal en x0, entonces necesariamente todo óptimo local del problema es un punto estacionario de Kuhn-Tucker. Existe otro concepto de punto estacionario (punto estacionario de Fritz-John) más general que el de Kuhn-Tucker, que no necesita de la cualificación de restricciones para que se establezca esta condición necesaria. Este teorema admite exactamente la misma formulación para el problema de mínimo, teniendo simplemente en cuenta las definiciones de punto estacionario para mínimo. Así, por ejemplo, la condición quedaría: ∇f (x ) + ∑ ëi∇gi (x ) = 0 .00i∈I Pasamos ahora a dar el teorema de condiciones suficientes, es decir, el teorema que afirma bajo qué condiciones un punto estacionario de Kuhn-Tucker es máximo del problema. Ya se ha comentado que hace falta en este caso exigir condiciones de convexidad sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más suaves que la convexidad global, si bien aquí no vamos a especificarlas:
24 sobre las funciones del problema. Realmente, basta con unas suposiciones un poco más suaves que la convexidad global, si bien aquí no vamos a especificarlas
Este teorema admite una formulación similar para el problema de mínimo, con las correspondientes definiciones de los puntos estacionarios, y suponiendo que la función f sea convexa. Si observamos con detenimiento las condiciones de punto estacionario que hemos desarrollado en esta sección, podremos ver su analogía con el caso en el que existan restricciones de igualdad. En concreto, desde un punto de vista intuitivo, el proceso se podría interpretar de la siguiente forma: en primer lugar, se identifican las restricciones activas en el punto en cuestión. Posteriormente, se toman las condiciones de primer orden para problemas con restricciones de igualdad, teniendo en cuenta sólo las mencionadas restricciones activas (que, en el punto bajo estudio, se pueden considerar de igualdad). Finalmente, se añade la condición adicional de no negatividad sobre los multiplicadores óptimos, que, según vimos previamente, garantizan que la función objetivo no mejora al moverse hacia el interior relativo de las restricciones activas.