Investigación de Operaciones Programación No Lineal
Investigación de Operaciones Programación No Lineal
• Son técnicas de investigación de operaciones para la solución de problemas llamados de programación no lineal o curvilíneas. • Son relaciones no lineales en que las restricciones y las función objetivo pueden tomar cualquier forma matemática. • La mejor forma de resolver problemas de programación no lineal, consiste en transformarlos en una forma que permita la aplicación de la programación lineal; la transformación requerida para cambiar un problema a una forma en la que resulte aceptable el Método Símplex.
Investigación de Operaciones Programación No Lineal
Existen procedimientos de cálculo para la programación no lineal como son: • Cuando la función objetivo se escribe como la suma de una forma lineal más una forma cuadrática se le llama Programación Cuadrática. • Cuando los problemas de programación no lineal se obtienen del modelo general de programación lineal, imponiendo el requerimiento adicional de que las variables solo pueden aceptar valores enteros, y se le llama Programación en Enteros.
Investigación de Operaciones Programación No Lineal
• La Programación Dinámica: se refiere a los problemas de programación en los que ocurren cambios con el transcurso del tiempo. El método de cálculo comprende relaciones de recurrencia, en la que el tiempo no tiene importancia.
Investigación de Operaciones Programación No Lineal
• El Método del Gradiente: es un proceso iterativo en el que nos movemos de una posible solución a otra, a fin de mejorar el valor de la función objetivo. No garantiza que cada solución sucesiva este mas cercana a la solución óptima y puede requerir un número infinito de repeticiones para su convergencia. Este método puede usarse cuando la función objetivo y las restricciones no contengan linealidad.
Investigación de Operaciones Programación No Lineal
• La figura 13.5 muestra lo que ocurre con este problema si los únicos cambios que se hacen al modelo son que la segunda y tercera restricciones funcionales se sustituyen por la restricción no lineal 9x12 + 5x22 ≤ 216. La solución optima sigue siendo (x1, x2) = (2, 6). Todavía se encuentra sobre la frontera de la región factible en un vértice (FEV).
Investigación de Operaciones Programación No Lineal
Investigación de Operaciones Programación No Lineal
• Si las restricciones lineales se conservan sin cambio, pero que la función objetivo se hace no lineal. La figura indica que la solución optima es x1=8/3, x2=5, que de nuevo se encuentra en la frontera de la región factible. (El valor optimo de Z es Z=857 tiene en común con la región factible solo este punto, mientras que el lugar geométrico de los puntos con Z mas grande no toca la región factible en ningún punto).
Investigación de Operaciones Programación No Lineal
Investigación de Operaciones Programación No Lineal
• Si Z=54x1 – 9x12 + 78x2 – 13x22 • Entonces la figura 13.7 ilustra que la solución optima es (x1, x2) = (3, 3), que se encuentra dentro de la frontera de la región factible.
Investigación de Operaciones Programación No Lineal
Investigación de Operaciones Programación Entera
• Si TBA Airlines es una compañía regional pequeña que se especializa en vuelos cortos en aviones pequeños. La compañía ha tenido buen desempeño y la administración decidió ampliar sus operaciones. • Después de un análisis representaron en la siguiente tabla las consideraciones para tomar la decisión.
Investigación de Operaciones Programación Entera
Concepto
Avión Pequeño
Avión Grande
Ingreso neto anual por avión
$1 millón
$ 5 millones
Costo de compra por avión
$ 5 millones
$50 millones
Cantidad máxima de compra
2
Sin máximo
Maximizar
z S 5L
5S 50 L 100 S2 S 0, L 0
Capital Disponible
$100 millones
Investigación de Operaciones
Investigación de Operaciones • Con L=1.8 en el problema de TBA Airlines, la historia es diferente. Redondear a L=2 requeriría invertir $10 millones más de capital de lo que dispone, lo cual es inaceptable para la administración de TBA. Por lo tanto, se abandona la programación lineal y se adopta la programación entera para analizar este problema.
Investigación de Operaciones • La formulación de programación entera de este problema es exactamente la misma que la programación lineal, salvo por una diferencia crucial – se agregan restricciones que requieren que las variables de decisión tengan valores enteros. Maximizar
z S 5L
5S 50 L 100 S2 S 0, L 0 S, L
son enteros
Investigación de Operaciones • La región factible coincide con la de PL, sin embargo las únicas soluciones factibles para la programación entera que están en la región sombreada, es decir (0,0), (1,0),(2,0),(0,1),(1,1),(2,1) y (0,2)
Investigación de Operaciones
Investigación de Operaciones Programación No Lineal
La resolución de las mismas se clasifican de dos maneras: 1. Algoritmos directos: algoritmos de gradiantes
2. Algoritmos indirectos: programacion cuadratica, separable y estocastica.
Investigación de Operaciones Programación No Lineal
• Hay problemas donde resolver $f(x) = 0 es muy difícil • Alternativa: métodos numéricos y/o iterativos: • Busqueda directa • Metodo de Newton • Metodo de Gradiante
Investigación de Operaciones Programación No Lineal
• Si se utilizan K unidades de capital y L unidades de trabajo, una compañía puede producir KL unidades de un bien manufacturado. Se puede conseguir el capital a 4 UM/unidad y el trabajo a 1 UM/unidad. Se dispone de un total de 8 UM para contratar capital y trabajo. ¿Cómo puede la compañía maximizar la cantidad de bienes que se pueden fabricar?
Investigación de Operaciones Programación No Lineal
Sea K = unidades de capital contratadas y L = unidades de trabajo compradas entonces K y L deben satisfacer Por lo tanto, la compañía quiere resolver el siguiente problema de maximización restringido: z= KL máximo Sujeto a: 4kK+ L =< 8 K , L >= 0
Investigación de Operaciones Optimización Clásica
Los máximos y mínimos son utilizados en los casos que no hay restricciones, para el caso de restricciones de igualdad métodos anteriormente mencionados que son:
Restricciones de Igualdad Jacobiano y Lagrangiano
Restricciones de Desigualdad Karush-Kuhn-Tucker
y de desigualdad se utilizan los
Investigación de Operaciones Multiplicadores de Lagrange
Son un método para trabajar con funciones de varias variables que nos interesa maximizar o minimizar, y está sujeta a ciertas restricciones. Este método reduce el problema restringido en n variables en uno sin restricciones de n + 1 variables cuyas ecuaciones pueden ser resueltas.
Investigación de Operaciones Multiplicadores de Lagrange
Sea F(x,y) la función objetivo. Supongamos que (x,y) están condicionadas por la ecuación g(x,y)=K. F y g son funciones suaves. Si F tiene un extremo (máximo o mínimo) sujeto a g(x,y)=K en el punto (x0,y0) entonces existe un escalar λ tal que:
Fx (x0,y0) = λ gx (x0,y0) Fy (x0,y0) = λ gy (x0,y0) gx (x0,y0) = k.
Investigación de Operaciones Multiplicadores de Lagrange
Este procedimiento define al método lagrangiano, o de LaGrange, para identificar los puntos estacionarios de problemas de optimización con restricciones de igualdad. El procedimiento se puede desarrollar formalmente como sigue. Sea
L(X, λ) = F(X) - λ g(X) A la función L se le llama función LaGrange, y a los parámetros λ se les llama multiplicadores de LaGrange.
Investigación de Operaciones Multiplicadores de Lagrange
Las ecuaciones
Expresan las condiciones necesarias para determinar los puntos estacionarios de F(x) sujetos a g(x) = 0.
Investigación de Operaciones Condiciones de Karush-Kuhn-Tucker (KKT)
Son condiciones necesarias y suficientes para identificar puntos estacionarios no lineal restringiendo, sujeto a restricciones de desigualdad. El desarrollo se basa en el método de Lagrange. En el problema:
Maximar z = f(x) sujeta a g(X)<= 0
Investigación de Operaciones Condiciones de Karush-Kuhn-Tucker (KKT)
Las restricciones se pueden convertir en ecuaciones usando variables no negativas de Holgura. La función de Lagrange queda: L(X, S, λ)= f(X) - λ[ g(X) + S2 ]
Dado las restricciones g(x)<=0, una condición necesaria para la optimalidad es que λ no sea negativo ( no positivo) en problemas de maximización (minimización).
Investigación de Operaciones Condiciones de Karush-Kuhn-Tucker (KKT)
• El resultado queda como sigue. El vector λ mide la rapidez de variación de f con respecto a g, esto es:
• En el caso de la maximización, cuando el lado derecho de la restricción g(X)<= 0 cambia de 0 a δg (>0), el espacio de soluciones se hace menos restringido y en consecuencia f no puede decrecer. En minimización, a medida que aumente el lado derecho de las restricciones f no puede aumentar lo que implica que λ<= 0.
Investigación de Operaciones Condiciones de Karush-Kuhn-Tucker (KKT)
Si las restricciones son igualdades esto es g(X) = 0, entonces λ son libres de signos. Las restricciones de λ son parte de las condiciones KKT necesarias. Al sacar derivadas parciales de L con respecto a X,S Y λ se obtienen:
Investigación de Operaciones Condiciones de Karush-Kuhn-Tucker (KKT)
• Las condiciones KKT necesarias para el problema de maximización se pueden resumir entonces como sigue:
λ>= 0 λigi(X) = 0, i=1,2,…,m g(X)<=0 Estas condiciones se aplican también en el caso de minimización, con la excepción de que λ debe ser no positiva.
Investigación de Operaciones Suficiencia de las condiciones KKT)
• Las condiciones necesarias de Kuhn-Tucker también son suficientes, si la función objetivo y el espacio de soluciones satisfacen las condiciones de la siguiente tabla. Condiciones requeridas Solución de la optimización
Función objetivo
Espacio de soluciones
Maximización
Cóncava
Conjunto convexo
Minimización
Convexa
Conjunto Convexo
Investigación de Operaciones Suficiencia de las condiciones KKT)
• Existe una lista de condiciones que puede establecer la convexidad del espacio o la concavidad de las funciones de restricción. Maximizar o minimizar Z = f(X) sujeta a: gi (X) <= , i=1,2,…,r gi (X) >= , i=r+1,…,p gi (X) = , i=p+1,…,m
Investigación de Operaciones Suficiencia de las condiciones KKT)
Donde λi es el multiplicador de Lagrange correspondiente a la restricción i. Las condiciones para establecer la suficiencia de las condiciones KKT se resumen en la siguiente tabla.
Investigación de Operaciones Método de búsqueda directa
•
Se aplican principalmente a funciones estrictamente unimodales de una variable. •
Su idea principal es identificar el intervalo de incertidumbre que comprenda al punto de solución óptima.
Investigación de Operaciones Método de búsqueda directa
Los métodos usados en este tema son: 1. Método de búsqueda dicótomo. 2. Método de búsqueda de sección dorada.
Investigación de Operaciones Método de búsqueda directa
Buscan la maximización de una función unimodal f(x) en el intervalo a≤ x ≤ b que incluye el punto x* Comienzan con lₒ = (a , b), representa el intervalo inicial de incertidumbre.
Investigación de Operaciones Método de búsqueda directa
Paso general i: Sea lᵢ ۔1= (Xi XR) el intervalo actual de incertidumbre. En la iteración 0 XL=a Y XR=b
Con XL < X1 < X2 < XR
Investigación de Operaciones Método de búsqueda directa
El intervalo de incertidumbre li se define de la siguiente manera: 1. Si f(xi) > f(x2), entonces x1 < x* < x2. se definen XR = X2 e Ii= (x1, xR) 2. Si f(x1) < f(x2), entonces x1 < x* < xR. se definen XL=X1 e Li= (X1, XR) 3. Si f(X1)= f(X2), entonces X1 < x* < X2, se definen XL= X1, XR= X2 e Li=(X1,X2)
Investigación de Operaciones Método de búsqueda directa
La diferencia entre los dos métodos ya mencionados es la forma en que se calcula x1 y x2 METODO DICOTOMO
X1= ½(XR + XL -∆) X2= ½(XR + XL + ∆) METODO DE LA SECCION DORADA
X1= XR- ((√5 – 1)/2)(XR – XL) X2= XL + ((√5 – 1)/2)(XR – XL)
Investigación de Operaciones Método del Gradiente
MÉTODOS INDIRECTOS PRIMER ORDEN (A) SEGUNDO ORDEN (B) A.-Método del gradiente Método del Gradiente conjugado B.- Método de Newton Método de la secante Método de Davidon-Fletcher-Powell
(Fletcher-Powell)
Investigación de Operaciones Método del Gradiente
Este es un método para optimizar funciones que son doble continuamente diferenciables. La idea es generar puntos sucesivos en la dirección del gradiente de la función.
Investigación de Operaciones Método del Gradiente
• Ecuación básica para búsqueda de un mínimo/máximo de f(x).El gradiente es un vector que da la máxima variación de f(x) Metodo de ascenso (o descenso) mas pronunciado x k 1 x k Hg x x
k
λ es la long itud del p aso H es una matriz nxn g es el gr adiente de f(x); f(x)
• Optimizar la longitud del paso
constante, H I es el más simple k tamaño variable del paso. opt k , optimiza el tamaño del paso.
x k 1 x k sk 1 f ( x ) f ( x k ) T f (x k )sk (sk )T H (x k )( sk ) 2 Derivando con respecto a e igualendo a cero resulta :
opt k
T f ( x k )sk (sk )T H (x k )(sk )
Investigación de Operaciones Método del Gradiente
Investigación de Operaciones Método del Gradiente
Investigación de Operaciones Método del Gradiente
Compresor de tres estados k 1 k 1 k 1 kNRT p2 k p3 k p4 k W 3 k 1 p1 p2 p3 Datos NRT 1, p1 1, p4 10.
La figura da las isolíneas de W . Se busca el mínimo de W con el método del gradiente. Estimado inicial p2 4, p3 7.
La dirección de búsqueda es proporcional a los cambios de W con p y p 2 3 Así en (4,7) W W 0.079 0.009 p p 2 3 p 2 0.079 8.8 p 0.009 3 Tomando incremento s de p iguales a 0.05, 3 los incremento s de p serán 0.05 8.8 0.44. 2 Así el primer descenso viene dado en la tabla
Investigación de Operaciones Método del Gradiente
p2
p3
W
4.00
7.00
2.681
3.56
6.95
2.653
3.12
6.90
2.629
2.68
6.85
2.615
2.24
6.80
2.622
Punto mínimo
Investigación de Operaciones Método del Gradiente
Método del gradiente Ejemplo
Investigación de Operaciones Direcciones conjugadas Gradiente conjugado Es un método útil en mejorar la convergencia del método del gradiente. si y s j son direccione s conjugadas entre sí si
si T Q s j 0
La matriz Q es el hessiano de la función. objeto. La dirección de búsqueda es una combinación lineal del gradiente actual con la dirección anterior. Pequeña información necesaria para realizar el algoritmo. Paso 1.
En x 0 calcular f (x 0 ). s0 f (x 0 ).
Paso 2.Guardar
f ( x 0 ).