Investigación de Operaciones Heurísticas Modelo Kuhn-Tucker ¿Quién fue Kuhn-Tucker?
Harold William Kuhn (Santa Mónica, California, 29 de julio de 1925 - Nueva York, 2 de julio de 2014) fue un matemático estadounidense que estudió teoría de juegos. Ganó el Premio de Teoría John von Neumann en 1980 junto con David Gale y Albert W. Tucker. Profesor emérito de matemáticas en la Universidad de Princeton, es conocido por las condiciones Karush-Kuhn-Tucker, para el desarrollo de póker Kuhn, así como la descripción del método húngaro para el problema de asignación. Recientemente, sin embargo, un artículo de Carl Gustav Jacobi, publicado póstumamente en 1890 en latín, se ha descubierto que anticipa por muchas décadas el algoritmo húngaro.
Condiciones de Kuhn-Tucker
En programación matemática, las condiciones de Karush-Kuhn-Tucker (también conocidas como las condiciones KKT o Kuhn-Tucker) son condiciones necesarias y suficientes para que la solución de un problema de programación matemática sea óptima. Es una generalización del método de los Multiplicadores de Lagrange. No existe una única forma de abordar la resolución de un problema de programación no lineal utilizando el teorema de KKT. Consideraremos la aplicación de este teorema en este caso para problemas sólo con restricciones "<=" (menor o igual). Si el problema tiene restricciones ">=" éstas se pueden transformar por "<=" multiplicando por -1. Básicamente el procedimiento consiste en resolver el problema no lineal como uno sin restricciones, luego si la solución óptima de dicho problema no cumple la totalidad o parte de las restricciones del problema se activan dichas restricciones (en conjunto y/o secuencialmente) y se resuelve nuevamente. Esto se repite hasta llegar a un conjunto de restricciones activas cuya solución también satisface las restricciones omitidas. Notar que si se han activado la totalidad de restricciones sin encontrar una solución factible, entonces el problema es infactible.
Problema básico
Usos de Kuhn-Tucker (CKT) Al usar las CKT debemos encontrar soluciones completas, valores para las x 0 s y para las λ 0 s, es decir tenemos n+m incognitos. Para esto necesitamos (genéricamente) n+m ecuaciones. Observando las CKT, el punto 1 provee de n ecuaciones, las otras m ecuaciones salen del punto 4 considerando las dos alternativas: [gj (x) = cj] o [gj (x) < cj y por lo tanto λj = 0]. Como tenemos m de estas posibilidades se generan 2m casos que envuelven a m + n ecuaciones para m + n variables. En cada caso luego de resolver las ecuaciones se deben verificar las desigualdades de los puntos 2 y 3.
Adecuación de las condiciones de Kuhn-Tucker
Donde observamos que no aparecen los multiplicadores µ y las condiciones están expresadas en terminos del Lagrangiano. Finalmente podemos ordenar, simplificar y renumerar las condiciones para obtener:
Problemas con restricciones mixtas
Adecuación de las CKT
Condiciones necesarias para los óptimos Las condiciones necesarias que deben satisfacer los óptimos de problemas de optimización no lineal con restricciones de desigualdad fueron publicadas por primera vez (1939) en la tesis de Maestría de William Karush (1917-1997) (en aquél entonces estudiante de matemáticas de la Universidad de Chicago) , aunque fueron renombradas tras un artículo en una conferencia de Harold W. Kuhn y Albert W. Tucker en 1951. Las condiciones de Karush-Kuhn-Tucker (KKT) son una generalización del método de los multiplicadores de Lagrange para restricciones de desigualdad.
Considere el problema de optimización: Considere el problema de optimización Min f (x 1, x 2,. . ., x n) Sujeto a: g 1 ( x 1, x 2, . . . , x n ) ≤ 0 g 2 ( x 1, x 2, . . . , x n) ≤ 0 . g m ( x 1, x 2, . . . , x n ) ≤ 0 El método de solución procede de la siguiente manera. Cambiemos cada restricción de desigualdad g i ≤ 0 a una restricción de igualdad introduciendo una variable s i de la siguiente manera:
De acuerdo a la técnica de los multiplicadores de Lagrange se construye la función:
Los puntos que minimizan a f sujeta a las restricciones g i ≤ 0 ( 1 ≤ i ≤ m) están dentro de los puntos críticos de F:
Que 1, . . . ,
hacen cero las parciales con respecto a las variables x j ( j = n):
Que hacen cero las parciales con respecto a las variables λ i ( i = 1, . . . , m):
Que hacen cero las parciales con respecto a las variables s i ( i = 1, . . . , m):
Teorema: Suponga una formulación para el problema anterior de minimización. Si x 0 = ( a 1, a 2, . . . , a n) es un óptimo, entonces deben existir números reales llamados multiplicadores λ 1, λ 2,. . . , λ m no negativos tales que (a 1, a 2, . . . , a n, λ 1, . . . , λ m) es un punto crítico para F. Es decir que se cumple: Bloque I
Bloque II: Condición de Holgura Complementaria
Observe que los valores de si se obtienen de la relación gi + s 2 i = 0 y de que gi ≤ 0.
Si ahora el problema es de maximización: Max f(x 1, x 2, . . . , x n) Sujeto a g: 1(x 1, x 2, . . . , x n) ≤ 0 g 2(x 1, x 2, . . . , x n) ≤ 0 . . . g m(x 1, x 2, . . . , x n) ≤ 0 Para su solución lo cambiamos a un problema de minimización para − f(x). En este caso la función F queda en la forma: F(x, λ, s) = − f(x) + Xm i=1 λi · (gi + s 2 i )
Ejemplo:
Observamos que las tablas para minimización y para maximización son idénticas salvo que los valores de los multiplicadores están cambiados de signo. Por tanto, la estrategia conveniente para optimizar una función sujeta a restricciones de desigualdad por el método de las condiciones de KKT será: 1. Plantear el problema como si se tratara solo de minimización y resolver el sistema de ecuaciones correspondientes. 2. Eliminar aquellos puntos encontrados que no satisfacen las restricciones gi ≤ 0. 3. Eliminar aquellos puntos que tienen a la vez multiplicadores positivos y negativos. 4. Para minimización: escoger dentro de aquellos puntos que tienen multiplicadores no negativos aquél que tienen la menor evaluación de la función objetivo. 5. Para maximización: escoger dentro de aquellos puntos que tienen multiplicadores no positivos aquél que tienen la mayor evaluación de la función objetivo.