SIS -2610
INVESTIGACION OPERATIVA II Solo con fines de avance para la clase de ayudantía
“A”
Aux. : Egr. Challapa Llusco Gustavo
FORMULARIO SIS-2610 “A” TOMA DE DECISIONES Completa certeza
Proceso de decision
SIS-2510
Teoría Bayesiana de decisión -Con experimentación -Sin experimentación Arboles de decisión Función de utilidad Teoría de colas Teoría de inventarios
Riesgo
Teoría de juegos Criterios de decisión: MaxiMax MaxiMin MiniMax Laplace Hurwicz Savage
Completa Incertidumbre
Elementos de una toma de decisiones 1.- Decisor. 2.- Conjunto de alternativas (Controlable): A a1 , a2 , a3........ai 3.- Estados de la naturaleza (No controlable): 1 , 2 , 3 .......... j 4.- Probabilidades a priori ( Si la toma de decisión es bajo riesgo ): P ( )
P ( 1 ), P ( 2 ), P ( 3 ).......... P ( j )
5.- Matriz de Costo/Beneficio. 1
2
a1
f (a1; 1 )
f (a1; 2 )
. . . .
. . . .
. . . .
ai
f (ai ; 1 )
f (ai ; 2 )
p( )
p( 1 )
p( 2 )
….
….
….
j
f (a1 ; j ) . . . . .
. . . . .
. . . . .
.
.
.
. . . .
f (ai ; j ) p( j )
6.- Función de los alternativas/estados de la naturaleza: f (ai ; j ) 7.- Métodos de decisión. (Toma de decisión decisión bajo incertidumbre, Toma de decisión bajo riesgo, etc) 8.- Elegir la mejor alternativa.
1
SIS -2610
INVESTIGACION OPERATIVA II Solo con fines de avance para la clase de ayudantía
“A”
Aux. : Egr. Challapa Llusco Gustavo
METODOS DE SOLUCION 1.- TOMA DE DECISIONES BAJO RIESGO 1.1.-TEORIA BAYESIANA 1.1.1.- Toma de decisión sin experimentación:
f (a ; ) * P ( )]
Opt. E [ f (ai ; j )] = Opt. E [ -
i
j
j
Si la matriz de consecuencias es de pérdidas o costos entonces: Opt. = Min E [ f (ai ; j )]
-
Si la matriz de consecuencias es de ganancias o beneficios entonces: Opt. = Max E [ f (ai ; j )] E [] Se denomina valor esperado.
Ejemplo Para la siguiente matriz de ganancias: 1
2
a1
200
500
a2
250
120
p( )
0.2
0.8
200 * 0.2 500 * 0.8 440 a1 Max _ E 250 * 0.2 120 * 0.8 146 Respuesta:
Elegir la alternativa: a1 El valor esperado será E[]: 440 u.m.
1.1.2.- Toma de decisión con experimentación La toma de decisiones con experimentación se trabaja con información adicional para tener una mejor información de los sucesos esta información es conocida y representada como una tabla de información adicional
Tabla de información adicional
1
….
2
j
X1 X2 . Xi Donde: X1, X2, ..,Xi :Son resultados o eventos. 1 2
, ,…, j :Son los estados de la naturaleza Con esta tabla de información y las probabilidades a priori se calculan las probabilidades a posteriori. P ( i / X )
P ( X / i ) * P ( i )
i 1 ,2,3,..., m
X: Evento
m
P ( X / ) P ( ) k
k
k 1
Probabilidad Aposterior i
Probabilid ad Condicional Probabilid ad Marginal
Valor esperado de la matriz a posteriori
Opt E[ f (ai ; k )]
f (a ; ) * P ( X / ) - C i
k
2
k
k
SIS -2610
INVESTIGACION OPERATIVA II Solo con fines de avance para la clase de ayudantía
“A”
Aux. : Egr. Challapa Llusco Gustavo
Opt E[ f (ai ; k )] - C Donde:
C: Es el costo del experimento (dato) 1.2.- COSTO DE LA INFORMACION PERFECTA C 1.- Información de la distribución a priori: E [ I ]
Opt [ f (a ; ) *P ( )] i
k
k
k
E[I] :Máximo (En caso de beneficio) o Mínimo (en caso de costo o perdida) pago esperado con información perfecta. Ejemplo Del ejercicio anterior: 1
2
a1
200
500
a2
250
120
p( )
0.2
0.8
Max
250
500
E [ I ] 250 * 0.2 500 * 0.8 E [ I ] 450
f (a ; ) * P ( )] C = E [ f (a ; ) * P ( )] - Opt [ f (a ; ) *P ( )] C = E [ f (a ; ) * P ( )] - E [ I ]
2.- Valor esperado: Opt. E [
i
j
i
j
j
j
i
k
k
k
i
j
j
Criterios: C= C Se recomienda experimentar. C< C Se recomienda experimentar. C> C No se recomienda experimentar.
2.-TOMA DE DECISIONES BAJO INCERTIDUMBRE 2.1.- CRITERIOS DE DECISIÓN 2.1.1.- Criterio de decisión optimista MaxiMax: Max Max[ f (ai ; j )]
Min Min[ f (ai ; j )] 2.1.2.- Criterio de decisión de Wald o pesimista: Max Min[ f (ai ; j )] Min Max[ f (ai ; j )] 2.1.3.- Criterio de decisión de Hurwicz
Para Beneficios. Para Perdidas.
Para Beneficios. Para Perdidas.
Max * Max [ f (ai ; j )] (1 ) * Min[ f (ai ; j )] Para Beneficios. Min * Min [ f (ai ; j )] (1 ) * Max[ f (ai ; j )] Para Perdidas. Donde: α =coeficiente de optimismo 0<= α <=1 3
SIS -2610
INVESTIGACION OPERATIVA II Solo con fines de avance para la clase de ayudantía
“A”
Aux. : Egr. Challapa Llusco Gustavo
2.1.4.- Criterio de decisión de Savage r (a j , j ) MinMax max{ f (ai ; j )} f (ai ; j )
Para Beneficios.
r (a j , j ) MinMax f (ai ; j ) min{ f (ai ; j )}
Para Perdidas.
2.1.5.- Criterio de decisión de Laplace
1 n max a j f (ai ; j ) Para Beneficios. n j1 1 n min a j f (ai ; j ) Para Perdidas. n j1 3.- ARBOLES DE DECISION 3.1.- ELEMENTOS Nodo decisor. Nodo Evento o evento aleatorio o probabilístico. Ruta de conexión o ramas del árbol. Ruta óptima.
P ( ){ P ( 1 ), P ( 2 ),......... P ( j )}
A{a1 , a2 ,........ai }
n
P ( ) 1 j
j 1
A: Conjunto de alternativas. P ( ) : Probabilidades de los estados de la naturaleza. 3.1.1.- Construcción de un árbol de decisión Pasos Generales: Paso 1: El árbol se construye de izquierda a derecha empezando si o si con un nodo decisor de él salen las alternativas. A{a1 , a2 ,........ai } Paso 2: Después de las alternativas pueden o no salir más alternativas según sea el problema si no hay alternativas vienen los nodos probabilístico s P(θ) , de él salen los estados de la naturaleza acompañados de sus probabilidades. Paso 3: Calcular los valores según los datos que se proporcionen y ubicarlos al final del árbol.
Paso 4: Evaluar el árbol de derecha a izquierda. Paso 5: Hallar la ruta optima.
4