TEORIA DE LAS DECISIONES Unidad 3 PROCESOS DE DECISIONES DE MARKOV
PRESENTADO POR: DIEGO ANDRÉS CRISTANCHO LIBERATO CÓDIGO: 1121893470 YULI ANDREA GALINDO MANJARREZ CÓDIGO: 1120560831 ARLEY JAVIER MOLINA CÓDIGO: 1006819985
CURSO: 17
TUTOR ROGER RICARDO NEGRETE
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD TEORIA DE DECISIONES CIUDAD
1
TABLA DE CONTENIDO
1. Problema : Cadenas de Markov (Estado estable) 2. Problema: Cadenas de Markov (Multiplicación del estado inicial) 3. Problema: Cadenas de Markov (Multiplicación del estado inicial)
2
INTRODUCCION
El siguiente trabajo se realiza en la fase de profundización de la Unidad 2 del curso de teorías de las decisiones. De esta manera se conocerá el contenido y algunas herramientas útiles para el desarrollo de los ejercicios planteados. Encontraremos planteamientos de los ejercicios según la guía integrada de actividades, mediante los cuales se analizaron y aplicaron conceptos y métodos como los criterios de decisión, la teoría del juego y el proceso de decisión de Markov para la toma de decisiones bajo incertidumbre. Por lo general una cadena de Markov describe el comportamiento de transición de un sistema de intervalos de tiempo igualmente espaciados. Sin embargo existen situaciones donde los espaciamientos temporales dependen de las características del sistema y por ello, se puede no ser iguales entre sí.
3
OBJETIVOS
Obtener los conocimientos amplios y suficientes a través de la lectura de los documentos de apoyo para el desarrollo de las actividades plasmadas en la guía integrada de actividades. Realizar reconocimiento de los temas correspondientes a la Unidad # 3 del curso Teoría de Decisiones a fin de dar solución a los ejercicios de acuerdo a la temática planteada aplicando los algoritmos. Desarrollar los ejercicios planteados a través del Software o Solver de Excel utilizando el modulo correspondiente a Markov Process.
4
Problema 1 Cadenas de Markov (Estado est able)
La compañía XYZ de seguros cobra a sus clientes de acuerdo a su historial de accidentalidad. Si no ha tenido accidentes los últimos dos años se les cobrará por la nueva póliza $480.000 (estado 0); si ha tenido un accidente en cada uno de los dos últimos años se les cobrará $2.350.000 (Estado 1); Si tuvo accidentes el primero de los dos últimos años se les cobrará $1.830.000 (estado 2) y si tuvo un accidente el segundo de los dos últimos años se les cobrará $1.350.000 (Estado 3). El comportamiento histórico de cada estado, se da por los siguientes casos de accidentalidad, tomados en cuatro sucesos diferentes. ACCIDENTES EN EL AÑO Estado 1 2 3 4 8200 0 7700 5600 E0 6500 6300 5200 1 250 E1 5680 6580 7200 3 250 E2 3000 5630 5900 7 500 E3
Total 21500 19250 22710 22030
Tabla 8. Datos históricos de accidentalidad Resolver: Cadenas de Markov (Estado estable)
Según la tabla 8 mediante la aplicación de los procesos Markovianos, es decir hallando la matriz de transición y resolviendo las respectivas ecuaciones de p * q, donde p es la matriz de transición y q el vector [W X Y Z]. Responder:
¿Cuál es la matriz de transición resultante de proporcionalidad de acuerdo al historial de accidentalidad?
. . . =... ... ... ...
¿Cuál es la prima promedio que paga un cliente en Playoff, de acuerdo a la accidentalidad histórica?
. . . = = [... ... ... ... ] 5
.++ .. ++ ..++ .. == .. ++ .. ++ .. ++ .. == + + + = −.+ + . ++ . ++ . == − . + . + . = . + . − . + . = −.. −. .. .−.. ... Lo solucionamos por el método de Gauss-Jordán Primero convertimos los decimales en fracciones, para poder operar
− ⁄ ⁄ ⁄ ⁄ − −( )∗ → ⁄ ⁄ ⁄ ⁄ − ⁄ ⁄ ⁄ − ⁄⁄ ⁄⁄ ⁄ −( )∗ → ⁄⁄ ⁄ − ⁄ ⁄ ⁄ − ⁄ ⁄ ⁄ ⁄ /()→ ⁄ ⁄ ⁄ − ⁄ − ⁄ ⁄ ⁄ − − − ⁄ ⁄ ⁄ −(−)∗ → ⁄ ⁄ ⁄ − ⁄ − ⁄ ⁄ ⁄ − − − ⁄ ⁄ ⁄ −( − )∗ → ⁄ ⁄ ⁄ ⁄ − ⁄ ⁄ ⁄ − − − 6
⁄ ⁄ ⁄ /()→ ⁄⁄ ⁄− ⁄ − ⁄ ⁄ − ⁄ ⁄ ⁄ −(−)∗ → ⁄− ⁄ ⁄ − ⁄ ⁄ − ⁄ ⁄ ⁄ /()→ ⁄⁄ ⁄⁄ ⁄ ⁄ ⁄ −()∗ → ⁄⁄ ⁄ −∗ → ⁄ ⁄⁄ ⁄⁄ −()∗ → ⁄ ⁄⁄ ⁄ ⁄ ⁄⁄ −1∗ → ⁄⁄ ⁄⁄ = =. =. = = =. 7
=. = La prima promedio que paga un cliente en Playoff, de acuerdo a la accidentalidad histórica es la siguiente: Estado
Promedio pagado por cliente
E0 E1 E2 E3
28% 21% 31% 20%
O también la podemos resolver por método de determinantes o crammer 1,05X = 0,38 – 0,09Y – 0,125Z 1,04Y = 0,36 – 0,09X - 0,09Z 0,92Z = 0,26 - 0,19X - 0,12Y 1.05X + 0,09Y + 0,125Z = 0,38 0.09X + 1,04Y + 0,09Z = 0,36 0,19X + 0,12Y + 0,92Z = 0,26
Determinantes del sistema AS X
Y
Z
1,0.0059 0,1,0094 0,0,10259 1,0,0,001599 0,1,0,001942 0,0,0,1902529 0,|0,3386 0,1,0094 0,0.10259 0,0,3368 1,0,0049 | 0,26 0,12 0,92 0,26 0,12
REGLA DE ZARRUS
AS = 0,964057
Hallaremos el determinante AX REGLA DE ZARRUS
AX = 0,2998
8
Hallaremos la determinante AY
1,0,0059 0,0,3386 0,0,10259 1,0,0.010599 0,0,0,323866 0,0,0,1902529
REGLA DE ZARRUS
AY = 0,292599
Hallaremos la determinante AZ
1,|0,0059 0,1,0094 0,0,3386 1,0,0059 0,1,0094 | 0,19 0,12 0,26 0,19 0,12
REGLA DE ZARRUS
AZ = 0,17172 X= Y= Z=
= 0,31 = 0,30
= 0,17
Ahora reemplazamos los resultados en la ecuación 10 W = 0,38 – 0.05X – 0,15Y – 0,03Z W = 0,38 – 0,05(0,31) – 0,15(0,30) – 0,03(0,17) W = 0,31
Respuesta B: W = 0,31 X = 0,31 Y = 0,30 Z = 0,17
9
PANTALLAZOS DEL SOLVER DE EXCEL
10
Problema 2 Cadenas de Markov (Multi plic ación del estado in icial)
En Colombia existen 5 operadores principales de telefonía móvil como lo son Tigo, Comcel, Movistar, ETB y Uff, a los cuales llamaremos estados. El siguiente cuadro resume las probabilidades que cada cliente tiene para permanecer en su operador actual o hacer cambio de empresa. Estado
TIGO
COMCEL
MOVISTAR
ETB
UFF
TIGO
0,26
0,11
0,25
0,18
0,20
COMCEL MOVISTAR
0,25 0,22
0,26 0,25
0,24 0,27
0,12 0,12
0,13 0,14,
ETB
0,11
0,21
0,22
0,28
0,18
UFF
0,10
0,20
0,21
0,26
0,23
Tabla 9. Probabilidades de cambio y permanencia en la compañía de Telefonía (Matriz de transición) Los porcentajes actuales que tiene cada operador en el mercado actual son para Tigo 0.2 para Comcel 0.25, para Movistar 0.3, para ETB 0,15 y 0,1 para Uff (estado inicial). Resolver: Cadenas de Markov (Multipli cación d el estado inici al)
Según la tabla 9 mediante la aplicación de los criterios Markovianos, resolver la multiplicación del vector estado inicial (participación en el mercado) por la matriz de de probabilidades (matriz de transición). Responder:
Hallar la probabilidad que cada usuario se quede con la empresa móvil para el siguiente periodo.
Solución:
Se confirma que la sumatoria del vector de estado inicial sea igual a 1
0.2+0.25+0.3+0.15+0.1=1
Se realiza la matriz de transición, luego se multiplica el vector de estado inicial (E.I.) por dicha matriz MATRIZ DE TRANSICIÓN TIGO
0,26
0,11
0,25
0,18
0,2
COMCEL
0,25
0,26
0,24
0,12
0,13
MOVISTAR
0,22
0,25
0,27
0,12
0,14
ETB
0,11
0,21
0,22
0,28
0,18
UFF
0,1
0,2
0,21
0,26
0,23
11
E. I.
0,2
RESULTADO 0,207
0,25
0,3
0,15
0,1
0,2135
0,245
0,17
0,1645
La probabilidad de que cada usuario se quede con la empresa móvil para el siguiente periodo es: EMPRESA
PROBABILIDAD
TIGO COMCEL MOVISTAR ETB UFF
0,207
12
0,2135 0,245 0,17 0,1645
Problema 3 Cadenas de Markov (Multi plic ación del estado i nicial)
Suponga que en el mercado se consiguen 4 tipos de gaseosas que son: Colombiana, Pepsi Cola, Fanta y Coca Cola cuando una persona ha comprado Colombiana existe una probabilidad de que la siga consumiendo del 45%, un 15% de que compre Pepsi Cola, un 10% de que compre Fanta y un 30% que consuma Coca Cola; cuando el comprador actualmente consume Pepsi Cola existe una probabilidad de que la siga comprando de 40%, un 20% que compre Colombiana, un 10% que consuma Fanta y un 30% Coca Cola; si en la actualidad consume Fanta la probabilidad de que la siga consumiendo es del 50%, un 20% que compre Colombiana, 20% que consuma Pepsi Cola y un 10% que se pase a Coca Cola. Si en la actualidad consume Coca Cola la probabilidad de que la siga consumiendo es del 60%, un 10% que compre Colombiana, 20% que consuma Pepsi Cola y un 10% que se pase a Fanta. En la actualidad cada marca Colombiana, Pepsi Cola, Fanta y Coca Cola tienen los siguientes porcentajes en participación en el mercado respectivamente (20%, 30%, 10% y 40%) durante la semana 3. Resolver. Cadenas de Markov (Multipli cación del estado in icial)
Según los datos del problema 3 mediante la aplicación de los criterios Markovianos, resolver la multiplicación del vector estado inicial (participación en el mercado) por la matriz de de probabilidades (matriz de transición). Responder:
Hallar la matriz de transición. Hallar la probabilidad que cada usuario se quede con la marca o cambie a otra para el periodo 4.
Solución
En la actualidad cada marca colombiana, Pepsi Cola, Fanta y Coca Cola tienen los siguientes porcentajes en participación en el mercado respectivamente (20%, 30%, 10% y 40%) durante la semana 3.
13
Matriz de transición
PRIMER PERIODO
ESTADOS
Colom biana Pepsico la
Fanta
Coca-cola
Colombiana
0,45
0,15
0,1
0,3
Pepsicola
0,2
0,4
0,1
0,3
Fanta
0,2
0,2
0,5
0,1
Coca-Cola
0,1
0,2
0,1
0,6
PARTICIPACION Colom biana Pepsicola 0,2
PØ=
Fanta
Coca-cola
0,1
0,4
0,3
SEGUNDO PERIODO ESTADOS
Colom biana Pepsico la
Fanta
Coca-cola
0,2825
0,2075
0,14
0,37
Pepsicola
0,22
0,27
0,14
0,37
Fanta
0,24
0,23
0,3
0,23
Coca-Cola
0,165
0,235
0,14
0,46
Colombiana
PARTICIPACION Colombiana Pepsicola PØ=
0,21
Fanta
Coca-cola
0,14
0,4
0,25 TERCER PERIODO
ESTADOS
Colom biana Pepsico la
Fanta
Coca-cola
0,233625
0,227375
0,156
0,383
Pepsicola
0,218
0,243
0,156
0,383
Fanta
0,237
0,234
0,22
0,309
0,19525
0,23875
0,156
0,41
Colombiana
Coca-Cola
14
PARTICIPACION Colom biana Pepsico la PØ=
0,2125
0,2395
Fanta
Coca-cola
0,156
0,392
Después de hallar las matrices de transición, se determina que la probabilidad de que los clientes se queden con la marca o cambien a otra en el cuarto periodo.
Para el cuarto periodo la probabilidad de que una persona que ha consumido colombiana siga consumiendo es del 23,36% y tiene una posibilidad de que cambie a Pepsi cola del 22,74%, un 15,6% que cambie a Fanta y un 38,3% de que cambie a coca cola. Las personas que consumen Pepsi cola tienen un 24,3% que se mantengan consumiendo ese producto, un 21,80% que se cambie a colombiana, 15,6% que cambie a fanta y un 38,3% que cambie a coca cola. Cuando una persona consume Fanta tiene un 22,0% que siga consumiendo, un 23,7% que se cambie a colombiana, un 26,4% que cambie a Pepsi cola y un 30,9% que se cambie a coca cola. Cuando la persona consume coca cola tiene un 41,0% que siga consumiendo este producto, un 19,53% que se cambie a Colombia, un 23,88% que se cambie a Pepsi cola, y un 15,6% que se pase a Fanta.
Para el tercer periodo tenemos que la participación en el mercado de las marcas de gaseosa es: PARTICIPACION Colom biana Pepsico la PØ=
21,25%
23,95%
15
Fanta
Coca-cola
15,60%
39,20%
CONCLUSION
En el desarrollo de esta unidad #3 de Proceso de decisiones de MARKOV (Cadenas de MARKOV), Nos proporciona un sistema útil y práctico para crear e implementar procesos de toma de decisiones que nos aproximan a los posibles escenarios a fin de ser utilizados para predecir con mayor exactitud la evolución y los comportamientos futuros de determinados sistemas de nuestro entorno (negocios, política, finanzas, deportes, salud, física, economía, entre otros). El desarrollo de la actividad permite reforzar los conocimientos adquiridos en el estudio de la Unidad 2 al aplicarlos en el desarrollo de un ejercicio concreto. En este trabajo podemos apreciar la importancia de cada uno de los temas vistos en la unidad 2 del módulo teoría de las decisiones. Las cadenas de markov se basan en que la probabilidad de que ocurra un evento depende del evento inmediato anterior. Se adquirieron conocimientos para el desempeño como Ingenieros con capacidad para la solución a problemáticas que se presenten. Poder tener más herramientas y conocimientos para poder en un futuro tener poder decisión ante problemas o situaciones complejas de los temas que se llegasen a presentar en nuestro campo profesional. Poder conocer a fondo la temática que maneja la unidad n 2 del curso de teoría de decisiones. Saber cómo involucrar metodologías nuevas para poder analizar de forma crítico una idea o producto. Conocer y poner en práctica conceptos y habilidades de investigación
16
BIBLIOGRAFIA
Mosquera, W. (2010). Teoría de las decisiones. (pp. 77-99), Bogotá, Colombia: Editorial Universidad Nacional Abierta y a Distancia. Recuperado de: http://hdl.handle.net/10596/4891 Taibo, A. (2009). Investigación de operaciones para los no matemáticos (pp. 71-78), Distrito Federal, México: Editorial Instituto Politécnico Nacional. Recuperado de: http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970 González, L. (1994). Procesos de Markov, Zulia, Venezuela: Editorial Universidad Zulia. Recuperado de: http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/reader.action?ppg=8&docID=10663 398&tm=1478362182636 Mosquera, W. (2010). Teoría de las decisiones. (pp. 77-99), Bogotá, Colombia: Editorial Universidad Nacional Abierta y a Distancia. Recuperado de: http://hdl.handle.net/10596/4891 Taibo, A. (2009). Investigación de operaciones para los no matemáticos (pp. 71-78), Distrito Federal, México: Editorial Instituto Politécnico Nacional. Recuperado de: http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970 Mosquera, W. (2010). Teoría de las decisiones. (pp. 77-99), Bogotá, Colombia: Editorial Universidad Nacional Abierta y a Distancia. Recuperado de: http://hdl.handle.net/10596/4891 Taibo, A. (2009). Investigación de operaciones para los no matemáticos (pp. 71-78), Distrito Federal, México: Editorial Instituto Politécnico Nacional. Recuperado de: http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970
17