Metodos de Cadenas de Markov Montecarlo Shirle Aragón Coaguila1,* Escuela de Ingeniería e Informática, Universidad Nacional de Moquegua Ilo, Moquegua *
[email protected]
1
Resumen—
Los procesos estocásticos son sucesiones de eventos regidos por leyes probabilísticas. Varios investigadores han estudiado las características y el comportamiento de estas sucesiones, para aplicarlos a los procesos estocásticos en física, ingeniería, biología, medicina y otras disciplinas así como también en otras ramas de la matemática y han establecido sus teorías y propiedades[1]. Palabras clave: procesos estocásticos, Markov, método Montecarlo.
método
I. Introducción Las cadenas de Markov son modelos probabilísticos que se usan para predecir la evolución y el comportamiento a corto y a largo plazo de determinados sistemas[2][3]. • Ejemplos: reparto del mercado entre marcas; dinámica de las averías de máquinas para decidir política de mantenimiento; evolución de una enfermedad,… Una Cadena de Markov (CM) es: • • • •
Un proceso estocástico Con un número finito de estados (M) Con probabilidades de transición estacionarias Que tiene la propiedad markoviana
Elementos de una Cadena de Markov: –
–
Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (“paso”) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes)
– –
Probabilidades de transición entre estados, en un ciclo (matriz P) Distribución inicial del sistema entre los M estados posibles
Propiedad markoviana: Un proceso estocástico tiene la propiedad markoviana si las probabilidades de transición en un paso sólo dependen del estado del sistema en el período anterior (memoria limitada)[4].
Tipos de modelos de Markov: • Procesos de Markov (Modelos semimarkovianos): Las probabilidades de transición entre estados pueden variar a medida que transcurren más ciclos. – Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad • Cadenas de Markov: Las probabilidades de transición se suponen constantes a lo largo del tiempo. Tipos de Estado de Cadenas de Markov:
II.
a.
Método de simulación de Montecarlo o cadenas de Markov
Método de Montecarlo: El método de Montecarlo consiste en generar series aleatoria de eventos, n este caso condiciones hidrológicas con las cuales se simula la operación del SIC durante un período de hasta 15 años. Cada serie cubre un período igual al del estudio y está compuesta por un conjunto de años hidrológicos elegidos al azar de la estadística disponible de 40 años. Para cada una de ellas se conoce el comportamiento óptimo del SIC en función del nivel inicial del embalse, pues este fue determinado (y almacenado en matrices > durante la etapa de optimización. Partiendo de una cota conocida a principios del primer año, es posible determinar el valor que toman las siguientes variables en cada año del estudio: cota final del lago Laja, costo de generación, costo de falla, costos marginales trimestrales, consumo de combustible, generación de cada central térmica, generación de Abanico, El Toro y Antuco, energía fallada y rebases. La figura siguiente muestra gráficamente el proceso de simulación de Montecarlo: Con un numero de secuencias hidrológicas de simulación relativamente
elevado (entre 1000 y 2000), se obtiene la distribución de probabilidades de cada una de estas variables en cada ano. El programa entrega el valor esperado y la desviación estándar de todas estas variables para cada año y la distribución de probabilidad de cotas finales y de una cualquiera de las otras seleccionada previamente[1]. b. Método de Markov: Una forma alternativa de estudiar el comportamiento de un sistema es el denominado método de Cadenas de Markov. Mediante el es posible analizar el estado de un sistema que evoluciona en el tiempo y cuyo comportamiento depende de condiciones aleatorias. Como resultado se obtienen las distribuciones de probabilidad del estado del sistema en los distintos períodos considerados y, en general, distribuciones de probabilidad para variables que son función del estado del sistema. Las condiciones en las cuales se utiliza este método son: i) En cada período, el estado del sistema, y las variables que son función de el, deben ser discretas. ii) La condición del sistema en un período cualquiera depende sólo del estado del sistema en un período anterior y de la ocurrencia de eventos durante el período. La actual versión del modelo utiliza el método de Markov sólo para estudiar el comportamiento de las cotas en el lago Laja y de los consumos de carbón. El método de Markov constituye una alternativa al método de simulación de Montecarlo, por lo que ambos deberían entregar resultados idénticos[1]. Ello, sin embargo, puede no ocurrir debido a: - El método de Montecarlo converge a los verdaderos valores de la distribución de probabilidades sólo si el número de tiradas tiende a infinito. En la medida que dicho valor no sea suficientemente grande, existirán errores en la estimación de probabilidades y de los estadígrafos asociados. - En el método de Markov existe una pérdida de información, ya que para los efectos de cálculo,
las variables continuas deben ser discretizadas, por lo cual todos los valores son asignados al centro de la clase a la cual pertenecen. Adicionalmente , la clase correspondiente al extremo superior del dominio de definición es semiabierta e incluye todos los valores superiores a su límite inferior. En todo caso, ambos métodos entregarían resultados parecidos en la medida en que aumenten tanto el número de tiradas en el método de Montecarlo como el número de clases de equivalencia en el método de Markov[1]. El método de Monte Carlo es una técnica numérica para calcular probabilidades y otras cantidades relacionadas, utilizando secuencias de números aleatorios[5]. Formalmente un cálculo MC no es otra cosa que una integración. En general, para integrales unidimensionales pueden usarse otros métodos numéricos más optimizados. El métdo MC es, sin Embargo muy útil para integraciones multidimensionales[5][6]. Monte Carlo vía cadenas de Markov: Una cadena de Markov es un modelo matemático de sistemas estocásticos donde los estados dependen de probabilidades de transición. El estado actual solo depende del estado anterior. El método de Monte Carlo es un método no determinístico o estadístico numérico usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud[7]. Las técnicas de Monte Carlo vía cadenas de Markov permiten generar, de manera iterativa, observaciones de distribuciones multivariadas que difícilmente podrían simularse utilizando métodos directos. La idea básica es muy simple: construir una cadena de Markov que sea fácil de simular y cuya distribución de equilibrio corresponda a la distribución final que nos interesa. Smith y Roberts (1993) presentan una discusión general de este tipo de métodos[8]. III.
Referencias Bibliográficas
[1] «Metodos de Cadenas de Markov Monte Carlo - Google Académico». [En línea]. Disponible en: http://scholar.google.com/scholar?start=10&q =Metodos+de+Cadenas+de+Markov+Monte +Carlo&hl=es&as_sdt=0,5. [Accedido: 06ago-2013].
[2] «metodo de montecarlo - Buscar con Google». [En línea]. Disponible en: https://www.google.com.pe/#bav=on.2,or.r_q f.&fp=89feaee616532cfa&q=metodo+de+mo ntecarlo. [Accedido: 06-ago-2013]. [3] A. Moreno Díaz, «Modelos multivariantes para variables ordinales: Aplicaciones en estudios de calidad de servicio», phd, Facultad de Informática (UPM), 2001. [4] «bea_cadenas_marko.ppt». . [5] «swp0000.dvi - cpfund10.pdf». [En línea]. Disponible en: http://www.ugr.es/~bioestad/_private/cpfund 10.pdf. [Accedido: 06-ago-2013]. [6] R. Ruiz Cárdenas, «Modelagem da distribuição espaço-temporal da broca do
café (Hypothenemus hampaei Ferrari) em uma cultura da região central colombiana.», 07-jun-2013. [En línea]. Disponible en: http://www.teses.usp.br/teses/disponiveis/11/ 11134/tde-19092003-144713/pt-br.php. [Accedido: 06-ago-2013]. [7] «La_inferencia_bayesiana_en_la_admini straci_n_de_riesgos.pdf». [En línea]. Disponible en: http://sistemas.fciencias.unam.mx/~cvrc/files/ La_inferencia_bayesiana_en_la_administraci _n_de_riesgos.pdf. [Accedido: 06-ago-2013]. [8] «Inicio - Dropbox». [En línea]. Disponible en: https://www.dropbox.com/home. [Accedido: 06-ago-2013].