Descripción: POLÍTICAS NACIONALES ALREDEDOR DE LA CIENCIA Y LA TECNOLOGÍA - UDES
mecanica de suelos aplicadaDescripción completa
io2Descripción completa
Descripción completa
A
Descripción: ejericio vias
Full description
random processFull description
ioDescripción completa
Deskripsi lengkap
escenario economicoDescripción completa
ECOLOGIADescripción completa
Situación laboralDescripción completa
Descripción completa
auditoriaa en salud
Investigación de las Operaciones II Ing. Industrial
Unidad 4: Cadenas de Markov 20 de Julio del 2016
Luis Fernando Cárdenas Puga M.C.JesúsFrancisco Tejeda Castrejón
4 1
Índice Introducción…………………………………………………………………….…......…..3 4.1 Introducción a las cadenas de Markov……………………………………...……4 4.2 Probabilidad de transiciones estacionarias de n pasos…………………..…..6 4.3 Estado estable………………………………………………………………………...9 4.4 Estados absorbentes………………………………………………………………..1 !onclusión………………………………………………………………….….….…..….14 "ibliogra#$as…………………………………………………………...………………….14
4 1
Introdcción %ndr&i %ndr&'evic( M)rkov *+,-/ 0 +,-/ 0/ 5 078 *14 de :unio de1;<6 = 2 de :ulio de 1922 #ue un >ate>)tico ruso conocido por sus traba:os en la teor$a de los n?>eros ' la teor$a de probabilidades. M)rkov nació en @iaA)nB @usia. %ntes de los 1 aCos su padreB un #uncionario estatalB #ue trasladado a Dan Petersburgo donde %ndr&i entró a estudiar en un instituto de la ciudad. esde el principio >ostró cierto talento para las >ate>)ticas ' cuando se graduó en 1;F4 'a conoc$a a varios >ate>)ticos de la Gniversidad de Dan PetersburgoB donde ingresó tras su graduación. En la Gniversidad #ue disc$pulo de !(eb's(ov ' tras realiAar sus tesis de >aestr$a ' doctoradoB en 1;;6 accedió co>o ad:unto a la %cade>ia de !iencias de Dan Petersburgo a propuesta del propio !(eb's(ov. ieA aCos despu&s M)rkov (ab$a ganado el puesto de acad&>ico regular. esde1;;B tras de#ender su tesis de >aestr$aB M)rkov i>partió clases en la Gniversidad 'B cuando el propio !(eb's(ov de:ó la Gniversidad tres aCos despu&sB #ue M)rkov Huien le sustitu'ó en los cursos de teor$a de la probabilidad. En 19icaB M)rkov se retiró de#initiva>ente de la GniversidadB aunHue siguió i>partiendo algunos cursos sobre teor$a de la probabilidad. % parte de su per#il acad&>icoB %ndr&i M)rkov #ue un convencido activista pol$tico. De opuso a los privilegios de la nobleAa Aarista ' llegó a rec(aAar las condecoraciones del propio Aar en protesta por algunas decisiones pol$ticas relacionadas con la %cade>ia de !iencias. asta tal punto llegó su i>plicación en la pol$tica Hue llegó a ser conocido con el sobreno>bre de Jel acad&>ico >ilitanteJ.
4 1
En las cadenas de Markov considera ciertos puntos discretos en el tie>po para to>a valores de la variable aleatoria Hue caracteriAa al siste>a. Entonces las cadenas de Markov se usan para estudiar ciertos co>porta>ientos de largo ' cortos plaAos de siste>as. Kos estados en el tie>po representan situación eL(austiva ' >utua>ente eLclu'entes del siste>a en un tie>po espec$#ico. %de>)s el n?>ero de estado puede ser #inito o in#inito. Por lo general una cadena de Markov describe el co>porta>iento de transición de un siste>a en intervalos de tie>po igual>ente espaciados. Din e>bargoB eListen situaciones donde los espacia>ientos te>porales dependen de las caracter$sticas del siste>a ' por elloB pueden no ser iguales entre s$. Kas cadenas de Markov se pueden aplicar en )reas co>o la educaciónB co>ercialiAaciónB servicios de saludB #inanAasB contabilidad ' producción.
4.! Introdcción a las cadenas de Markov Ka cadena de Markov recibe su no>bre del >ate>)tico ruso %ndrei Markov Hue desarrollo el >&todo en 19FB per>ite encontrar la probabilidad de Hue un siste>a se encuentre en un estado en particular en un >o>ento dado. %lgo >)s i>portante a?nB es Hue per>ite encontrar el pro>edio a la larga o las probabilidades de estado estable para cada estado. !on esta in#or>ación se puede predecir el co>porta>iento del siste>a a trav&s del tie>po. % veces nos interesa saber có>o ca>bia una variable aleatoria a trav&s del tie>po. Por e:e>ploB desear$a>os conocer có>o evoluciona el precio de las acciones de una e>presa en el >ercado a trav&s del tie>po. Ka cadena de >arkov es una serie de eventosB en la cual la probabilidad de Hue ocurra un evento depende del evento in>ediato anterior. En e#ectoB las cadenas de este tipo tienen >e>oria. @ecuerdanN el ?lti>o evento ' esto condiciona las posibilidades de los eventos #uturos. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientesB co>o tirar una >oneda al aire o un dado. En los negociosB las cadenas de Markov se (an utiliAado para analiAar los patrones de co>pra de los deudores >orososB para planear las necesidades de personal ' para analiAar el ree>plaAo de eHuipo. En >ate>)ticasB se de#ine co>o un proceso estoc)stico discreto Hue cu>ple con la Propiedad de MarkovB es decirB si se conoce la (istoria del siste>a (asta su instante actualB su estado presente resu>e toda la in#or>ación relevante para describir en probabilidad su estado #uturo.
4 1
Gna cadena de Markov es una serie de eventosB en la cual la probabilidad de Hue ocurra un evento depende del evento in>ediato anterior. En e#ectoB las cadenas de este tipo tienen >e>oria. J @ecuerdanJ el ?lti>o evento ' esto condiciona las posibilidades de los eventos #uturos. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientesB co>o tirar una >oneda al aire o un dado.
En la #igura 4.1.1 se >uestra el proceso para #or>ular una cadena de Markov. El generador de Markov produce uno de n eventos posiblesB E: B donde : O 1B 2B . . . B nB a intervalos discretos de tie>po *Hue no tiene Hue ser iguales . Kas probabilidades de ocurrencia para cada uno de estos eventos depende del estado del generador. Este estado se describe por el ?lti>o evento generado. En la #igura 4.1.1B el ?lti>o evento generado #ue E: B de >anera Hue el generador se encuentra en el estado M: .
Ka probabilidad de Hue Ek sea el siguiente evento generado es una probabilidad condicional P * Ek Q M: . Esto se lla>a probabilidad de transición del estado M: al estado Ek. Para describir co>pleta>ente una cadena de Markov es necesario saber el estado actual ' todas las probabilidades de transición.
Probabilidades de transición.
Gna #or>a de describir una cadena de Markov es con un diagra>a de estadosB co>o el Hue se >uestra en la #igura 4.1.2. En &sta se ilustra un siste>a de Markov
4 1
con cuatro estados posibles M1B M2 B M3 ' M4 . Ka probabilidad condicional o de transición de >overse de un estado a otro se indica en el diagra>a
Rtro >&todo para eL(ibir las probabilidades de transición es usar una >atriA de transición. . Ka >atriA de transición para el e:e>plo del diagra>a de estados se >uestra en la tabla 4.1.1 .
Rtro >&todo para eL(ibir las probabilidades de transición es usar una >atriA de transición. . Para n O B 1B 2B ....
4 1
El super$ndice n no se escribe cuando n O 1.
4." #ro$a$ilidad de transiciones estacionarias de n pasos Kas ecuaciones de !(ap>an=Sol>ogorov proporcionan un >&todo para calcular estas probabilidades de transición de n pasos Estas ecuaciones si>ple>ente seCalan Hue al ir de un estado i al estado : en n pasosB el proceso estar) en alg?n estado k despu&s de eLacta>ente > * >enor Hue n pasos. %s$B Es solo las probabilidad condicional de HueB si se co>ienAa en el estado iB el proceso va'a al estado k despues de > pasos ' despu&s al estado : en n= > pasos.
Kos casos especiales de >O1 ' >On=1 conducen a las eLpresiones Para toda iB :B ' n de lo cual resulta Hue las probabilidades de transición de n pasos se pueden obtener a partir de las probabilidades de transición de un paso de >anera recursiva. Para nO2B estas eLpresiones se vuelven Tote Hue las
son los ele>entos de la >atriA P*2 B pero ta>bi&n debe de
observarse Hue estos ele>entosB se obtienen >ultiplicando la >atriA de transición de un paso por s$ >is>aU esto es B P *2 O P V P O P 2 . En t&r>inos >)s generalesB se conclu'e Hue la >atriA de probabilidades de transición de n pasos se puede obtener de la eLpresión P*n O P V P .... P O P n O PPn=1 O Pn=1 P.
4 1
EntoncesB la >atriA de probabilidades de transición de n pasos se puede obtener calculando la n=&si>a potencia de la >atriA de transición de un paso. Para valores no >u' grandes de nB la >atriA de transición de n pasos se puede calcular en la #or>a Hue se acaba de describirB pero cuando n es grandeB tales c)lculos resultan tediosos 'B >)s a?nB los errores de redondeo pueden causar ineLactitudes. Ejemplo :
Gna tienda de c)>aras tiene en al>ac&n un >odelo especial de c)>ara Hue se puede ordenar cada se>ana. Dean 1B 2B ... las de>andas de esta c)>ara durante la pri>eraB segundaB ... B se>anaB respectiva>ente. De supone Hue las i son variables aleatorias independientes e id&ntica>ente distribuidas Hue tienen una distribución de probabilidad conocida. Dea W el n?>ero de c)>aras Hue se tiene en el >o>ento de iniciar el procesoB W 1 el n?>ero de c)>aras Hue se tienen al #inal de la se>ana unoB W 2 el n?>ero de c)>aras al #inal de la se>ana dosB etc. Duponga Hue W O 3 . El s)bado en la noc(e la tienda (ace un pedido Hue le entregan el lunes en el >o>ento de abrir la tienda. Ka tienda (ace un pedido Hue le entregan el lunes en el >o>ento de abrir la tienda. Ka tienda usa la siguiente pol$tica * sB D1 para ordenar si el n?>ero de c)>aras en inventario al #inal de la se>ana es >enor Hue s O1 *no (a' c)>aras en la tiendaB ordenar *(asta DO3. e otra >aneraB no coloca la orden *si se cuenta con una o >)s c)>aras en el al>ac&nB no se (ace el pedido. De supone Hue las ventas se pierden cuando la de>anda eLcede el inventario. EntoncesB XW1Y para t O B 1B .. es un proceso estoc)stico de la #or>a Hue se acaba de describir. Kos estados posibles del proceso son los enteros B 1B 2B 3 Hue representan el n?>ero posible de c)>aras en inventario al #inal de la se>ana.
%s$B dado Hue tiene una c)>ara al #inal de una se>anaB la probabilidad de Hue no (a'a c)>aras en inventario dos se>anas despu&s es .2;3U es decirB e igual >aneraB dado Hue se tienen dos c)>aras al #inal de una se>anaB la
4 1
probabilidad de Hue (a'a tres c)>aras en el al>ac&n dos se>anas despu&s es .9FU esto esB Ka >atriA de transición de cuatro pasos ta>bi&n se puede obtener de la siguiente >anera P*4 O P4 O P*2 V P*2 %s$B dado Hue Hueda una c)>ara al #inal de una se>anaB .2;2 es la probabilidad de Hue no (a'a c)>aras en inventario 4 se>anas >)s tardeU es decirB e igual >aneraB dado Hue Huedan dos c)>aras en el al>ac&n #inal de una se>anaB se tiene una probabilidad de .1F1 de Hue (a'a tres c)>aras en el al>ac&n 4 se>anas despu&sU esto esB
4.% &stado esta$le Zeore>a Dea P la >atriA de transición de una cadena de M estados . EListe entonces un vector
tal Hue
De establece Hue para cualHuier estado inicial i B
.
El vector a >enudo se lla>a distribución de estado estableB o ta>bi&n distribución de eHuilibrio para la cadena de Markov. Para encontrar la distribución de probabilidades de estacionario para una cadena dada cu'a >atriA de transición es PB seg?n el teore>aB para n grande ' para toda iB
*1
!o>o Pi: *n [ 1 O * renglón i de Pn *colu>na : de PB pode>os escribir
4 1
*2
E:e>plo Duponga Hue toda la industria de re#rescos produce dos colas. !uando una persona (a co>prado la cola 1B (a' una probabilidad de 9 \ de Hue su siguiente co>pra se de cola 1. Di una persona co>pró cola 2B (a' un ; \ de probabilidades Hue su próLi>a co>pra sea de cola 2.
Entonces %l ree>plaAar la segunda ecuación por la condición
B
obtene>os el siste>a
%l despe:ar resulta Hue Por lo tantoB despu&s de largo tie>poB (a' probabilidad 2Q3 de Hue una persona dada co>pre cola 1 ' 1Q3 de probabilidad de Hue una persona co>pre cola 2.
4.4 &stados a$sor$entes De dice Hue un estado es absorbente si es cero la probabilidad de (acer una transición #uera de ese estado. Por tantoB una veA Hue el siste>a (ace una transición (acia un estado absorbenteB per>anece en el sie>pre
M%Z@I] ^GT%METZ%K
4 1
Ka >atriA #unda>ental es >u' ?til para el an)lisis ' solución de situaciones en las cuales aparecen estados absorbentes.
Ka >etodolog$a para obtener la >atriA #unda>ental es la siguiente 1. Rbtener la >atriA de transición en la #or>a usualB inclu'endo los estados absorbentes.
2. Identi#icar de la >atriA de transición los renglones correspondientes a la >atriA absorbente
3. e lo Hue (a Huedado de la >atriA de transición en el paso anteriorB dividirlo en dos partes T Hue ser) la parte no absorbente ' % Hue contendr) los estados absorbentes
4.
Rbtene>os la >atriA G >ediante la siguiente #ór>ula
GOI=T onde I es la >atriA identidad.
<.
^inal>enteB se obtiene la >atriA identidad de la siguiente >anera
WOG=1
onde W representa la inversa de GB la cual se obtiene por algunos >&todos co>o el _auss= `ordan.
ea>os el siguiente e:e>plo en el cual eLplicare>os algunos conceptos i>portantes
4 1
Gna e>presa e>plea a tres tipos de ingenieros principiantesB con eLperiencia ' socios. urante un aCo deter>inado (a' una probabilidad de .1< Hue un ingeniero principiante sea ascendido a ingeniero con eLperiencia ' una probabilidad de .< Hue de:e la e>presa sin ser socio. Za>bi&n (a' una probabilidad de .2 Hue un ingeniero con eLperiencia sea ascendido a socio ' una probabilidad de .1 Hue de:e la e>presa sin ser socio. Za>bi&n (a' una probabilidad de .< de Hue un socio de:e la e>presa. eter>ine a !u)l es la duración pro>edio de un ingeniero reci&n contratado b cu)l es la probabilidad de Hue un ingeniero principiante llegue a ser socio c !u)l es la duración pro>edio Hue pasa un socio en la e>presa
Pri>eroB deter>ina>os la >atriA de transición en la cual se observa Hue (a' dos estados absorbentes el ingeniero de:e la e>presa sin ser socio ' Hue un socio de:e la e>presa
onde IPO IT_ETIE@R P@IT!IPI%TZE IEO IT_ETIE@R !RT EWPE@IET!I% ID O IT_ETIE@R DR!IR IDO IT_ETIE@R E`% K% EMP@ED% DIETR DR!IR IDDO IT_ETIE@R E`% K% EMP@ED% DIT DE@ DR!IR Kuego (alla>os la >atriA I=TB donde I es la >atriA de identidad ' T la >atriA no absorbente identi#icada en el paso anterior.
4 1
Kuego a trav&s de _auss=`ordanB (alla>os la >atriA inversa co>o se >uestra a continuación.
4 1
Para responder la pri>era pregunta debe>os tener presente un nuevo concepto Hue es el valor esperado Hue es el tie>po en Hue un estado de>ora antes de ser absorbido. Este valor esperado se obtiene a trav&s de la >atriA inversa. e esta #or>aB la duración pro>edio de un reci&n contratado seria
Para (allar la probabilidad de Hue un ingeniero principiante llegue a ser socio se debe >ultiplicar la >atriA inversa por la >atriA absorbenteB de la siguiente >anera
Rbs&rvese Hue esta probabilidad es igual a .<.
e igual >anera co>o en la pri>era parteB la duración pro>edio de un socio en la e>presa es
Conclsión !o>o conclusión las cadenas de Markov nos per>ite (acer an)lisis sobre el estudio de los co>porta>ientos de ciertos siste>as en ciertos periodos Hue pueden ser cortos o largos. %de>)s se tiene una relación con las probabilidades absolutas. Pero sin e>bargo lo >)s i>portante es el estudio del co>porta>iento siste>as a largo plaAoB cuando el n?>ero de transiciones tiene al in#inito %l conocer >)s o >enos las probabilidades de un eLperi>entoB esto a su veA nos per>itir) conocer a corto ' plaAo los estados en Hue se encontrar$an en periodos o tie>pos #uturos ' to>ar decisiones Hue a#ectar)n o #avorecer)n nuestros 4 1
interesesB ' to>ar una decisión de >anera consciente ' no se co>entan >uc(os errores. Esto ta>bi&n nos proporcionara un tie>po esti>ado para Hue identi#iHue>os cada estado ' el periodo en Hue se encuentra con la i>ple>entación de un procesoB ta>bi&n se establece las probabilidades co>o una (erra>ienta >)s en las cadenas de Markov.