Cadena de Markov En la teoría de la probabilidad, se conoce como cadena de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende del evento inmediatamente anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado. Reciben su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), que las introdujo en 1907.1 Estos modelos muestran una estructura de dependencia simple, pero muy útil en muchas aplicaciones.
Contenido [ocultar]
1 Definición formal 2 Notación útil o 2.1 Cadenas homogéneas y no homogéneas o 2.2 Probabilidades de transición y matriz de transición o 2.3 Vector de probabilidad invariante o 2.4 Clases de comunicación o 2.5 Tiempos de entrada o 2.6 Recurrencia o 2.7 Periodicidad 3 Tipos de cadenas de Markov o 3.1 Cadenas irreducibles o 3.2 Cadenas positivo-recurrentes o 3.3 Cadenas regulares o 3.4 Cadenas absorbentes o 3.5 Cadenas de Markov en tiempo continuo 4 Aplicaciones o 4.1 Física o 4.2 Meteorología o 4.3 Modelos epidemiológicos o 4.4 Internet o 4.5 Simulación o 4.6 Juegos de azar o 4.7 Economía y Finanzas o 4.8 Música 5 Referencias 6 Bibliografía
7 Enlaces externos
[editar] Definición formal En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro. Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.
[editar] Notación útil [editar] Cadenas homogéneas y no homogéneas
Una cadena de Markov se dice homogénea si la probabilidad de ir del estado i al estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es: para todo n y para cualquier i, j.
Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Markov es no homogénea.
[editar] Probabilidades de transición y matriz de transición
La probabilidad de ir del estado i al estado j en n unidades de tiempo es ,
en la probabilidad de transición en un paso se omite el superíndice de modo que queda
Un hecho importante es que las probabilidades de transición en n pasos satisfacen la ecuación de Chapman-Kolmogorov, esto es, para cualquier k tal que 0 < k < n se cumple que
donde E denota el espacio de estados.
Cuando la cadena de Markov es homogénea, muchas de sus propiedades útiles se pueden obtener a través de su matriz de transición, definida entrada a entrada como
esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso. Del mismo modo se puede obtener la matriz de transición en n pasos como: , donde
.
[editar] Vector de probabilidad invariante
Se define la distribución inicial
Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Markov si
.
donde P denota la matriz de transición de la cadena de Markov. Al vector de probabilidad invariante también se le llama distribución estacionaria o distribución de equilibrio.
[editar] Clases de comunicación
Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se denotará ) si para algún n,
si
y
entonces diremos que i comunica con j y se denotará i↔j.
La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.
Dado un estado x, denotaremos a su clase de comunicación como C(x).
Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es decir, si
para todo x∈C, para todo y∈E-C y para todo natural m>0.
[editar] Tiempos de entrada Si
, definimos el primer tiempo de entrada a C como la variable aleatoria
esto es,
denota la primera vez que la cadena entra al conjunto de estados C.
[editar] Recurrencia En una cadena de Markov con espacio de estados E, si x∈E se define y diremos que:
x es estado recurrente si . x es transitorio si x es absorbente si Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.
Sea
, si x∈Ediremos que:
x es cero-recurrente si x es positivo-recurrente si
El real μx se interpreta como el tiempo promedio de recurrencia.
[editar] Periodicidad
donde
El periodo de un estado x∈E se define como:
denota el máximo común divisor. Si d(x)=1 diremos que x es un estado aperiódico.
Una cadena de Markov se dice aperiódica si todos sus estados son aperiódicos.
[editar] Tipos de cadenas de Markov [editar] Cadenas irreducibles Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre sí): 1. 2. 3. 4. 5.
Desde cualquier estado de E se puede acceder a cualquier otro. Todos los estados se comunican entre sí. C(x)=E para algún x∈E. C(x)=E para todo x∈E. El único conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Markov irreducibles.
[editar] Cadenas positivo-recurrentes Una cadena de Markov se dice positivo-recurrente si todos sus estados son positivorecurrentes. Si la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y está dado por:
[editar] Cadenas regulares Una cadena de Markov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero. Cuando el espacio de estados E es finito, si P denota la matriz de transición de la cadena se tiene que:
donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, éste vector invariante es único.
[editar] Cadenas absorbentes Una cadena de Markov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente. 2. De cualquier estado no absorbente se accede a algún estado absorbente. Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados:
Su matriz de transición siempre se puede llevar a una de la forma
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente.
[editar] Cadenas de Markov en tiempo continuo Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el conjunto de números naturales, se consideran las variables aleatorias Xt con t que varía en un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa de la siguiente manera:
tal que
[editar] Aplicaciones [editar] Física Las cadenas de Markov son usadas en muchos problemas de la termodinámica y la física estadística. Ejemplos importantes se pueden encontrar en la Cadena de Ehrenfest o el modelo de difusión de Laplace.
[editar] Meteorología Si consideramos el clima de una región a través de distintos días, es claro que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos.
[editar] Modelos epidemiológicos
Una importante aplicación de las cadenas de Markov se encuentra en el proceso GaltonWatson. Éste es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).
[editar] Internet El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena.
[editar] Simulación Las cadenas de Markov son utilizadas para proveer una solución analítica a ciertos problemas de simulación tales como el Modelo M/M/1.
[editar] Juegos de azar Son muchos los juegos de azar que se pueden modelar a través de una cadena de Markov. El modelo de la ruina del jugador, que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Markov en este rubro.
[editar] Economía y Finanzas Las cadenas de Markov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de precios. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
[editar] Música Diversos algoritmos de composición musical usan cadenas de Markov, por ejemplo el software Csound o Max
[editar] Referencias 1. ↑ Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and Work of A. A. Markov» (en inglés). Linear Algebra and its Applications 386: pp. 3-26. Consultado el 31 de marzo de 2010.
[editar] Bibliografía
A.A. Markov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp. 135–156, 1906. A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971. Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500 Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871296-3. (See Chapter 7.) J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0471-52369-0. S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. online: https://netfiles.uiuc.edu/meyn/www/spm_files/book.html . Second edition to appear, Cambridge University Press, 2009. S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. online: https://netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st edición). New York: John Wiley and Sons, Inc.. Library of Congress Card Catalog Number 67-25924. Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Ztransforms, D transforms in their context. Kemeny, John G.; Hazleton Mirkil, J. Laurie Snell, Gerald L. Thompson (1959). Finite Mathematical Structures (1st edición). Englewood Cliffs, N.J.: Prentice-Hall, Inc.. Library of Congress Card Catalog Number 59-12841. Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff. E. Nummelin. "General irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X
[editar] Enlaces externo
Cadenas Markov
Índice 1.
Introducción
2.
Cadenas de Markov
3.
Ecuaciones de Chapman-Kolmogorov
4.
Clasificación de los estados en una cadena de Markov
5.
Tiempos de primera pasada
6.
Estados Absorbentes
7.
Cadenas de Markov en tiempo continuo
8.
Algunas v. a. importantes
9.
Probabilidades de estado estable
10. Ejemplos explicativos
Introducción Las cadenas de Markov se incluyen dentro de los denominados procesos estocásticos. Dichos estudian el comportamiento de variables aleatorias a lo largo del tiempo X(t,w). Se definen como una colección de variables aleatorias {X(t,w), t I}, donde X (t,w) puede representar por ejemplo los niveles de inventario al final de la semana t. El interés de los procesos estocásticos es describir el comportamiento de un sistema e operación durante algunos periodos.
Los procesos estocásticos se pueden clasificar atendiendo a dos aspectos: si el espacio de estados posibles de la variable aleatoria contiene valores discretos o continuos y de si los valores del tiempo son discretos o continuos. Las cadenas de Markov es un proceso estocástico en el que los valores del tiempo son discretos y los estados posibles de la variable aleatoria contiene valores discretos, es decir, es una cadena estocástica de tiempo discreto. Las cadenas de Markov, se clasifican, además, dentro de los procesos estocásticos de Markov, que son aquellos en el que el estado futuro de un proceso es independiente de los estados pasados y solamente depende del estado presente. Por lo tanto las probabilidades de transición entre los estados para los tiempos k-1 y k solamente depende de los estados que la variable adquiere dichos tiempos. INDICE
Cadenas de Markov
Las cadenas de Markov están constituidas por un conjunto de valores {Xn , n :0,1,2...} que cumplen la probabilidad de alcanzar cualquier estado j de la variable depende exclusivamente del estado i alcanzado en el instante de tiempo anterior.
P[Xn+1= j / Xn = i, Xn-1 = i1,..., X0=in]=P[Xn+1=j / Xn=i] i,j Se define para cada par de estados (i, j) que se alcanzan en dos pasos consecutivos de n y n+1 una probabilidad condicional denominada probabilidad de transición pij. P[X+1=j / Xn=i] = pij Las probabilidades de transición de un paso son estacionarias, es decir, que no cambian con el tiempo. Si pij no depende del instante n se dice que la cadena de Markov es homogénea. Las probabilidades de transición estructuradas en forma matricial da lugar a lo que se denomina matriz de transición. Dicha matriz relaciona los estados de la variable en dos pasos consecutivos y n+1 a través de sus probabilidades de transición.
Periodo n+1
Periodo n
Estado 1
...
Estado M
Estado 1
p11
p1*
p1M
....
P*1
p**
p*M
Estado M
pM 1
pM*
pMM
Una probabilidad de transición pij ^(n) de n pasos entre los estados i y j indica la probabilidad de que partiendo del estado i en pasos se llegue al estado j.
INDICE
Ecuaciones de Chapman-Kolmogorov
Estas ecuaciones proporcionan un método para determinar las probabilidades de que un proceso del estado i notada por pij ^(n). pij ^(n) = k=0..K pik ^(m) pkj ^(-m) ; i,j,n; 0
Cada sumando representa la probabilidad de que partiendo del estado i se llegue al estado k transcurridos m períodos y posteriormente desde el estado k se llegue al estado j en n-m períodos. INDICE
Clasificación de los estados en una cadena de Markov
Las probabilidades de transición asociadas a los estados juegan un papel importante en el estudio de las cadenas de Markov. Para describir con mas detalles las propiedades de una cadena de Markov es necesario presentar algunos conceptos y definiciones que se refieren a estos estados. U estado j es accesible desde el estado i si para algún n se tiene que pij ^(n) >0. Una cadena de Markov se puede dividir en clases. Una clase está formada por todos los estados que son accesibles entre sí . Considerando las probabilidades fii de que el proceso regrese al estado i comenzando en el estado i se puede clasificar los estados en recurrente sí fii =, transitorio sí fii <1y absorbente sí pii =1. En una cadena de Markov finita e irreducible todos los estados de dicha cadena so recurrentes.
El período de u estado i es el número T de períodos para el cual se cumple que pij ^(n) =0, siendo los valores distintos de T, 2T, 3T,.. y T es el valor más elevado que cumple esa propiedad. Un estado es apériodico si la variable aleatoria puede encontrarse en el mismo estado en dos períodos consecutivos. Un estado i es recurrente positivo si comenzando en el estado i el tiempo esperado para que el proceso regrese al estado i es finito.
Un estado se denomina esgórico si es recurrente positivo y además aperiódico. Una cadena es ergórica si todos sus estados son esgóricos. INDICE
Tiempos de primera pasada.
Es importante el nº de transiciones de que hace el proceso al ir del estado i al j por primera vez; a esto se llama “tiempo de 1ª pasada”. ”Tiempo de recurrencia” será una particularización de lo anterior para i=j (nº de transiciones hasta volver al estado inicial i). En general los tiempos de 1ª pasada son variables aleatorias, donde las distribuciones de probabilidad dependen de las probabilidades de transición del proceso. Éstas probabilidades satisfacen lo siguiente:
fij(1)=pij(1)=pij fij(1)= pik fkj(1) kj
fij(n)= pik fkj(n-1)
kj
La última suma puede resultar menor que 1, lo que significa que un proceso que comienza en i, puede nunca alcanzar el estado j. Es sencillo calcular el tiempo de primera pasada de i a j; siendo ij esta esperanza:
ij =
n=1
n fij(n)=1
si fij(n)1
n=1
si fij(n)=1 n=1
ij satisface de manera única, la ecuación:
ij =1+ pik kj kj
que reconoce que la 1ª transición puede ser al estado j o a algún otro estado k. Para el caso de ii (con j=i)es el nº esperado de transiciones para que el proceso regrese al estado i(“tiempo esperado de recurrencia”).Éstos se calculan de inmediato de la forma: 1
ii =----- siendo i las probabilidades de estado estable. i
INDICE
Estados Absorbentes.
Un estado se llama absorbente si pik =1, es decir, si una vez que el estado llega a k, permanece ahí para siempre. Si k es un estado absorbente y el proceso comienza en i, la probabilidad de llegar a k se llama probabilidad de absorción de k (fik ). Si se tienen 2 o más estados absorbentes, el proceso será absorbido por uno de éstos. Para saber cual, hay que resolver el sistema de ecuaciones:
M
fik= pij fjk
para i=0,1,…,M
j=0
Esto es importante en las “caminatas aleatorias”: cadenas de Markov en las que si el sistema se encuentra en el estado i, entonces, en una sola transición, o permanece en i, o se mueve a uno de los 2 estados inmediatamente adyacentes a i. INDICE
Cadenas de Markov en tiempo continuo
Se etiquetan los estados posibles del sistema 0,1,…,M. Se comienza en 0, y t0. Sea la v.a.X(t´) el estado del sistema en t´. Tomará un valor en 0t´r y t>0.
PX(s+t)=j/X(s)=i es una probabilidad de transición. Si es independiente de s, se llamará probabilidad de transición estacionaria. Un proceso estocástico de tiempo continuo X(t); t0 es una cadena de Markov de tiempo continuo si tiene la propiedad markoviana. INDICE
Algunas v. a. importantes:
*La distribución de probabilidad del tiempo que falta para que el proceso haga una transición fuera de un estado dado es siempre la misma(independientemente del tiempo que el proceso haya pasado en ese estado), es decir:no tiene memoria. La única distribución en TC que cumple esto es la distribución exponencial: PTit=1-e-qt
para t0 (parámetro q, media 1/q).
Por tanto, describiremos la cadena de Markov: -La v.a. Ti tiene una distribución exponencial con media 1/q. -Al salir de un estado i, se pasa a otro j, con probabilidad pij que cumple que pij=0 para toda i, y la suma de todas las pij es 1. -El siguiente estado que se visita tras i, es independiente del tiempo transcurrido
en i. Las intensidades de transición(probabilidades de transición, pero en TC) : d
1 pii(t)
qi= pii(0)=lim dt
t0
, para i=0,1,2,…,M, t
y d
1 pij(t)
qi= pij(0)=lim dt
t0
= qi pij , para toda ji t
donde pij es la función de probabilidad de transición de TC, qi y qij son las tasas de transición(qi= qij ). ij
INDICE
Probabilidades de estado estable:
La función de probabilidad de transición de TC satisface las ecuaciones de Chapman-Kolmogorov, luego para cualequiera estados i,j y números t y s(0s
M
pij= pik(s)pkj(t-s)
para i=0,1,…,M
k=1
Se dice que un par de estados i,j se comunican si existen tiempos t1, t2 tales que pij(t1)>0 y pij(t2)>0. Todos los estados que se comunican forman una clase. Si todos los estados en una cadena forman una clase, entonces la cadena será irreducible, por lo que: pij(t)>0, para todo t>0 y todos los estados i,j , y más aún: lim pij(t)=j
llamadas probabilidades de estado estable(o estacionarias).
t
Las probabilidades estacionarias satisfacen: j qj= i qij
para j=0,1,…,M
ij
M
y
j=0 j=0
(éstas ecuaciones se suelen llamar de balance).
INDICE
Concepto Un estado ? i ? s absorbente, la probabilidad de permanecer en ese estado es igual a 1. Es decir, cuando el sistema cae en el estado ? i ? no vuelve a salir de él. Es un caso especial de conjunto cerrado en que el conjunto contiene sólo el estado ? i ?. Ejercicio La empresa jurídica Harold Vega se clasifican a los empleados en subalternos, superiores y socios; el 10% de los subalternos ascienden a superiores y a un 10% se les pide que abandone la empresa, durante un año cualquiera 5% asciende a socio y a 13% se les pide que renuncie. Los abogados subalternos deben ascender a superiores para llegar a ser socios, los abogados que no se desempeñan un buen nivel no descienden de nivel. a) a) Forme la matriz de transición con esos datos b) b) Determine si la matriz de transición es regular, absorbente o ninguna de las dos. c) c) Cuál es la probabilidad de que un abogado subalterno llegue a ser socio d) d) Cuánto tiempo debería esperar permanecer en su categoría un abogado subalterno recién contratado. e) e) Cuánto tiempo debería esperar permanecer en la empresa un abogado subalterno recién contratado. f) f) Cuál es la probabilidad de que un superior se convierta en socio
Solución a)
a)
b)
La matriz es absorbente ya que en los estados de Socio y Despedido son absorbentes.
Para responder a las preguntas c) a f) se necesitan llevar a cabo una serie de cálculos. En matrices absorbentes, para determinar los tiempos medios en los cuales se permanecerá en un estado determinado se le debe restar una matriz identidad de mismo tamaño, la matriz
que contiene a los estados no absorbentes (representado con el color más claro) y luego se debe la matriz inversa de la matriz resultante de la resta.
Para hallar probabilidades de permanencia en un determinado estado se debe multiplicar la matriz (inversa de la resta de una matriz identidad menos la matriz de estados no absorbentes) por la matriz de estados absorbentes (representado por el tono de rojo medio)
a) c) La probabilidad es 0,14 b) d) 5 años c) e) 5+2,78 =7,78 años d) f) La probabilidad es 0,28
b)
Fuente: Investigaciòn de Operaciones, Hamdy A. Taha, 2004
Cadenas de Markov Serie de eventos en el cuales la probabilidad de que ocurriria algo entre ellos depende del evento inmediato anterior se representan por diagramas de estado o por una matriz transacción Aplicaciones: análisis de compra, de compradores, pronostico de concesión a deudores morosos planeación de personales de necesidad. Ejemplo
Existe un 75% de posibilidades de que el día siguiente funcione y un 25% de que no funcione , pero si no esta funcionando hay un 75% de posibilidades de que tampoco funcione al día siguiente y solo un 25% de que si lo haga para comenzar el análisis se debe de conocer el estado actual supóngase que esta comenzando y que hay un 75% de posibilidades de que este funcionando y un 25% de que no este funcionando ,Cual es la probabilidad de estar funcionando el primero y segundo día. Inicio P (f)= .75 P (nf) =.25
Ejercicio
Hace mucho tiempo en una galaxia lejana existió un clima que dependía solo del clima del día anterior. por ejemplo la probabilidad de que lloviera hoy dependería solo de lo sucedido ayer , existen solo 3 tipos de clima despejado, lluvia y nieven enseguida se presenta la matriz de transición diaria para estos tipos de clima. 1. Calcule las probabilidades de estado para pasado mañana siendo que llovió hoy. 2. Calcule las probabilidades de estado para pasado mañana si hay un 30% de probabilidades de que hoy este despejado y un 50% de que haya lluvia.
Procedimiento para calcular la proporción de estados no absorbentes que terminaron en estados absorbentesMenú 1. Eliminar los renglones correspondientes, a los estados absorbentes originales.
2. Dividir la matriz restante en estados absorbentes y no absorbentes, denominar "g "a la parte de la matriz bajo estados absorbentes y "h" a la parte de la matriz bajo estados no absorbentes. 3. Calcular la matriz fundamental "Q" que es igual a Q =(I-H)-1 , donde I es igual a la matriz original y el exponente -1 , se refiere al inverso de la matriz. 4. Calcular la matriz de posiciones R =QG. Ejemplo
Una empresa de abogados emplea 3 categorías de empleados: principiantes, con experiencia y socios como se muestra en la matriz de transición. 1. Determine la probabilidad de que un abogado principiante, recién contratado deje la empresa antes de ser socio. 2. Cual es la probabilidad de que un abogado principiante salga siendo socio.
Conclusión:
50% de los principiantes sale siendo socio. 50% da los principiantes sale sin ser socio.
De los abogados con experiencia:
33% sale sin ser socio. 66% sale siendo socio.
De los socios:
100% sale siendo socio
Ejercicios Cadenas de MarkovMenú El controlador de la Ace Widgets analizo las cuentas por cobrar de la compañía y desarrollo la siguiente matriz de transición: De(mes 1)
Las cuentas A tienen de 0 a 30 días y actualmente dan un total de $100 000 .Las cuentas B tienen de 31 a 90 días y dan un total de $50 000 en este momento. ¿Que concesión debe dar el controlador para cuentas morosas?
El departamento de comercializacion de la marca X hizo una investigación y encontro que , si un cliente compra su marca , existe un 70% de posibilidades de que la compre de nuevo la proxima vez. Por otro lado, si la utima compra fue de otra marca , entonces se escoge la marca la marca x solo el 20% del iempo.Cual es el porcentaje de mercado que puede pronosticarse a la larga para la marca X? La alpha corp ,. Al considerer sus estrategias de mercado , observa que sus propios clientes son bastante leales: 85% compran de nuevo su producto .Sin embargo , solo 10% de los clientes de la competencia se aventuran a tratar con Alpha .el departamento de publicidad piensa que la lealtad de los clientes puede elevarse al 90% con una campaña especial dirigida a los clientes de la firma .De otra manera podrá estructurarse los anuncios para comparar Alpha con sus competidores .Con esto puede esperarse elevar el cambio de marca de 10% al 20% .En cualquier caso lña compaña de publicidad costaria $100 000y redundaria una contribución de $6 000 por cada punto ganado en el porcentaje del mercado. 1. Antes de cualquier camopaña publicitaria ¿Cuál el porcentaje de mercado a favor de Alpha Corporation? 2. ¿Cuál es la estrategia de publicidad que daria el mayor aumento en el pocentaje de mercado? 3. ¿Es provechosa la mejor campaña de publicidad?
Un gerente de credito estima que el 95% de aquellos que pagan sus cuentas a tiempo de un mes tambien lo haran el siguiente mes.sin embargo, de aquellos que se tardan solo la midad pagaran a tiempo la proxima vez. 1. si una persona paga a tiempo ,¿Cuál es el la probabilidad de que pagara a tiempo durante seis meses desde ahora? 2. En promedio ¿Cuál es la proporcion de cuentas pagadas a tiempo y que proporcion se pagan tarde?
Se esta considerando comprar dos copiadoras de oficina . son similares en todos los aspectos excepto en el control de claro-oscuro que opera en forma automatica .en la maquina A existe una posibilidad del 95% de que el control permanezca ajustado todo el dia, si esta ajustado en la mañana.Pero si no esta ajustado , hay un 10% de posibilidades de que permanezca asi.Para la maquina B , las cantidades equivalentes de que permanezca asi .Para la maquina B, la cantidades equivalentes son 90% y el 5%, respectivamente. Si el costo es el mismo ¿Qué maquina debe comprarse? Fin de los apuntes correspondientes a la 4ta Unidad: Cadenas de Markov. Ir Arriba
Última Actualización: Martes 13 de Septiembre 2005 | Navegadores Recomendados: Opera y Mozilla Firefox
Comentarios y Sugerencias: Maestra Sylvia De Reza De La Cruz | Webmaster | Arriba