Procesos estocasticos
Ideas preliminares Series temporales
Serie temporal o cronológica - sucesión de valores de una variable observada durante un periodo de tiempo.
Ejemplo Registro de la temperatura máxima diaria en una ciudad durante un mes.
Ideas preliminares Series temporales
Importancia Conocer la evolución de los valores de la variable tratada en el tiempo.
Predecir el comportamiento de los fenómenos.
Ideas preliminares Procesos estocásticos
Variable aleatoria a lo largo del tiempo
Objetivo Ajustar un modelo con el fin de hacer predicciones sobre
el comportamiento futuro.
Proceso estocástico
Procesos estocásticos (aleatorios) Definición formal
Estados: Posibles valores que puede tomar la variable aleatoria
espacio de estados discreto
espacio de estados continuo Además la variable tiempo puede ser de tipo discreto o de tipo continuo
Procesos estocásticos (aleatorios) Definición formal
Un proceso estocástico puede considerarse también como un función de dos variables. De manera que a la pareja
Para cada t
es una variable aleatoria. Para cada
se le asocia el estado o
es una trayectoria del proceso.
Procesos estocásticos Si el conjunto T es...
La v. a. Xt es...
continuo
proceso estocástico de parámetro continuo
discreto
proceso estocástico de parámetro discreto
Si para instante t
el proceso estocástico es..
Xt es continua
de estado continuo
Xt es discreta
de estado discreto
Procesos estocásticos Caso sencillo tiempo discreto
Supongamos el espacio parametral: (Discreto)
que interpretamos como tiempos.
Entonces habrá: variables aleatorias
Entonces para cada n, Xn es el valor del proceso o estado del sistema al tiempo n.
Procesos estocásticos Caso tiempo continuo
El espacio parametral también puede ser un conjunto continuo
Entonces el proceso es a tiempo continuo y se denota: Convención: si el subíndice es n, entonces los tiempos son discretos, y si el subíndice es t, el tiempo se mide de manera continua
Procesos estocásticos
Procesos estocásticos Cadena - Ejemplo máquina en una fábrica Los posibles estados para la máquina son que esté operando o que esté fuera de funcionamiento. La verificación se realizará al principio de cada día siendo los estados: "fuera de operación" con el valor 0 "en operación" con el valor 1. Posible secuencia de cambios de estado a través del tiempo para esa máquina.
Procesos estocásticos Procesos de Saltos Puros - Ejemplo
Señal telegráfica. Sólo hay dos posibles estados (por ej. 1 y -1) pero la oportunidad del cambio de estado se da en cualquier instante en el tiempo, es decir, el instante del cambio de estado es aleatorio.
Procesos estocásticos Proceso continuo - Ejemplo
Señal de voz vista en la pantalla de un osciloscopio. Esta señal acústica es transformada en una señal eléctrica analógica que puede tomar cualquier valor en un intervalo continuo de estados. señal de voz modulada en amplitud.
Procesos estocásticos Procesos de estado discreto
Una secuencia de variables que indique el valor del proceso en instantes sucesivos suele representarse de la siguiente manera:
en la que cada variable Xi , i = 0, ..., n, tiene una distribución de probabilidades, en general, distinta de las otras variables.
Procesos estocásticos Procesos de estado discreto
Principal interés en el caso discreto: * cálculo de probabilidades de ocupación de cada estado a partir de las probabilidades de cambio de estado.
Si en el instante n−1 se está en el estado xn−1¿con qué probabilidad se estará en el estado xn en el siguiente n? Esta probabilidad se denotará con probabilidad de transición o de cambio de estado.
Procesos estocásticos Procesos de estado discreto
Probabilidades de ocupación de estado
Probabilidades de transición o de cambio de estado.
Otra notación
Procesos estocásticos Procesos de estado discreto
Otro probabilidad de interés es la de ocupar un cierto estado en un instante n, dado que en todos los instantes anteriores, desde n=0 hasta n−1, se conoce en qué estados estuvo el proceso. Esto se puede escribir como:
Nótese que esta probabilidad depende de toda la historia pasada del proceso, mientras que la probabilidad de transición depende únicamente del estado actual que ocupe el proceso.
Procesos estocásticos Procesos de estado discreto
Procesos de Markov Propiedad de Markov. Son procesos donde, suponiendo conocido el estado presente del sistema, los estados anteriores no tienen influencia en los estados futuros del sistema.
Procesos estocásticos Procesos de estado discreto
Cadenas de Markov Aquellas Cadenas que cumplen la propiedad de Markov se llaman Cadenas de Markov.
Procesos estocásticos Procesos de estado discreto
Cadenas de Markov Considere una máquina que será revisado al inicio de cada día para verificar si está operativa o si está dañada.
diagrama de estados
Ejemplo El clima en la Tierra de Oz
Según el cuento, en la Tierra de Oz nunca hay dos días buenos en sucesión. Después de un día con buen tiempo, le sigue (con igual probabilidad) un día con lluvia o nieve. Del mismo modo, si nieva (o llueve), el día siguiente nevará (o lloverá) con probabilidad 1/2, pero si cambia el tiempo, solo la mitad de las veces será un lindo día.
Ejemplo El clima en la Tierra de Oz Primero encontremos la probabilidades de transición, es decir las probabilidades de que teniendo cierto clima un día, al día siguiente se tenga otro clima. Indiquemos con b un día bueno, con uno lluvioso y n si nieva.
Ejemplo El clima en la Tierra de Oz
Resumiendo:
Veamos que: Los coeficientes son positivos. Si sumamos una fila el resultado es 1. En cambio la suma por columnas no da 1.
Se le llama matriz de transición (o transiciones).
• Una matriz estocástica derecha es una matriz cuadrada cada una de cuyas filas está formada por números reales no negativos, sumando cada fila 1. • Una matriz estocástica izquierda es una matriz cuadrada cada una de cuyas columnas está formada por números reales no negativos, sumando cada columna 1.
• Una matriz doble estocástica es una matriz cuadrada donde todos los valores son no negativos y todas las filas y columnas suman 1.
Ejemplo El clima en la Tierra de Oz
En el siguiente momento volveremos a ese estado o a otro. Pasaremos de un estado a otro con cierta probabilidad.
Este es un ejemplo de una cadena de Markov Hay ciertos estados: b,l y n. En cada momento estamos en alguno de esos estados.
Solo depende del estado inmediato anterior. La probabilidad no cambia con el transcurso del tiempo.
Procesos estocásticos Cadenas de Markov
La matriz de transición
Con la condición (matriz estocàstica.
pij es la probabilidad de estar en el estado j dado que está en el estado i. En cualquier paso puede ocurrir alguno de los sucesos E1 , E2 , . . . , Em y
Procesos estocásticos Cadenas de Markov - Ejemplo 1
Ejemplo Cadenas de Markov Las siguientes matrices son estocásticas?
Procesos estocásticos Cadenas de Markov - Ejemplo 2
Paseante La zona urbana de mi pueblo tiene 6 cuadras de largo, que van de norte a sur. Estoy con ganas de deambular y pasar el tiempo, y como tengo una moneda, se me ocurre tirarla y caminar una cuadra hacia el norte si sale cara o una cuadra hacia el sur si sale cruz. Y continúo este juego hasta salir de la zona urbana, ya sea hacia el norte o hacia el sur
Procesos estocásticos Cadenas de Markov - Ejemplo 2
Podemos pensar que los estados son 0,1,...,5,6, donde 0 es la esquina sur donde empieza la zona urbana, 6 la esquina norte. La matriz de transición puede escribirse entonces como:
Al llegar al estado 0 o 6 el "juego" se termina, por lo que ponemos un 1 en la entrada correspondiente indicando que ya nos quedamos para siempre en esa posición.
Procesos estocásticos Cadenas de Markov - Dos pasos, ejemplo.
Supongamos que estando en un estado i lleguemos en dos pasos al estado j.
Evidentemente en el primer paso estaremos en algún estado intermedio k (que puede ser i o j) y después pasar de k a j
En cada camino multiplicamos las probabilidades, y después sumamos los caminos
Procesos estocásticos Cadenas de Markov - Dos pasos, ejemplo.
Procesos estocásticos Cadenas de Markov Supongamos que estando en un estado i lleguemos en varios pasos al estado j. Entonces la matriz que contiene todos estos estados se llama:
es la probabilidad de transición del estado i al estado j en n pasos
matriz de transición de n pasos. Nota La matriz P es de un paso
Procesos estocásticos Cadenas de Markov
Matriz de transición de n pasos. Propiedades
Puesto que para hacer n pasos necesitamos hacer n-1 pasos y luego otro más, podemos escribir:
Se puede obtener multiplicando la matriz de transición de un paso.
En general:
Procesos estocásticos Cadenas de Markov - Probabilidades iniciales
Procesos estocásticos Cadenas de Markov - Probabilidades iniciales
Procesos estocásticos Cadenas de Markov - Probabilidades iniciales
Procesos estocásticos Cadenas de Markov - Probabilidades iniciales