TRABAJO DE INVESTIGACIÓN”
“
UNIDAD 3: GENERACIÓN DE VARIABLES ALEATORIAS ALEATORIAS
MC. ENRIQUE PONCE RIVERA SIMULACIÓN Presenta MAR RENDÓN CLAUDIA ESTEFANY
CARRERA INGENIERÍA EN SISTEMAS COMPUTACIONALES Pánuco, Ver, Fecha: Octubre del 2006
1
INDICE Introducción…………………………………………….……………………………….…………………………………………..……3 Generación de variables aleatorias…………………………………………………………………………………….. aleatorias……………………………………………………………………………………..……… ………4 4 3.1. Conceptos básicos…………………………………………………… básicos……………………………………………………………………………………………………… …………………………………………………..……… ..………4 4 3.2. Variables aleatorias discretas...………………………………………………….………………………………… discretas... ………………………………………………….………………………………….……5 ……5 3.3. Variables aleatorias continuas……………………………………………………….…………………… continuas……………………………………………………….……………………………… …………..…..6 …..6 3.4. Métodos para generar variables aleatorias…………………………………………………………………… aleat orias……………………………………………………………………..……6 ……6 3.4.1. Método de la transformada transformada inversa…………………………………… inversa…………………………………….……………………………… .……………………………….. ..………… …………8 8 3.4.2. Método de convolución………….…………………………… convolución………….………………………………………………….…………………………………… …………………….……………………………………10 3.4.3. Método de composición………….………………………………………………….………………………………….. composición………….………………………………………………….…………………………………..11 11 3.5. Procedimientos Procedimientos especiales………………………………………………………………………………………………… especiales…………………………………………………………………………………………………13 13 3.6. Pruebas estadísticas (Pruebas de bondad de ajuste)….……………….……………………………………… ajuste)….……………….………………………………………17 17 Conclusión……………………………………………………………………………………………………..…………..….………..19 ………..19 Referencias………………………………………………………………………………………………….…..……………………….20 20
2
Introducción:
En estadística, un número aleatorio es un resultado de una variable al azar especificada por una distribución. Los algoritmos para la generación de valores uniformemente distribuidos están presentes en todas las calculadoras y lenguajes de programación, y suelen estar basados en congruencias numéricas del tipo:
El éxito de este tipo de generadores de valores de una variable aleatoria depende de la elección de los cuatro parámetros que intervienen inicialmente en la expresión anterior: • El valor inicial o semilla: x0 • La constante multiplicativa: a • La constante aditiva: c • El número m respecto al cual se calculan los restos
Estos cuatro valores deben ser números enteros no negativos y que cumplan la siguiente condición: x0, a, c < m Por la condición anterior, es evidente que todos los valores generados por este procedimiento son números enteros entre 0 y m-1. El número máximo de cifras distintas que pueden obtenerse con el procedimiento descrito es m, así que llegará un momento en que el primer número generado se repetirá produciéndose un ciclo. El ciclo dónde inevitablemente caerá el generador interesa que sea de la mayor longitud posible (como máximo m), para evitar que se repitan pronto los valores aleatorios.
3
Generación de variables aleatorias 3.1. Conceptos básicos. Numero Aleatorio: Es un resultado de una variable al azar por una función de distribución. Variable: Entidad que puede tomar un valor cualquiera durante la duración de un proceso dado.
Tipos de Variable:
Variable Aleatoria: Son aquellas que tiene un comportamiento probabilístico en la realidad. Se usan letras como X, Y y Z para denotar una variable aleatoria.
Variable Discreta: Una variable aleatoria discreta puede tomar valores numéricos específicos. Se divide en variable aleatorias finitas e infinitas. Generador de Números aleatorios: Es un dispositivo informático o físico diseñado para producir
secuencias de números sin un orden aparente. Los métodos para generar números aleatorios son:
Método de la transformación inversa: Se emplea para simular variables aleatorias discretas. Método de aceptación-rechazo: Se basa en alguna propiedad característica de la variable aleatoria de interés que puede expresarse de forma iterativa hasta que se cumpla la propiedad en cuestión.
Método de Composición: Método para generar valores de variables aleatorias no uniformes. Algoritmo: Los algoritmos para la generación de valores uniformemente distribuidos están
presentes en todas las calculadoras y lenguajes de programación y se basan en:
El éxito de este tipo de generadores de valores de una variable aleatoria depende de la elección de los cuatro parámetros que intervienen inicialmente en la expresión anterior:
El Valor inicial o semilla X 0
4
La constante multiplicativa: a La constante aditiva: c El numero m respecto al cual se calculan los restos. Generador de Variables Aleatorias: La generación de variables aleatorias o estocásticas significa la
obtención de variables que siguen una distribución de probabilidad determinada.
3.2. Variables aleatorias discretas
Una variable aleatoria discreta puede tomar valores numéricos específicos, como el resultado de lanzar un dado, o la cantidad de dólares en una cuenta bancaria elegida al azar. Las variables aleatorias discretas sólo pueden tomar un número finito de muchos valores y se les llama variables aleatorias finitas. Existen diversos métodos para generar variables aleatorias discretas: 1. Transformada Inversa 2. De aceptación-rechazo, o método de rechazo. 3. De composición. 4. Métodos mejorados según la distribución. Una variable aleatoria X es discreta, si solamente puede tomar un conjunto numerable de valores. Ejemplos: El número de libros en una biblioteca, el número de habitantes en una población, la cantidad de dinero que una persona trae en su bolsillo, el número de aves en un gallinero, el
5
número de admisiones diarias a un hospital, el número de accidentes automovilísticos en una carretera durante un año, etc.
3.3. Variables aleatorias continuas
Es aquella que se encuentra dentro de un intervalo comprendido entre dos valores cualesquiera; ésta puede asumir infinito número de valores y éstos se pueden medir. Es aquella que puede tomar infinitos valores dentro de un intervalo de la recta real. En el caso de variables aleatorias continuas no tiene sentido plantearse probabilidades de resultados aislados. La probabilidad de valores puntuales es cero. El interés de estas probabilidades está en conocer la probabilidad correspondiente a un intervalo. Dicha probabilidad se conoce mediante una curva llamada función de densidad y suponiendo que bajo dicha curva hay un área de una unidad. Conociendo esta curva, basta calcular el área correspondiente para conocer la probabilidad de un intervalo cualquiera.
3.4. Métodos para generar variables aleatorias
Existen varios métodos para generar variables aleatorias siendo los más importantes: transformada inversa, convolución y aceptación-rechazo. Mediante estos métodos es posible generar variables aleatorias discretas (binomial, poisson, etc.) y continuas (uniforme, exponencial, normal, etc.).
6
Método aceptación-rechazo
El método de aceptación y rechazo no es un método directo y puede ser útil cuando alguno de los métodos directos no es eficiente debido a que no sea posible conocer la función de distribución como es el caso de la distribución normal. Consiste en generar un valor de la variable aleatoria e inmediatamente probar que dicho valor simulado proviene de la distribución de probabilidad que se está analizando.
Pasos:
Generar dos números uniformes U (0,1) llamados U1 y U2. Determinar el valor de la variable aleatoria X de acuerdo a la siguiente relación lineal de U1: Evaluar la función de probabilidad en X = a + (b-a) U1. Determinar si la siguiente desigualdad se cumple: Se utiliza a X = a+ (b-a) U1 si la respuesta es afirmativa como un valor simulado de la variable aleatoria. De lo contrario, es necesario regresar nuevamente al paso 1 tantas veces como sea necesario.
7
3.4.1. Método de la transformada inversa.
Se quiere generar valores de xi a partir de F(x). En primer lugar, hay que obtener F(x). Puesto que F(x) se define en el rango de 0 a 1 se pueden generar números aleatorios para sustituir a F(x)=r. De manera unívoca cada valor de r i define un valor de F(x). F(x)
1 F (xi) = ri
0
xi
X
-1
Al considerarla función inversa de F o F (x) en caso de ser conocida, podemos hacer: x
Podemos de manera general establecer que: r F x
f t dt
1 Entonces p x x F x pr F x p F x x
Ejemplo:
Genérese los valores x de variables aleatorias con función de densidad
1 4
0 x 1
f x 3 4
1 x 2
8
-1
x0 = F (r0).
1° parte
2° parte x
F x
1
4
F x
dt
1 4
0
F x r
x
F x
4
x
x
3
dt 1
4
3 3 1 3 x x 4 4 4 4 2
1
3 1 r x 4 2
4
Al tomar la transformación inversa y resolviendo:
x 4r Si 0 r x 43 r
2 3
1 4
Si
1 4
r 1
Para generar un valor de x se debe en primer lugar generar un valor de r ; cuando r ¼ el valor de x estará determinado por x = 4r .
Si r ¼ entonces x = /3 r + /3 4
2
Ejemplo:
x n x 0 Se desea simular una variable aleatoria con d exponencial f x e
x
F x
e
x
t
dt
0
e
t
dt
0
F x e
t x 0
e t e 0 e t 1
t t F x 1 e r 1 r e
ln1 r x x 1 ln1 r
x 1 ln r
Ejemplo: n Se desea simular n números aleatorios con d uniforme entre (a, b): f x
9
1
ba
a x b
x
x
1 F x b a dt b a dt 1 1 x a F x t ba ba x a a x b F x ba x a x a r b a r ba x a r b a 1
a
a
x
a
3.4.2. Método de convolución
El método de convolución asume que existen Y1, Y2,…, Ym variables aleatorias, tal que la suma de todas ellas tiene la misma distribución que X, entonces se calcula:
1. Genere Y1, Y2,…, Ym variables aleatorias IID cada una con función de distribución G. 2. Aplique X = Y1 + Y2 +… Ym. La distribución de probabilidad de la suma de dos o más variables aleatorias independientes es llamada la convolución de las distribuciones de las variables originales. El método de convolución es entonces la suma de dos o más variables aleatorias para obtener una variable aleatoria con la distribución de probabilidad deseada. Puede ser usada para obtener variables con distribuciones Erlang y binomiales. Ejemplo:
La suma de un gran número de variables de determinada distribución tiene una distribución normal. Este hecho es usado para generar variables normales a partir de la suma de números U (0,1) adecuados.
Una variable Pascal es la suma de m geométricas. La suma de dos uniformes tiene una densidad triangular.
10
Una variable Erlang-k es la suma de k exponenciales. Una variable Binomial de parámetros n y p es la suma de n variable Bernoulli con probabilidad de éxito p.
La chi-cuadrado con v grados de libertad es la suma de cuadrados de v normales N (0,1).
3.4.3. Método de composición.
En esta técnica f(x), la función de densidad probabilidad de la distribución que se va simular, esta expresada como una mezcla de probabilidad de funciones de densidad propiamente seleccionadas. Este procedimiento está basado en la definición de probabilidad condicional o la ley de probabilidades compuestas. Matemáticamente sea g (x|y) una familia de funciones de densidad de un parámetro donde y es el parámetro que identifica de manera única a g(x). Si un valor de y es ahora descrito de una función de distribución acumulada H (y) y entonces si x es una muestra de g(x), para seleccionar y , la función de densidad para x será:
f f x g x y dH y
Usando este principio, distribuciones más complicadas pueden ser generadas de distribuciones más simples las cuales son en sí mismas fácilmente generadas, por la técnica de la transformación inversa o la técnica de rechazo.
11
n xy
Ejemplo: Generar una varianza aleatoria de f x n y e
dy cuando (sea) dH y n y n 1 dy
1 y , n 1 y g x ye yx
Una varianza es ahora obtenida desde una función de densidad cuya su función de distribución acumulativa es H (y). Una vez que y es seleccionada, esta determina una particular g(x) = ye-yx. La varianza deseada de f(x) es entonces una varianza simplemente generada de
g(x) = ye-yx. Para
continuar con las siguientes instrucciones, genera dos varianzas uniformes R1 y R2, y cuando:
s1 R1
1n
X s11 log R2 Entonces x es la varianza deseada de:
f x n y n e yx dy 1
Esta técnica es apropiada cuando se desea generar distribuciones de tipo más alto usando distribuciones La dificultad recae en identificar la H (y) y g(xy) la cual se necesita para producir una f(x) dada dentro de la relación.
f x g x y dH y
Afortunadamente, las estadísticas matemáticas nos han provisto de varias relaciones funcionales llamadas
“convoluciones”
que pueden ser usadas en la generación de ciertas desviaciones
aleatorias.
12
3.5. Procedimientos especiales
Existen algunas distribuciones como la distribución erlang, la distribución normal, etc., cuya simulación a través del método de la transformada inversa sería demasiado complicado. Para estas y algunas otras distribuciones, es posible utilizar algunas de sus propiedades para facilitar y agilizar el proceso de generación de números al azar.
La Distribución De Poisson
Si los intervalos de eventos similares están distribuidos exponencialmente, el número de eventos ocurridos en un intervalo unitario de tiempo, tiene la distribución de Poisson. Las
aplicaciones
de
las
variables
aleatorias de Poisson incluyen tantas áreas tales como control de los inventario, teoría de colas, control de calidad, flujo de tráfico y muchas otras áreas ciencias administrativas. La función de densidad de probabilidad para la distribución de Poisson está dada por:
f x
x
e
X !
x 0,1,2,,
Donde es el número esperado de sucesos por unidad de tiempo. Esto implica que el ti empo entre eventos está distribuido exponencialmente con media de
1
Podemos utilizar esta relación entre la distribución Poisson y la exponencial para generar desviaciones de la distribución de Poisson. Una desviación x de Poisson puede ser definida de la siguiente manera: x 1
x
y i 1
i
1 yi i 1
13
Donde y1, y2,....,y x+1 son desviaciones aleatorias de una distribución exponencial teniendo como media 1/ y son generadas por (la técnica de transformada inversa)
yi 1 ln Ri Donde Ri está dada por la distribución uniforme. En conclusión, las sumas acumulativas son generadas hasta que se obtiene la desigualdad. Cuando esto ocurre, x es la desviación aleatoria de Poisson deseada. Otra forma de este mismo procedimiento es definir l a desviación x de Poisson cuando: x 1
x
y i 1
i
y i i 1
Donde yi es otra vez las desviaciones de la distribución exponencial pero con media 1/, esto es:
yi
ln Ri
Las 2 técnicas son esencialmente las mismas, pero la primera parece ser más apropiada con la definición de la distribución exponencial donde las yi’s tiene una media de 1 .
Ejemplo.
Sabemos que por la teoría de la probabilidad que si el número de eventos se puede describir a través del flujo de Poisson, el tiempo entre la ocurrencia de eventos debe ser exponencial. En la distribución de Poisson el resultado se expresa como el número de eventos n que ocurren en un determinado tiempo t. Por lo tanto para muestrear la distribución exponencial con media
1
tantas
veces como sea necesario hasta que la suma de las variables aleatorias generadas exceda a t por vez primera. En este caso, el valor de Poisson muestreado n se toma igual al número de veces que se muestreo la distribución exponencial -1. Supóngase que se desea muestrear una distribución de Poisson hrs.
14
3 durante un periodo de 1.4
x
f x t i
1
e
X = 0, 1, 2,…, α
x!
λ= 3 eventos por hora.
ln r i
n
1
2
3
4
5
rn
0.058962
0.673284
0.479909
0.948578
0.61396
tn
0.9436
0.1318
0.2447
0.1075
0.1624
0.9436
1.0754
1.3201
1.3376
1.5002
n
t
i
i 1
t = 1.4 n 1
n
t i
t
i 1
t i i 1
X = Variable aleatoria de Poisson X = 4 número de eventos que llegan en 1.4 hrs.
Distribución Erlang
La distribución Erlang es una forma de la distribución gamma con K igual a un entero positivo. Estadísticos Matemáticos han probado que esta distribución es solo la suma de las variables exponenciales de K, cada una con un valor esperado 1/k. Para generar una desviación necesitamos
la
suma
de
Erlang, nosotros solo las
desviaciones
exponenciales K, cada una con el valor esperado 1/k. De esta manera la varianza x de Erlang es esperada como:
15
X
k
y i 1
k
ln Ri 1
i
i 1
Donde yi es una desviación exponencial generada por la técnica de la transformada inversa R i es un número aleatorio de la distribución uniforme.
Distribución Binomial
Una variable aleatoria x definida como el número de eventos exitosos en una secuencia de n tiradas o intentos independientes de Bernoulli, cada una con probabilidad de éxito p, es conocida como una variable aleatoria binomial. La distribución binomial es una de las más importantes en las distribuciones estadísticas usadas en un área de ejemplificación y control de calidad. La función de densidad de probabilidad binomial está dada por:
n f x p x q n x x
x
0, 1, , n
Donde p = probabilidad de éxito por tirada q = 1-p n = número de tiradas x = número de éxitos, en entero
Para generar una desviación binomial con parámetros p y n el procedimiento es el siguiente: 1. Generar n desviaciones aleatorias uniformes 2. Contar el número de varianzas uniformes menor o igual a p
16
3. El número encontrado en el paso 2 es igual al valor de la varianza binomial
Este procedimiento puede entonces ser repetido tantas veces como sea necesario para generar otras desviaciones binomiales. Otro procedimiento involucrado que usa la distribución normal como una aproximación a la binomial para casos donde n
20 y np 10. Desde que la varianza binomial es un entero, la
varianza normal usada como una aproximación debe ser redondeada al valor entero más cercano. Este método es más rápido pero es solo una aproximación.
3.6. Pruebas estadísticas. (Pruebas de bondad de ajuste)
En la construcción del modelo de simulación es importante decidir si un conjunto de datos se ajusta apropiadamente a una distribución específica de probabilidad. Al probar la bondad del ajuste de un conjunto de datos, se comparan las frecuencias observadas FO realmente en cada categoría o intervalo de clase con las frecuencias esperadas teóricamente FE.
Estadística no paramétrica.
Es una rama de la estadística las pruebas y modelos estadísticos cuya distribución subyacente no se ajuste a los llamados criterios paramétricos. Las pruebas paramétricas no asumen ningún parámetro de distribución de las variables muéstrales. Las pruebas paramétricas asumen los parámetros de las variable (media y varianza) y un tipo de distribución normal.
17
Prueba Fisher.
Es la prueba estadística de elección cuando la prueba de Chi-cuadrada no puede ser empleada por tamaño muestral insufiente.
Prueba de chi-cuadrada
Se basa en la hipótesis nula (Ho) de que no hay diferencias significativas entre la distribución muestral y la teoría. Mientras que la hipótesis alternativa (H1), siempre se enuncia como que los datos no siguen la distribución supuesta.
Estadístico de prueba
Está definido como la sumatoria de los residuos expresados en términos de las frecuencias esperadas para cada una de las clases. Interpretación. Cuanto mayor sea el valor de, menos verosímil es que la hipótesis Ho sea correcto. Si = 0. La frecuencia teórica y observada concuerda exactamente. Si > 0. Mientras mayor es la diferencia mayor es la discrepancia. En la práctica: si Ho = 0 no existe diferencia significativa es la distribución de la frecuencia observada y la distribución teórica específicamente los mismos parámetros.
18
Conclusión
Una variable puede tomar una variable cualquiera durante un proceso dado. Las variables aleatorias son funciones que asocian a cada elemento del espacio muestral [conjunto de los diferentes resultados de un experimento estadístico] un número real, se clasifican en: Variable aleatoria discreta, proporciona datos cuantitativos discretos, es el resultado de un proceso de conteo (ejemplo el número de soles de n lanzamientos de una moneda) y Variable aleatoria continúa, se encuentra dentro de un intervalo comprendido entre 2 números x(estatura de un alumno de un grupo escolar).La distribución de probabilidad, describe el comportamiento de fenómenos estadísticos es decir, es un listado de las probabilidades de todos los resultados posibles que podrían presentarse si se efectúa un experimento. En la distribución discreta, las variables asumen un número limitado de valores, por ejemplo el número de años de estudio y en la distribución continua, las variables en estudio pueden asumir cualquier valor dentro de determinados límites, por ejemplo la estatura de un estudiante. Son las probabilidades que se asocian a cada uno de los valores que toma la variable aleatoria x. La distribución de probabilidad para una variable aleatoria discreta, son las relaciones de los resultados y sus probabilidades de las frecuencias observadas. Un ejemplo seria la probabilidad de que al lanzar un dado n número de veces caiga cara2 o que al lanzar una moneda 2 veces caiga sol las 2 tiradas. Existen varios modelos matemáticos que representan diversos fenómenos discretos de la vida real. Las más útiles son:
La distribución uniforme discreta. La distribución de probabilidad Binomial o de Bernoulli. La distribución de probabilidad de Poisson.
19
Referencias García Dunna E.; García Reyes, H. y Cárdenas Barrón, L. E. 2006. Simulación y Análisis de Sistemas con ProModel, México, D. F.: Pearson Educación. García Mora, F.; Sierra Acosta, J. y Guzmán Ibarra, V. 2005. Simulación de Sistemas para Administración e Ingeniería, México, D. F.: CECSA. Kreyszig, Erwin. 1978. Introducción a la Estadística Matemática, México, D. F.: Editorial Limusa.
20