DISTRIBUCIÓN GEOMÉTRICA La distribución geométrica es un modelo adecuado para aquellos procesos en los que se repiten pruebas hasta la consecución del éxito a resultado deseado y tiene interesantes aplicaciones en los muestreos realizados de esta manera. También implica la existencia de una dicotomía de posibles resultados y la independencia de las pruebas entre sí. En teoría de probabilidad y estadística, la distribución geométrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes:
la distribución de probabilidad del número X del ensayo de Bernoulli necesaria para obtener un éxito, contenido en el conjunto { 1, 2, 3,...} o la distribución de probabilidad del número Y = X − 1 de fallos antes del primer éxito, contenido en el conjunto {0, 1, 2, 3,...}.
Cuál de éstas es la que uno llama "la" distribución geométrica, es una cuestión de convención y conveniencia.
Propiedades Si la probabilidad de éxito en cada ensayo es p , entonces la probabilidad de que x ensayos sean necesarios para obtener un éxito es
Parax = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya x fallos antes del primer éxito es
Parax = 0, 1, 2, 3,.... En ambos casos, la secuencia de probabilidades es una progresión geométrica. El valor esperado de una variable aleatoria X distribuida geométricamente es
Y dado que Y = X-1,
En ambos casos, la varianza es
Las funciones generatrices de probabilidad de X y la de Y son, respectivamente,
Como su análoga continua, la distribución exponencial, la distribución geométrica carece de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de probabilidad condicional del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos. La distribución geométrica es de hecho la única distribución discreta sin memoria. De todas estas distribuciones de probabilidad contenidas en {1, 2, 3,... } con un valor esperado dado μ, la distribución geométrica X con parámetro p = 1/μ es la de mayor entropía. La distribución geométrica del número y de fallos antes del primer éxito es infinitamente divisible, esto es, para cualquier entero positivo n , existen variables aleatorias independientes Y 1,..., Y n n distribuidas idénticamente la suma de las cuales tiene la misma distribución que tiene Y . Estas no serán geométricamente distribuidas a menos que n = 1.
Distribuciones relacionadas La distribución geométrica es un caso especial de la distribución binomial negativa con parámetro k = 1. Más generalmente, si Y 1,...,Y k k son variables independientes distribuidas geométricamente con parámetro p , entonces distribución binomial negativa con parámetros k y p .
sigue a una
Si Y 1,...,Y r r son variables independientes distribuidas geométricamente (con diferentes parámetros de éxito p m m posibles), entonces su mínimo también geométricamente distribuido, con parámetro
es
Proceso experimental del que se puede hacer derivar Esta distribución se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que tengamos las siguientes características
El proceso consta de un número no definido de pruebas o experimentos separados o separables. El proceso concluirá cuando se obtenga por primera vez el resultado deseado (éxito). Cada prueba puede dar dos resultados mutuamente excluyentes: A y no A La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1). Las probabilidades p y q son constantes en todas las pruebas, por tanto, las pruebas, son independientes (si se trata de un proceso de "extracción" éste se llevará a, cabo con devolución del individuo extraído).
(Derivación de la distribución). Si en estas circunstancias aleatorizamos de forma que tomemos como variable aleatoria X = el número de pruebas necesarias para obtener por primera vez un éxito o resultado A, esta variable se distribuirá con una distribución geométrica de parámetro p.
Obtención de la función de cuantía De lo dicho anteriormente, tendremos que la variable X es el número de pruebas necesarias para la consecución del primer éxito. De esta forma la variables
La función de cuantía P(x) hará corresponder a cada valor de X la probabilidad de obtener el primer éxito precisamente en la X-sima prueba. Esto es , P(X) será la probabilidad del suceso obtener X-1 resultados "no A" y un éxito o resultado A en
la prueba número X teniendo en cuenta que todas las pruebas son independientes y que conocemos sus probabilidades tendremos:
Dado que se trata de sucesos independientes y conocemos las probabilidades
Luego la función de cuantía quedaría Algunos autores consideran la aleatorización como "número de pruebas anteriores al primer éxito". De esta manera el conseguir el éxito a la primera sería X=0. En la siguiente representación gráfica de la función de cuantía de la geométrica puede apreciarse este tipo de aleatorización, sin embargo nosotros preferimos, por razones prácticas, utilizar la aleatorización antes comentada Función de distribución En base a la función de cuantía se puede expresar la función de distribución de la siguiente manera. Desarrollando la expresión tendríamos
De donde La Función Generatriz de Momentos (F.G.M.) quedaría:
por lo que queda establecida que la F.G.M. tiene la expresión En base a la FGM podemos obtener la media y varianza:
Así
Haciendo t =0 tendríamos que La varianza sería
Haciendo t =0 tendríamos que
De esta manera
Luego La moda es el valor de la variable que tiene asociada mayor probabilidad el valor de su función de cuantía es el mayor. Es fácil comprobar (véase simplemente la representación gráfica anterior) que la distribución geométrica es siempre 1.
.Por lo tanto la media de
En cuanto a la mediana Meserá aquel valor de la variable en el cual la función de distribución toma el valor 0,5. Así
Por lo que
DISTRIBUCIÓN MULTINOMIAL La distribución multinomial es una generalización de la distribución binomial. En este caso, en un experimento interesa estudiar no la ocurrencia de un único suceso o la de su contrario, sino la de varios sucesos (tres o más). La distribución multinomial, M(n, p1,…, pn) proporciona
probabilidades de obtener, en m repeticiones independientes de un experimento, x1 veces el suceso A1, x2 veces el suceso A2,…, xn veces el suceso An, donde dichos sucesos forman una
partición del espacio muestral, es decir, tal que para y donde, por tanto, se cumple.
La distribución binomial es la probabilidad de un número de éxitos en N sucesos de Bernoulli independientes, con la misma probabilidad de éxito en cada suceso. En una distribución multinomial, el análogo a la distribución de Bernoulli es la distribución categórica, donde cada suceso concluye en únicamente un resultado de un numero finito K de los posibles, con probabilidades (tal que para i entre 1 y K y
); y con n sucesos independientes. Entonce Entoncess sea la varia variable ble aleato aleatoria ria
, que indica indica el el número número de veces veces que que el se ha dado dado el
resultado i sobre los n sucesos. El vector multinomial con parámetros n y p, donde
sigue una distribución .
DISTRIBUCIÓN DISTRIBUCIÓN DE POISSON En teoría de probabilidad y estadística, la distribución de Poisson es una probabilidad discreta que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad que ocurra un determinado número de eventos durante cierto periodo de tiempo. Fue descubierta por Simeón-Denis Poisson, que la dio a conocer en 1838 en su trabajo Re cherches sur la probabilité des jugements en matièrescriminelles et matière civile ( Investigación Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
Propiedades La función de masa de la distribución de Poisson es
Donde
o currencias del evento o fenómeno (la función nos da la probabilidad de k es el número de ocurrencias que el evento suceda precisamente k veces). λ es un parámetro positivo que representa e l número de veces que se espera que ocurra el
fenómeno durante un intervalo dado. Por ejemplo, si el suceso estudiado tiene lugar en promedio 4 veces por minuto y estamos interesados en la probabilidad de que ocurra k veces dentro de un intervalo de 10 minutos, usaremos un modelo de distribución de Poisson con λ = 10×4 = 40.
e
es la base de los logaritmos naturales (e = 2,71828 ...)
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el nésimo momento iguala al número de particiones de tamaño n. La moda de una variable aleatoria de distribución de Poisson con un λ no entero es igual a , el mayor de los enteros menores que λ (los símbolos representan la función parte entera) entera). Cuando λ es un entero positivo, las modas son λ y λ − 1. La función generadora de momentos de la distribución de Poisson con valor esperado λ es
Las variables aleatorias de Poisson tienen la propiedad de ser infinitamente divisibles. La divergencia Kullback-Leibler desde una variable aleatoria de Poisson de parámetro λ0 a otra de parámetro λ es
Intervalo de confianza Un criterio criterio fácil y rápido para calcular un intervalo de confianza aproximada de λ, se 1 propone en Guerriero (2012) (2012 ) . Dada una serie de eventos k (al menos el 15 - 20) en un periodo de tiempo T, los límites del intervalo de confianza para la frecuencia vienen dadas por:
entonces los límites del parámetro están dadas por :
.
Relación con otras distribuciones Sumas de variables aleatorias de Poisson
La suma de variables aleatorias de Poisson independientes es otra variable aleatoria de Poisson cuyo parámetro es la suma de los parámetros de las originales. Dicho de otra manera, si
son N variables aleatorias de Poisson independientes, entonces
Distribución binomial
La distribución de Poisson es el caso límite de la distribución binomial. De hecho, si los parámetros n y de una distribución binomial tienden a infinito y a cero de manera manera que se mantenga constante, la distribución límite obtenida es de Poisson. Aproximación Aproxima ción normal normal
Como consecuencia del teorema central del límite, para valores grandes de , una variable aleatoria de Poisson X puede aproximarse por otra normal dado que el cociente
Converge a una distribución normal de media nula y varianza 1 Distribución exponencial
Supóngase que para cada valor t > 0, que representa el tiempo, el número de sucesos de cierto fenómeno aleatorio sigue una distribución de Poisson de parámetro λt. Entonces, los tiempos discurridos entre dos sucesos sucesivos sigue la distribución exponencial.
Ejemplos Si el 2% de los libros encuadernados en cierto taller tiene encuadernación defectuosa, para obtener la probabilidad de que 5 de 400 libros encuadernados en este taller tengan encuadernaciones defectuosas usamos la distribución de Poisson. En este caso concreto, k es 5 y , λ, el valor esperado de libros defectuosos es el 2% de 400, es decir, 8. Por lo tanto, la probabilidad buscada es
Este problema también podría resolverse recurriendo a una distribución binomial de parámetros k = 5, n = 400 y =0,02.
Distribución De Poisson
El eje horizontal es el índice k . La función solamente está definida en valores enteros de k . Las líneas que conectan los puntos son solo guías para
el
ojo
y
no
indican
continuidad.
Función de probabilidad probabilidad
El
eje
horizontal
Función de distribución distribución de probabilidad
es
el
índice
k .
Parámetros Dominio Función
de
probabilidad (fp) Función
de
distribución (cdf)
Media Mediana Moda Varianza Coeficiente de simetría Curtosis Entropía
Función generadora de momentos (mgf) Función
(dónde Función gamma incompleta)
es
la
característica