(SEGUNDO PARCIAL) DISTRIBUCIONES DE PROBABILIDADES UNIDIMENSIONALES -DISTRIBUCIONES DISCRETAS
Ensayos Bernoulli (Jaques Bernoulli) Éxito Fracaso 1 0 p+q= 1 P 1-P F(x)= Px (1-P)1-x 0
x= 0,1 p.c.o.v.
usando la función indicadora px (1-p)1-x I{0,1}(x)
Donde 0 < p < 1 y 1-p se puede denotar como q E(x)= p
Var. (x)= pq
-DISTRIBUCIÓN BINOMIAL
Se usa en inspección de calidad, mercadotecnia, medicina, etc. Es una sucesión de ensayos Bernoulli donde la probabilidad probabilidad de éxitos es p. P(e) = p
P(f) = 1-p = q
X representa el numero de éxitos en n ensayos, en esta se debe de obtener exactamente: X=x. Las suposiciones para esta distribución son: 1) La probabilidad de éxito (P) permanece constante para cada ensayo. 2) Los n ensayos son independientes entre si. La función de probabilidad se obtiene cuando hay x éxitos seguidos de n-x fracasos. Px (1-P)n-x multiplicando por el número de ordenes distintas, tenemos: b(x; n, p)=
n x
Px (1-P)1-x
0 E(x) = np
x=0,1,2,…,n p.c.o.v.
Var.(x)= npq
*Para esta función de probabilidad es necesario tener el numero de ensayos (n) así como la probabilidad del éxito (p) y lo que se busca es la probabilidad de éxitos (x) en n ensayos. -DISTRIBUCION ACUMULADA
F(X < x) = b(0; n, p) + b(1; n, p) + … + b(x; n, p) F(x1 < X < x2) = F(X < x 2) - F(X < x 1-1). F(X > x2) = 1 - F(X < x 2-1) -DISTRIBUCIÓN BINOMIAL NEGATIVA
Es la probabilidad de tener k éxitos en n ensayos con el último siendo un éxito. Esta distribución también es conocida como distribución de pascal. n-1 k-1
pk qn-k
p(n; k, p)
*En este caso, lo que se es necesario es el número de éxitos (k), su probabilidad (p), y lo que se busca es la probabilidad de k éxitos en n ensayos. k+x-1 k-1
p(x; k, p)=
Pk (1-P)x
x=0,1,2,… k=1,2,…
0
p.c.o.v.
-DISTRIBUCIÓN GEOMÉTRICA
Cuando k=1 surge un caso especial llamado distribución geométrica, esto es: p(x; p) = p (1-p)x-1 x= 1,2,3,…
(incluido el éxito)
La variable aleatoria geométrica representa el número de intentos en el cual se presenta el primer éxito. -Se usa como modelo para la distribución de la longitud de tiempo de espera. Var.(x) = (1-p)/ p2
E(x) = 1/p
-DISTRIBUCIÓN HIPERGEOMÉTRICA HIPERGEOMÉTRICA
N = objetos o personas K Pertenecientes A una clase
N-K pertenecen a otra clase
n x Valor que nos Interesa
n-x
Sea N el número total de objetos, de manera tal que k de estos es de un tipo y N-k de otro, si seleccionamos una muestra aleatoria de la población constituida de n objetos de la probabilidad de que x sea de un tipo exactamente y n-x sea del otro esta dada por la función de probabilidad Hipergeométrica P(x; N, n, K) =
K x
n-K n-x
x=0,1,2,3,…,n n - x < n-K N, n, K enteros positivos
N n 0
p.c.o.v.
* Sus parámetros son N, n, k. Una condición fundamental es que sea sin reemplazo. E(x) = nK = np N
Var.(x) = nK(N-K) N2
N-n N-1
Si el tamaño de la muestra n es relativamente pequeño, con respecto a N, X tendrá a aproximadamente una distribución Binomial y cuando n es relativamente grande usamos la Hipergeométrica, las n pruebas ya no son mutuamente independientes ya que las muestras son sin reemplazo, la aparición de un éxito o un fracaso dependen de cuales hayan sido los resultados de las pruebas anteriores. Aplicaciones: -Se usa en control de calidad y aceptación de muestreo.
-DISTRIBUCIÓN HIPERGEOMÉTRICA MULTIVARIADA
Si N resultados se pueden dividir en k celdas: A1,A2,A3,…,Ak con a1,a2,a3,…,ak elementos respectivamente entonces la distribución de probabilidad de las variables aleatoria x1,x2,x3,…,xk que representan al número de elementos seleccionados de una muestra aleatoria de tamaño n es: F(x1,x2,x3,…,xk ; a1,a2,a3,…,ak , N, n) =
a1 x1
a2 x2
a3 x3
… …
ak xk
N n -DISTRIBUCIÓN POISSON (Ocurrencias en promedio por unidad de medida)
Sea x una variable aleatoria que representa el número de eventos aleatorios independientes que ocurren a una rapidez constante sobre el tiempo o el espacio y su función de probabilidad es: ã- l x
P(x;
)=
Su parámetro es espacio).
x!
tomando x=0, 1,2,…
0
p.c.o.v.
(número promedio de ocurrencias del evento aleatoria por unidad de tiempo o
Aplicaciones: -En análisis de problemas de líneas de espera (colas), control y aseguramiento de calidad, en muestreo. Teorema: Sea x una variable aleatoria distribuida binomialmente con parámetros p con base en n repeticiones del experimento, esto es: P(X=k)=
n k
pk (1-p)n-k
Supóngase que cuando n tiende a
, np=
(constante), p tiende a cero tal que:
ã- l x
np -->
esto es:
lim p(X=k) =
n ->
x!
Esto nos dice que podemos aproximar las probabilidades de la Distribución Poisson siempre que n sea grande y p pequeño. E(x)=
Var.(x)=
-DISTRIBUCIÓN MULTINOMIAL
Si un intento determinado puede ocurrir en cualquiera cualquiera de los k resultados Ei con sus probabilidades pi, entonces la distribución de probabilidad de las variables aleatorias xi que representan el número de ocurrencias en n intentos, es: F(X1,X2,…,Xk; P1,P2,…,Pk, n) =
n X1, X2, X3,…,Xk
P1x1 P2x2 … Pk Xk
*Ei = Las particiones
X1 = Cuantas veces las particiones
n= número total de las particiones
P1 = Probabilidad de que pase alguna partición
DISTRIBUCIONES DE PROBABILIDADES CONTINUAS La probabilidad de una variable aleatoria continua esta representada por el área bajo la curva que representa su función de densidad, entre los límites del intervalo y satisface las siguientes condiciones: a) F(X) > para todo x b) F x âx =1 -¥
c) Para cualquier a,b tenemos: b
p(a < x < b)=
F x âx
a
(probabilidad acumulada)
Experimentos que nos generan espacios muestrales infinitos: - Duración de la vida - Índices de natalidad - Medidas de tiempo - Peso - Estatura - Índices de mortalidad -DISTRIBUCIÓN NORMAL
Se deduce por De Moivre (1783), fue analizada y aplicada a los errores de observación por Gauss, por eso se le conoce como campana de Gauss. Se dice que una variable aleatoria x se encuentra distribuida si su función de densidad esta dad por 1
f x; m, s =
2p s
- 1 2
ã
x- m 2
s
-Forma Canónica 1 2p
2 -z
ã
2
Distribución Distribución estandarizada estandarizada
x – N (0,1) con parámetro
=0
Propiedades: 1.- La moda está sobre el eje horizontal donde la curva tiene su máximo ocurre en x= . 2.- La curva es simétrica alrededor de . 3.- La curva tiene sus puntos de inflexión en x= + . 4.-La curva se acerca al eje horizontal en forma asíntota. 5.- El área total de la curva es 1 y el achatamiento de la curva se determina por sigma cuadrada.
-DISTRIBUCIÓN ACUMULADA
=1
1
p X £ x = F x; m, s =
x
2p s z=
t- m
dz= dz=
s 1
p z £
s
2
âx
-¥
t =m+sz =m+sz dt = sdz
dt
J N !!!à s
x-m 2
- 1
ã
t- m s
t-m
1
=
s
2p
2 - z
ã
2
âz
-¥
-ÁREA BAJO LA CURVA NORMAL p x1 £ X £ x2 =
x- m 2
x2 - 1 ã 2 x1
1 2p s
s
âx
P(x1 < X < x2) para diferentes curvas. -FUNCION GAMMA p- 1
G p =
x
ã- x âx
0
G n = n- 1 ! Para evaluar integrales en donde el integrando es un producto de una potencia por un exponencial negativo sobre la recta de los reales positivos, para este caso es mejor emplear la función gamma. Propiedades: ¥
H L H L ! ! H L H LHL
G p =
x p- 1 ã- x âx
0
G n +1 = n !
G n +1 = nG n G 1 2 =
p
G n = n - 1 ! si n e Z+
-DISTRIBUCIÓN BETA F x; a, b =
G a +b G a G b
a- 1
x
1- x
0 m=
a a +b
b- 1
a, b > 0
p.c.o.v. s2 =
ab a+b
2
a+b+1
Se usa para representar variables físicas cuyos valores se encuentran registrados en un intervalo de longitud finita, se utiliza también como un modelo para atracciones, tal como proporciones de impureza en un producto químico, o la fracción de tiempo que una máquina esta en reparación.
-DISTRIBUCIÓN ACUMULADA
G a +b G a G b
p X £ x = F x; a, b =
¥
ta- 1 1 - t
b- 1
ât
0
1 G a +b G a G b
¥
ta- 1 1 - t
b- 1
x>1
ât = 1
0
-DISTRIBUCIÓN GAMMA
Sea x una variable aleatoria continua que toma solo valores no negativos y tiene una distribución gamma con parámetros alfa y beta mayores que cero entonces: - x b
1
F x; a, b =
xa- 1 ã
G a ba
a, b > 0 x >0
0
p.c.o.v.
s 2 = ab2
E x = ab
Aplicaciones: -Para representar el tiempo aleatorio de falla de un sistema que ocurre cuando de manera exacta las componentes fallan. -Ingresos familiares, edad del hombre al contraer matrimonio. *Nota: Para valores grandes de Z=
podemos aproximar a una distribución normal.
x - ab ab2
-DISTRIBUCIÓN ACUMULADA p X £ x = F x; a, b =
1
t a- 1 - b t ã
X
G a ba
ât
0
-DISTRIBUCIÓN EXPONENCIAL (Caso especial de la distribución gamma cuando alfa = 1) 1
f x; q =
E x =q
q
- x q
ã
q >0
0
p.c.o.v.
Var. Var. x = q2
Aplicaciones: -Para modelos de duración de componentes electrónicos, se usa en teoría de colas. En teoría de confiabilidad. -DISTRIBUCIÓN UNIFORME f x; a, b =
1 b - a
a
0
p.c.o.v.
*Parámetros: a y b. m=
a + b
s2 =
2
b- a
2
12
-DISTRIBUCIÓN ACUMULADA F x; a, b =
para x < a
0 x- a
a
b - a
x > b
1
Para un intervalo [a1, b1] tenemos: P(a1 < x < b1)= b1-a1 b-a
(TERCER PARCIAL) DISTRIBUCIÓN CONJUNTA DE PROBABILIDAD CASO DISCRETO
Sean X y Y dos variables discretas, la probabilidad de que X=x y Y=y esta determinada por la función de probabilidad bivariada: p(x, y) = p (X=x, Y=y) los resultados de X y Y ocurren al mismo tiempo. tiempo. La función f(x, y) es una distribución de probabilidad conjunta de las variables aleatorias X y Y si: 1) f(x, y)
0
2
(x,y)
f x, y X
=1
Y
3) p(x=x, Y=y)= f(x ,y) para cualquier región A en el plano xy P[(x, y) A]= f(x,y) Cuando se requiere medir mas de una característica en algún fenómeno aleatorio se requiere hacer uso de modelos multivariados. DISTRIBUCION DE PROBABILIDAD MULTIVARIADA
Lleva las tres propiedades anteriores. F(x, y) = P (X < x, Y < y) =
p(Xi, Yi)
CASO CONTINUO
Sea X y Y dos variables aleatorias continúas si existe una función f(x, y) tal que la probabilidad conjunta este dada por:
1 p a £ x £ b, c £ y £ £ £ d =
b a
d
f x, y âx â y para cualquier valora or a, b, c,
c
d en donde f x, y ³ 0 - ¥ £ x < y £ ¥
f x, y âx â y =1
2 -¥ -¥
3) f(x,y) es la función de densidad de probabilidad bivariada de X y Y 4 P
x, y Î A =
f x, y â x â y para cualquier región de A en el plano xy A
FUNCIÓN DE DISTRIBUCIÓN BIVARIADA ACUMULADA DE X Y Y
Es la probabilidad conjunta X < x y Y< y dada por: p X £ x, Y £ y = F x, y =
x
y
-¥ -¥
f u, v â v â v â u
sique si queremoscon os conoce ocer f x, y y tenemo nemos F x, y entonc entoncesten es tendremosque mos quehac hacer erlas lasder deriv ivada adas s parcia parciales deX yY.
Dada la distribución acumulada podemos calcular: p(a x b, c y d)= [f(b)-f(a)][f(d)-f(c)]
DISTRIBUCIONES MARGINALES DE PROBABILIDAD CASO DISCRETO
Sean X y Y variables aleatorias discretas con función de probabilidad de densidad conjunta p(x, y). Las funciones marginales de probabilidad de X y Y están dadas por: Fx(x)=gx(x)=Px(x)=
p(x,y) y
Fy(y)=hy(y)=Py(y)=
p(x,y)
x CASO CONTINUO
Sean X y Y variables aleatorias continuas con una función de densidad de probabilidad conjunta f(x, y). Las funciones de densidad de probabilidad marginales están dadas por: fx x =
f x, y â y
H LàH
fy y =
-¥
¥
f x, y âx
-¥
DISTRIBUCIONES DISTRIBUCIONES ACUMULATIVAS MARGINALES DE X Y Y
Se obtienen de la siguiente forma:
H LH HLH Là H L ààH L x
p X £ x = Fx x =
f t, y â y ât
-¥ x
=
-¥
p Y £ y = Fy y =
-¥
fx t ât = F x, ¥
y
¥
-¥
-¥
y
=
-¥
f x, t â x ât
fy t ât = F ¥ , y
Distribución acumulada de X y Y x
p X £ x, Y £ y = F x, y =
y
f u, v â v â u
-¥ -¥
Para variables aleatorias X1,X2,…,Xn tenemos f(X1,X2,…,Xn) entonces la distribución marginal esta dada por: CASO DISCRETO fX1 =g X1 =
... X2 X3
f X1, X2, ..., Xn
para valores del intervalo de X1
Xn
Ahora la distribución marginal de X1, X2 y X3 esta dad por: m X1, X2, X3 =
... X4 X5
f X1, X2, ..., Xn Xn
CASO CONTINUO
Si tenemos X1,X2,…,Xn variables aleatorias continuas con función de densidad f(X1,X2,…,Xn) su densidad de probabilidad conjunta, su densidad marginal de X2 esta dad por:
HL
h X2 =
j X1, Xn =
-¥ ¥
H L
f X1, X2, ..., Xn â X1 âX3.. X3 ... . âXn
...
-¥ -¥ ¥
...
-¥ -¥
¥ -¥
f X1, X2, ..., Xn â X2 âX3.. X3 ... . âXn - 1
- ¥ £ X1 £ Xn £ ¥ DISTRIBUCIONES DISTRIBUCIONES CONDICIONALES
Si f(x, y) es el valor de la distribución de probabilidad conjunta en las variables aleatorias discretas X y Y en todos (x,y) y h(y) es el valor de la distribución marginal de Y en y, la función dada por: f x
y
=
f x, y h y
h y ¹ 0
Para X dentro del intervalo X se llama la distribución condicional de x dado Y=y. De igual manera se g(x) es la distribución marginal de X en x la función dada por:
w y
x
=
f x, y g x
g x ¹ 0
Para y dentro del intervalo de Y se llama distribución condicional de Y dado X=x. VARIABLES ALEATORIAS ESTADÍSTICAMENTE INDEPENDIENTES
Sea X y Y dos variables aleatorias con distribución conjunta. Se dice que X y Y son estadísticamente independientes si y solo si: P(x, y) = Px(x) Py(y) F(x, y) = f x(x) f y(y)
si X y Y son discretas si X y Y son continuas
En general: F(X1,X2,…,Xn) =
f i(Xi) para todo (X1,X2,…,Xn)
MOMENTOS Sea X una variable aleatoria. El r-esimo momento de x alrededor de cero se define como:
m'r = E xr =
xr p x
si x es discreta
r x f x âx
=
si x es es co continua
Momento alrededor de cero no. 1=La media o valor esperado. 2=Como se dispersa alrededor de . 3=Si hay simetría o no (si hay un sesgo a la derecha o a . la izquierda). 4=Que tan aplanada o puntiaguda esta la grafica. Sea X una variables aleatoria, el r-esimo momento central de X o el r-esimo momento de la media de X se define por:
mr = E x - m r = =
r x - m p x r
x - m f x âx
si x es discreta si x es es co continua
COEFICIENTE DE ASIMETRÍA
a3 =
m3 3 m2 2
a3 > 0
asim asimet etrí ría a posi positi tiva va
a3 > 0
asim asimet etrí ría a nega negati tiv va
a3 = 0
simétrica
COEFICIENTE DE CURTOSIS
a4 =
m4 m22
a4 > 0
platicurtica si sin que se note mucho la curva
a4 > 0
letocurtica puntiaguda
a4 = 0
mesocrotica camp campan ana a dega de gaus uss s
H