UNIVERSIDAD SIMÓN BOLÍVAR CO3121 PROBABILIDADES PARA INGENIEROS FORMULARIO Formulario 1: Teoría de Conjuntos
Leyes Distributivas: ( A U B) I C = ( A I C ) U ( B I C )
y
( A I B) U C = ( A U C ) I ( B U C )
(1.1)
Ley de Complementos: ( A c ) c = A
(1.2)
Leyes de Morgan: ( A U B) c = Ac I B c
y
( A I B) c = A c U B c
(1.3)
Formulario 2: Propiedades de las Probabilidades y Métodos de Conteo
Axiomas de probabilidad: 1) 0 ≤ P ( A) ≤ 1 2) P ( S ) = 1 3) Si A1 , A2 , A3 L, es una secuencia de eventos mutuamente excluyentes de S , entonces : P ( A1 U A2 U A3 U L) = P ( A1 ) + P ( A2 ) + P ( A3 ) + L
(2.1)
Probabilidad del complemento: P ( Ac ) = 1 − P ( A)
(2.2)
Probabilidad de la unión de dos eventos cualesquiera: P ( A U B ) = P ( A) + P ( B ) − P ( A I B)
(2.3)
Probabilidad de la unión de tres eventos cualesquiera: P ( A U B U C ) = P ( A) + P ( B) + P (C ) − P ( A I B ) − P ( A I C ) − P ( B I C ) + P ( A I B I C )
(2.4)
Probabilidad de la intersección de un evento y un complemento cualesquiera: P ( B I Ac ) = P ( B ) − P ( A I B)
(2.5) 1
Formas (o maneras) de obtener r elementos tomados de un total de n: Sin restitución P r =
Ordenados
n
Con restitución
n!
n r
(n − r )!
(2.6) n + r − 1 (n + r − 1)! = r r !(n − 1)!
n n n! = = r n − r r !(n − r )!
No importa el orden
Resultados igualmente probables: P ( A) =
número de formas en que el evento A puede ocurrir número total de formas posibles
(2.7)
Formulario 3: Probabilidad Condicional, Teorema de Bayes e independencia
Probabilidad Condicional: P ( A | B ) =
P ( A I B)
(3.1)
P ( B )
Teorema de multiplicación de probabilidad: P ( A1 I A2 I L I An ) = P ( A1 ) P ( A2 | A1 ) P ( A3 | A1 , A2 ) L P ( An | A1 , K , An −1 )
(3.2)
Probabilidad Total. Sea B1 , B2 ,K , Bk una partición del espacio muestral S , entonces: P ( A) =
k
∑1 P ( A | B ) P ( B ) j
j
(3.3)
j =
Teorema de Bayes. Sea B1 , B2 , K , Bk una partición del espacio muestral S , entonces: P ( Bi | A) =
P ( A | Bi ) P ( Bi )
∑
k
P ( A | B j ) P ( B j ) j =1
(3.4)
Independencia. Dos eventos son independientes si y solo si: P ( A I B ) = P ( A) P ( B ), lo cual es equivalente a : P ( A | B) = P ( A)
(3.5)
2
Formulario 4: Distribución de una Variable Aleatoria Discreta
La función de distribución (acumulada) de probabilidad de la variable aleatoria X se define como: F ( x ) = P ( X ≤ x) ,
para toda x.
(4.1)
La función de (masa de) probabilidad de la variable aleatoria discreta X se define como: f ( x ) = P ( X = x) ,
para toda x.
(4.2)
k = 1, 2, …, n.
(4.3)
Distribución discreta Uniforme (n): P ( X = k ) =
1 n
,
Distribución Bernoulli ( p): P ( X = k ) = p k (1 − p )1− k ,
k = 0, 1;
0 ≤ p ≤ 1
(4.4)
Distribución Binomial (n, p): n k n k P ( X = k ) = p (1 − p ) − , k
k = 0, 1, 2, …, n;
0 ≤ p ≤ 1
(4.5)
Distribución Binomial Negativa ( r , p): k − 1 r p (1 − p)k − r , r − 1
P ( X = k ) =
k = r , r + 1, …;
0 ≤ p ≤ 1
(4.6)
Distribución Geométrica ( p): P ( X = k ) = p (1 − p ) k −1 ,
k = 1, 2, …;
0 ≤ p ≤ 1
(4.7)
Distribución Hipergeométrica ( N , r , n): r N − r − k n k , P ( X = k ) = N n
k = 0, 1, …, n;
k ≤ r .
(4.8)
0 ≤ λ < ∞
(4.9)
Distribución Poisson ( λ): P ( X = k ) =
e − λ λ k k !
,
k = 0, 1, 2, …;
3
Formulario 5: Distribución de Variables Aleatorias Continuas
Función de densidad de probabilidad de la variable aleatoria continua X : f ( x) =
d
F ( x) dx
(5.1)
Función de distribución (acumulada) de probabilidad de la variable aleatoria continua X : F ( x) = P ( X ≤ x) =
∫
x
−∞
f (t ) dt
(5.2)
Probabilidad de un intervalo de la variable aleatoria continua X : P ( a < X < b) = F (b) − F (a ) =
b
∫ f ( x)dx.
(5.3)
a
Densidad de la distribución Uniforme(a, b): f ( x) =
1 b−a
,
a ≤ x ≤ b.
(5.4)
Densidad de la distribución Exponencial(α): f ( x ) = α e−α x ,
0 ≤ x < ∞;
0 < α < ∞
(5.5)
Densidad de la distribución Normal( µ, σ² ): f ( x ) =
2 1 e − ( x − µ ) σ 2π
( 2σ 2 )
,
–∞ < x < ∞;
–∞ < µ < ∞;
σ > 0
(5.6)
0 < x < ∞;
α, β > 0
(5.7)
Densidad de la distribución Gamma(α, β ): f ( x) =
1 xα −1e − x / β , α Γ(α ) β
∞
Γ(α ) = ∫ e − y yα −1dy , 0
Densidad de la distribución Beta(α, β ): f ( x ) =
Γ(α + β ) α −1 x (1 − x) β −1 , Γ(α ) ⋅ Γ( β )
0 < x < 1;
α, β > 0
(5.8)
4
Formulario 6: Distribuciones Multivariadas. Distribuciones Marginales y Condicionales. Independencia
Función de probabilidad conjunta del vector aleatorio discreto ( X, Y ): f ( x, y ) = P ( X = x, Y = y )
(6.1)
Función de distribución (acumulada) conjunta de probabilidad del vector aleatorio discreto ( X, Y ):
∑∑ f ( s, t )
F ( x, y ) = P ( X ≤ x, Y ≤ y ) =
(6.2)
s ≤ x t ≤ y
Probabilidad de un evento “ A”, del vector aleatorio discreto ( X, Y ):
∑ f ( x, y)
P [( X , Y ) ∈ A] =
(6.3)
( x , y )∈ A
Función de distribución (acumulada) conjunta del vector aleatorio continuo ( X, Y ): F ( x, y ) = P ( X ≤ x, Y ≤ y ) =
y
x
∫ ∫
−∞ −∞
f ( s, t ) dsdt
(6.4)
Función de densidad de probabilidad conjunta de los vectores aleatorios continuos ( X , Y ) y ( X 1, X 2, … ,X n): ∂2 f ( x, y ) = F ( x, y ) , ∂ x∂ y
f ( x1 , x2 ,K, xn ) =
∂n ∂ x1∂ x2 L ∂ xn
F ( x1 , x2 ,K, xn )
(6.5)
Probabilidad de una región “ A” en el plano xy, del vector aleatorio continuo ( X, Y ): P [( X , Y ) ∈ A] =
∫∫ f ( x, y)dxdy
(6.6)
A
Funciones de Probabilidad Marginal de los vectores aleatorios discretos ( X, Y ) y ( X 1, X 2, … , X n): g x ( x ) =
∑ f ( x, y) ,
g ( x1 , x2 , x3 ) =
y
∑L∑ f ( x1, x2 ,K x ) n
x 4
(6.7)
xn
Densidades de Probabilidad Marginal de los vectores aleatorios continuos ( X, Y ) y ( X 1, X 2, … , X n): g x ( x ) =
∫
∞
−∞
g ( x1 , xn ) =
f ( x, y ) dy ,
∫
∞
−∞
L
∫
∞
−∞
f ( x1 , x2 ,K, xn ) dx2 dx3 L dxn−1
(6.8)
Probabilidades Condicionales de los vectores aleatorios ( X, Y ) y ( X 1, X 2, … , X n): f ( x | y ) =
f ( x, y ) g y ( y )
,
f ( x1 , x2 ,K, xk | xk +1 , xk + 2 ,K, xn ) =
f ( x1 , x2 ,K, xn ) g ( xk +1 , xk + 2 ,K, xn )
(6.9)
Las variables X y Y son independientes si: f ( x, y ) = f ( x) f ( y )
ó, de forma equivalente, si:
f ( x | y ) = g x ( x )
(6.10) 5
Formulario 7: Valor Esperado. Media. Varianza. Covarianza. Correlación. Esperanza Condicional.
Función Generadora de Momentos.
Valor Esperado de una función h( x) de la variable aleatoria X : ∑ h( x) f ( x) = ∑ h( x) P ( X = x) x E [h( X ) ] = ∞x ∫− ∞ h( x) f ( x)dx
Si X es discreta Si X es continua
(7.1)
Media ó Valor Esperado de la variable aleatoria X : ∑ xf ( x) = ∑ xP ( X = x) x E ( X ) = µ X = ∞x ∫− ∞ xf ( x)dx
Si X es discreta Si X es continua
(7.2)
Varianza de la variable aleatoria X : var( X ) = σ X 2 = E ( X − E ( X ))2 = E ( X 2 ) − [ E ( X )]2 = E (X 2 ) − µ X 2
(7.3)
Desviación Estándar de la variable aleatoria X : desv.est.( X ) = σ X = var( X )
(7.4)
Algunos resultados útiles para la media y la varianza. Si a y b son constantes entonces: E ( aX + b) = E (aX ) + E (b) = aE ( X ) + b
(7.5)
var(aX + b) = a 2 var( X ) = a 2σ X 2
(7.6)
Función Generadora de Momentos de la variable aleatoria X : M X (t ) = E (etX )
(7.7)
Obtención del Momento de orden r -ésimo E ( X r ) a partir de la Función Generadora de Momentos: d r dt
= M X ( r ) (0) = E ( X r )
M X (t )
r
(7.8)
t = 0
Valor Esperado de una función h( x, y) del vector aleatorio ( X, Y ): ∑∑ h( x, y ) f ( x, y ) E [h( X , Y ) ] = x∞ y∞ ∫ ∫ h( x, y) f ( x, y )d xdy −∞ −∞
Si ( X , Y ) es discreta (7.9) Si ( X , Y ) es continua 6
Covarianza del vector aleatorio ( X, Y ): cov( X ,Y ) = σ XY = E [( X − E ( X ))(Y − E (Y ))] = E ( XY ) − E ( X ) E (Y ) = E ( XY ) − µ X µ Y
(7.10)
Coeficiente de Correlación del vector aleatorio ( X, Y ): ρ XY =
cov( X , Y ) σ = XY , var( X ) var(Y ) σ X σ Y
− 1 ≤ ρ XY ≤ 1
(7.11)
Algunos resultados útiles para la suma de variables aleatorias. Si a y b son constantes entonces: E ( aX + bY ) = aE ( X ) + bE (Y )
var(aX + bY ) = a 2 var( X ) + b 2 var(Y ) + 2ab ⋅ cov( X ,Y )
(7.12) (7.13)
Esperanza Condicional de una función h( x) dado que la variable aleatoria Y = y: ∑ h( x) f ( x | y ) E [h( X ) | y ] = ∞x ∫− ∞ h( x) f ( x | y )dx
Si ( X ,Y ) es discreta Si ( X , Y ) es continua
(7.14)
Media Condicional de la variable aleatoria X dado Y = y: E ( X | y ) = µ X | y
∑ xf ( x | y ) = ∞x ∫− ∞ xf ( x | y)dx
Si ( X , Y ) es discreta Si ( X , Y ) es continua
(7.15)
Varianza Condicional de la variable aleatoria X dado Y = y: var( X | y ) = σ X 2 | y = E [{ X − E ( X | y)}2 | y ] = E ( X 2 | y ) − [ E ( X | y )]2 = E ( X 2 | y ) − µ X 2 | y
(7.16)
Algunos resultados útiles con esperanzas condicionales: E ( X ) = E [ E ( X | Y )]
var( X ) = E [var( X | Y )] + var[ E ( X | Y )]
(7.17) (7.18)
Si las variables X y Y son independientes entonces: • E ( XY ) = E ( X ) E (Y ) , Por lo tanto: cov( X , Y ) = 0 •
var(aX + bY ) = a 2 var( X ) + b 2 var(Y )
• E ( X | Y ) = E ( X )
y
E (Y | X ) = E (Y )
(7.19) (7.20) (7.21)
7
Formulario 8: Funciones de Variables Aleatorias. Desigualdad de Chebyshev. Ley general de los
grandes números. Teorema del Límite Central. Aproximación Normal a la Binomial.
Densidad de probabilidad de una variable aleatoria Y = g ( X ) definida como función de otra variable aleatoria continua X . Donde además, g −1 (Y ) = X es la “función inversa” de Y . Método de la función de distribución: f ( y ) =
d dy
P (Y ≤ y ) =
f ( y ) = f ( x)
Método de transformación:
dx dy
d dy
P ( g ( X ) ≤ y ) =
= f ( g −1 ( y ))
d dy
d dy
P ( X ≤ g −1 ( y ) )
g −1 ( y )
(8.1) (8.2)
Desigualdad de Chebyshev: P ( X − µ ≥ k σ ) ≤
1
⇒ P ( X − µ ≥ k ) ≤
k 2
σ 2 k 2
(8.3)
Media muestral de n variables aleatorias X 1, X 2, …, X n independientes e igualmente distribuidas: X =
1 n
n
∑1 X
(8.4)
i
i=
Varianza muestral de n variables aleatorias X 1, X 2, …, X n independientes e igualmente distribuidas: 1 n 2 ( X i − X ) = S = X i − nX 2 ∑ ∑ n − 1 i =1 n − 1 i =1 2
1
n
2
(8.5)
Valor esperado de la media muestral: E ( X ) = E ( X i ) = µ
(8.6)
Varianza de la media muestral: var ( X ) =
var( X i ) n
=
σ 2 n
(8.7)
Valor esperado de la varianza muestral: E (S 2 ) = var( X i ) = σ 2
(8.8)
Ley (débil) General de los Grandes Números: Para todo ε > 0,
lim P ( X − µ < ε ) = 1
n →∞
(8.9)
8
Teorema del Límite Central: Sea X la media muestral de n variables aleatorias independientes, igualmente distribuidas, con media E ( X i) = µ y con var( X i) = σ ² < ∞. Sea Z una variable aleatoria definida como: Z =
n ( X − µ ) σ
0 < σ ² < ∞ ,
,
(8.10)
con función de distribución acumulada F ( z ), entonces: 1 − y 2 / 2 e dy , 2π
z
lim F ( z ) = ∫− ∞
n →∞
(8.11)
lo cual significa que la variable Z tiende a distribuirse como N (0, 1) a medida que n tiende a ∞. Nota: En la obtención de Z (8.10) podríamos reemplazar σ por S y el resultado (8.11) se mantiene, siempre y cuando 0 < σ ² < ∞. En la práctica, cuando n ≥ 30, S suele ser una buena aproximación de σ .
Aproximación Normal a la Distribución Binomial. Sea X una variable aleatoria con distribución Binomial con parámetros n y p. Sea Y la variable aleatoria definida como: Y =
X − np np(1 − p )
(8.12)
con función de distribución acumulada F ( y) = P (Y ≤ y), entonces: y
lim F ( y) = ∫− ∞
n →∞
1 − z 2 / 2 e dz . 2π
(8.13)
Esto significa que la variable Y se “aproxima” a una distribución N (0, 1) a medida que n tiende a ∞. Nota 1: En la practica, una buena aproximación normal de la variable Y se obtiene cuando np y n(1 – p) son ambos mayores que 5. Nota 2: La aproximación se mejora considerablemente cuando se usa la “Corrección por Continuidad”, la cual consiste en que cada valor entero no negativo de X es representado por el intervalo que va de X – ½ a X + ½.
9