Resumen de Estad´ıstica Illbele Maximiliano
[email protected] 8 de julio de 2014
´Indice 1. Estad´ıstica descriptiva 1.1. Conceptos b´ asicos y terminolog´ıa . . . . . . . . . . . . . . 1.2. Poblaci´ on y muestra . . . . . . . . . . . . . . . . . . . . . 1.3. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Tabla de distribuci´ on de frecuencias . . . . . . . . . . . . 1.4.1. Histograma . . . . . . . . . . . . . . . . . . . . . . 1.5. Medidas de posici´ on o tendencia central . . . . . . . . . . 1.6. Medidas de dispersi´on o variabilidad . . . . . . . . . . . . 1.7. Gu´ıa para la construccin de un gr´afico de caja o box-plot
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
4 4 4 5 6 6 10 12 13
2. Probabilidad 2.1. Propiedades de un modelo probabil´ıstico . . . . . . 2.2. Probabilidad condicional . . . . . . . . . . . . . . . 2.2.1. Propiedades de la probabilidad condicional 2.3. Teorema de Bayes . . . . . . . . . . . . . . . . . . 2.4. Eventos independientes . . . . . . . . . . . . . . . 2.5. Variables aleatorias . . . . . . . . . . . . . . . . . . 2.5.1. Clasificaci´ on de las variables aleatorias . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
19 21 23 23 24 26 27 27
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
3. Variables aleatorias discretas 28 3.1. Propiedades de una variable aleatoria discreta . . . . . . . . . . . 29 3.2. Valor esperado de una variable aleatoria discreta . . . . . . . . . 32 3.3. Varianza de una variable aleatoria discreta . . . . . . . . . . . . . 32 3.4. Propiedades de la varianza y la esperanza de una V.A. discreta . 32 3.5. Distribuci´ on Binomial . . . . . . . . . . . . . . . . . . . . . . . . 37 3.5.1. Funci´ on de distribuci´on de probabilidad de una binomial . 38 3.5.2. Esperanza de una binomial . . . . . . . . . . . . . . . . . 39 3.5.3. Acumulada de una Binomial . . . . . . . . . . . . . . . . 41 3.6. Distribuci´ on de Poisson . . . . . . . . . . . . . . . . . . . . . . . 41 3.6.1. Esperanza y varianza de una Poisson . . . . . . . . . . . . 42 3.6.2. Distribuci´ on de Poisson vista como una binomial . . . . . 43 3.7. Distribuci´ on hiper geom´etrica . . . . . . . . . . . . . . . . . . . . 45 3.7.1. Propiedades de la hiper geom´etrica . . . . . . . . . . . . . 45 1
3.8. Distribuci´ on binomial negativa . . . . . . . . . . . . . . . . . . .
47
4. Variables aleatorias continuas 4.1. Propiedades de una variable aleatoria X . . . . . . . . . 4.2. Funci´ on de distribuci´on acumulada . . . . . . . . . . . . 4.3. Distribuci´ on uniforme . . . . . . . . . . . . . . . . . . . 4.4. Esperanza y varianza de una variable aleatoria continua 4.4.1. Esperanza y varianza de una uniforme . . . . . . 4.5. Distribuci´ on normal . . . . . . . . . . . . . . . . . . . . 4.5.1. Propiedades de la funci´on de densidad . . . . . . 4.5.2. Estandarizaci´on . . . . . . . . . . . . . . . . . . . 4.6. Distribuci´ on Gamma . . . . . . . . . . . . . . . . . . . . 4.7. Distribuci´ on exponencial . . . . . . . . . . . . . . . . . . 4.7.1. Distribuci´ on exponencial vista como una Gamma 4.7.2. Propiedades de la distribuci´on exponencial . . . 4.8. Distribuci´ on χ2 . . . . . . . . . . . . . . . . . . . . . . . 4.8.1. Propiedades de la distribuci´on χ2 . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
. . . . . . . . . . . . . .
48 48 50 53 54 55 57 57 61 63 67 67 67 69 69
5. Distribuci´ on de probabilidad conjunta 5.1. Funciones marginales . . . . . . . . . . . . 5.2. Funci´ on de densidad conjunta . . . . . . . 5.3. Interdependencia entre variables aleatorias 5.4. Covarianza . . . . . . . . . . . . . . . . . 5.4.1. Propiedades de la covarianza . . . 5.4.2. Probabilidad conjunta y covarianza 5.5. Definici´ on de correlaci´on . . . . . . . . . . 5.5.1. Generalizaci´on . . . . . . . . . . . 5.6. Teorema Central del L´ımite T.C.L . . . . 5.7. Aproximaci´ on normal a una binomial . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
71 71 72 76 78 78 79 80 82 86 87
. . . . . . . . . .
. . . . . . . . . .
6. Estimaci´ on puntual 6.1. M´etodos para la estimaci´on de los par´ametros 6.1.1. M´etodo de los Momentos . . . . . . . 6.1.2. M´etodo de M´axima Verosimilitud . . . 6.1.3. Propiedades de los E.M.V . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
de la . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
91 distribuci´on 95 . . . . . . . . 95 . . . . . . . . 97 . . . . . . . . 101
7. Intervalos de confianza basados en una sola muestra 7.1. M´etodo general para obtener un IC para θ . . . . . . . 7.2. IC para θ = µ con muestras suficientemente grandes . 7.3. Distribuci´ on t de Student con n grados de libertad . . 7.3.1. Caracter´ısticas de la t de Student . . . . . . . . 7.4. Intervalo de confianza para la varianza . . . . . . . . .
2
. . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
102 102 103 107 107 109
8. Prueba de hip´ otesis basada en una muestra 8.1. Componentes de una prueba de hip´otesis . . . . . . 8.1.1. Tipos de hip´otesis alternativas (Ha ) . . . . 8.1.2. Regi´ on de rechazo de la prueba (RR) . . . . 8.1.3. Tipos de errores de una prueba de hip´otesis 8.1.4. Nivel de significancia . . . . . . . . . . . . . 8.2. Pasos a seguir para hacer una prueba de hip´otesis . 8.3. Prueba de hip´ otesis para la media poblacional . . . 8.4. Prueba de hip´ otesis para la varianza poblacional . 8.5. Prueba de hip´ otesis para la proporci´on poblacional 8.6. P-Valor . . . . . . . . . . . . . . . . . . . . . . . . 9. Inferencia basada en dos muestras
3
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
110 110 110 110 110 110 111 111 116 116 118 118
1.
Estad´ıstica descriptiva
1.1.
Conceptos b´ asicos y terminolog´ıa
La disciplina de la estad´ıstica ense˜ na c´omo razonar de manera l´ogica y a tomar decisiones informadas en presencia de incertidumbre y variaci´on. Podemos distinguir dos ramas principales de la estad´ıstica seg´ un como trabajen con los datos generados por cualquier tipo de investigaci´on. Estad´ıstica descriptiva: se encarga de organizar los datos y de resumir la informaci´ on. Estad´ısticia inferencial: se encarga de extraer conclusiones seg´ un las hip´otesis planteadas.
B´ usqueda de O patrones An´alisis exploratorio jjj4 j j j jj jjjj jjjj An´ alisis de datos UUUU UUUU UUUU UUUU * An´alisis confirmatorio
/ Estad´ıstica descriptiva
/ Estad´ıstica inferencial Plantea hip´otesis
1.2.
Poblaci´ on y muestra
Poblaci´ on: Colecci´ on de elementos o sujetos de inter´es. Puede ser finita o infinita. Muestra: Subconjunto elegido al azar de la poblaci´on. Tama˜ no muestral n.
4
lM uestraSSSSS lll SSS l l SSS ll SSS lll l l ) ul Inferir acerca de hip´otesis Estimar caracter´ısticas RRR kk RRR kkk RRR k k k RRR kkk RR) ukkk Poblaci´on
1.3.
Tipos de datos Num´ ericos Discretos: (determinados valores) como ser el n´ umero de hermanos o el n´ umero de accidentados en un choque de motos. Continuos: (valores en un intervalo) como ser la concentraci´on de glucosa en sangre, o el nivel de P H[0, 14]. Categ´ oricos Ordinal: (orden, jerarqu´ıas) como ser el estado que atravieza una enfermedad (severo, moderado, suave) o el m´aximo nivel educativo alcanzado (primario, secundario, terciario, universitario). Nominal: (sin orden) como ser el grupo sangu´ıneo de una persona, la religi´ on o el estado civil. Discretos n7 nnn n n nnn nnn / Continuos Num´ericos mm6 m m mmm mmm m m m Tipos de datos QQQ QQQ QQQ QQQ ( / Ordinal Categ´oricos OOO OOO OOO OO' Nominal
5
Dijimos que la estad´ıstica descriptiva es la encargada de organizar y resumir la informaci´ on de los datos, esto lo hace, teniendo en cuenta el conjunto de datos, seleccionando el m´etodo m´as adecuado: Tablas de distribuci´ on de frecuencias. Medidas de posici´ on o tendencia central. Medidas de dispersi´ on o variabilidad. Gr´ aficos.
1.4.
Tabla de distribuci´ on de frecuencias
M´etodo: 1. Tomar un intervalo que contenga al conjunto de datos. 2. Dividir el intervalo en k √ sub-intervalos de clase (IC), adyacentes y disjuntos. (Generalmente k = n). 3. Contar el n´ umero de observaciones en cada intervalo (FA)1 . 4. Calcular las (FR)2 como el cociente entre las FA y el tama˜ no muestral (n) en cada uno de los k intervalos. 5. Se puede agregar: Marca de clase: punto medio de cada intervalo de clase. Frecuencia absoluta acumulada. (FAA) Frecuencia relativa acumulada. (FRA) 1.4.1.
Histograma
Gr´ afico de mayor difusi´on, es la representaci´on gr´afica de la tabla de distribuci´ on de frecuencias. C´ omo hacerlo? • En una recta horizontal marcar los k intervalos de clase (IC). • Sobre cada intervalo trazar un rect´angulo cuya ´area sea proporcional al n´ umero de observaciones del mismo. • C´ omo elegir la altura de los rect´angulos? Altura = 1 Frecuencias 2 Frecuencias
absolutas. relativas.
6
FR Long(IC)
Los intervalos no tienen porque tener la misma longitud, si los IC son de igual longitud entonces las alturas de los rect´angulos son proporcionales a las frecuencias absolutas o a las frecuencias relativas. Luego comparar dos IC se reduce a ver sus alturas. Si los intervalos son de distintas longitudes, para comparar 2 IC debemos comparar sus ´ areas y no sus alturas. Observaciones:
•
k P
•
F Ai = n
i=1
k P
F Ri = 1
i=1
Ejemplo Para decidir el n´ umero de cajeras necesarias para trabajar en un supermercado, se requiere tener informaci´on sobre el tiempo, medido en minutos, requerido para atender a los clientes. Para tal fin, se tom´ o una muestra al azar a 60 clientes y se midi´o el tiempo que se demor´ o en atenderlos. Los datos obtenidos, ordenados de menor a mayor, fueron: 0,20 0,60 0,80 1,10 1,60 2,10
0,20 0,60 0,90 1,10 1,60 2,20
0,30 0,60 0,90 1,20 1,70 2,30
0,30 0,60 1,00 1,20 1,70 2,50
0,30 0,70 1,00 1,20 1,80 2,80
0,40 0,70 1,10 1,30 1,80 3,10
0,40 0,70 1,10 1,30 1,80 3,10
0,40 0,80 1,10 1,30 1,80 3,60
0,50 0,80 1,10 1,40 1,90 4,50
0,50 0,80 1,10 1,40 1,90 5,20
√ Primero: N´ umero de intervalos de clase: k = 60 = 7,75 ∼ 8. Segundo: Elegir la longitud de los intervalos de clase. Si queremos una partici´ on disjunta del intervalo [0,2; 5,2] en 8 sub−intervalos de igual longitud (L). ´ Esta debe ser igual a: L =
7
5,2−0,2 8
= 0,625
Tabla de distribuci´on de frecuencias IC [0.2, 0.825) [0.825, 1.45) [1.45, 2.075) [2.075, 2.7) [2.7, 3.325) [3.325, 3.95) [3.95, 4.575) [4.575, 5.2]
FA 21 19 10 4 3 1 1 1 n = 60
FR 21/60 = 0.35 19/60 = 0.32 10/60 = 0.17 4/60 = 0.07 3/60 = 0.05 1/60 = 0.02 1/60 = 0.02 1/60 = 0.02 Σ=1
Figura 1: Histograma asociado
8
Ejemplo Distribucin del peso (x) en Kg de una muestra de 500 alumnos varones de una universidad. IC 40 < x ≤ 45 45 < x ≤ 50 50 < x ≤ 55 55 < x ≤ 60 60 < x ≤ 65 65 < x ≤ 70 70 < x ≤ 75 75 < x ≤ 80 80 < x ≤ 85 85 < x ≤ 90 90 < x ≤ 95 Total
FA 1 3 12 75 103 155 101 29 11 8 2 500
FAA 1 4 16 91 194 349 450 479 490 498 500 500
FR 0.002 0.006 0.024 0.150 0.206 0.310 0.202 0.058 0.022 0.016 0.004 1.000
FRA 0.002 0.008 0.032 0.182 0.388 0.698 0.900 0.958 0.980 0.996 1.000 1.000
FAA= Frecuencias absolutas acumuladas FRA= Frecuencias relativas acumuladas Histogramas de las frecuencias absolutas
9
% 0.2 0.6 2.4 15.0 20.6 31.0 20.2 5.8 2.2 1.6 0.4 100.0
Marca de clase 42.5 47.5 52.5 57.5 62.5 67.5 72.5 77.5 82.5 87.5 92.5 -
Histogramas de las frecuencias relativas
1.5.
Medidas de posici´ on o tendencia central Media muestral o promedio muestral Sean x1 , . . . , xn los datos obtenidos en la muestra n P
• La definimos como: X =
xi
i=1
n
• Propiedad de centro de masa:
. n P
(xi − x) = 0.
i=1
• Cuando n es grande aproxima al verdadero valor de la media poblacional µ. • La desventaja es que es muy sensible a la presencia de datos extremos en la muestra: ◦ Muestra 1 = 37, 40, 46, 50, 57 ⇒ x1 = 46 ◦ Muestra 2 = 37, 40, 46, 57, 200 ⇒ x2 = 76 • La media no necesariamente tiene que estar en la muestra.
10
Mediana muestral • Es el valor que deja el 50 % de las observaciones tanto por encima como por debajo de ´el. • Es el valor central o el promedio de los dos valores centrales si n es impar o par respectivamente. ( x n +x n ( )+1 2 2 si n es par 2 • x e= si n es impar x n+1 2
• Puede o no ser un valor de la muestra. Percentil • El percentil i % es aquel valor que acumula a su izquiera el i % de los datos. • Notaci´ on: (p(i)). • Cuando i = 50 ⇒ p(50) = x e es la mediana. • Para saber el percentil que tiene asociado el i-´esimo dato de una muestra podemos usar la siguiente formula: p = 100∗(i−1/2) . n Cuartil Inferior (Q1 ) Mediana de las ( n2 ) observaciones + peque˜ nas si n es par P (25) = Mediana de las ( n+1 nas si n es impar 2 ) observaciones + peque˜ Cuartil Superior (Q3 ) Mediana de las ( n2 ) observaciones + grandes si n es par P (75) = Mediana de las ( n+1 2 ) observaciones + grandes si n es impar
11
1.6.
Medidas de dispersi´ on o variabilidad Rango • Es la diferencia entre el m´aximo valor de la muestra y el m´ınimo. • Es f´ acil de calcular y est´a en la misma medida que los datos muestrales. • Desventaja: considera s´olo dos datos de la muestra: ◦ Muestra 1: 0, 5, 5, 5, 10. ◦ Muestra 2: 0, 4, 5, 6, 10. Conclusi´ on: la segunda muestra es m´as variable que la segunda pero el rango es el mismo (10). Rango Intercuartil • Es la diferencia entre el cuartil superior y el cuartil inferior. • RIC = Q3 − Q1 . Varianza muestral n P
2
• S =
(xi −x)2
i=1
n−1 2
.
• S 2 → σ (Varianza poblacional). n→∞
• Sensible a la presencia de datos extremos en la muestra ya que utiliza la media muestral: ◦ Muestra A: 100 valores iguales a 10. ◦ Muestra B: 99 valores iguales a 10 y uno igual a 1010. 2 2 = 10000 = 0 y SB ◦ 10 = SA Desviaci´ on est´ andar muestral s n P
• S=
(xi −x)2
i=1
n−1
.
• Est´ a en la misma medida que los datos de la muestra. • Sensible a la presencia de datos extremos en la muestra ya que utiliza la media muestral. Coeficiente de variaci´ on • CV =
S .100 %. X
• Permite comparar la variabilidad de caractersticas medidas en distintas escalas, luego la que tenga menor CV ser el de menor variabilidad. • El CV es adimensional. • Ejemplo: medidas de alturas
12
◦ Personas: x = 1,70m S = 0,02m CV = 1,18 % S = 0,1m CV = 0,50 % ◦ Edificios: x = 20m Luego el conjunto que tiene mayor variabilidad es de las alturas de personas.
1.7.
Gu´ıa para la construccin de un gr´ afico de caja o boxplot
En 1977, Tukey present´ o un simple m´etodo gr´afico-cuantitativo que resume varias de las caracter´ısticas m´as destacadas de un conjunto de datos. Tal m´etodo se conoce con el nombre de gr´afico de caja o box-plot. Las caracter´ısticas de los datos incorporadas por este gr´afico son: Centro o posici´ on del valor m´as representativo. Dispersin. Naturaleza y magnitud de cualquier desviaci´on de la simetr´ıa. Identificaci´ on de los puntos no usuales o at´ıpicos, es decir puntos marcadamente alejados de la masa principal de datos. La presencia de datos at´ıpicos producen cambios dr´asticos en la media muestral (x) y la desviaci´ on est´ andar muestral (S), no as´ı en otras medidas que son m´ as resistentes o robustas, como lo son la mediana muestral x e y el rango intercuartil (RIC).
13
Pasos a seguir para la construccin del box plot Paso 1: Ordenar los datos obtenidos en la muestra de menor a mayor. Paso 2: Calcular: • La media. (X) e • La mediana muestral. (X) • El cuartil inferior (Q1 ). • El cuartil superior (Q3 ). • El rango intercuartil. (RIC) Paso 3: Sobre un eje horizontal dibujar una caja cuyo borde izquierdo sea el cuartil inferior y el borde derecho el cuartil superior. Paso 4: Dentro de la caja marcar con un punto la posici´on del promedio muestral y trazar un segmento perpendicular cuya posicin corresponde al valor de la mediana. Paso 5: Trazar segmentos desde cada extremo de la caja hasta las observaciones m´ as alejadas, que no superen (1, 5.RIC) de los bordes correspondientes. Paso 6: Si existen observaciones que superen (1, 5.RIC) entonces marcarlos con circunferencias aquellos puntos comprendidos entre (1, 5.RIC) y (3.RIC) respecto del borde m´as cercano, estos puntos se llaman puntos an´ omalos suaves, y con asteriscos aquellos puntos que superen los (3.RIC) respecto de los bordes m´as cercanos, estos puntos se llaman puntos anmalos extremos.
14
Clculos necesarios para realizar el Grfico de Caja para el Ejemplo 1. x : 1,366667 Q1 : 0,700000
x e : 1,100000 Q3 : 1,800000
(RIC) = Q3 − Q1 = 1,8 − 0,7 = 1,1 1, 5.(RIC) = 1,65 Q1 − 1, 5.(RIC) = −0,95 Q3 + 1, 5.(RIC) = 3,45
3.(RIC) = 3,3 Q1 − 3.(RIC) = −2,6 Q3 + 3.(RIC) = 5,1
Luego como el mnimo es 0.2, no hay datos at´ıpicos en el extremo inferior. Pero en el extremo superior hay tres observaciones que superan la distancia (1, 5.(RIC)) respecto de Q3 , ellos son: 3.6, 4.5 y 5.2. Siendo los dos primeros at´ıpicos suaves y el u ´ltimo at´ıpico extremo.
Figura 2: Gr´ afico de cajas del ejemplo de las cajeras
15
Ejemplo Los siguientes valores reflejan el contenido de un metabolito en la sangre de un paciente en 13 extracciones diferentes: 11,6 15,9
39,2 6,7
4,9 42,1
Los datos est´ an informados en
7,3 14,4
50,6 5,1
9,8 48,8
11,6
mg L .
Figura 3: Gr´ afico de densidad de puntos de las extracciones de sangre
16
Ejemplo Los datos que mostrare corresponden a una tesina de alumnas de la Escuela de Nutricin (Facultad de Medicina, UNC). Tema de la tesina: ingesta de l´ıquidos en el adulto mayor (AM). Seleccin de la muestra: la muestra fue tomada de un grupo de AM que asisten al comedor del centro de jubilados de un barrio de la ciudad de C´ordoba. Algunos de los objetivos de este trabajo fueron: Conocer la ingesta diaria de lquidos en AM, a partir de alimentos ricos en agua. Comparar la ingesta diaria de lquidos en AM por sexo. Determinar si los AM cumplen con las recomendaciones para la ingesta diaria de lquidos por sexo. Las recomendaciones diarias de lquido por sexo son las siguientes: en mujeres debe ser de por lo menos 2,7 litros y en varones de por lo menos 3,7 litros. Dos de las variables que consideraron son la ingesta diaria total de lquido (llamada Total litros) y el sexo del AM. Estadstica descriptiva para la variable ingesta diaria total de lquido n 97
x 3,0213
S 1,0920
S2 1,1925
M´ ın 0,7888
17
M´ ax 7,3943
x e 3,0495
Q1 2,3570
Q3 3,5496
Estadstica descriptiva para la variable ingesta diaria de lquido por sexo SEXO F M
n 63 34
x 3,0993 2,8766
S 1,1344 1,0089
S2 1,2870 1,0179
M´ ın 0,7888 1,1947
Histogramas respectivos:
Gr´ aficos de caja de los resultados obtenidos:
18
M´ ax 7,3943 5,4458
x e 3,1168 2,8861
Q1 2,3727 1,9777
Q3 3,5877 3,4463
2.
Probabilidad
Antes de poder hablar de probabilidad necesitamos definir los siguientes conceptos: Espacio muestral (“S”) Definici´ on: el espacio muestral es el conjunto de todos los valores posibles de un experimento Evento Definici´ on: llamaremos evento a todo subconjunto del espacio muestral, diremos que es simple si tiene un s´olo elemento y compuesto si tiene m´as de un elemento. Familia de eventos (
a
)
Debe cumplir:
a • A ∈ a ⇒ A3 ∈ a ∞ S ∞ • {Ai } i=1 : Ai ∈a ∀i ∈ N ⇒ Ai ∈ a • S∈
i=1
“La funci´ on de probabilidad”
a → [0, 1] que satisface las siguientes condiciones: 1. 0 ≤ P (A) ≤ 1 ∀A ∈ a
Es una funci´ on P:
2. P(S) = 1 ∞
a
3. {Ai } i=1 : Ai ∈ y sean eventos disjuntos, id est: (Ai ∩ Aj = ∅ ∀i 6= j) ∞ ∞ S P Entonces P Ai = P (Ai ). i=1
3 Definimos
i=1
A como el complemento de A en S.
19
a
“Modelo probabil´ıstico” (S, , p) Definici´ on: llamaremos modelo probabil´ıstico a la terna compuesta por el espacio muestral, la familia de eventos y una funci´on de probabilidad. Observaci´ on: sea S un espacio muestral tal que #S = n y cada punto de S es equiprobable entonces: 1. P (Ei ) =
1 n
para cada Ei evento simple en S.
a ⇒ P (A) = #A #S
2. Sea A ∈
Demostraci´ on Sea (S, , p) un modelo probabil´ıstico luego:
a
1. S =
n S
Ej : Ej es un evento simple y disjunto en S.
j=1 Disj.
1 = P (S) =
n P
P (Ej ) = n.p ∴ P (Ej ) = {z }
j=1 |
2. Sea A ∈
a⇒A=
1 n
= p
S
Ej uni´on disjunta.
j∈J
Luego P (A) =
P
P (Ej ) =
j∈J
j n
: j = #A
Ejemplo Dos estaciones de servicio tienen seis (6) bombas en uso, en cada estaci´on para un tiempo fijo. S = {(i, j) : i, j ∈ Z : 0 ≤ i, j ≤ 6} #S = 7 ∗ 7 = 49 = P (S)4
a
Ejemplo Consideremos el siguiente experimento: examinar un conjunto de bater´ıas hasta encontrar a la primera que cumpla con las condiciones de calidad. Denotamos con (E) si la bater´ıa cumple con las condiciones de calidad y con (F) en caso contrario. Queda definido el espacio muestral j z }| { S = E, F E, F F E, . . . , F . . . F E, . . . Luego definimos Ej = F . . F} E : j ∈ Z≥0 ∴ E0 = E | .{z j
4 P(S)
es cualquier subconjunto de S.
20
Luego S =
∞ S
Ej uni´ on disjunta.
j=0
Sea p la probabilidad de que una bater´ıa cumpla con la condici´on de calidad ⇒ (1 − p) es la probabilidad de F. P (Ej ) = (1 − p)j .p : j ∈ Z≥0 P (S) =
∞ X
P (Ej ) = p.
j=0
?
∞ P
qk =
j=0
1 1−q
∞ X ? (1 − p)j = p. j=0
:0
a⇒A=
[
Ej ∴ P (A) =
j∈J
2.1.
1 =1 1 − (1 − p)
X
P (Ej )
j∈J
Propiedades de un modelo probabil´ıstico
a , p) un modelo probabil´ıstico entonces vale que: 1. A ∈ a ⇒ P (A) = 1 − P (A) 2. Sean A,B ∈ a : A ⊂ B ⇒ P (B − A) = P (B) − P (A) y P (B) ≥ P (A) 3. Sean A,B ∈ a ⇒ P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Sea (S,
Demostraci´ on 1. Sean A,B ∈
a
⇒ S = A ∪ A uni´on disjunta. S
A
A Disj
1 = P (S) = P (A ∪ A) = P (A) + P (A) ∴ P (A) = 1 − P (A) 2. Podemos escribir a B como una uni´on disjunta de la siguiente manera: B = A ∪ (B − A)
21
S B
A
Disj
Luego la P (B) = P (A) + P (B − A) ∴ P (B − A) = P (B) − P (A) y P (B − A) ≥ 0 ⇒ P (B) ≥ P (A) 3. A ∪ B = A ∪ (B − (A ∩ B)) uni´on disjunta. S A
B
S A
S
B
A
B
P (A ∪ B) = P (A ∪ (B − (A ∩ B))) = P (A) + P (B − (A ∩ B)) = P (A) + P (B) − P (A ∩ B) 2
(1) Como (A ∩ B) ⊂ B ⇒ P (B − (A ∩ B)) = P (B) − P (A ∩ B) 22
(1)
Ejemplo En un lugar desconocido el 60 % de las familias compran el diario A y el 80 % de las familias compran el diario B. Por otra parte sabemos que el 50 % est´ a suscripta a ambos diarios. Se pide calcular: 1. Cu´ al es la probabilidad de tomar una familia que compre alg´ un diario? P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 0,6 + 0,8 − 0,5 = 0,9 2. Cu´ al es la probabilidad de tomar una familia en el conjunto que compre s´ olo un diario? P (A − (A ∩ B) ∪ (B − (A ∩ B))) = P (A − (A ∩ B)) + P (B − (A ∩ B)) = P (A) − P (A ∩ B) + P (B) − P (A ∩ B) = 0,6 − 0,5 + 0,8 − 0,5 = 0,4
2.2.
Probabilidad condicional
a
a : P (B) > 0,
Definici´ on: sea (S, , p) un modelo probabil´ıstico, con B ∈ entonces llamamos probabilidad de A dado B como: Def
PB (A) = P (A|B) = 2.2.1.
P (A ∩ B) ∀A ∈ P (B)
a
Propiedades de la probabilidad condicional
1. 0 ≤ P (A|B) ≤ 1 ∀A ∈
a
2. PB (S) = P (S|B) = 1
a entonces:
∞
3. Sea {Ai } i=1 una sucesi´on de eventos disjuntos ∈ ! ∞ ∞ [ X PB Ai = PB (Ai ) i=1
i=1
Demostraci´ on: 1. Sea A ∈
∗ a ⇒ 0 ≤ P (A|B) = P P(A∩B) (B) ≤ 1
* Ya que (A ∩ B) ⊂ B ⇒ P (A ∩ B) ≤ P (B) ⇒
23
P (A∩B) P (B)
≤1
Def
P (B) 2. PB (S) = P (S|B) = PP(S∩B) (B) = P (B) = 1 ∞ ∞ S P 3. Quiero ver que: PB Ai = PB (Ai ) i=1
PB
i=1 ∞ [
∞ [
! Ai
=P
i=1
P
i=1 ∞ S
Ai ∩ B
P (B) ∞ P
=
Ai |B
i=1
=
=
!
P (Ai ∩ B)
i=1
(2)
P (B) ∞ X
PB (Ai )
i=1
(2) Por ser disjuntos. La regla de la multiplicaci´on
a
n
Sea (S, , p) un modelo probabil´ıstico, y sean {Ai } i=1 eventos en Entonces:
a.
n−1 \ P (A1 ∩ . . . ∩ An ) = P (A1 ).P (A2 |A1 ).P (A3 |A1 ∩ A2 ) . . . (P An | Ai ) i=1
Ley de probabilidad total Sean A1 , . . . , An eventos disjuntos en
a:S=
Ai y sea B ∈
a tenemos
i=1
que: P (B) =
n X
P (Ai ).P (B|Ai ) =
i=1
2.3.
n S
n X
n
P (Ai ).
i=1
P (B ∩ Ai ) X = P (B ∩ Ai ) P (Ai ) i=1
Teorema de Bayes n
Sean A1 , . . . , An eventos disjuntos en
a : S = S Ai y sea B ∈ a entonces: i=1
P (Ai |B) =
P (Ai ∩ B) P (Ai ).P (B|Ai ) = P ∀i, j : 1 ≤ i, j ≤ n n P (B) P (Aj ).P (B|Aj ) j=1
24
Ejemplo Existe un negocio que vende 3 marcas de dvds: 1, 2, 3, que son elegidos por los clientes asiduamente con un porcentaje del 50 %, 30 %, 20 %, respectivamente, con un a˜ no de garant´ıa. Antes de que termine la garant´ıa los dvds de la marca 1 terminan rrompi´endose en un 50 % de los casos, los de la marca 2 en un 20 % y los de la marca 3 en un 10 %. Definimos Ai = “el cliente compra la marca i” : 1 ≤ i ≤ 3 Se pide: 1. Calcular la probabilidad de que si se compra un dvd, en este negocio, deba ser reparado antes del a˜ no de garant´ıa. P (R) = P (A1 ∩ R) + P (A2 ∩ R) + P (A3 ∩ R) =
3 X
P (Ai ).P (R|Ai )
i=1
= P (A1 ).P (R|A1 ) + P (A2 ).P (R|A2 ) + P (A3 ).P (R|A3 ) = 0, 5 ∗ 0, 25 + 0, 3 ∗ 0, 2 + 0, 2 ∗ 0, 1 = 0,205 2. Dado que el dvd requiere una reparaci´on, cu´al es la probabilidad de que haya comprado la marca “i”? P (Ai |R) =
P (Ai ).P (R|Ai ) : i ∈ {1, 2, 3} P (R)
Y se obtiene: P (A1 |R) =
P (A1 ∩ R) 0,125 = ≈ 0,61 P (R) 0,205
P (A2 |R) =
0,060 P (A2 ∩ R) = ≈ 0,29 P (R) 0,205
P (A3 |R) = 1 − P (A1 |R) − P (A2 |R) ≈ 0,10
25
2.4.
Eventos independientes
Definici´ on: diremos que dos eventos son independientes si: P (A ∩ B) = P (A).P (B)
a
Proposici´ on: Si A y B son eventos en equivalentes:
se tiene que las siguientes son
A y B son independientes A y B son independientes A y B son independientes A y B son independientes
a.
Definici´ on: Sean A1 , . . . , AN eventos en Diremos que son mutuamente excluyentes si: ! r r \ Y P Ai, k = P (Ai, k ) ∀(i, k)rk=1 ⊂ {1, . . . , n} i=1
k=1
Ejemplo Supongamos 4 componentes conectados de la siguiente manera: ?
/ 2
1
/ > >> >> >>
>> >> >> > ? /
/ 4
3
El sistema funciona (F) si funcionan las componentes 1 y 2 o si funcionan las componentes 3 y 4. Supongamos que las componentes funcionan independientemente una de otra y que adem´ as la probabilidad de que funcione cada componente es del 90 %. Se pide calcular la probabilidad de que funcione el sistema. Sea Ai = “funciona el componente i-´esimo”: i=1, 2, 3, 4. F = (A1 ∩ A2 ) ∪ (A3 ∩ A4 ) P (F ) = P ((A1 ∩ A2 ) ∪ (A3 ∩ A4 )) = P (A1 ∩ A2 ) + P (A3 ∩ A4 ) − P ((A1 ∩ A2 ) ∩ (A3 ∩ A4 )) = (0,9)2 + (0,9)2 − (0,9)4 = 0,9639 26
2.5.
Variables aleatorias
a
Definici´ on: dado (S, , p) un modelo probabil´ıstico llamaremos variable aleatoria (V.A.) a cualquier funci´on: X : S → R : [X ≤ x] = {w ∈ S : X(w) ≤ x} ∈ 2.5.1.
a ∀x ∈ R
Clasificaci´ on de las variables aleatorias
Diremos que X es una variable aleatoria discreta si toma un conjunto finito o infinito numerable de valores posibles con probabilidad positiva. Diremos que X es una variable aleatoria Bernoulli si s´olo toma dos valores: 1´ o 0. Diremos que X es una variable aleatoria continua si sus valores posibles consisten en un todo intervalo en la recta num´erica.
27
3.
Variables aleatorias discretas
Sea X una variable aleatoria discreta definimos la funci´on de distribuci´on de probabilidad o funci´ on de probabilidad de masa como la funci´on: P : R → [0, 1] : P (x) = P [X = x] Llamaremos funci´ on de distribuci´on acumulada de X a la funci´on F : R → [0, 1] dada por F (x) = P (X ≤ x) ∀x ∈ R Ejemplo Si quisi´eramos definir la funci´on de distribuci´on de probabilidad de X, donde X cuenta la cantidad de caras que se obtienen al tirar 5 veces una moneda honesta. w
z }| { S = {(x1 , x2 , x3 , x4 , x5 ) : xi es 1(cara) ´o 0(cruz) : 1 ≤ i ≤ 5 : i ∈ N}
a = P (s) ⇒ P (w) = 321 ∀w ∈ S
[X ≤ x] = {w ∈ S : X(w) ≤ x}
a Si x ≥ 5 ⇒ [X ≤ x] = S ∈ a Si x < 0 ⇒ [X ≤ x] = ∅ ∈
5 X [ xi ≤ x} ∈ Si x ∈ [0, 5] ⇒ [X ≤ x] = { (x1 , x2 , x3 , x4 , x5 ) :
a
i=1
∴ Es una variable aleatoria de tipo discreta ya que toma un n´ umero finito de valores. Si x 6∈ {0, 1, 2, 3, 4, 5} ⇒ P (x) = P (X = x) = P (∅) = 0
P (0) = P (X = 0) =
1 32
P (1) = P (X = 1) = {(10000), (01000), (00100), (000010), (00001)}) = 10 1 5 P (2) = P (X = 2) = 32 2 = 32 10 1 5 P (3) = P (X = 3) = 32 3 = 32 1 5 5 P (4) = P (X = 4) = 32 4 = 32 1 5 1 P (5) = P (X = 5) = 32 5 = 32 P (x) =
1 5 5 x
0
si 0 ≤ x ≤ 5 en caso contrario
28
5 32
Luego si quisi´eramos hallar la funci´on de distribuci´on acumulada de X: Si x < 0 ⇒ F (x) = P (X ≤ x) = P (∅) = 0 1 32 Si x ∈ [1, 2) ⇒ F (x) = P (X ≤ 1) = P ((X = 0) ∪ (X = 1)) 1 6 = P (0) + P (1) = 50 + 51 = 32 32 Si x ∈ [2, 3) ⇒ F (x) = P (X ≤ 2) = P ((X = 0) ∪ (X = 1) ∪ (X = 2)) 16 = P (0) + P (1) + P (2) = 32 Si x ∈ [3, 4) ⇒ F (x) = P (X ≤ 3) Si x ∈ [0, 1) ⇒ F (x) = P (X ≤ 0) = P (X = 0) =
= P ((X = 0) ∪ (X = 1) ∪ (X = 2) ∪ (X = 3)) 26 = P (0) + P (1) + P (2) + P (3) = 32 Si x ∈ [4, 5) ⇒ F (x) = P (X ≤ 4) = P ((X = 0) ∪ (X = 1) ∪ (X = 2) ∪ (X = 3) ∪ (X = 4)) 31 = P (0) + P (1) + P (2) + P (3) + P (4) = 32 Si x ≥ 5 ⇒ F (x) = P (X ≤ 5) = 1
3.1.
Propiedades de una variable aleatoria discreta P
P (x) = 1
X
La funci´ on es mon´ otona creciente, id est si x1 < x2 ⇒ F (x1 ) < F (x2 ) La gr´ afica de F es escalonada y tiene discontinuidades en los distintos valores que toma la variable aleatoria. l´ım F (x) = 0
x→−∞
l´ım F (x) = 1
x→∞
P (x) = P (X = x) = F (x) − l´ım F (t) ∀x ∈ R t→x−
29
Volviendo al ejemplo de las bater´ıas Primero veamos que X(Ej ) = j + 1 ∀j ∈ Z≥0 es una variable aleatoria. Si x < 1 : [X ≤ x] = ∅ ∈S Si x ≥ 1 : [X ≤ x] = Ej ∈ .
a
a
j≤[x]−1
Observaci´ on: [x] denota la parte entera de x. ∴ X es una variable aleatoria discreta “Queremos hallar la funci´on de probabilidad” Si x 6∈ N ⇒ P (x) = P (X = x}) = 0 | {z = ∅
P (1) = P (X = 1) = P (E0 ) = p P (2) = P (X = 2) = P (E1 ) = p.(1 − p) .. . P (n + 1) = P (X = n + 1) = p.(1 − p)n = P (En ) ∀n ∈ N “Luego queremos hallar la funci´on de distribuci´on acumulada de X” Si x < 1 ⇒ [X ≤ x] = ∅ ⇒ F (x) = 0 Sea x ∈ [k, k + 1) : k ∈ N F (x) =
k X
P (i) =
P (i)
i=1
i=1
= p.
[x] X
[x] X (1 − p)i−1
(3)
i=1 [x]+1
= p.
X
(1 − p)j
(4)
j=0
= p.
1 − (1 − p)[x] 1 − (1 − p)
= p.
1 − (1 − p)[x] p
= 1 − (1 − p)[x] (3) Reemplazo P (i). (4) Hago un cambio de variables llamando a: j = i + 1. n−1 P j n (5) “Serie telesc´ opica”: q = 1−q 1−q . j=0 1 − (1 − p)x ∀x ∈ N ∴ F (x) = 0 en caso contrario
30
(5)
Ejemplo Sea una poblaci´ on M, donde los habitantes contraen dos tipos de enfermedades distintas: A y B. Supongamos que sabemos que: El 30 % de la poblaci´ on no posee ninguna de las dos enfermedades. El 35 % de la poblaci´ on tiene la enfermedad A. El 55 % de la poblaci´ on tiene la enfermedad B. Sea X la cantidad de enfermedades de un sujeto de la poblaci´on M. Im(x) = {0, 1, 2} Se pide hallar la funci´ on de distribuci´on de probabilidad de X: Si x 6∈ Im(x) ⇒ P (x) = 0 Si x = 0 ⇒ P (0) = P (X = 0) = 0,30 Si x = 1 ⇒ P (1) = P (X = 1) = 0,50 Si x = 2 ⇒ P (2) = P (X = 2) = 0,20 0,3 si x = 0 0,5 si x = 1 ∴ P (x) = 0,2 si x = 2 0 en caso contrario Luego obtenemos la funci´on de distribuci´on acumulada: “F(x)” Si x < 0 ⇒ F (0) = P (X < 0) = P (∅) = 0 Si x ∈ [0, 1) ⇒ F (x) = P (X ≤ 0) = P (X = 0) = 0,30 si x ∈ [1, 2) ⇒ F (x) = P (X ≤ 1) = P (X = 0) + P (X = 1) = 0,80 si x ≥ 2 ⇒ F (x) = P (S) = 1 0 si x < 0 0,3 si x ∈ [0, 1) ∴ F (x) = 0,8 si x ∈ [1, 2) 1 x≥2
31
3.2.
Valor esperado de una variable aleatoria discreta
Definici´ on: sea X una P variable aleatoria discreta con funci´on de distribuci´on de probabilidad P (x), si |xi |.P (xi ) < ∞ . Con Im(x) = {xi } i∈I llamaremos i∈I
valor esperado o valor muestral o esperanza de X a: X E(x) = xi .P (xi ) = µ i∈ I
Observaci´ on: en el ejemplo anterior E(x) = 0 ∗ 0,3 + 1 ∗ 0,5 + 5 ∗ 0,2 = 0,9 Propiedad: sea X una variable aleatoria discreta Pcon funci´on de distribuci´on de probabilidad P (x) y sea w = h(x) entonces si |h(xi )|.P (xi ) < ∞ i∈I P Definimos: E (h(x)) = h(xi ).P (xi ) : Im(x) = {xi } i∈I i∈I
Ejemplo X 2 Sea h(x) = x2 ⇒ E x2 = xi .P (xi ) i∈I
3.3.
Varianza de una variable aleatoria discreta
Definici´ on: sea X una variable aleatoria discreta con funci´on de distribuci´on de probabilidad P(x) llamaremos varianza de X a: σ 2 = V (x) = E(x − µ)2 : µ = E(x) Definici´ on: sea X una variable aleatoria discreta con funci´on de distribuci´on de probabilidad P(x) llamaremos desv´ıo est´ andar de x a: p σ = V (x)
3.4.
Propiedades de la varianza y la esperanza de una V.A. discreta E(a.x + b) = a.E(x) + b ∀a, b ∈ R V (x) ≥ 0 (Por definici´ on) V (x) = E(x2 ) − µ2 = E(x2 ) − E(x)2 V (a.x + b) = a2 .V (x) ∀a, b ∈ R
32
Demostraci´ on: Queremos ver que E(a.x + b) = a.E(x) + b ∀a, b ∈ R X E(a.x + b) = (a.xi + b).P (xi ) | {z } i∈I
h(x)
= a.
X
xi .P (xi ) +b.
P (xi )
i∈I
i∈I
|
X
{z
}
E(x)
|
{z
}
= 1
= a.E(x) + b
Queremos ver que V (x) = E(x2 ) − E(x)2 V (x) = E(x − µ)2 X = (xi − µ)2 .P (xi ) i∈I
=
X
x2i .P (xi ) + µ2 .
i∈I
X
P (xi ) −2.µ.
xi .P (xi )
i∈I
i∈I
|
X
{z
}
= 1
|
{z
= µ
= E(x2 ) + µ2 − 2.µ2 = E(x2 ) − µ2 Queremos ver que V (a.x + b) = a2 .V (x) ∀a, b ∈ R V (a.x + b) = E ((a.x + b) − E(a.x + b)) 2
= E ((a.x + b) − (a.µ + b)) = E a2 .(x − µ)2 2
= a2 .E (x − µ) = a2 .V (x)
33
2
}
Ejemplos Sea X una Bernoulli(p) tenemos que: P (0) = P (X = 0) = 1 − p
P (1) = P (X = 1) = p
E(x) = 0.(1 − p) + 1.p = p
E(x2 ) = 02 .(1 − p) + 12 .p = p
∴ V (x) = E(x2 ) − E(x)2 = p − p2 = p.(1 − p) = p.q Sea X = “n´ umero que se obtiene en la tirada de un dado honesto” Im(x) = {1, 2, 3, 4, 5, 6} P (i) = P (X = i) =
E(x) =
1 6
6 X
∀i ∈ Im(x)
6
i.P (i) =
i=1
E(x2 ) =
6 X
n P
i=
(7)
i=1 n P
i2 =
i=1
(6)
6
i2 .P (i) =
i=1
(6)
1 6∗7 1X i= ∗ = 3,5 6 i=1 6 2 1X 2 1 6 ∗ 7 ∗ 13 i = ∗ = 15,16 6 i=1 6 6
n.(n+1) 2 n.(n+1).(2.n+1) 6
∴ V (x) = E(x2 ) − E(x)2 = 15,16 − (3,5)2 = 2,91
34
(7)
Volvamos al ejemplo de las bater´ıas Definimos X = “n´ umero de bater´ıas que deben ser probadas hasta obtener la primera que cumpla las condiciones de calidad” Luego la funci´ on de distribuci´on de probabilidad nos queda: P (x) =
p.(1 − p)x−1 0
∀x ∈ N en caso contrario
Se pide hallar su esperanza y su varianza: E(x) =
∞ X
i.P (i) =
i=1 ∞ X
= p.
∞ X
i.p.(1 − p)i−1
i=1
i.(1 − p)i−1
i=1
d = p. .(−1). dp d = p. .(−1). dp
∞ X (1 − p)i + 1 i=1 ∞ X
!
!
(1 − p)i − 1
i=0
d 1 .(−1). −1 dp 1 − (1 − p) d 1 = p. .(−1). −1 dp p −1 = (−1).p. 2 p 1 = p = p.
35
! −1
Para calcular la varianza necesitamos saber la E(x2 ): E(x2 ) =
∞ X
∞ X
i2 .P (i) =
i=0
=
∞ X
i2 .P (i)
i=1
i.(i − 1).P (i) +
i=2
∞ X
i.P (i)
i=0
|
{z
E(x)
}
2.(1 − p) 1 + p2 p 2−p = p2
=
(8)
∞ X
i.(i − 1).P (i) = p.(1 − p).
i=2
∞ X
(8)
i.(i − 1)(1 − p)i−2
i=2
d2 = p.(1 − p). 2 dp 2
= p.(1 − p).
d dp2
∞ X (i − p)i
!
i=2
! ∞ X i (i − p) − (1 − p) − 1 i=0
d2 1 = p.(1 − p). 2 −2+p dp p d −1 = p.(1 − p). +1 dp p2 2 = p.(1 − p). p3 2.(1 − p) = p2 ∴ V (x) = E(x2 ) − E(x)2 =
36
1−p p2
De una urna con n cartones numerados del 1 al n se extrae uno al azar. Sea X el n´ umero obtenido, se pide hallar la esperanza de X y su varianza. Im(X) = {i ∈ N : 1 ≤ i ≤ n}
E(x) =
n P i=1
E(x2 ) =
n P
i2 .P (i) =
i=1
1 n
∀i ∈ Im(x) n P i.P (i) = n1 . i = n1 . n.(n+1) = 2 P (i) =
i=1
1 n.
n P
i2 =
i=1
2
V (x) = E(x ) − E(x)2 =
3.5.
1 n.(n+1).(2n+1) n. 6
(n+1).(2n+1) 6
−
n+1 2
n+1 2
= =
(n+1)(2n+1) 6 n2 −1 12
Distribuci´ on Binomial
Definici´ on: diremos que un experimento es binomial si cumple las siguientes condiciones: Consta de n ensayos id´enticos. Cada ensayo tiene s´ olo dos resultados posibles E = ´exito ´o F = fracaso. Los ensayos son independientes uno de otro. La P (E) = p para cada uno de los ensayos. Definici´ on: sea X la variable que cuenta el n´ umero de ´exitos en un experimento binomial. Entonces diremos que X tiene “distribuci´on binomial de par´ ametros n y p”. Notaci´on: X ∼ B(n, p)
37
Ejemplo Sea un experimento donde tiramos 5 veces una moneda honesta. Definimos X como la variable aleatoria que cuenta el n´ umero de caras (E) en las 5 tiradas. P (E) = 0,5 ∴ X ∼ B(5, 0,5) 3.5.1.
Funci´ on de distribuci´ on de probabilidad de una binomial
Dado un experimento binomial, sea X la variable aleatoria que cuenta los ´exitos (E) en n ensayos independientes con P (E) = p para cada ensayo. S = {(x1 , . . . , xn ) : xi = E ∨ xi = F ∀i : 1 ≤ i ≤ n} Im(x) = {k ∈ Z : 0 ≤ k ≤ n} Tenemos que: P (k) = P (X = k) Si k 6∈ Im(x) ⇒ P (k) = P (∅) = 0 Si k ∈ Im(x) ⇒ [X = k] = {x1 , . . . , xk , . . . , xn } ∈ S tal que hay k ´exitos y (n-k) fracasos #[X = k] = nk SiP (E) = p ⇒ P (F ) =1 − p n
}| { ? z P {E, . . . , E , F, . . . F } = pk .(1 − p)n−k | {z } | {z } k
n−k
? Por ser independientes y por ser p constante en cada uno de los ensayos. ∴ P (k) = P (X = k) =
n k
.pk .(1 − p)n−k ∀k ∈ Im(x)
Luego queremos hallar la esperanza y la varianza:
38
3.5.2.
Esperanza de una binomial
E(x) = = =
n X k=0 n X k=0 n X
k.P (k) k.
n k
.pk .(1 − p)n−k
(9)
k.
n k
.pk .(1 − p)n−k
(10)
k=1
= n.
n X
n−1 k−1
k=1 n X
= n.p.
.pk .(1 − p)n−k
n−1 k−1
(11)
.pk−1 .(1 − p)(n−1)−(k−1)
k=1
= n.p.
n−1 X
n−1 j
.pj .(1 − p)n−1−j
(12)
j=0
= n.p.(p + (1 − p))n−1
(13)
= n.p (9) Definici´ on de P (k). (10) k = 0 ⇒ Σ = 0. n.(n−1)! k.n! = (k−1)!((n−1)−(k−1))! = n. n−1 (11) k. nk = k!(n−k)! k−1 . (12) Hacemos un cambio de variable llamando a: j = k + 1. m r m−r P m (13) Por binomio de Newton (a + b)m = . r .a .b r=0
39
Para calcular V(x) primero despejaremos la E(x2 )
2
E(x ) = = = =
n X k=0 n X k=0 n X k=1 n X
k 2 .P (k) k2 .
n k
.pk .(1 − p)n−k
(14)
k2 .
n k
.pk .(1 − p)n−k
(15)
k.(k − 1).
n k
k
n−k
.p .(1 − p)
k=1
+
n X
| = = =
n X k=1 n X k=2 n X
k.P (k)
(16)
k=1
k.(k − 1).
n k
.pk .(1 − p)n−k + n.p
k.(k − 1).
n k
.pk .(1 − p)n−k + n.p
k.(k − 1).
k=2
= n.(n − 1)
n X k=2 2
= n.(n − 1).p
{z
E(x)=n.p
}
(17)
n! .pk .(1 − p)n−k + n.p k!(n − k)! (n − 2)! .pk .(1 − p)n−k + n.p (k − 2)!((n − 2) − (k − 2))!
n X
n−2 k−2
.pk−2 .(1 − p)n−k + n.p
k=2
= n.(n − 1).p2
n−2 X
n−2 j
.pj .(1 − p)n−2−j +n.p
j=0
|
{z
Σ=1
}
= n.p.((n − 1).p + 1) (14) (15) (16) (17) (18)
Definici´ on de P(k). k = 0 ⇒ Σ = 0. Reescribimos k 2 = (k. ((k − 1) + 1)). k = 1 ⇒ Σ = 0. Hago un cambio de variables llamando j = k − 2.
40
(18)
Finalmente puedo calcular la varianza de una binomial: ∴ V (x) = E(x2 ) − E(x)2 = n.p.((n − 1).p + 1 − n.p) = n.p.(1 − p) = n.p.q = n.P (E).P (F )
3.5.3.
Acumulada de una Binomial
F (x) = P (X ≤ x) =
0 x P i=0
n i
si x < 0
i
p .(1 − p)
n−i
si 0 ≤ x < n si x ≥ 0
1
En s´ıntesis sea X ∼ B(n, p) P (k) =
n k
.pk .(1 − p)n−k ∀k ∈ Im(x)
E(x) = n.p V (x) = n.p.(1 − p) = n.p.q = n.P (E).P (F )
3.6.
Distribuci´ on de Poisson
Definici´ on: diremos que una variable aleatoria X tiene distribuci´on de Poisson de par´ ametros λ : λ > 0 si su funci´on de probabilidad est´a dada por P (k) = e−λ .
λk con k ∈ Im(x) = Z≥0 k!
Notaci´ on: X ∼ P (λ) eλ = 1=
∞ X λk k=0 ∞ X
(19)
k! ∞
e−λ .
k=0
X λk = P (k) k! k=0
(19) Por el desarrollo de taylor. (20) Multiplico por e−λ .
41
(20)
3.6.1.
Esperanza y varianza de una Poisson
E(x) = = = = =
∞ X k=0 ∞ X k=1 ∞ X k=1 ∞ X k=1 ∞ X
k.P (k) k.P (k) k.e−λ .
(21)
λk k!
e−λ .
λk (k − 1)!
e−λ .
λ.λk−1 (k − 1)!
k=1
= e−λ .λ. = e−λ .λ.
∞ X λk−1 (k − 1)!
k=1 ∞ X
λk−1 (k − 1)! k=1 | {z } eλ
=λ (21) k = 0 ⇒ Σ = 0
42
E(x2 ) = = =
∞ X k=0 ∞ X k=1 n X
k 2 .P (k) k 2 .P (k)
(22)
k.(k − 1).P (k) +
k=1
n X
| n X
=
k.(k − 1).e n X
= e−λ .
k=2 n X
= e−λ .
k=2
=e
λk . k! !
{z
E(x)=λ
λk (k − 2)! λ2 .λk−2 (k − 2)!
}
+λ
+λ ! +λ
! n X λk−2 .λ . +λ (k − 2)! k=2 | {z } 2
eλ
= λ2 + λ (22) k = 0 ⇒ Σ = 0. (23) Reescribimos k 2 = (k. ((k − 1) + 1)). (24) k = 1 ⇒ Σ = 0 . Ahora termino calculando la varianza de una Poisson V (x) = E(x2 ) − E(x)2 = λ2 + λ − λ2 =λ En s´ıntesis sea: X ∼ P (λ) k
P (k) = P (X = k) = e−λ . λk! ∀k ∈ Z≥0 . E(x) = V (x) = λ. 3.6.2.
Distribuci´ on de Poisson vista como una binomial
Se puede usar si: n ≥ 100, p ≤ 0,01 y n.p ≤ 20 n k
(23)
!
−λ
k=1
−λ
k.P (k)
k=1
.pk .(1 − p)n−k ≈ e−λ . 43
λk : λ = n.p k!
(24)
Ejemplo En una prueba de tarjetas de circuito la probabilidad de que un iodo falle es de 0,01. Suponiendo que la tarjeta tiene 200 de ´estos, que funcionan independientemente uno de otro. Cu´al es la probabilidad de que fallen por lo menos 2 iodos en una tarjeta seleccionada al azar? Sea X = “N´ umero de iodos que fallan en una tarjeta” P (X ≥ 2) = 1 − P (X < 2) = 1 − P (X = 0) − P (X = 1) Si vemos a X ∼ B(200, 0,01) Nos quedar´ıa P (X ≥ 2) = 1 −
200 0
.p0 .(1 − p)200 −
200 1
.p1 .(1 − p)199
= 1 − (0,99)200 − 200.(0,01).(0,99)199 = 0,5953 Si lo vemos como una Poisson de par´ametro λ = n.p = 200 ∗ 0,01 = 2 Nos quedar´ıa P (X ≥ 2) = 1 − P (X < 2) = 1 − P (X = 0) − P (X = 1) ≈ 1 − e−λ . λ=2
λ λ0 − e−λ . 0! 1!
= 1 − 3.e−2
= 0,5940
44
3.7.
Distribuci´ on hiper geom´ etrica
Sea un experimento que cumpla las siguientes condiciones: La poblaci´ on consta de N objetos o sujetos. Cada objeto o sujeto puede ser clasificado como ´exito (E) o fracaso (F), y hay M ´exitos en la poblaci´on: M ≤ N Se elige una muestra de tama˜ no n donde cada subconjunto tiene igual probabilidad de ocurrir. Entonces la variable aleatoria X que cuenta el n´ umero de ´exitos (E) de la muestra de tama˜ no n se llama hiper geom´etrica de par´ametros n, M, N. Notaci´on: X ∼ H(n, M, N ) 3.7.1.
Propiedades de la hiper geom´ etrica N −M M . P (k) = P (X = k) = k Nn−k :0≤k
∴ m´ ax{0, n − N + m} ≤ k ≤ m´ın{M, n} E(x) = n. M N N −n M M . V (x) = n. . 1− N N N −1 |{z} | {z } | {z } p q correcci´on Ejemplo Cada uno de los 12 refrigeradores de cierto tipo ha sido devuelvo a un distribuidor debido a la presencia de un ruido oscilante agudo cuando est´a funcionando. Suponiendo que 4 de esos 12 tienen compresores defectuosos y los otros 8 tienen problemas menos serios. Definimos X = “n´ umero de refrigeradores que tienen el compresor defectuoso entre los primeros 6 examinados” Si se examinan al azar, se pide calcular: 1. La probabilidad de que por lo menos uno tenga el compresor defectuoso. 2. La probabilidad de que haya entre 1 a 3 compresores rotos. Comenzamos a analizar la variable aleatoria X y obtenemos que: Im(X) = {0, 1, 2, 3, 4} El tama˜ no de la muestra es n = 6 La cantidad de ´exitos es M = 4
Sobre una poblaci´on de N = 12
45
Luego nos queda: X ∼ H(6, 4, 12) 8 6 12 6
1. P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0) = 1 −
= 0,97
2. Obtenemos: P (1 ≤ X ≤ 3) = P (1) + P (2) + P (3) = 1 − (P (0) + P (4)) 8 8 4 6 + 4 . 1 = 0,962 =1− 12 6
Ejemplo Un ge´ ologo ha recolectado 10 espec´ımenes de roca bas´altica y 10 de rocas de granito. Se instruye a un ayudante de laboratorio para que seleccione al azar 15 de estos espec´ımenes para analizarlos. Sea X = “N´ umero de rocas bas´alticas en la muestra” Sea Y = “N´ umero de rocas gran´ıticas en la muestra” Se pide: 1. Calcular la probabilidad de que todos los espec´ımenes de uno de los dos tipos sean seleccionados. 2. Calcular la probabilidad de que X est´e a menos de un desv´ıo est´andar de su valor medio. El tama˜ no de la muestra es n = 15 La cantidad de ´exitos es M = 10
Sobre una poblaci´on de N = 20
Im(X) = Im(Y ) = {5 ≤ i ≤ 10 : i ∈ N} Tanto X como Y tienen distribuci´on X, Y ∼ H(n, m, N ) ∼ H(15, 10, 20) 1. P ([X = 10] ∪ [Y = 10]) = P ([X = 10] ∪ [X = 5]) 10 ! 10 10 . 5 = 2. 20 15
= 0,032 2. P (|X − µ| < σ) = P (µ − σ ≤ X ≤ µ + σ) 10 Sabemos que: µ = E(x) = n. M N = 15. 20 = 7,5 N −n M 10 V (x) = σ 2 = n. M N . 1 − N . N −1 = 15. 20 . 1 − q ∴ σ = 75 76 6,51 = µ − σ ≤ X ≤ µ + σ = 8,49
10 20
20−15 . 20−1 =
10 7
Luego P (|X − µ| < σ) = P (X = 7) + P (X = 8) =
46
10 10 8 +8 20 15
75 76
10 7
= 0,02
3.8.
Distribuci´ on binomial negativa
Dado un experimento que cumpla: Los ensayos se realizan de forma independiente. Cada ensayo tiene dos resultados posibles (E) ´o (F) y P (E) = p para cada ensayo. Los ensayos se contin´ uan hasta obtener r ´exitos con r ∈ N fijo Entonces la variable aleatoria X que cuenta el n´ umero de fracasos que preceden al r-´esimo ´exito se llama binomial negativa de par´ametros r y p. Notaci´ on: X ∼ B − (r, p) : Im(x) = Z≥0 Definimos la funci´ on de probabilidad: P (k) = P (X = k) = pr .(1 − p)k .
k+r−1 k
Proposici´ on −
Sea X ∼ B (r, p) entonces: E(x) = r. (1−p) p V (x) = r. (1−p) p2 Ejemplo Volviendo al ejemplo de las bater´ıas. Sea Y = “n´ umero de bater´ıas revisadas hasta obtener la primera que cumpla las condiciones de calidad” Y =X +1 E(Y ) = E(X) + 1 1 = E(x) + 1 p 1−p ∴ E(X) = p
47
Ejemplo Sea un estudio geol´ ogico en el cual se hacen perforaciones en la tierra hasta encontrar petr´ oleo, y sea p la probabilidad de encontrarlo en cada perforaci´on. 1. Cu´ al es la probabilidad de que el primer descubrimiento ocurra en la tercera perforaci´ on? Sea X = “n´ umero de fracasos que preceden al primer ´exito” Definimos: X ∼ B − (1, p) y calculamos P(X=2): P (X = 2) = p.(1 − p)2 .
2+1−1 2
= p.(1 − p)2 2. Cu´ al es la probabilidad de que el tercer descubrimiento ocurra en la quinta perforaci´ on? Sea Y = “n´ umero de fracasos que preceden al tercer ´exito” Definimos: Y ∼ B − (3, p) y calculamos P(Y=2)
P (Y = 2) = p3 .(1 − p)2 . = p3 .(1 − p)2 .
2+3−1 2 4 2
= p3 .(1 − p)2 ∗ 6
4.
Variables aleatorias continuas Definici´ on: diremos que X es una variable aleatoria continua si: P (X = x) = 0 ∀x ∈ R
4.1.
Propiedades de una variable aleatoria X P (a ≤ X ≤ b) = F (b) − F (a) ?
?
P (a ≤ X ≤ b) = P (a < X ≤ b) = P (a ≤ X < b) ?
P (X > c) = 1 − P (X ≤ c) = 1 − F (c) = P (x ≥ c) ? Puede no valer si X es una variable aleatoria discreta.
48
Proposici´on Sea un modelo probabil´ıstico (S,
a , p) ∞
Sean A1 ⊂ A2 ⊂ . . . Con {Ai } i=1 : Ai ∈ ∞ S Entonces P Ai = l´ım P (An )
a
n→∞
i=1
Demostraci´ on: Defino:
∞ S
∞ S
?
Ai =
i=1
(Ai − Ai−1 ) : A0 = ∅
i=1
? Uni´ on disjunta de eventos.
P
∞ [
! Ai
=
i=1
∞ X
P (Ai − Ai−1 )
(25)
i=1
= l´ım
n→∞
= l´ım
n→∞
= l´ım
n X i=1 n X i=1 n X
n→∞
P (Ai − Ai−1 ) (P (Ai ) − P (Ai−1 )) n X
P (Ai ) − l´ım
n→∞
i=1
(26)
P (Ai−1 )
i=1
= l´ım [P (A1 ) + . . . + P (An ) − (P (A0 ) + . . . + P (An+1 ))] n→∞
= l´ım [P (An ) − P (A0 )] n→∞
= l´ım P (An )
(27)
n→∞
(25) Disjuntos. (26) Ya que Ai−1 ⊂ Ai ∴ P (Ai − Ai−1 ) = P (Ai ) − P (Ai−1 ). (27) Ya que P (A0 ) = P (∅) = 0. Sean B1 ⊃ B2 ⊃ . . . eventos de
a entonces: P
∞ T i=1
∞ \
Bi =
i=1
∞ \
Bi
= l´ım P (Bn ) n→∞
! Bi
(28)
i=1
=
∞ [ i=1
(28) Doble negaci´ on. 49
! Bi
(29)
(29) De-Morgan.
P
∞ \
! Bi
=P
i=1
∞ [
! Bi
i=1
=1−P
∞ [
! Bi
i=1
= 1 − l´ım P Bn
(30)
n→∞
= 1 − l´ım (1 − P (Bn )) n→∞
= l´ım P (Bn ) n→∞
(30) Vale por el item anterior. (31) Definici´ on de complemento.
4.2.
Funci´ on de distribuci´ on acumulada
Sea (S,
a , p) un modelo probabil´ıstico y X una V.A. entonces:
1. F es mon´ otona creciente, id est: si x1 < x2 ⇒ F (x1 ) ≤ F (x2 ) 2.
l´ım F (x) = 0 y el l´ım F (x) = 1
x→−∞
x→∞
3. l´ım F (x) = F (a) x→a+
4. S´ olo v´ alida si es continua: l´ım− F (x) = l´ım+ F (x) = F (a) x→a
x→a
1. Demostraci´ on: Si x1 < x2 ⇒ [X ≤ x1 ] ⊆ [X ≤ x2 ] ⇒ P (X ≤ x1 ) ≤ P (X ≤ x2 ) ∴ F (x1 ) ≤ F (x2 ) 2. Para probar que el l´ım F (x) = 1 definamos An = [X ≤ n] x→∞
∀n ∈ N ⇒ A1 ⊂ A2 ⊂ . . . ⊂ An y
∞ S
Ai = S espacio muestral
i=1
1=P
∞ S i=1
Ai
?
= l´ım P (An ) = l´ım P (X ≤ n) = l´ım F (n) n→∞
n→∞
∴ l´ım F (n) = l´ım F (x) = 1 n→∞
x→∞
? Por lo probado en la proposici´on anterior. Ahora queremos probar que l´ım F (x) = 0 x→−∞
50
n→∞
(31)
Definimos Bn = [X ≤ −n] ∀n ∈ N Ahora obtengo B1 ⊃ B2 ⊃ B3 ⊃ . . . Luego
∞ T
Bn
=∅
n=1
0=P
∞ \
! ?
Bn
= l´ım P (Bn ) = l´ım F (−n) ∴ l´ım F (x) = 0 n→∞
n=1
|
{z
n→∞
x→−∞
}
P (∅)
? Vale por lo probado en la proposici´on anterior. 3. Queremos demostrar que l´ım F (x) = F (a) Definimos Bn = [X ≤ a
x→a+ + n1 ] ∀n
∈N
B1 = [X ≤ a + 1] B2 = [X ≤ a + 0,5] Luego Bi+1 ⊂ Bi ∀i : 1 ≤ i ≤ n ∞ T Quiero ver que Bn = [X ≤ a] n=1
(⊆) Sea w ∈
∞ T
Bn ⇒ w ∈ Bn ∀n ∈ N
n=1
*asumimos X(w) 6> A ⇒ X(w) ≤ a +
1 n
≤ a ∀n ∈ N
∴ X(w) ≤ a ⇒ w ∈ [X ≤ a] 1 ∀n ∈ N n ∞ \ ⇒ w ∈ Bn ∀n ∈ N ∴ w ∈ Bn
(⊇) Sea w ∈ [X ≤ a] ⇒ X(w) ≤ a ≤ a +
n=1
∴
∞ \
Bn = [X ≤ a]
n=1
Luego F (a) = P
∞ T
Bn
n=1
= l´ım P (Bn ) = l´ım F a + n→∞
n→∞
1 n
∴ F (a) = l´ım F (x) x→a+
4. Sea X una variable aleatoria continua queremos probar que: l´ım F (x) = l´ım+ F (x) = F (a)
x→a−
x→a
Definimos An = X ≤ a − n1 ∀n ∈ N ∞ S ? Entonces Ai ⊂ Ai+1 y An = [X < a] n=1
51
? F´ acil de probar. ∞ S An = l´ım P (An ) = l´ım F (a − n1 ) P (X < a) = P x→∞
n=1
x→∞
Como X es una variable aleatoria continua P (X < a) = P (X ≤ a) 3
Luego P [X ≤ a] = F (a) ⇒ l´ım− F (x) = F (a) = l´ım+ F (x) x→a
x→a
Corolario La funci´ on de distribuci´on de probabilidad de una variable aleatoria continua es continua. La funci´ on de distribuci´on de probabilidad acumulada de una variable aleatoria continua es continua. Definici´ on: se llama funci´on de densidad de probabilidad a toda funci´on ≥0
f :R→R
Z∞ :
f (t) dt = 1 −∞
Propiedad: sea X una variable aleatoria continua entonces: f (t) =
F 0 (t) 0
en donde exista en caso contrario Zx
y F (x) =
f (t) dt −∞
Definici´ on percentil: sea X una variable aleatoria continua llamaremos percentil p: (p(100 %)) con p ∈ (0, 1) al valor ηp : F (ηp ) = p
52
Propiedad: sea X una variable aleatoria continua : Y = a.X +b con p ∈ (0, 1) y a 6= 0 entonces: a.ηx (p) + b si a > 0 ηy (p) = a.ηx (1 − p) + b si a < 0 Demostraci´ on exijo
Def
Quiero hallar ηy (p) : Fy (ηy (p)) = p = P (Y ≤ ηy (p)) = P [a.X + b ≤ ηy (p)] Si a > 0 h i η (p)−b [a.X + b ≤ ηy (p)] = X ≤ y a η (p)−b = Fx (ηx (p)) Fy (ηy (p)) = p = Fx y a Luego ηy (p) = a.ηx (p) + b si a > 0 Si a < 0 h i η (p)−b [a ∗ X + b ≤ ηy (p)] = X ≥ y a η −b
Fy (ηy (p)) = p = 1 − Fx ( ya ) = F (x) = 1 − p = (ηx (1 − p)) Luego ηy (p) = a.ηx (1 − p) + b si a < 0
4.3.
Distribuci´ on uniforme
Una variable aleatoria X ser´a uniforme si su funci´on de distribuci´on acumulada est´ a dada por: si x ≤ a 0 x−a si x ∈ (a, b) con a < b F (x) = b−a 1 si x ≥ b Como F (x) no es diferenciable en x = a y x = b nos queda definida la funci´ on de distribuci´ on de probabilidad como: 1 si x ∈ (a, b) b−a f (x) = 0 en caso contrario Notaci´ on: X ∼ U (a, b) Propiedad: sea X ∼ U (a, b) queremos hallar ηx (p) = p.(b − a) + a F (ηx (p)) =
ηx (p) − a ⇒ ηx (p) = p.(b − a) + a b−a
Con p = 0,5 ⇒ µ e = 12 .(b − a) + a =
b+a 2
53
se define la mediana.
4.4.
Esperanza y varianza de una variable aleatoria continua
Sea X una variable aleatoria continua con funci´on de densidad de probabilidad f . Se define el valor esperado o valor medio o esperanza de X al valor medio. Notaci´on: E(x) = µ Proposici´ on: sea X una variable aleatoria continua con funci´on de densidad R∞ h(x).f (x) dx siempre que exista. f y sea h una funci´ on entonces: E (h(x)) = −∞
Definici´ on: llamaremos varianza de X a E(x − µ)2 , siempre que exista donde 2 µ = E(x) p que denotaremos como V (x) = σ y la desviaci´on est´andar de X como V (x). Proposici´ on: sea X una variable aleatoria con funci´on de densidad f V (x) = E(x2 ) − E(x)2 E(a.x + b) = a.E(x) + b ∀a, b ∈ R V (a.x + b) = a2 .V (x) ∀a, b ∈ R Demostraci´ on: Queremos ver que V (x) = E(x2 ) − E(x)2 Z∞
2
V (x) = E (x − µ) = | {z } h(x)
(x − µ)2 .f (x) dx
−∞
Z∞ =
2
2
f (x) dx − 2.µ.
x .f (x) dx + µ . −∞
Z∞
Z∞ −∞
| {z } = 1
= E(x2 ) + µ2 − 2.µ2 = E(x2 ) − µ2
54
x.f (x) dx
−∞
|
{z
= µ
}
4.4.1.
Esperanza y varianza de una uniforme
Sea X ∼ U (0, 1) ⇒ E(x) =
1 2
y la V (x) =
1 12
Demostraci´on R∞
E(x) =
x.f (x) dx =
−∞
R1 0
x. f (x) dx = |{z}
x2 2
1
1 2
x3 3
|0 =
|0 =
= 1
E(x2 ) =
R∞
x2 .f (x) dx =
−∞
R1 0
x2 . f (x) dx = |{z}
1
1 3
= 1
2
2
V (x) = E(x ) − E(x) =
1 3
−
1 4
=
1 12
Proposici´on ∀a < b sea Y = (b − a).X + a con X ∼ U (0, 1) entonces: Y ∼ U (a, b) E(Y ) =
a+b 2
V (Y ) =
(b−a)2 12
Demostraci´ on: y−a = F Fy (y) = P (Y ≤ y) = P X ≤ y−a x b−a b−a y−a 1 1 0 y−a 0 Fy (y) = Fx b−a . b−a = fx b−a . b−a 1 si y ∈ (a, b) b−a f (y) = 0 en caso contrario 1 f (y) = I(a, b) (y). b−a ⇒ Y ∼ U (a, b) Luego como Y = (b − a).x + a
E(x) =
1 2
V (x) =
1 12
Usando las propiedades de la esperanza y la varianza obtenemos que: E(y) = (b − a).E(x) + a =
b−a b+a +a= 2 2
V (y) = (b − a).V (x) =
(b − a)2 12
Corolario: sea Y ∼ U (−a, a) entonces E(y) = 0 y la V (y) =
55
a2 4
Ejemplo El tiempo que tarda en realizar un viaje ida y vuelta un cami´on, que transporta concreto hacia una obra en construcci´on, tiene una distribuci´on uniforme en el intervalo de 50 a 70 minutos. 1. Cu´ al es la probabilidad que la duraci´on del viaje sea mayor a 65 minutos dado que la duraci´ on ya pas´o lo 55 minutos? 1 b−a
f (y) =
si y ∈ (a, b) en caso contrario
0
f (x) =
1 20
si x ∈ (50, 70) en caso contrario
0
P ((X > 65) ∩ (X > 55)) P (X > 55) 1/4 1 P (X > 65) = = = P (X > 55) 3/4 3
P (X > 65|X > 55) =
R∞
P (X > 65) =
f (x)dx =
−∞
R∞
P (X > 55) =
R70 dx 65
f (x)dx =
−∞
20
R70 dx 55
20
=
x 70 20 | 65
=
1 4
=
x 70 20 | 55
=
3 4
2. Dar el valor medio y la desviaci´on est´andar del tiempo de duraci´on de viaje. E(x) =
a+b 2
=
70+50 2 2
= 60 2
σ 2 = V (x) = (b−a) = 20 12 12 = 33,33 p √ σ = V (x) = 33,33 = 5,7735 3. Suponga que los tiempos que tardan cada uno de los tres camiones son independientes uno de otro. Cu´al es la probabilidad de que exactamente uno de ellos tarde m´ as de 55 minutos? Defino una binomial: X ∼ B(n, p) Donde X es el n´ umero de camiones que tarda m´as de 55 minutos. 3 P (E) = p = 4 ∴ X ∼ B 3, 34 (3−1) Me pide calcular la P (X = 1) = 31 . 34 . 14 = 3. 34 .( 14 )2 = 0,1406
56
4.5.
Distribuci´ on normal
Definici´ on: diremos que una variable aleatoria X tiene distribuci´on normal de par´ ametros µ ∈ R y σ 2 > 0 si su funci´on de densidad de probabilidad est´ a dada por: (x−µ)2 1 f (x) = √ .e− 2σ2 ∀x ∈ R 2πσ 2 Es la variable aleatoria continua m´as importante dentro de la probabilidad y estad´ıstica. Notaci´on : X ∼ N (µ, σ 2 ) 4.5.1.
Propiedades de la funci´ on de densidad
f es sim´etrica en torno de µ, id est: f (µ − t) = f (µ + t) ∀t ∈ R. f tiene un punto m´ aximo en x = µ. f tiene puntos de inflexi´on en µ + σ y µ − σ. l´ım f (x) = l´ım f (x) = 0
x→−∞
x→∞
Proposici´ on Sea X ∼ N (µ, σ 2 ) entonces: 1.
R∞
f (x) dx = 1
−∞
Prueba: Z∞
f (x)dx = 1 ⇔
−∞
2
Z∞
f (x)dx = 1
−∞
hacemos un cambio de variable llamando a: como f (x) =
√ 1 2πσ 2
e−(
x−µ σ
21 2
)
x−µ σ
obtengo f (t) =
57
=t
√ σ 2πσ 2
e
−t2 2
Z∞ Partimos de
√
−∞
σ 2πσ 2
e
−t2 2
Z∞
dt =
2 √
−∞
1 = 2π 1 = 2π
σ 2πσ 2
Z∞ e −∞ Z∞
e
−t2 2
dt
Z∞
t2 2
dt.
e
y2 2
dy
−∞
Z∞ e
t2 +y 2 2
dtdy
−∞ −∞
1 = 2π
Z2πZ∞ e 0
=
1 2π
−r 2 2
.r drdθ
(32)
0
Z2π dθ
(33)
0
=1 (32) Hacemos un cambio a coordenadas polares llamando a: t = r.cos(θ) y = r.sen(θ) : 0 ≤ θ ≤ 2π ⇒ (33)
R∞
e
−r 2 2
1 2π
2π R R∞
1 2π
−r 2 2
.r drdθ
0 0
−r2 −r 2 +∞ .r dr = −e 2 | 0 = l´ım −e 2 + 1 = 1 r→∞
0
(34)
e
2π R 0
dθ =
1 2π
2π
θ |0
1 = 2π. 2π =1
58
(34)
2. E(x) = µ Z∞ ((t − µ) + µ) .f (t) dt
E(x) = −∞ Z∞
Z∞ (t − µ).f (t) dt +
= −∞ Z∞
=
(t − µ) √
1 =√ 2π
Z∞
1 2πσ 2
t−µ σ
e −(
.e−(
−∞
Z∞ dt + µ.
f (t) dt
t−µ σ
)
21 2
dt + µ
(36) (37)
−∞ t−µ σ
21 2
)
−∞
(35) Sumo y resto µ R∞ (36) Ya que f (t) dt = 1 √1 2π
t−µ σ
−∞
=µ
(37)
µ.f (t) dt −∞
−∞
R∞
(35)
e−(
t−µ σ
21 2
)
dt = 0
59
3. V (x) = σ 2
V (x) = E(x − µ)2 2 Z∞ x−µ 2 x−µ σ2 = .√ .e−( σ ) 1/2 dx 2 σ 2.π.σ −∞ Z∞
= −∞
σ 2 − y2 y2 √ .e 2 dy 2.π
σ2 =√ 2.π
Z∞
y 2 .e−
y2 2
(38)
dy
−∞
Z∞ 2 y2 y σ2 ∞ =√ −y.e− 2 | −∞ + e− 2 dy 2.π −∞ Z∞ y2 1 e− 2 = σ2 √ 2.π
(39)
−∞
= σ2 (38) Tomo y = (39) −y.e−
y2 2
∞
x−µ σ
⇒
dy dx
=
1 σ
y 2 y→−∞ e y2
| −∞ = − l´ım
y 2 y→∞ e y2
+ l´ım
=0
Dentro de la familia de normales la m´as importante es cuando µ = 0 y σ = 1 tal variable se denomina variable normal est´ andar.5
5 Notaci´ on:
Z ∼ N (0, 1)
60
4.5.2.
Estandarizaci´ on Sea X ∼ N (µ, σ 2 ) ⇒ x−µ σ
Demostraci´ on: Sea Y =
X−µ σ
∼ N (0, 1)
Fy (y) = P [Y ≤ y] x−µ =P ≤y σ = P [x ≤ σ.y + µ] = Fx (σ.y + µ) ∀y ∈ R
Derivo y obtengo: σ.fx (σ.y + µ) = σ. √ =
e
1 2πσ 2
e
−(σ.y+µ−µ)2 2σ 2
2 .y 2 − σ2∗σ 2
√
2π
2 − y2
e = √
∀y ∈ R ∴ Y ∼ N (0, 1) 2π Estand. b−µ a−µ = Φ( b−µ Luego P (a ≤ X ≤ b) = P a−µ σ ≤Z ≤ σ σ ) − Φ( σ ) donde Φ es la funci´ on de distribuci´on acumulada de Z. Ejemplo Sea Z ∼ N (0, 1) se pide: 1. P (Z ≤ 2) = Φ(2) = 0,9772 2. P (Z ≥ 1,96) = 1 − Φ(1,96) = 1 − 0,9750 = 0,025 3. P (0 ≤ Z ≤ 1,73) = Φ(1,73) − Φ(0) = 0,9582 − 0,5 = 0,4582 4. P (−1,5 ≤ Z ≤ −1) = Φ(1,5) − Φ(1) = 0,9332 − 0,8413 = 0,0919 5. P (−1,5 ≤ Z ≤ 2,82) = Φ(2,82) − Φ(−1,5) = Φ(2,82) − (1 − Φ(1,5)) = 0,9976 − 1 + 0,9332 = 0,9308
61
Propiedad Sea X ∼ N (µ, σ 2 ) y p ∈ (0,1) ⇒ ηx (p) = σ.ηz (p) + µ Demostraci´ on Estand. p = Fx (ηx (p)) = P (X ≤ ηx (p)) = P Z ≤ Luego ηz (p) =
ηx (p)−µ σ
ηx (p)−µ σ
=Φ
ηx (p)−µ σ
∴ ηx (p) = σ.ηz (p) + µ . Ejemplo
Los alambres que se utilizan en cierta computadora deben tener una resistencia Ω ∈ (0,12 ; 0,14). Para cierta compa˜ n´ıa la resistencia de los alambres son producidos con una distribuci´ on normal con una media de 0,13 y una desviaci´on est´ andar σ = 0,005 . Se pide: 1. Cu´ al es la probabilidad que un alambre producido en dicha compa˜ n´ıa cumpla con las especificaciones? 0,14 − 0,13 0,12 − 0,13 ≤Z≤ (40) P (0,12 ≤ X ≤ 0,14) = P 0,005 0,005 = P (−2 ≤ Z ≤ 2) = Φ(2) − (1 − Φ(2)) = 2.Φ(2) − 1 = 0,9544 (40) Estandarizo. 2. Si se seleccionan 4 alambres para un sistema al azar Cu´al es la probabilidad que los 4 cumplan con las especificaciones? (0,9544)4 = 0,8297 3. Cu´ al es la probabilidad de que exactamente una cumpla con las especificaciones? Defino una binomial Y : Y ∼ B(4; 0,9544) entonces me pide calcular P [Y = 1] = 41 .(1 − p)3 .p = 0,13
62
4. Para qu´e valor c se cumple que la resistencia de un alambre se desv´ıe a lo sumo c unidades con un porcentaje del 95 %. exijo
P (|x − µ| ≤ c) = 0,95 Estandarizo y obtengo: P
P (Z ≤ Z) : Z =
4.6.
X−µ σ
≤
c σ
exijo = 0,95
c = 1,96 ∴ c = 1,96 ∗ σ = 0,0098 σ
Distribuci´ on Gamma
Sea f : R≥0 → R≥0 llamaremos funci´on gamma a la definida por: +∞ Z xα−1 e−x dx ∀α > 0 Γ(α) = 0
1. Γ(1) = 1 2. Γ(α + 1) = α.Γ(α) 3. Γ(n + 1) = n! ∀n ∈ N Demostraci´ on: +∞ Z Γ(1) = x1−1 .e−x dx 0 +∞ Z = e−x dx 0 ∞
= −e−x | 0 1 = l´ım x + 1 x→∞ e =1
63
Ahora quiero ver que Γ(α + 1) = α.Γ(α) +∞ Z Γ(α) = xα−1 .e−x dx 0 +∞ Z
x.xα−2 .e−x dx
= 0
+∞ Z
−x x . |xα−2 |{z} {ze } dx =
=
U0
0
V
x2 α−2 −x ∞ x e |0 2 {z } |
=0
+∞ +∞ Z Z 1 − (α − 2). x2 xα−3 e−x dx − x2 xα−2 e−x dx 2 0
=−
0
+∞ +∞ Z Z α−2 2 α−3 −x x x e dx − x2 xα−2 e−x dx 2 0 0 | {z } | {z } Γ(α)
Γ(α+1)
α−2 Γ(α + 1) =− .Γ(α) + 2 2 α−2 Γ(α + 1) = Γ(α). 1 + 2 2 Γ(α + 1) α = .Γ(α) 2 2 ∴ Γ(α + 1) = α.Γ(α) (41) Entonces U =
x2 2
y V 0 = (α − 2).xα−3 e−x − e−x xα−2
Por u ´ltimo quiero ver que Γ(n + 1) = n! ∀n ∈ N Prueba por inducci´ on en n: Si n = 0 ⇒ Γ(0 + 1) = Γ(1) = 1 = 0! Vale Tomo como hip´ otesis inductiva que vale para n, id est: Γ(n + 1) = n! Veamos que Γ ((n + 1) + 1) = (n + 1)! (2)
H.I.
Γ ((n + 1) + 1) = (n + 1).Γ(n + 1) = (n + 1).n! = (n + 1)!
64
(41)
Definici´ on: diremos que una variable aleatoria X tiene distribuci´on Gamma de par´ ametros α y β con (α, β > 0) si tiene funci´on de densidad definida por: f (x) =
1 Γ(α).β α
x
.xα−1 .e− β 0
si x > 0 en caso contrario
Notaci´on: X ∼ Γ(α, β) Ahora probaremos que la integral de la funci´on de densidad da 1 R∞ ? f (x) dx = 1 Id est: −∞
Como la funci´ on de densidad s´olo est´a definida si x > 0 1 Γ(α)β α
+∞ Z x xα−1 e− β dx =
1 Γ(α)β α−1 .β
0
+∞ Z x xα−1 e− β dx 0
+∞ Z α−1 x 1 x = .e− β dx Γ(α).β β 0
=
1 Γ(α).β
+∞ Z tα−1 e−t dt .β 0
|
{z
Γ(α)
1 .Γ(α) Γ(α) =1
=
(42) Hago un cambio de variable llamando a: t =
65
x β
}
(42)
Luego queremos Hallar E(x) y la V (x) Si X ∼ Γ(α, β) y sea n ∈ N +∞ Z E(x ) = xn f (x) dx n
−∞ Z∞
xn .
=
x xα−1 .e− β dx α Γ(α).β
0
β n−1 = Γ(α)
Z∞ (n+α)−1 x x .e− β dx β 0
n−1
β .β = Γ(α)
Z∞
t(n+α)−1 .e−t dt
(43)
0
β n .Γ(n + α) = Γ(α) (43) Hago un cambio de variables llamando a: t =
x β
β.Γ(α + 1) Γ(α) = β.α
E(x) =
V (x) = E(x2 ) − (E(x))
2
β 2 Γ(α + 2) − β 2 α2 Γ(α) α.(α + 1)Γ(α) 2 =β . − β 2 α2 Γ(a) =
= β 2 α2 + β 2 α − β 2 α2 = β 2 α = β2α
66
4.7.
Distribuci´ on exponencial
Definici´ on: diremos que X tiene distribuci´on exponencial de par´ametro λ (con λ > 0) si su funci´ on de densidad est´a dada por: λ.e−λx si x > 0 f (x) = 0 en caso contrario 4.7.1.
Distribuci´ on exponencial vista como una Gamma 1 −x β si x > 0 β .e Si X ∼ Γ(1, β) ⇒ f (x) = 0 en caso contrario λ.e−λx si x > 0 1 Luego llamando λ = β ⇒ f (x) = 0 en caso contrario
4.7.2.
Propiedades de la distribuci´ on exponencial Sea X ∼ exp(λ) = Γ 1, λ1 vale que:
1. E(x) =
1 λ
y la V (x) =
2. F (x) = P [X ≤ x] =
1 λ2
+∞ R
f (t) dt
−∞
Si x ≤ 0 ⇒ F (x) = 0 Zx Si x > 0 ⇒ F (x) =
λ.e−λ.t dt
0 x
= −e−λ.t | 0
= −e−λ.x + 1 Luego F (x) =
1 − e−λ.x 0
67
si x > 0 en caso contrario
3. Propiedad de falta de memoria P (x ≥ t + t0 |x ≥ t0 ) = P (x ≥ t)
P ((x ≥ t + t0 ) ∩ (x ≥ t0 )) P (x ≥ t0 ) P (x ≥ t + t0 ) = P (x ≥ t0 ) 1 − F (t + t0 ) = 1 − F (t0 )
P (x ≥ t + t0 |x ≥ t0 ) =
=
1 − (1 − e−λ(t+t0 ) ) 1 − (1 − e−λ.t0 )
e−λ(t+t0 ) e−λ.t0 −λ.t =e =
= 1 − (1 − e−λ.t ) = P (x ≥ t)
68
Distribuci´ on χ2
4.8.
Definici´ on: diremos que una variable aleatoria X tiene distribuci´on χ2 o chi cuadrado de par´ ametro ν, (ν > 0) si su funci´on de densidad es la de Γ ν2 , 2 ν Notaci´on: X ∼ χ2ν = Γ ,2 2 Propiedades de la distribuci´ on χ2 Sea X ∼ χ2ν = Γ ν2 , 2 vale que:
4.8.1.
1. E(x) =
ν 2
∗ 2 = ν y la V (x) = 2ν
2. Sea Z ∼ N (0, 1) ⇒ Z 2 ∼ χ21 = Γ
1 2, 2
Demostraci´ on: Si w ≤ 0 ⇒ Fw (w) = P (Z 2 ≤ w) = P (∅) = 0 √ √ √ Si w > 0 Fw (w) = P (Z 2 ≤ w) = P (|z| ≤ w) = Φ( w) − Φ(− w) Donde Φ es la funci´ on de distribuci´on acumulada de la normal est´andar. √ 1 √ 1 Fw0 (w) = fw (w) = fz ( w) √ − fz (− w) − √ 2 w 2 w w 1 1 −w √ e 2 + e− 2 = √ 2 w 2π w w e− 2 1 √ e− 2 =√ √ = w 2π w1/2 2π w w−1/2 − w w−1/2 = √ e 2 = 1/2 √ e− 2 2 π 2π
Luego si probamos Γ( 12 ) =
√
π ⇒ z 2 ≈ χ21
? Recordar que si Z ∼ N (0, 1) ⇒ fz (w) = Mis candidatos van a ser β = 2 y α =
69
1 2
√1 2.π
e−
z2 2
Z∞ 1=
fw (w) dw
(44)
0
2− 2 = 1 √ 22 . π
Z∞ −1/2 w e−w/2 dw 2
1 = √ 2 π
2.t−1/2 e−t dt
1
(46)
0
1 =√ π
Z∞
t−1/2 e−t dt
0
| ∴Γ
(45)
0 Z∞
{z
Γ( 21 )
}
√ 1 = π 2
(44) Por ser fw (w) una funci´on de densidad. 1
(45) Multiplico y divido por 2− 2 (46) Hago un cambio de variables llamando a: t =
70
w 2
5.
Distribuci´ on de probabilidad conjunta Sean X e Y dos variables aleatorias sobre un mismo espacio muestral S. Definimos la funci´ on de probabilidad conjunta de (x, y) como la funci´on: P : R2 → [0, 1] Dada por: P (x, y) = P ([X = x] ∩ [Y = y]) ∀x, y ∈ R
A partir de la funci´ on de probabilidad conjunta se puede hallar la funci´on de probabilidad de X e Y que se las conoce con el nombre de marginales. Px (x) = P (X = x) = P ([X = x] ∩ [∪y [Y = y]]) = P (∪Y [X = x] ∩ [Y = y]) Disj X = P ([X = x] ∩ [Y = y]) {z } | Y
∴ Px (x) =
X
P (x,y)
P (x, y) ∀x ∈ R
Y
De manera similar resulta que: Py (y) = P (Y = y) =
P
P (x, y) ∀y ∈ R
X
5.1.
Funciones marginales
Sean X e Y variables aleatorias Pdiscretas se cumple que: La marginal de x es: Px (x) = P (x, y) ∀x ∈ R Y P La marginal de y es: Py (y) = P (x, y) ∀y ∈ R X
Ejemplo Se asignan aleatoriamente 2 contratos de construcciones para 3 empresas posibles: A,B,C. Sea X = “N´ umero de contratos asignados a la empresa A” Sea Y = “N´ umero de contratos asignados a la empresa B” Los valores posibles de X e Y son: 0, 1, 2. S = {(A,A);(A,B);(A,C);(B,A);(B,B);(B,C);(C,A);(C,B);(C,C)} Si todos los pares son igualmente posible entonces P ({w}) = 91 ∀w ∈ S HH Y 0 HH X H 1 0 9 2 1 9 1 2 9 Luego la marginal de x : Px (x) =
2 P y=0
71
1
2
2 9 2 9
1 9
0
0 0
P (x, y) =
4 9
1 9 4 9
si x = 2 si x = 1 ´o x = 0 (matriz sim´etrica). 0 en caso contrario Como tienen la misma distribuci´on entonces tienen la misma esperanza y varianza. Luego Py (y) = Px (x) =
E(x) = E(y) =
2 X
P [Y = y] = 0 ∗
y=0
E(x2 ) = E(y 2 ) =
2 X
P [Y = y] =
y=0
P [Y = y] = 12 ∗
y=1
V (x) = V (y) = E(y 2 ) − E(y)2 =
5.2.
2 X
4 1 2 4 +1∗ +2∗ = 9 9 9 3
8 9
−
4 9
=
8 1 4 + 22 ∗ = 9 9 9
4 9
Funci´ on de densidad conjunta
Definici´ on: sean X e Y variables aleatorias continuas sobre el mismo espacio muestral S. Llamaremos funci´on de densidad conjunta de (x, y) a la funci´on f : R2 → R≥0 R R Tal que: P ((x, y) ∈ A) = f (x, y) dxdy (x,y) (x,y) Rd Rb
LuegoP ((x, y) ∈ [a, b]∗ [c, d]) =
f (x, y) dxdy
c a
R∞ R∞ Si A = R2 ⇒ P (x, y) ∈ R2 = f (x, y) dxdy = 1 −∞ −∞
La marginal de X es: fx (x) =
R∞
f (x, y) dy ∀x ∈ R
−∞
72
R∞
La marginal de Y es: fy (y) =
f (x, y) dx ∀y ∈ R
−∞
Ejemplo Sea X = “Proporci´ on de tiempo que est´a Sea Y = “Proporci´ on de tiempo que est´a k(x + y 2 ) Donde: f (x, y) = 0
ocupada la casilla de autos” ocupada la casilla de colectivos” si x, y ∈ [0, 1] en caso contrario
Determinar el valor positivo de k: R∞ R∞ 1= f (x, y) dxdy −∞ −∞
Reemplazo por la funci´on, los l´ımites de integraci´on donde est´a definida y obtengo: 1 R1 R1 R x2 1 R1 2 1 | + y x | 1= k.(x + y 2 ) dxdy = k. 0 dy 2 0 0 0
1 = k.
0
0
1 R 0
1 2
+ y 2 dy
⇒k=
6 5
6 5
Luego f (x, y) =
∗ (x + y 2 ) 0
si x, y ∈ [0, 1] en caso contrario
Obtener la marginal de X: R∞ Si x 6∈ [0, 1] ⇒ fx (x) = f (x, y) dy = 0 −∞ | {z } =0
Z∞ Si x ∈ [0, 1] ⇒ fx (x) =
f (x, y) dy −∞
6 = 5
Z1
x + y 2 dy
0
= =
Luego fx (x) =
2 5 .(3x
0
73
+ 1)
.. . 2 . (3x + 1) 5 si x ∈ [0, 1] en caso contrario
Obtener la marginal de Y: Se obtiene de la misma manera que la marginal de x pero integrando sobre x: 3 2 5 .(1 + y ) si y ∈ [0, 1] fy (y) = 0 en caso contrario Calcular la E(x) y la V (x) R∞
E(x) =
x.fx (x) dx =
−∞
E(x2 ) =
R∞
2 5
x2 .fx (x) dx =
−∞
V (x) = E(x2 ) − E(x)2 =
R1 0 2 5
13 30
x.(1 + 3x) dx = 52 .[ 12 + 3. 13 ] = R1 0
−
3 5
= 0,6
x2 .(1 + 3x) dx = 52 .[ 13 + 3. 14 ] = 9 25
=
11 150
= 0,073
Sea A = {(x, y) : x, y ≤ 14 } se pide calcular P ((x, y) ∈ A) 1 1
P ((x, y) ∈ A) =
R4 R4
f (x, y) dxdy = . . . =
0 0
7 640
= 0,010
Ejemplo Sea f (x, y) =
k.x.y 0
si x, y ∈ [0, 1] en caso contrario
Determinar el valor positivo de k
74
:x+y ≤1⇒y ≤1−x
13 30
= 0,43
Z∞ Z∞ 1=
f (x, y) dxdy −∞ −∞
Z1 1−y Z = k.x.y dxdy 0
0
Z1 = k.
1−y Z x dx dy y 0
0
Z1 y.
= k.
(1 − y)2 dy 2
0
⇔
k 2
1 2
+
1 4
− 2. 13 = 1 ⇔
k 24
= 1 ⇔ k = 24
Obtener la marginal de X R∞ Si x 6∈ [0, 1] ⇒ fx (x) = f (x, y) dy = 0 −∞ | {z } =0
R∞
Si x ∈ [0, 1] ⇒ fx (x) =
f (x, y) dy
−∞ 1−x R 0
f (x, y) dy = 24.x.
1−x R 0
y dy = 24.x. (1−x) 2
Luego fx (x) =
12.x.(1 − x)2 0
75
2
si x ∈ [0, 1] en caso contrario
5.3.
Interdependencia entre variables aleatorias
Si A y B son eventos en el mismo espacio muestral S, definimos que A y B son independientes si: P (A ∩ B) = P (A).P (B) Definici´ on: sean X e Y variables aleatorias sobre el mismo espacio muestral S entonces diremos que X e Y son variables aleatorias independientes si: P ([X ∈ C] ∩ [Y ∈ D]) = P (X ∈ C).P (Y ∈ D) ∀ C, D ⊂ R | {z } | {z } A
B
Propiedad Sean X e Y variables aleatorias sobre el mismo espacio muestral S entonces: F (x, y) = P ([X ≤ x] ∩ [Y ≤ y]) = Fx (x).Fy (y) ∀x, y ∈ R Con Fx (x) y Fy (y) las funciones de distribuci´on acumuladas de X e Y respectivamente. Corolario: Si X e Y son independientes Si X e Y son variables aleatorias discretas con funci´on de distribuci´on de probabilidad conjunta P (x, y) entonces: P (x, y) = Px (x).Py (y) ∀x, y ∈ R Si X e Y son variables aleatorias continuas con funci´on de densidad de probabilidad conjunta f (x, y) entonces: f (x, y) = fx (x).fy (y) ∀x, y ∈ R Volviendo al ejemplo de los contratos H HH Y 0 HH X 1 0 9 2 1 9 1 2 9
1
2
2 9 2 9
1 9
0
0 0
1 4 4 ∗ = 9 9 81 ∴ X e Y no son variables aleatorias independientes. En el ejemplo de los autos y camiones tampoco se cumple la independencia 6 ya que: 0 = f (0, 0) 6= fx (0) ∗ fy (0) = 25 P (2, 1) = 0 y Px (2) ∗ Py (1) =
Definiciones Sean X1 , . . . , Xn variables aleatorias sobre S entonces:
76
1. Llamaremos funci´ on de probabilidad conjunta de (X1 , . . . , Xn ) a P (x1 , . . . , xn ) = P ([X1 = x1 ] ∩ . . . ∩ [Xn = xn ]) ∀xi ∈ R : 1 ≤ i ≤ n cuando las variables aleatorias son discretas. 2. Llamaremos funci´ on de densidad conjunta de (X1 , . . . , Xn ) a P (x1 , . . . , xn ) =
Rb1
Rbn
...
a1
f (x1 , . . . , xn ) dx1 . . . dxn
an
∀ai < bi ∈ R : 1 ≤ i ≤ n cuando las variables aleatorias son continuas. 3. Diremos que X1 , . . . , Xn son independientes si y s´olo si T Q P (xi ∈ [ai , bi ]) = P (xi ∈ [ai , bi ])∀ai < bi ∈ R i∈I
i∈I
con 1 ≤ i ≤ n e I cualquier subconjunto de ´ındices {1, . . . , n}. Proposici´on Sean X e Y variables aleatorias sobre un mismo espacio muestral S, con funci´ on de distribuci´ on de probabilidad o funci´on de densidad conjunta p(x, y) o f (x, y) respectivamente y sea h : R2 → R ´ Entonces: PP h(x, y).p(x, y) si X e Y son discretas. X Y E(h(x, y)) = R∞ R∞ h(x, y).f (x, y) dxdy si X e Y son continuas. −∞−∞
Esperanza de una combinaci´on lineal de variables aleatorias E(a.X + b.Y ) = a.E(X) + b.E(Y ) ∀a, b ∈ R Demostraci´ on: E(a.X + b.Y ) =
XX (ax + by).P (x, y) X
Y
X X XX =a x P (x, y) + b y.P (x, y) X
=a
X
Y
X
x.Px (x) +
X
X
Y
= a.E(x) + b.E(y)
77
Y
y.Py (y)
5.4.
Covarianza
Sean X e Y variables aleatorias sobre S entonces llamamos covarianza entre X e Y, Cov(X, Y ) al valor: Cov(x, y) = E ((x − µx ).(y − µy )) : µx = E(x) y µy = E(y) Proposici´ on Cov(x, y) = E(x.y) − µx .µy : µx = E(x) y µy = E(y) Demostraci´ on con X e Y variables aleatorias discretas XX Cov(x, y) = (x − µx ).(y − µy ) .p(x, y) | {z } X Y h(x,y)
=
XX X
x.y.P (x, y) −µy
X
Y
{z
|
X X x P (x, y)
=E(x.y)
{z
| |
− µx
Y
}
Px (x)
{z
E(x)=µx
} }
X X XX y P (x, y) +µx .µy P (x, y) x
Y
| |
X
{z
Py (y)
{z
E(y)=µy
}
Y
|
{z
=1
}
}
= E(x.y) − µy µx − µx µy + µx µy = E(x.y) − µx µy 5.4.1.
Propiedades de la covarianza
1. Cov(x, y) = E(x.y) − µx .µy 2. Cov(x, x) = V (x) 3. Cov(a.x + b, c.y + d) = a.c.Cov(x, y) ∀a, b, c, d ∈ R 4. V (a.x + b.y) = a2 .V (x) + b2 .V (y) + 2.a.b.Cov(x, y) Demostraci´ on 3: Cov(a.x + b, c.y + d) = E ((a.x + b)(c.y + d)) − E(a.x + b).E(c.y + d) = E(a.c.x.y + a.d.x + b.c.y + b.d) − (a.µx + b).(c.µy + d) = a.c.E(x.y) + a.d.µx + b.c.µy + b.d − a.c.µx .µy − a.d.µx − b.c.µy − b.d = a.c [E(x.y) − µx .µy ] = a.c.Cov(x, y) 78
Demostraci´ on 4: V (a.x + b.y) = E((a.x + b.y)2 ) − E(a.x + b.y)2 = E(a2 .x2 + b2 .y 2 + 2.a.b.x.y) − (a.µx + b.µy )2 = a2 .E(x2 ) + b2 .E(y 2 ) + 2.a.b.E(x.y) − [a2 .µx + b2 .µy + 2.a.b.µx .µy ] = a2 .V (x) + b2 .V (y) + 2.a.b[E(x.y) − µx µy ] = a2 .V (x) + b2 .V (y) + Cov(x, y)
5.4.2.
Probabilidad conjunta y covarianza Proposici´ on
Sean X e Y variables aleatorias sobre S independientes entonces: E(x.y) = E(x).E(y) Demostraci´ on: E(x.y) =
XX (x.y).P (x, y) X
ind
=
X
=
Y
XX
X
x.y.Px (x).Py (y)
Y
x.Px (x)
X
X Y
= E(x).E(y)
79
y.Py (y)
Corolario Si X e Y Son independientes ⇒ Cov(x, y) = 0
6
Corolario Si X e Y son independientes: V (a.x + b.y) = a2 .V (x) + b2 .V (y) ∀ a, b ∈ R Ejemplo Sean X e Y variables aleatorias discretas sobre S con funci´on de probabilidad conjunta dada por: H HH Y -1 HH X 1 -1 8 1 0 8 1 1 8 3 Py (y) 8 E(x) =
1 P −1
x.Px (x) = − 38 +
3 8
0
1
Px (x)
1 8
1 8 1 8 1 8 3 8
3 8 2 8 3 8
0 1 8 2 8
1
=0
∴ µx = µy = 0 Puedo decir que X e Y son independientes? 1 P (1, 1) = = 6 8
E(x.y) =
2 3 = Px (1).Py (1) ∴ No son independientes 8 1 1 X X
x.y.P (x, y)
x=−1 y=−1
= P (−1, −1) − P (−1, 1) − P (1, −1) + P (1, 1) =0 Luego X e Y son independientes ⇒ Cov(x, y) = 0 pero la rec´ıproca puede no valer.
5.5.
Definici´ on de correlaci´ on
Sean X e Y variables aleatorias sobre S entonces se define la correlaci´on entre X e Y como: ρ(x, y) = Corr(x, y) =
6 (Puede
Cov(x, y) : σx es el desv´ıo est´andar de x. σx .σy
no valer ⇐)
80
Proposici´ on Sean X e Y variables aleatorias sobre S entonces: 1. Corr(x, x) = 1 2. Corr(a.x + b, c.y + d) = Sg(a.c).Corr(x, y) 3. ρ(x, y) ≤ 1 4. Si y = a.x + b ⇒ Corr(x, y) = Sg(a) Demostraci´ on 2: Cov(a.x + b, c.y + d) σa.x+b .σc.y+d a.c.Cov(x, y) = |a|.|c|.σx .σy a.c Cov(x, y) . = |a||c| σx .σy
Corr(a.x + b, c.y + d) =
(47) (48) (49)
= Sg(a.c).Corr(x, y)
(50)
(47) Por definici´ on (48) Vale ya que si V (a.x + b) = a2 .V (x) ⇒ σax+b = |a|.σx (49) ( Cov(x,y) σx .σy )= ρ(x, y) 1 si x > 0 (50) Sg(x) = 0 si x < 0 Demostraci´on 3: Sea Z = t.X + y ∀t ∈ R 2
0 ≤ V (Z) = E(z − µz )2 = E ((tx + y) − (tµx + µy )) 2
0 ≤ E ((t − µx ) + (y − µy )) = E t2 (x − µx )2 + (y − µy )2 + 2.t(x − µx )(y − µy ) = t2 E(x − µx )2 + E(y − µy )2 +2t E(x − µx )(y − µy ) | {z } | {z } {z } | 2 σx
σy2
0 ≤ t2 σx2 + σy2 + 2t.Cov(x, y) ∀t ∈ R
81
Cov(x,y)
Obtengo un polinomio de segundo grado en t donde: a = σx2
c = σy2
b = 2.Cov(x, y)
Luego 0 ≥ b2 − 4.a.c = 4.Cov(x, y)2 − 4.σx2 .σy2 ⇔ Cov(x, y)2 − σx2 .σy2 ≤ 0 ⇒ ρ(x, y)2 ≤ 1 ⇒ |ρ(x, y))| ≤ 1 Demostraci´on 4: ?
Si y = a.x + b : a 6= 0 : a, b ∈ R⇒ Corr(x, y) = Sg(a) Cov(x, x) a Corr(x, y) = Cov(x,ax+b) = |a| = Sg(a) σx .σax+b σx .σx {z } | =1
5.5.1.
Generalizaci´ on
Sean X1 , . . . , Xn Variables aleatorias y {ai }ni=1 ⊂ R entonces: n n P P 1. E ai .xi = ai .E (xi ) i=1
2. V
n P
i=1
ai .xi
i=1
n P
=
i=1
a2i .V (xi ) + 2
P
ai .aj .Cov(xi , xj )
i
Demostraci´on 1 Prueba por inducci´ on en la cantidad de t´erminos de la sumatoria. Si n = 2 ya est´ a probado. n n P P Supongamos que E ai .xi = ai .E (xi ) i=1
i=1
Veamos para n + 1: E
n+1 X
! ai .xi
=E
i=1
=E
n X i=1 n X
! ai .xi + (an+1 .xn+1 ) ! ai .xi
+ an+1 .E(xn+1 )
i=1
H.I. =
n+1 X
! ai .E (xi )
i=1
82
Demostraci´on 2 n X
V
! ai .xi
n n X X = Cov ai .xi , aj .xj
Def
i=1
i=1
=
=
=
n X n X
ai .aj .Cov(xi , xj )
i=1 j=1 n X a2i .V i=1 n X
j=1
n X
(xi ) +
ai .aj .Cov(xi , xj )
(51)
(i,j): i6=j n X
a2i .V (xi ) + 2.
i=1
ai .aj .Cov(xi , xj )
i
(51) Luego si i = j ⇒ Cov(xi , xj ) = V (xi ) (51) Luego si i 6= j ⇒ Cov(xi , xj ) = Cov(xj , xi ) Corolario: Si los Xi son independientes ∀i : 1 ≤ i ≤ n se cumple que: ! n n X X a2i .V (xi ) V ai .xi = i=1
i=1
Proposici´on Sean X1 , . . . , Xn variables aleatorias independientes con distribuci´on normal y {ai }ni=1 ⊂ R entonces: n n n P P P ai .xi ∼ N (µ, σ 2 ) donde µ = ai .E(xi ) y σ 2 = a2i .V (xi ) i=1
i=1
i=1
Consecuencia: Si X1 , . . . , Xn son variables aleatorias independientes e id´enticamente distribuidas 7 , con distribuci´on normal. Id est: con E(xi ) = µ y V (xi ) = σ 2 ∀i : 1 ≤ i ≤ n entonces: X=
n P
2
( n1 ).E(xi ) ∼ N (µ, σn )
i=1
µx =
n P
( n1 ).E(xi ) =
i=1
σx2 =
n P
1 6n .(6
( n1 )2 . V (xi ) = n. | {z } i=1
n.µ) = µ
σ2 n2
=
σ2 n
=σ 2
Ejemplo Sean X e Y variables aleatorias independientes e id´endicamente distribuidas exp(1). 7 Definimos
esta condici´ on como una muestra aleatoria: M.A.
83
Se pide hallar la distribuci´on de W = X + Y λ.e−λ.x si x > 0 Si X ∼ exp(λ) ⇒ fx (x) = 0 en caso contrario En este caso λ = 1 e−x 0
fx (x) =
si x > 0 en caso contrario
Como son independientes f (x, y) = fx (x).fy (y), id est: −(x+y) e si x, y > 0 f (x, y) = 0 en caso contrario RR Luego Fw (w) = P (W ≤ w) = P (X + Y ≤ w) = f (x, y)dxdy A Donde A = {(x, y) : xR+Ry ≤ w} = {(x, y) : y ≤ w − x} Si w < 0 ⇒ Fw (w) = f (x, y) dxdy = 0 A | {z } =0
Si w > 0 ⇒ Fw (w) =
RR
indep
f (x, y) dxdy = A Zw
Fw (w) =
Rw w−x R 0
e−(x+y) dydx
0
w−x dx e−x −e−y | 0
0
Zw =
e−x −e−(w−x) + 1 dx
0
Zw =−
e
−x−w+x
Zw dx +
e−x dx
0 −w
= −e
0 w −x w (x | 0 ) − (e | 0 ) −w −w
= −w.e
−e
+ 1 ∀w > 0
Derivo y obtengo: Fw0 (w) = fw (w) = −(e−w − e−w .w) + e−w = w.e−w ∀w > 0 y 0 en caso contrario. ∴ fw (w) =
w.e−w 0
si w > 0 en caso contrario
⇒ W ∼ Γ(2, 1)
Conclusi´ on: la distribuci´ on de la suma de variables aleatorias exponenciales no necesariamente es una exponencial. 84
Ejemplo Sean X1 , . . . , Xn una M.A. ∼ P oisson(λ) entonces: X1 + . . . + Xn ∼ P (λ1 + . . . + λn ) Demostraci´on Prueba por inducci´ on en la cantidad de variables aleatorias “n”. n = 2 : sean X e Y variables aleatorias Poisson de par´ametros λ1 y λ2 respectivamente. Queremos hallar la distribuci´on de X+Y X ∼ P (λ1 ) ⇒ Px (x) = P [X = x] = e−λ1
λx1 : x ∈ {0, 1, 2, . . .} = Z≥0 x!
Y ∼ P (λ2 ) ⇒ Py (y) = P [Y = y] = e−λ2
λy2 : y ∈ {0, 1, 2, . . .} = Z≥0 y!
Como X e Y son independientes entonces: P (x, y) = Px (x).Py (y) = e−(λ1 +λ2 )
λx1 λy2 ∀x, y ∈ Z≥0 x!y!
Sea W = X + Y Si w 6∈ Z≥0 ⇒ P [W = w] = 0 Si w ∈ Z≥0 P [W = w] = P [X + Y = w] ! w [ =P [X = x] ∩ [Y = w − x] x=0
=
w X
P (x, w − x)
(52)
x=0
= e−(λ1 +λ2 )
w X λx1 λw−x 2 x!(w − x)! x=0
w e−(λ1 +λ2 ) X w!λx1 λw−x 2 w! x!(w − x)! x=0 w e−(λ1 +λ2 ) X w! λx1 λw−x = 2 w! x!(w − x)! x=0
=
=
w e−(λ1 +λ2 ) X w! x=0
=
e−(λ1 +λ2 ) .(λ1 + λ2 )w w! 85
w x
(53)
λx1 λw−x 2 (54)
(52) Uni´ on disjunta. (53) Multiplico y divido por w!. w x w−x P w (54) = (λ1 + λ2 )w . x λ1 λ2 x=0
e−(λ1 +λ2 ) .(λ1 +λ2 )w w!
∀w ∈ Z≥0 ⇒ W ∼ P (λ1 + λ2 ) n P H.I Supongamos que X1 + . . . + Xn ∼ P λi ∴ P [W = w] =
i=1
Luego X1 + . . . + Xn + Xn+1 = (X1 + . . . + Xn ) + Xn+1 ! ! n X λi + λn+1 ∼P i=1
=P
n+1 X
! λi
(55)
i=1
(55) Por H.I. tengo la suma de dos Poisson (caso base).
5.6.
Teorema Central del L´ımite T.C.L
Sea X1 , . . . , Xn una M.A. con E(x) = µ y V (x) = σ 2 entonces: w−µ √ P (X ≤ w) ≈ Φ ∗ n ∀w σ √ 2 Si n es suficientemente grande X ∼ N µ, σn ⇔ ( X−µ σ ) n ∼ N (0, 1) La aproximaci´ on ser´ a razonable si n ≥ 30 Observaci´ on: las variables aleatorias pueden ser discretas o continuas.
86
5.7.
Aproximaci´ on normal a una binomial
Sea X1 , . . . , Xn una muestra aleatoria Bernoulli(p) : p = P (E) 1 si es ´exito (E) Xi = 0 si es fracaso (F) E(x2i ) = p
E(xi ) = p
Ya que son n ensayos independientes
V (xi ) = p.q n P
xi ∼ B(n, p)
i=1 n P
Llamo pˆ = p−p ˆ √ p.q =
1 n
xi
i=1
n n P
∼ N p, p.q n
√ p.q
n
n P
xi −n.p
i=1
T.C.L p−p ⇔ √ˆ p.q ∼ N (0, 1)
xi −n.p i=1 √ n.p.q
→ B(n, p) ≈ X ∼ N (n.p, n.p.q) x−n.p x−n.p √ Luego la P [X ≤ x] = P Z ≤ √ n.p.q ≈ Φ n.p.q n
n
=
Si el n no es muy grande suele utilizarse una aproximaci´on con conexi´on por continuidad: x + 0,5 − n.p Luego P (X ≤ x) = P (X ≤ x + 0,5) ≈ Φ √ n.p.q Ejemplo Supongamos que una m´ aquina produce el 10 % de art´ıculos defectuosos. Se procede a detener el funcionamiento de la m´aquina si por lo menos el 15 % son defectuosos. Se toma una muestra aleatoria de 100 art´ıculos de la producci´on diaria. Cu´al es la probabilidad que deba detener la m´aquina para ser reparada? Sea X = “n´ umero de art´ ıculos defectuosos en la muestra” 1 Luego X ∼ B 100, 10 P (X ≥ 15) = 1 − P (X ≤ 14) 14 − n.p ≈1−Φ √ n.p.q 14 − 10 =1−Φ 3 = 1 − Φ(1,33) = 1 − 0,9082 = 0,0918
87
Ejemplo Sabemos que el tiempo de espera del colectivo tiene una distribuci´on uniforme por la ma˜ nana en el intervalo (0,4) y por la tarde (0,8) minutos y que estos tiempos son independientes. Cu´ al es la probabilidad de que el tiempo total de espera en 40 d´ıas sea de por lo menos tres horas y media? N P ? Sea Wi = Xi + Yi : 1 ≤ i ≤ 40 me pide P wi ≥ 210 = i=1
Si X ∼ U (a, b) ⇒ E(x) =
a+b (b − a)2 y la V (x) = 2 12
Luego la E(Wi ) = E(Xi ) + E(Yi ) = 2 + 4 = 6 = µ Y la V (Wi ) = V (Xi ) + V (Yi ) = ∴W ∼N
16 12
+
64 12
20/3 6, 40
=
80 12
=
20 3
1 6, 6
=N
= σ2
Cu´ antos d´ıas deber´ıamos tomar de forma tal de asegurar con una probabilidad mayor al 99 % para garantizar que el tiempo total de espera sea de por lo menos tres horas y media ? n X
exijo
0,99 < P
! wi ≥ 210
i=1
Para obtener el promedio divido por n la desigualdad y obtengo: 0,99 < P (
n P
i=1
wi n
≥
210 n )
2 Luego W ∼ N µ, σn 210 √ −µ √ P ( Wσ−µ ). n ≥ ( n σ ) n √ √ P ( Wσ−µ ). n ≥ ( 210−n.µ ) n.σ √ 0,99 < P (Z ≥ ( 210−n.µ )) n.σ √ 0,99 < 1 − Φ 210−n.µ n.σ √ Φ 210−n.µ < 0,01 n.σ √ Llamando a Z = 210−n.µ n.σ
Obtengo que : 1 − Φ(Z) < 0,01 ⇔ Φ(Z) ≥ 0,99 ⇔ Z ≥ 2,33 88
∴ −Z =
210−n.µ √ nσ
≤ −2,33 ⇔
n.µ−210 √ nσ
≥ 2,33
Reemplazando µ y σ por sus valores me queda un polinomio cuadr´atico en n donde las ra´ıces son: x1 = 29,55 y x2 = 41,66. Respuesta: con tomar n ≥ 42 d´ıas alcanzar´a.
Ejemplo El tiempo que tarda un empleado en procesar el pedido de cada cliente es una variable aleatoria con media 1,5min y una desviaci´on est´andar de 1 minuto. Suponiendo que los tiempos que tarda en procesar n pedidos son independientes. Se pide: 1. Cu´ al es la probabilidad aproximada de que se puedan procesar los pedidos de 100 clientes en menos de dos horas? Pasando en limpio tengo: µx = 1,50 y σx = 10 con n = 100 P
n X xi i=1
1200 ≤ n n
!
= P X ≤ 1,20 : X ∼ N
σ2 µ, x n
Estandarizo y obtengo: 1,20−1,5 √ P Z≤ = Φ(−3) = 1 − Φ(3) = 1 − 0,9987 = 0,0013 1 100
2. Determinar el menor valor de tiempo t0 tal que con una probabilidad de por lo menos 0,9 se puedan procesar 100 pedidos. exijo t0 0,9 ≤ P X ≤ n Primero estandarizo y obtengo: P
X −µ σ
√ . n≤
t0 n
− 1,5 √ . 100 1
t0 Llamando a: Z = ( 100 − 1,5).10 exijo
Obtengo que: Φ(Z) ≥ 0,9 ⇒ Z ≥ 1,29
t0 − 1,5 .10 ≥ 1,29 100 1,29 + 1,5 .100 t0 ≥ 10 t0 ≥ 162,9 89
Ejemplo Hallar la probabilidad aproximada para una variable aleatoria Poisson de par´ ametro 50 de tomar valores entre 35 y 70. ?
X ∼ P (50) ⇒ P (35 ≤ X ≤ 70) = Truco para usar el T.C.L. Sean X1 , . . . , Xn una muestra aleatoria poisson de par´ametro λ = 1 ⇒ N P
N P
Xi ≈ P (50) . Luego por T.C.L
∼ N 1, n1 Donde n = 50
n
i=1
50 P
35 P (35 ≤ X ≤ 70) = P 50 ≤
=P
Xi
i=1
i=1
35 50 − 1 √1 50
50
≤
Xi ≤
70 50
X −1 √1 50
≤
70 50 − 1 √1 50
!
= P (−2,12 ≤ z ≤ 2,83) = Φ(2,83) − Φ(−2,12) = Φ(2,83) − (1 − Φ(2,12)) = 0,977 − 1 + 0,9830 = 0,9807
90
6.
Estimaci´ on puntual
Definici´ on: sea X1 , . . . , Xn una muestra aleatoria con distribuci´on acumulada que dependa de θ. Se dice que θˆ = h(x1 , . . . , xn ) es un estimador para θ si θˆ es una variable aleatoria y θˆ = θ + . ˆ =θ Definici´ on: se dice que un estimador θˆ es insesgado para θ si: E(θ) Proposici´on Sea X1 , . . . , Xn una muestra aleatoria : E(x) = µ y la V (x) = σ 2 entonces: θˆ1 = X es insesgado para µ n P
θˆ2 = S 2 =
(xi −x)2
i=1
n−1
es insesgado para σ 2
Demostraci´ on: ˆ (a) Si θˆ1 = X es insesgado n para µn ⇒ E(θ1 ) = µ n P P P xi 1 E(θˆ1 ) = E X = E = n n .E(xi ) = i=1
n P
(b) θˆ2 = S 2 =
i=1
(xi − x)2
i=1
1 n .µ
=µ
n
1 X 2 = ((xi − µ) − (x − µ)) n − 1 i=1
i=1
n−1 "
n n n X X X xi − µ 1 (x − µ)2 − 2.n.(x − µ). = (xi − µ)2 + n − 1 i=1 n i=1 i=1 " n # X 1 = (xi − µ)2 + n.(x − µ)2 − 2.n.(x − µ)2 n − 1 i=1 " n # X 1 2 2 = (xi − µ) − n.(x − µ) n − 1 i=1
∴ E θˆ2 =
n X
1 E(xi − µ)2 −n. E(x − µ)2 | {z } n − 1 i=1 | {z } V (xi =σ 2 )
=
2
V (x)= σn
1 2 1 . n.σ − σ 2 = .(n − 1).σ 2 = σ 2 n−1 n−1
91
#
Criterio de elecci´on Supongamos θˆ1 y θˆ2 son estimadores insesgados para θ debemos elegir el de menor varianza.
Figura 4: V (θˆ1 ) < V (θˆ2 ) ∴ En este caso elegimos θ1
Ejemplo Sea X1 , . . . , Xn una muestra aleatoria Bernoulli de par´ametro p. θˆ = X es un estimador insesgado para E(x) = p y E(x2 ) = p y la V (x) = p.(1 − p) Sea X1 , . . . , Xn una M.A. ∼ U (0, θ) ⇒ X no es insesgado para θ µ=
θ 2
y la E(x) =
θ 2
6= θ
De todas maneras si elegimos θˆ1 = 2.X ⇒ si es insesgado para θ 1 si x ∈ [0, θ] θ Recordemos que si: X ∼ U (0, θ) ⇒ fx (x) = 0 en caso contrario si x = 0 0 si x = 0 0 x x n si x ∈ (0, θ) ( ) si x ∈ (0, θ) Fx (x) = ∴ F (x) = ˆ θ θ θ 1 si x ≥ θ 1 si x ≥ θ
fθˆ(x) =
Fθˆ0 (x)
=
n.xn−1 θn
0
92
si x ∈ (0, θ) en caso contrario
E(θˆ2 ) =
Z∞ x.fθˆ2 (x) dx −∞
n = n θ
Zθ
xn dx
0
n xn+1 θ = n | θ n+1 0 n θn+1 = n θ n+1 n.θ 6= θ ∀n ∈ N = n+1 ∴ θˆ2 No es insesgado para θ Sea θˆ3 = NN+1 ∗ θˆ2 ⇒ θˆ3 Es un estimador insesgado para θ Calculo la V (θˆ3 ) Para facilitar calculos calculamos la de θˆ2 ya que es una combinaci´ on lineal de la que buscamos.
E((θˆ2 )2 ) =
Z∞
x2 .fθˆ2 (x) dx
−∞
n = θ
Zθ
xn+1 dx
0
n xn+2 θ = n | θ n+2 0 n.θ2 = n+2 V ((θˆ2 )2 ) = E((θˆ2 )2 ) − E(θˆ2 )2 =
n.θ 2 n+2
−
n2 θ 2 (n+1)2
∴ V (θˆ3 ) = V
n+1 n
2
.V θˆ2 =
93
=
n.θ 2 (n+2)(n+1)2
n+1 ˆ .θ2 n
θ2 n.(n + 2)
Calculo la V (θˆ1 ) σ2 = V (x) = n
(b−a)2 12
=
θ2 12n
n Como b − a = θ θ2 θ2 = 3.n Luego V (θˆ1 ) = 4.V (X) = 4. 12.n Ahora comparamos para saber con que estimador nos quedamos Partimos de n(n + 2) ≥ 3.n ∀n ∈ N Luego V (θˆ3 ) < V (θˆ1 ) ∀n ∈ N ∴ θˆ3 es mejor estimador que θˆ1 Teorema Si X1 , . . . , Xn es una muestra aleatoria con distribuci´on N µ, σ 2 entonces µ ˆ = X es insesgado y de m´ınima varianza entre todos los insesgados para µ. ˆ ∀θˆ estimador de µ se lo denota IMVU. V (ˆ µ) ≤ V (θ) Sea X1 , . . . , Xn una muestra aleatoriaq con distribuci´on f que depende de θ. ˆ ˆ Llamamos error est´ andar de θ a la V (θ) Si el error est´ andar depende de alg´ un par´ametro desconocido ! entonces al q \ ˆ estimarlo obtenemos lo que llamamos error estimado V (θ) Volviendo al problema de una M.A. ∼ U (0, θ) θˆ3 = n+1 ax xi n . m´ r q Luego el error est´ andar ser´ıa V θˆ3 =
θ2 n.(n+2)
r\ q ˆ 2 (θ3 ) Luego el error est´ andar estimado es : V θˆ3 = n.(n+2) Nota: El estimador es una variable aleatoria → Notaci´on: X La estimaci´ on es un valor → Notaci´on: x Sea X1 , . . . , Xn una M.A ∼ N (µ, σ 2 ) El estimador para µ → x q p 2 Error est´ andar de x → V (x) = σn Si σ es desconocido → reemplazo σ 2 por S 2 Luego el error est´ andar aproximado es: √Sn
94
6.1.
M´ etodos para la estimaci´ on de los par´ ametros de la distribuci´ on M´etodo de los momentos. M´etodo de m´ axima verosimilitud.
6.1.1.
M´ etodo de los Momentos
Definici´ on: sea X1 , . . . , Xn una muestra aleatoria con distribuci´on F que depende de par´ ametros θ1 , . . . , θM . Llamamos k-´esimo momento poblacional a: E xk n P i=1
xk i
y k-´esimo momento muestral a: n ∀k ∈ N Descripci´ on del m´etodo: E(x) = x n P x2i E(x2 ) = i=1 n Sistema de m ecuaciones = .. .. . = . n P x2i i=1 k E(x ) = n Luego si θˆ1 , . . . , θˆM son soluciones del sistema de m ecuaciones diremos que son los estimadores por el m´etodo de los momentos para θ1 , . . . , θM Ejemplos 1. Sea X1 , . . . , Xn una M.A. ∼ U (0, θ) θ = E(x) = X ⇒ θˆ = 2.X 2
2. Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) con µ y σ desconocidos luego m = 2 Luego µ = E(x) = X n P
2
2
2
σ + µ = E(x ) =
i=1
x2i
n
µ ˆ=x n P
σ ˆ=
i=1
n P
x2i − n.x2 n
=
2
(xi − x)
i=1
2
n
=
n−1 ∗ S2 n
2
Luego µ ˆyσ ˆ Son E.M.M para µ y σ respectivamente. E(ˆ σ2 ) =
n−1 2 n .E(S )
=
n−1 n
∗ σ 2 < σ 2 ∴ No es insesgado para σ 2
Pero µ ˆ si lo es para µ
95
3. Sea X1 , . . . , Xn una M.A. ∼ Bernoulli(p) n P
def
E(x) = X = p ∴ pˆ =
xi
i=1
n
4. Sea X1 , . . . , Xn una M.A. ∼ P (λ) def
E(x) = X = λ ˆ=X ∴ El estimador para el m´etodo de los momentos para λ ˆ Id est: E(λ) = E(X) = λ y es insesgado para λ. Recordar: Sea X1 , . . . , Xn donde E(x) = µ y la V (x) = σ 2 entonces E(X) = µ y la V (X) =
σ2 n
5. Recordando que si X ∼ exp(λ) ⇒ E(x) =
1 λ
y la V (x) =
Sea X1 , . . . , Xn una M.A. ∼ exp(λ) 1 λ
= E(x) = X
ˆ = 1 Es el E.M.M. para λ Luego λ X λ.e−λ.x si x > 0 fx (x) = 0 en caso contrario Luego P X > 0 = 1
96
1 λ2
6.1.2.
M´ etodo de M´ axima Verosimilitud
Descripci´ on del m´etodo: sea X1 , . . . , Xn una M.A. con funci´on de densidad conjunta: f (x1 , . . . , xn , θ1 , . . . , θn ) o funci´on de probabilidad conjunta. P (x1 , . . . , xn , θ1 , . . . , θn ) si es discreta. Dependiendo si la muestra es de una variable aleatoria continua o una variable aleatoria discreta respectivamente. Entonces θˆ1 , . . . , θˆn son los estimadores de m´axima verosimilitud si para todo θ1 , . . . , θ n Si para cada ∼ x = (x1 , . . . , xn ) f ∼ x, ∼θˆ ≥ f ∼ x, θ ´ oP ∼ x, ∼θˆ ≥ P ∼ x, ∼θ ∀θˆ ∈ Rn Donde θ = (θ1 , . . . , θM ) y θˆ = θˆ1 , . . . , θˆM ∼
∼
Ejemplos 1. Sea X1 , . . . , Xn una M.A. ∼ P (λ) k
recordando que P (X = k) = e−λ λk! ∀k ∈ Z≥0 x = (x1 , . . . , xn ) Luego θ1 = λ ∴ M = 1
∼
Suponer que xi ∈ Z≥0 ∀i : 1 ≤ i ≤ N Para que no nos de 0 la productoria. n P
x
i n n xi Y i=1 indeptes Y ident distr −λ λ −n.λ λ P (x , λ) = P (x , λ) = e . = H(λ) = e . i n ∼ Q xi ! i=1 i=1 xi !
i=1
Luego maximizar la funci´on H(λ) es equivalente a maximizar el logaritmo n X
∴ log (h(λ)) = −n.λ +
! xi
. log(λ) − λ.n.
i=1
Derivo respecto de λ:
log (H(λ)) =
−n.λ +
n X
xi !
i=1 −n.λ+
d dλ
n Y
n P
i=1
xi
exijo
λ
= 0
xi = 0 ⇒ λ = X
i=1
Tengo que chequear que sea m´aximo es decir que la derivada segunda respecto de λ sea negativa en el punto d2 d.λ2
−
log (H(λ)) =
n P i=1 λ2
xi
<0
ˆ = X Es el E.M.V para λ. ∴λ 97
2. Sea X1 , . . . , Xn una M.A. ∼ exp(λ) : λ > 0 λ.e−λ.x si x > 0 Sabemos que fx (x) = 0 en caso contrario 1 λ
Y que E(x) =
y la V (x) =
1 λ2
Sea ∼ x ∈ Rn n indeptes Y
Luego f (x , λ) ∼
=
fx (xi , λ)
i=1
=
n
−λ.
λ .e
n P i=1
0
xi
si xi > 0∀i : 1 ≤ i ≤ n en caso contrario
Si Xi > 0 ∀i : 1 . . . n n
n P
−λ.
f (x , λ) = λ .e ∼
xi
i=1
Maximizar la funci´ on es lo mismo que m´aximizar el: log(f (x , λ)) ∼ ∴ log(f (x , λ)) = n.log(λ) − ∼ G0 (λ) =
n P
xi = G(λ)
i=1
n n X 1 n X − xi = 0 ⇔ n − λ. xi = 0 ⇔ λ = λ i=1 X i=1
ˆ = Como es un punto de m´aximo obtengo que λ m´ axima verosimilitud para λ
98
1 X
es el estimador de
3. Sea X1 , . . . , Xn una M.A. ∼ N µ, σ 2
n Y f ∼ x, ∼θ = fx (xi , ∼θ )
=
i=1 n Y
√
i=1
1 2.π.σ 2
e− n P
n 2
2
(xi −µ)2 2σ 2
(xi −µ)2
− i=1 2σ2
= (2.π.σ ) .e
Por otra parte queremos reducir la siguiente expresi´on:
?
n n X X 2 (xi − µ)2 = ((xi − x) − (µ − x)) i=1
i=1 n n n X X X = (xi − µ)2 + (µ − x)2 − 2.(µ − x). (xi − x) i=1
i=1
i=1
| =
n X (xi − x)2 + n.(µ − x)2 i=1
Volviendo reemplazo ? y obtengo :
2
n 2
n P (xi −x)2 +n.(µ−x)2 i=1 2.σ 2
f ∼ x, ∼θ = (2.π.σ ) .e P xi −x2 n.(µ−x)2 n = (2.π.σ 2 )− 2 .e− 2.σ2 . e− 2.σ2 | {z } | {z } funci´on que depende de σ2 depende de ∼θ n.(µ−x)2 − 2.σ2 Acoto e ≤ e0 = 1 Sabiendo que
n.(µ−x)2 2.σ 2
=0⇔µ=x
Luego acoto la funci´ on por: G (σ)
2
P xi −x2 − 2 −n 2 = (2.π.σ ) 2 .e 2.σ ∗ 1
Aplico log(G(σ)2 ) = − n2 log(2.πσ 2 ) −
99
n P i=1
(xi −x)2 2.σ 2
{z
=0
}
Luego − n2 log(2.πσ 2 ) − ⇔ − n2 log(2.π) −
n 2
n P i=1
(xi −x)2 2.σ 2
log(σ 2 ) −
n P i=1
=0
(xi −x)2 2.σ 2
P n d dσ 2
log(G(σ 2 )) = 0 − −nσ 2 + n P
⇔σ =
+
1 2σ 2
i=1
σ2
(xi −x)2
i=1 2σ 4
⇔0= 2
n P
n 1 2 σ2
(xi −x)2
(xi −x)2
i=1
Y s´e que es un punto de m´aximo. P n
n
(xi −x)2
∴ El E.M.V para θ = (µ, σ 2 ) es ∼θˆ = x, i=1
n
4. Sea X ∼ U (0, θ) quiero hallar el E.M.V.
f (x , θ) = ∼
N Y
fx (xi , θ)
i=1 1 si xi ∈ (0, θ)∀i : 1 ≤ i ≤ n θn Donde fx (x) = 0 en caso contrario f (x , θ) = θ1n I(0,∞) (m´ın xi ).I(0,∞) (m´ax xi ) ∼ 1 si x ∈ A Donde IA (x) = 0 en caso contrario
Supongamos xi ∈ (0, θ) ∀i : 1 ≤ i ≤ n ⇒ 0 < m´ınxi ≤ m´axxi < θ xi ≤ 0 I(0,∞) (m´ın xi ) = 0 Si ∃i : xi 6∈ (0, θ) ⇒ xi ≥ 0 I(0,∞) (m´ax xi ) > 0 ⇒ I(0,∞) (m´ ax xi ) = 0 Para cada ∼ x f (x , θ) = ∼
1 ın xi ) θ n I(0,∞) (m´
∗ I(0,∞) (m´ax xi )
Por otra parte si θ > m´axxi > 0 ⇒ f (x , θ) = ∼
1 θn
Por u ´ltimo si θ ≤ m´ axxi ⇒ f (x , θ) = 0 ∼ Luego el E.M.V para θ es θˆEM V = m´ax xi Recordar el θˆEM M = 2.X
100
6.1.3.
Propiedades de los E.M.V
1. Propiedad de invarianza Sea X1 , . . . , Xn una muestra aleatoria con funci´on de distribuci´on F (x , θ) : ∼ ∼ n θ ∈ R ∼ Si ∼ˆθ es el E.M.V. para ∼θ y sea h : Rn → R. Entonces el E.M.V para h ∼θ es h ∼ˆθ 2. Si n es suficientemente grande entonces el estimador de m´axima verosimilitud de ∼θ es asint´ oticamente insesgado, id est: E ∼ˆθ = ∼θ Ejemplo
n P
(xi −x)2
Sea X1 , . . . , Xn una M.A. ∼ N µ, i=1
n P
(xi −x)2
θˆE.M.V = x, i=1
n
n
Se pide hallar el E.M.V. para el percentil p de una N (µ, σ 2 ) η(p) : p = F (η(p)) = P (X≤ η(p)) X − µ η(p) − µ Estandarizo y obtengo P σ ≤ σ } | {z } | {z Z
Z
=
η(p)−µ σ
Z
∴ η(p) = σ.Z + µ | {z } h(µ,σ 2 )
Luego por la propiedad de invarianza de los E.M.V. resulta s que el E.M.V. N P (xi −x)2 i=1 2 para el percentil de una N (µ, σ ) es igual a h ∼ˆθ = Z. +X n E.M.V.
101
7.
Intervalos de confianza basados en una sola muestra
Sea X1 , . . . , Xn una muestra aleatoria con distribuci´on acumulada F (x, θ) con θ desconocido. Objetivo: para construir un intervalo de confianza (IC) para el par´ametro ˆ 1 , . . . , xn ) que me permita generar θ debemos obtener un estad´ıstico θˆ = θ(x intervalos de longitud peque˜ na (precisi´on) que con una alta confiabilidad (nivel de confianza) contengan al par´ametro θ.
7.1.
M´ etodo general para obtener un IC para θ
Sea X1 , . . . , Xn una muestra aleatoria con distribuci´on F (x, θ). Obtener un estad´ıstico h(x1 , . . . , xn , θ) que dependa de θ pero su distribuci´on no. Seleccionar un nivel de confianza (1 − α) para el intervalo y encontrar a < b tales que cumplan: P (a ≤ h(x1 , . . . , xn , θ) ≤ b) = (1 − α) A partir de la expresi´ on a ≤ h(x1 , . . . , xn , θ) ≤ b obtener: L(x1 , . . . , xn ) (Low) llamada cota aleatoria inferior. U (x1 , . . . , xn ) (Upper) llamada cota aleatoria superior. Tales que P θ ∈ [L(x1 , . . . , xn ), U (x1 , . . . , xn )] = 1 − α Ejemplo Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) con σ 2 conocido. Problema: Hallar un IC de nivel (1 − α) para θ = µ σ2 X −µ √ X ∼ N µ, ↔ n ∼ N (0, 1) n σ | {z } h(x1 ,...,xn ,µ)
Luego fijado un nivel (1 − α) P (a ≤ h(x1 , . . . , xn , µ) ≤ b) = 1 − α Elijo a = −Z y b = Z Definici´ on: llamaremos
Zγ
al valor tal que P (Z ≥ Zγ ) = γ
−Z α2 ≤
X −µ σ
102
√
n ≤ Z α2
Figura 5: Z = Xα/2
σ σ −Z α2 √ ≤ X − µ ≤ Z α2 √ n n σ σ X − Z α2 √ ≤ µ ≤ X + Z α2 √ n n | {z } | {z } l(x1 ,...,xn )
U (x1 ,...,xn )
Luego el intervalo de de confianza de nivel (1 − α) aleatorio para µ es: X ± Z α2 √σn Observaciones: El intervalo de confianza est´a centrado en X . Su longitud es igual a 2.Z α2 √σn . Al aumentar el niver de confianza ⇒ Z α2 crece . Luego aumentar la longitud del intervalo ⇒ p´erdida de precisi´on. Si se quiere una precisi´ on de a lo sumo w y un nivel (1−α) la u ´nica posibilidad que nos queda es elegir el tama˜ no de muestra adecuado. 2 2.Z α .σ 2 Long (IC) = 2.Z α2 . √σn ≤ w ∴ n ≥ w
7.2.
IC para θ = µ con muestras suficientemente grandes
Sea X1 , . . . , Xn una muestra aleatoria con E(x) = µ y con V (x) = σ 2 Como n es suficientemente grande puedo usar el teorema central del l´ımite que dice: σ2 X −µ √ X ∼ N µ, ⇔ . n ∼ N (0, 1) n σ 103
si σ es conocido entonces: √ H(x1 , . . . , xn , µ) ⇒ X−µ . n ∼ N (0, 1) σ entonces fijado un nivel de confianza (1−α) y pensando de manera similar a la anterior tenemos que: h i l(x1 , . . . , xn ), U (x1 , . . . , xn ) = X ± Z α2 . √σn es un I.C. de nivel aproximado (1 − α) para θ = µ Si σ no es conocido entonces: Sabemos que S 2 es un estimador insesgado para σ 2 id est: E(S 2 ) = σ 2 y tiene la propiedad de consistencia: ∀ > 0 ⇒ P (|S 2 − σ 2 | ≥ ) → 0 n→∞
o lo mismo P (|S 2 − σ 2 | ≤ ) → 1 n→∞ √ X−µ Adem´ as . n ∼ N (0, 1) S Si n > 40 luego un IC de nivel (1 − α) aproximado para µ es : X ± Z α2 √Sn Ejemplo Sea X1 , . . . , Xn una M.A. ∼ Bernoulli(p) Problema: hallar un intervalo de confianza de nivel (1 − α) para θ = p. Si n es suficientemente grande por teorema central del l´ımite (T.C.L.) sabemos si X ∼ B(n, p) ⇒ X ˆ ∼ N p, p.q n =p n Recordemos si X ∼ B(n, p) E(x) = n.p E( nx ) = V ( nx ) = Luego
1 1 n .E(x) = n .n.p = p p.q 1 1 n2 .V (x) = n2 .n.p.q = n
pˆ − p p p.q
∼ N (0, 1)
n
| {z }
h(x1 ,...,xn ,p)
Fijado un nivel de confianza: (1 − α) h(x1 , . . . , xn , p) ≤ Z α2 r 2 p.q 2 |ˆ p − p| ≤ Z α2 . n 2 2 2 p.q pˆ + p − 2.ˆ p.p − Z α2 . ≤0 n 1 1 G(p) = p2 . 1 + Z2α2 . + p. −2.ˆ p − Z2α2 . + pˆ2 ≤ 0 n n 104
∀p ∈ [r1 , r2 ] ≤ G(p) ≤ 0 ⇔ r1 , r2 son ra´ıces de G(p) Obtengo las ra´ıces: 2ˆ p+
2 1 Zα 2 n
q + 2.
Zα 2
Zα 2
4.n2
h i 2. 1 + Z2α n1 2
Es el intervalo de confianza de nivel aproximado (1 − α) para θ = p Si n es grande
2 Zα 2
n
es despreciable
Entonces IC se reduce a :
pˆ ± Z α2
q
p.ˆ ˆq n
8
Elegir el n para que el IC tenga nivel aproximado (1 − α) y una longitud de a lo sumo w r pˆ.ˆ q 2.Z α2 ≤w n q Puedo acotar pˆ.ˆ q = pˆ ∗ (1 − pˆ) ≤ 41 ⇒ Z α2 n1 ≤ w ∴n≥
8 Intervalo
de confianza tradicional.
105
Zα 2
w
2
Ejemplo Sea X1 , . . . , Xn una M.A. ∼ P (λ) con n suficientemente grande. Obtener un IC de nivel aproximado (1 − α) para λ Nota Si X ∼ P (λ) ⇒ E(x) = V (x) = λ Por T.C.L
X −λ q
∼ N (0, 1)
λ n
| {z }
h(x1 ,...,xn ,λ)
Fijamos un nivel aproximado (1 − α) (1 − α) = P |h(x1 , . . . , xn , λ)| ≤ Z α2 √ √ 2 = X − λ. n ≤ (Z α2 . λ)2 2 = n. X + λ2 − 2.λ.X ≤ Z2α2 .λ 2
= n.X + n.λ2 − 2.n.λ.X − Z2α2 .λ ≤ 0
Obtenemos un polinomio cuadr´atico en λ n.x2 + n.λ2 − 2.n.λ.x − Z2α .λ ≤ 0 ∀λ : λ ∈ [x1 , x2 ] 2
Donde x1 y x2 son las ra´ıces del polinomio Luego el intervalo aproximado de nivel (1 − α) para λ es: 2
ICλ =
Zα 2
q + 2.n.X ± Z α2 . Z2α + 4.n.X 2
2.n
106
7.3. tad
Distribuci´ on t de Student con n grados de liber-
Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) con µ y σ 2 desconocidos • Si n ≥ 40 entonces vimos que un IC de nivel de confianza aproximado (1 − α) para µ es: X ± Z α2 √Sn • Qu´e pasa si n < 40? Podemos afirmar que
X−µ S
√ ∗ n 6∼ N (0, 1)
Entonces necesitamos otro estimador para obtener un IC para µ en esta situaci´ on. Definici´ on: sean Z ∼ N (0, 1) e Y ∼ χ2ν : con Z e Y independientes. La variable aleatoria √ZY = T tiene una distribuci´on t-student con ν ν
grados de libertad . Notaci´on: T ∼ tν 7.3.1.
Caracter´ısticas de la t de Student
• Es sim´etrica en torno del origen y tiene forma de campana. • Si ν es peque˜ no entonces la tν es m´as dispersa que una N (0, 1) • P (T ≤ t) → Φ(t) ν→∞
Figura 6: Gr´ afico de la t-student con k grados de libertad
107
Teorema Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) entonces: √ 1. X−µ . n = Z ∼ N (0, 1) σ 2.
(n−1).S 2 σ2
= Y ∼ χ2n−1
3. Z e Y independientes entonces : √ X−µ √ . n σ (X − µ). n q = ∼ tn−1 S S2 σ2
Luego un IC de nivel de confianza (1 − α) para µ es X ± t α2 ,n−1 . √Sn Resumen Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) entonces: Si σ es conocido ⇒ IC = X ± Z α2 . √σn Si σ es desconocido: • si n ≥ 40 ⇒ IC = X ± Z α2 . √Sn • si n < 40 ⇒ IC = X ± t α2 ,(n−1) . √Sn Sea X1 , . . . , Xn una M.A. con E(x) = µ y V (x) = S 2 Si n es suficientemente grande: IC = X ± Z α2 . √Sn q ˆq Si Xi ∼ Bernoulli(p) entonces IC para p es: IC = pˆ ± Z α2 . p.ˆ n
108
7.4.
Intervalo de confianza para la varianza
Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 )9 entonces:
(n − 1) ∗ S 2 ∼ χ2n−1 2 σ | {z } h(x1 ,...,xn ,σ 2 )
Fijado un nivel de confianza (1 − α) quiero obtener a < b tales que: 1 − α = P (a ≤ h(x1 , . . . , xn , σ 2 ) ≤ b) (n − 1).S 2 ≤ χ2α2 ,n−1 2 σ2 (n − 1).S 2 (n − 1).S 2 2 = ≤ σ ≤ χ2α ,n−1 χ21− α ,n−1 2 ( 2) = χ2(1− α ),n−1 ≤
" 2
2 (n−1).S 2 , (n−1).S χ2α ,n−1 χ2 α
∴ Un IC de nivel (1 − α) para σ es : # "r r (n−1).S 2 (n−1).S 2 , χ2 Y para σ es: χ2α ,n−1 2 (1− α2 ),n−1
9 Importante
2
#
(1− 2 ),n−1
debe ser Normal la distribuci´ on sino no podemos saber nada.
109
8.
Prueba de hip´ otesis basada en una muestra Llamaremos con θ al par´ameto poblacional. Las hip´ otesis que el investigador debe establecer son dos: Hip´otesis nula (H0 ) 4 iiii i i i i i iiii iiii Tipos de hip´ otesis UUUU UUUU UUUU UUUU U* Hip´otesis alternativa (Ha )12
Estas dos hip´ otesis deben ser contrapuestas.
8.1.
Componentes de una prueba de hip´ otesis
8.1.1.
Tipos de hip´ otesis alternativas (Ha )
Ha : θ < θ0 Unilateral de cola inferior. Ha : θ > θ0 Unilateral de cola superior. Ha : θ 6= θ0 Bilateral o de dos colas. Con θ0 valor fijado por el investigador. El otro elemento que forma parte de una prueba de hip´otesis es el Estad´ıstico de prueba que es una funci´on de la muestra aleatoria con distribuci´on conocida. 8.1.2.
Regi´ on de rechazo de la prueba (RR)
Son todos los valores del estad´ıstico de prueba para el cual se rechaza la hip´ otesis nula. Luego la H0 ser´ a rechazada si el valor observado del est´adistico de prueba est´ a en la regi´ on de rechazo. 8.1.3.
Tipos de errores de una prueba de hip´ otesis
Error de tipo I: (α) consiste en rechazar H0 cuando H0 es verdadera. Error de tipo II: (β) consiste en aceptar H0 cuando H0 es falsa. 8.1.4.
Nivel de significancia
Definimos el nivel de significancia de una prueba de hip´otesis al supremo Pθ (error de tipo I) ∀θ ∈ H0
110
8.2.
Pasos a seguir para hacer una prueba de hip´ otesis
1. Identificar el par´ ametro de inter´es (θ). 2. Plantear las hip´ otesis nulas y alternativas pertinentes. 3. Indicar el estad´ıstico de prueba. 4. Obtener la regi´ on de rechazo para un nivel de significancia α: (RRα ). 5. Evaluar el estad´ıstico de prueba con los datos observados. 6. Tomar una decisi´ on. Si el valor observado est´a en la RRα diremos que se rechaza H0 con un nivel de significancia α. En caso contrario diremos que no hay evidencia suficiente para rechazar H0 a un nivel de significancia α.
8.3.
Prueba de hip´ otesis para la media poblacional Caso A: sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) con σ conocido H0 : µ = µ0 Ha : µ 6= µ0 Estad´ıstico de prueba:
X−µ0 σ
√ . n ∼ N (0, 1) bajo H0 .
Un criterio razonable para rechazar H0 ser´a si x ≤ K1α ´o x ≥ K2α ?
Fijado un nivel de significancia α ⇒ K1α = α = P (error de tipo I) = P (x ≤ K1α ∪ x ≥ K2α ) cuando µ = µ0 α = P (x ≤ K1α con µ = µ0 ) + P (x ≥ K2α con µ = µ0 ) α α K2 − µ0 √ K1 − µ0 √ α = P (Z ≤ . n) + P (Z ≥ . n) σ σ | {z } | {z } z1
z2
σ σ RRα = {X ≤ −Z α2 √ + µ0 ´o X ≥ Z α2 √ + µ0 } n n = {z ≤ −Z α2 ´o z ≥ Z α2 } = {|z| ≥ Z α2 } La funci´ on β es: √ √ • β(µ) = Φ(Z α2 + ( µ0σ−µ ). n) − Φ(−Z α2 + ( µ0σ−µ ). n) ∀µ 6= µ0 • β es sim´etrica en torno de µ id est: β(µ − h) = β(µ + h) ∀h ∈ R • l´ım− β(µ) = l´ım+ β(µ) = 1 − α µ→µ0
µ→µ0
111
• l´ım β(µ) = l´ım β(µ) = 0 µ→∞
µ→−∞
• β es creciente para µ < µ0 y decreciente para µ > µ0 • Qu´e condici´ on debe cumplir el n si µ0 > µ0 ⇒ β(µ0 ) ≤ β0 ? 0 √ µ0 −µ0 √ α β(µ0 ) = Φ(Z α2 + ( µ0 −µ σ ). n) − Φ(−Z 2 + ( σ ). n) ∀µ 6= µ0 0 √ β(µ0 ) ≤ Φ(Z α2 + ( µ0 −µ σ ). n) ≤ β0 Zα 2
+(
Zα 2
Zα 2
µ0 − µ0 √ ). n ≤ Φ−1 (β0 ) σ
(−µ0 + µ0 ) √ . n ≤ −Zβ0 σ 0 µ − µ0 √ . n + Zβ0 ≤ σ
−
" ∴n≥
112
(Z α2 + Zβ0 ).σ µ0 − µ0
#2
Resumen Sea X1 , . . . , Xn una M.A. ∼ N(µ, σ 2 ) con σ conocido y H0 : µ = µ0 √ 0 . n ∼ N (0, 1) bajo H0 Estad´ıstico de prueba: X−µ σ Fijado un nivel α Ha
RRα
µ < µ0
{z ≤ −Zα }
µ > µ0
{z ≥ Zα }
µ 6= µ0
{|z| ≥ Z α2 }
β(µ) √ 1 − Φ(−Zα + ( µ0σ−µ ) n) √ Φ(Zα + ( µ0σ−µ ). n) Φ(Z α + ( 2
µ0 −µ √ ). n) σ
− Φ(−Z α + ( 2
µ0 −µ √ ). n) σ
β(µ0 ) ≤ β0 h σ.(Z +Z ) i2 α β0 n≥ µ0 −µ h σ.(Z +Z0 ) i2 α β0 n≥ µ0 −µ h σ.(Z α +Z0 ) i2 β0 2 n≥ µ0 −µ0
Caso b: Sea X1 , . . . , Xn una M.A. con E(x) = µ y V (x) = σ 2 y n suficientemente grande. √ 2 Por T.C.L. X ∼ N (µ, σn ) ⇔ X−µ . n ∼ N (0, 1) σ • n ≥ 30 y σ conocido entonces el estad´ıstico de prueba es:
X − µ0 σ
√ . n ∼ N (0, 1) bajo H0
• n ≥ 40 y σ desconocido entonces el estad´ıstico de prueba es:
X − µ0 S
√ . n ∼ N (0, 1) bajo H0
• Las RRα son las misma que en el caso a. Caso c: Sea X1 , . . . , Xn una M.A. ∼ N (µ, σ 2 ) con σ desconocido y H0 : µ = µ0 • n ≥ 40 Entonces el estad´ıstico de prueba es:
X − µ0 S
√ . n ∼ N (0, 1) bajo H0
Luego la regi´ on de rechazo para la prueba es la misma que la del caso a. • n < 40 Entonces el estad´ıstico de prueba va a ser :
X − µ0 S
√ . n ∼ tn−1 bajo H0
113
Fijado un nivel de significancia α √ Kα −µ0 √ 0 RRα = {x ≥ Kα } = {( x−µ ). n} S ). n = t ≥ ( S α = P (x ≥ Kα cuando µ = µ0 ) K − µ √ x − µ0 √ α 0 . n α=P . n≥ S S | {z } | {z } ∗ t
tn−1
∗
t = tα,n−1 α = t ≥ tα,n−1 Ha µ < µ0 µ > µ0 µ 6= µ0
RRα {t ≤ −tα,n−1 } {t ≥ tα,n−1 } {|t| ≥ t α2 ,n−1 }
Ejemplo Dos empresas distintas desean establecerse en cierta regi´on y brindar servicios de televisi´ on por cable. Se denota por p la proporci´on de suscriptores potenciales que prefieren la primera empresa sobre la segunda. Se toma una muestra aleatoria de tama˜ no 25 para probar: H0 : p = 0, 5 contra Ha : p 6= 0, 5. Se representa con X el n´ umero de suscriptores en la muestra que est´a a favor de la primera empresa y con x el valor observado de X. 1. Cu´ al de las siguientes regiones de rechazo es la m´as adecuada? R1 = {x : x ≤ 7 o´ x ≥ 18} R2 = {x : x < 8} R3 = {x : x > 17} La m´ as adecuada es R1 que corresponde a una Ha de dos colas. 2. Cu´ al es la distribuci´ on de probabilidad del estad´ıstico de prueba X cuando H0 es verdadera? Util´ıcela para calcular la probabilidad de error de tipo I Mi estad´ıstico de prueba va a ser X ∼ B(25; 0,5) bajo H0 P (error de tipo I) = P (x ≤ 7 ∪ x ≥ 18 cuando p = p0 ) = P (x ≤ 7 cuando p = p0 ) + P (x ≥ 18 cuando p = p0 ) = B(7; 25 : 0,5) + 1 − P (x ≤ 17 cuando p = p0 ) = B(7; 25 : 0,5) + 1 − B(17; 25; 0,5)
114
P (error de tipo I) = P (x ≤ 7) + 1 − P (x ≤ 17) cuando p = p0 7 − n.p0 17 − n.p0 =Φ √ +1−Φ √ n.p0 .q0 n.p0 .q0 = Φ(−2,2) + 1 − Φ(1,8) = 0,0139 + 10,9641 = 0,0498 3. Calcule la probabilidad de error de tipo II para la regi´on seleccionada cuando p = 0, 3. Repita lo mismo para p = 0, 4 ; p = 0, 6 y p = 0, 7.
β(p) = P (7 < x ≤ 17) =
17 X
n k
.pk .q n−k
k=8
p 0,3 0,4 0,6 0,7
β(p) 0,488 0,845 0,845 0,488
β(17,25, p) − β(7,25, p)
4. Mediante la regi´ on seleccionada qu´e concluye si 6 de los 25 individuos favorecieron a la primera empresa?
115
8.4.
Prueba de hip´ otesis para la varianza poblacional
Sea X1 , . . . , Xn M.A. ∼ N (µ, σ 2 ) con σ desconocido y H0 : σ 2 = σ02 . 2 El estimador de prueba va a ser: (n−1).S ∼ χ2n−1 bajo H0 σ2 Un criterio razonable para rechazar H0 en favor de la hip´otesis aletenativa ser´ a: Kα .(n − 1) (n − 1).S 2 ≥ S 2 ≥ Kα ⇔ σ02 σ02 α = P (S 2 ≥ Kα cuando σ 2 = σ02 ) 2 α α = P ( (n−1).S ≥ (n−1).K ) σ2 σ2 0
0
RRα = {χ2 ≥ χ2α,n−1 } En s´ıntesis Ha σ 2 > σ02 σ 2 < σ02 σ 2 6= σ02
8.5.
RRα {χ2 ≥ χ2α,n−1 } {χ2 ≤ χ21−α,n−1 } 2 {χ ≥ χ2α ,n−1 ´o χ2 ≤ χ21− α ,n−1 } 2
2
Prueba de hip´ otesis para la proporci´ on poblacional
Sea X1 , . . . , Xn una M.A. ∼ Bernoulli(p) con H0 : p = p0 Con p0 valor fijado por el investigador. n P Sabemos que: xi ∼ B(n, p) i=1
Caso a: n peque˜ no, el estad´ıstico de prueba va a ser: X=
n X
xi ∼ B(n, p0 )
i=1
Ha p > p0 p < p0 p 6= p0
RRα {x : x ≥ Kα } {x : x ≤ Kα } {x : x ≤ K1α ´o x ≥ K2α }
Sea x ∈ Z≥0 Definimos B(x; n, p) =
x P k=0
n k
.pk (1 − p)n−k
• En el caso Ha : p > p0 y supongamos Kα ∈ Z≥0 P (error de tipo I) = P (X ≥ Kα cuando p = P0 ) = 1 − P (X ≤ Kα−1 cuando p = p0 ) = 1 − B(Kα−1 ; n, p0 ) ≤ α
116
• En el caso Ha : p < p0 P (error de tipo I) = P (X ≤ Kα cuando p = P0 ) = B(Kα ; n, p0 ) ≤ α
• En el caso Ha : p 6= p0 P (error de tipo I) = P (X ≤ K1α : p = P0 ) + P (X ≥ K2α : p = P0 )
Caso b: cuando n es suficientemente grande: T.C.L
X ∼ N (n.p, n.p.q) ↔ El estad´ıstico de prueba va a ser:
X − n.p ∼ N (0, 1) √ n.p.q
X−n.p0 √ n.p0 .q0
∼ N (0, 1) Bajo H0
Luego fijado el nivel de significancia α Ha RRα q β(p) √ . q0 −p p > p0 {z ≥ Zα } Φ(Zα p0p.q + n. p√0p.q ) q √ p0 −p p0 . q 0 p < p0 {z ≤ −Zα } 1 - Φ(−Zα n. √ ) p.q + q q p.q √ √ . q0 −p . q0 −p p 6= p0 {|z| ≥ Z α2 } Φ(Z α2 p0p.q + n. p√0p.q ) + Φ(−Z α2 p0p.q + n. p√0p.q ) Ejemplo (Extra´ıdo de libro Probabilidad y estad´ıstica de Jay L. Devore). Muchos consumidores est´an volviendo a los medicamentos gen´ericos como una forma de reducir el costo de las medicaciones prescritas. Se propoicionan los resultados de 102 m´edicos, de los cuales s´olo 47 de los encuestados conoc´ıan el nombre gen´erico para el f´armaco metadona. Proporciona lo anterior evidencia suficiente para concluir que menos de la mitad de los m´edicos conocen el nombre gen´erico para la metadona? Lleve a cabo una prueba de hip´otsis con un nivel de significancia 0,05. θ = p → proporci´ on de m´edicos que conocen el nombre gen´erico de la metadona. Ha : p < 0,5 = P0 α = 0,05 P (error de tipo I) = B(Kα∗ ; 102; 0,5) Caso B: Proporci´ on como n es suficientemente grande mi estad´ıstico de prueba va a ser: X − n.p0 ∼ N (0, 1) Bajo H0 √ n.p0 .q0 117
α = 0,05 ⇒ RR0,05 = {Z : Z < −0,05} = Zobs
1,64+1,65 2
= 0,645
47 − 102 ∗ 0, 5 = −0,79 6∈ RR0,05 =√ 102 ∗ 0,5 ∗ 0,5
∴ No hay evidencia suficiente para rechazar H0 al 5 %
8.6.
P-Valor
Definici´ on: llamaremos p valor o nivel de significancia alcanzado al menor nivel de significancia a partir del cual rechazamos H0 con los resultados obtenidos en la muestra. p valor ≤ α ⇒ rechazo a un nivel a Id est:
Zα
≤ Zobs
p valor > α ⇒ no hay evidencia suficiente para rechazar H0 Id est:
Zobs
6∈ RRα
Estad´ıtico de prueba Z
T
9.
Ha cola superior cola inferior bilateral cola superior cola inferior bilateral
p valor P (Z ≥ Zobs ) P (Z ≤ Zobs ) 2.P (Z ≥ |Zobs |) P (T ≥ tobs ) P (T ≤ tobs ) 2.P (T ≥ |tobs |)
Inferencia basada en dos muestras No lo vimos
118
··
^