Estimación puntual
Prof. María B. Pintarelli
2 - E st s t i m a ccii ó n p u n t ua ual 2. 1 – Introducción Introducción
Supongamos la siguiente situación: en una fábrica se producen artículos, el interés está en la producción de un día, específicamente, de todos los artículos producidos en un día nos interesa una característica determinada, si el artículo es o no defectuoso. Sea p Sea p la la proporción de artículos defectuosos en la población , es decir en la producción de un día. Tomamos una muestra de 25 artículos, podemos definir la v.a. X : “número de artículos defectuosos de en la muestra”, muestra”, y podemos asumir que X ~ B(25, p) . En Probabilidades se se conocí conocíamos p.. De esa forma con ocían todos tod os los lo s datos dat os sobr sobr e la v.a. v.a . X , es decir conocíamos p podíamos responder preguntas como: ¿cuál es la probabilidad que entre los 25 artículos halla 5 defectuosos?. Si, por ejemplo, p 0.1 entonces calculábamos P ( X 5) donde X ~ B (25, 0.1) . En E stadística total o parcialmente, y a partir de la muestra sti ca desconocem descon ocemos os las l as car acter act erí ísticas sti cas de X total de 25 artículos tratamos de inferir información información sobre la distribución de X de X , o dicho de otra forma tratamos de inferir información sobre la población . Por ejemplo, en estadística sabremos que X tiene distribución binomial pero descon ,ya desconocemos ocemos p partir de la muestra de 25 artículos trataremos de hallar información sobre p sobre p.. En Estadística nos haremos preguntas tales como: si en la muestra de 25 artículos se encontraron 5 defectuosos, ¿ese hecho me permite inferir que el verdadero p verdadero p es es 0.1?. El campo de la i n f erenci está formado por los métodos utilizados para tomar decisiones está eren cia a estad estadí ística sti ca o para obtener conclusiones sobre el o los parámetros de una población. Estos métodos utilizan la información contenida en una muestra de la población para obtener conclusiones. de La inferencia estadística puede dividirse en dos grandes áreas: esti y y pruebas esti ma maci ció ón de par ámetr os . de h i pótes pótesii s
2.2 – Muestreo Muestreo aleatorio
En muchos problemas estadísticos es necesario utilizar una muestra de observaciones tomadas de la población de interés con objeto de obtener conclusiones sobre ella. A continuación se presenta la definición de algunos términos Una población está está formada por la totalidad de las observaciones en las cuales se tiene cierto interés En muchos problemas de inferencia estadística es poco práctico o imposible, observar toda la población, en ese caso se toma una parte o subconjunto s ubconjunto de la población Una muestra es un subconjunto de observaciones seleccionada de una población es Para que las inferencias sean válidas, la muestra debe ser representativa de la población. Se selecciona una muestra aleatoria como el resultado res ultado de un mecanismo aleatorio. En consecuencia, la s elección de una muestra es un experimento aleatorio, y cada observación de la muestra es el valor observado de una variable aleatoria. Las observaciones en la población determinan la distribución de probabilidad de la variable aleatoria. Para definir muestra aleatoria, sea X sea X la la v.a. que representa el resultado de tomar una observación de la población. Sea f ( x) la f.d.p la f.d.p.. de la v.a. X . supongamos que cada observación en la muestra se obtiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la mues21
Estimación puntual
Prof. María B. Pintarelli
tra se obtienen al observar X observar X de de manera independiente bajo condiciones que no cambian, digamos n veces. Sea X i la variable aleatoria que representa la i-ésima observación. Entonces X 1 , X 2 ,..., X n constituyen una muestra aleatoria, donde los valores numéricos obtenidos son x1 , x 2 ,..., xn . Las variables aleatorias en una muestra aleatoria son independientes, con la misma distribución de probabilidad f(x) debido f(x) debido a que cada observación se obtiene bajo las mismas condiciones. Es decir las funciones de densidad marginales de X 1 , X 2 ,..., X n son todas iguales a f(x) a f(x) y y por independencia, la distribución de probabilidad conjunta de la muestra aleatoria es el producto de las marginales f ( x1 ) f ( x2 )... f ( xn ) Las variables aleatorias X 1 , X 2 ,..., X n constituyen una muestr de de tamaño n de una muestr a al al eatori a v.a. X v.a. X si X 1 , X 2 ,..., X n son independientes idénticamente distribuidas El propósito de tomar una muestra aleatoria es obtener información sobre los parámetros desconocidos de la población. Por ejemplo, se desea alcanzar una conclusión acerca de la proporción de artículos defectuosos en la producción diaria de una fábrica. Sea p la p la proporción de artículos defectuosos en la población, para hacer una inferencia con respecto a p, p, se selecciona una muestra aleatoria (de un tamaño apropiado) y se utiliza la proporción observada de artículos defectuosos en la muestra para estimar p. estimar p. La proporción de la muestra p se calcula dividiendo el número de artículos defectuosos en la muestra por el número total de artículos de la muestra. Entonces p es una función de los valores observados en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una población, el valor de p cambiará de una a otra. Es decir p es un a var . Esta variable aleatoria se var i able aleatori aleatori a conoce como estadí esta dísti co. co . ˆ
ˆ
ˆ
ˆ
Un estadí esta dísti co es cualquier función de la muestra aleatoria
Estadísticos usuales
Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X v.a. X donde E ( X ) y V ( X ) 2 Si desconocemos un estadístico que se utiliza para estimar ese parámetro es la media media o prome pr omedio dio
muestral X
1 n
n
X
i
i 1
Análogamente si se desconoce 2 un estadístico usado para tener alguna información sobre ese pa1 n 2 X i X 2 rámetro es la vari anza muestr que se define como S muestr al que n 1 i 1
Otro estadístico es la desvi desviaci aci ón están dar mu estr estr al S
1
n
X X n 1
2
i
i 1
Como un estadístico es una variable aleatoria, éste tiene una distribución de probabilidad, esperanza y varianza. Una aplicación de los estadísticos es obtener esti maciones de los parámetros desconoci de maci ones pun tuales tu ales dos de una distribución. Por ejemplo como se dijo antes se suelen estimar la media y la varianza de una población.
22
Estimación puntual
Prof. María B. Pintarelli
Cuando un estadístico se utiliza para estimar un parámetro desconocido se lo llama estimador pun - tual . Es habitual simbolizar en forma genérica a un parámetro con la letra y al estadístico que se utiliza como estimador puntual de , simbolizarlo con Por lo tanto
. ˆ
es una función de la muestra aleatoria: h X 1 , X 2 ,..., X n ˆ
ˆ
Al medir la muestra aleatoria se obtienen x1 , x 2 ,..., xn , y entonces el valor que toma es ˆ
h x1 , x2 ,..., xn y se denomina estimación puntu al de ˆ
El objetivo de la estimación puntual es seleccionar un número, a partir de los valores de la muestra, que sea el valor más probable de . Por ejemplo, supongamos que X 1 , X 2 , X 3 , X 4 es una muestra aleatoria de una v.a. X . Sabemos que X tiene distribución normal pero desconocemos . Tomamos como estimador de al promedio muestral X , es decir X ˆ
Tomamos la muestra (medimos X 1 , X 2 , X 3 , X 4 ) y obtenemos x1 24, x2 30, x3 27, x4 32 Entonces la estimación puntual de es x
24 30 27 32
28.25 4 Si la varianza 2 de X también es desconocida, un estimador puntual usual de 2 es la varianza 1 n X i X 2 , para la muestra dada la estimación de 2 es 12.25. muestral, es decir S 2 n 1 i 1 Otro parámetro que a menudo es necesario estimar es la proporción p de objetos de una población que cumplen una determinada característica. 1 n En este caso el estimador puntual de p sería p X i donde n i 1
ˆ
1 si la í ésima observación tiene la característica de interés X i 0 caso contrario Por lo tanto p
1
ˆ
n
i 1 ,2,..., n
n
X es la proporci ón de objetos en l a muestr a cumplen la característica de intei
i 1
rés Puede ocurrir que se tenga más de un estimador para un parámetro, por ejemplo para estimar la media muestral se pueden considerar el promedio muestral, o también la semisuma entre X 1 y X n , es decir
X 1 X n
ˆ
2
. En estos casos necesitamos de algún cri teri o para decidi r cuál es mejor esti ma-
dor de .
2.3 – Criterios para evaluar estimadores puntuales
Lo que se desea de un estimador puntual es que tome valores “próximos” al verdadero parám etro.
Se dice que el estimador puntual es un esti mador insesgado del parámetro si E cualquiera sea el valor verdadero de ˆ
Podemos exigir que el estimador
tenga una distribución cuya media sea ˆ
La diferencia E se conoce como sesgo de esti mador ˆ
ˆ
.
. Anotamos b E ˆ
ˆ
ˆ
23
Estimación puntual
Prof. María B. Pintarelli
Notar que si un esti mador es insesgado enton ces su sesgo es cero Ejemplos: 1- Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E ( X ) y V ( X ) 2 Si desconocemos un estadístico que se utiliza usualmente para estimar este parámetro es la media
o promedio muestr al X
1 n
n
X . Veamos si es un estimador insesgado de i
. Debemos ver si
i 1
E X . Usamos las propiedades de la esperanza, particularmente la propiedad de linealidad.
1 n 1 n 1 n E X E X i E X i E X i . n i 1 n i 1 n i 1 Pero, tratándose de las componentes de una muestra aleatoria es: E X i E X μ
E X
1 n
i 1 ,2 ,...,n .
Luego:
n μ μ.
2- Sea X una variable aleatoria asociada con alguna característica de los individuos de una población y sean E X μ
y
V X σ
. Sea S
2
2
1
2
n
X X la i
n 1 i 1
varianza muestral (con
n X X i / n la esperanza muestral) para una muestra aleatoria de tamaño n, X 1 , X 2 ,..., X n . i 1 Entonces E S σ es decir S 2
2
2
2
n
1
X X es un estimador insesgado de n 1 i
V X σ 2
i 1
pues: 2 2 1 n n 1 . E S E X X E X X i i n 1 i 1 n 1 i 1 2
Reescribiremos la suma de una forma más conveniente. Sumamos y restamos μ y desarrollamos el cuadrado: 2
n
2
n
2
n
X X X X X X i
i
i 1
i 1
i
i 1
n 2 2 2 X i 2 X i X X X i 2 X i 1 i1 n
n
n
X i n X 2
i 1
X i 2 X n X n X X i μ 2 2n μ X n μ X . n
i 1
2
2
2
2
i 1
Esto es:
24
Estimación puntual
2
n
Prof. María B. Pintarelli
n
X X X μ n μ X
2
2
i
i
i 1
i 1
Entonces: 2 n 2 1 n 2 E S E X i X E X i n X n 1 i 1 n 1 i1 2 1 n 2 E X i nE X n 1 i 1
1
2
1 n 1 2 2 n n , V X i nE X E X V X i nV X n 1 i 1 n n 1 i1 n 1 1
n
2
V X i V X σ
V X
σ 2 n
i 1 ,2 ,...,n y que
2
donde en la última igualdad tuvimos en cuenta que
. Luego llegamos a lo que se deseaba demostrar: E S 2 σ 2 .
3- Supongamos que tomamos como estimador de a 2
2
1
ˆ
n
2
n
X X i
i 1 n
Entonces notar que podemos escribir 2
1
ˆ
n
2
n
X X i
n 1
i 1
n
X X
2
i
i 1
n 1
n 1 n
S 2
n 1 2 n 1 2 n 1 S E S 2 2 n n n
Por lo tanto E 2 E ˆ
Es decir 2 no es un estimador insesgado de 2 , es sesgado , y su sesgo es 1 2 n 1 2 2 b 2 E 2 2 n n Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parámetro ˆ
ˆ
ˆ
En ocasiones hay más de un estimador insesgado de un parámetro Por lo tanto necesitamos un método para seleccionar un estimador entre varios estimadores insesgados.
Varianza y error cuadrático medio de un estimador puntual
Supongamos que 1 y 2 son dos estimadores insegados de un parámetro . Esto indica que la distribución de cada estimador está centrada en el verdadero parámetro . Sin embargo las varianzas de estas distribuciones pueden ser diferentes. La figura siguiente ilustra este hecho. ˆ
ˆ
25
Estimación puntual
Prof. María B. Pintarelli
0.4
Distribución de
0.3
ˆ
1
0.2
Distribución de
0.1
-15
-10
-5
5
10
ˆ
2
15
Como 1 tiene menor varianza que 2 , entonces es más probable que el estimador 1 produzca una estimación más cercana al verdadero valor de . Por lo tanto si tenemos dos estimadores insesgados se seleccionará aquel que tenga menor varianza. ˆ
ˆ
ˆ
Ejemplo: Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E ( X ) y V ( X ) 2 Suponemos desconocido. Estimamos al parámetro con la media o pr omedio muestr al X estimador insesgado de . Anotamos 1 X
1
ˆ
n
1 n
n
X . Sabemos que es un i
i 1
n
X
i
i 1
Supongamos que tomamos otro estimador para , lo anotamos 2
X 1 X n
ˆ
2
Entonces como 1 1 X X n 1 E 2 E 1 E X 1 E X 2 2 , 2 2 2 2 X X n 2 1 es también un estimador insesgado de 2 ¿Cuál de los dos estimadores es mejor? Calculamos la varianza de cada uno utilizando las propiedades de la varianza. 1 n Ya sabemos cuál es la varianza de X X i (se la halló para T.C.L.): n i 1 ˆ
ˆ
1 n 1 n 1 n V X V X i 2 V X i 2 V X i , n i 1 n i 1 n i 1 donde en la última igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las X i con i=1,2,…,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma de ellas es la suma de las varianzas. Si tenemos en cuenta que además todas tienen la misma distri bución que X y por lo tanto la misma varianza: V X i V X σ
i 1 ,2 ,...,n , tenemos
2
V X
1 n2
nσ 2
σ 2 n
.
Análogamente calculamos la varianza de 2
X 1 X n
ˆ
2
: 26
Estimación puntual
Prof. María B. Pintarelli
1 2 2 X 1 X n 1 2 V 2 V V ( X 1 ) V ( X 2 ) 4 2 2 4 Vemos que si n 2 entonces V ( 1 ) V ( 2 ) . Por lo tanto si n 2 es mejor estimador ˆ
ˆ
ˆ
ˆ
1
Supongamos ahora que 1 y 2 son dos estimadores de un parámetro y algun o de ellos no es . insesgado A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el er ror cua- dr áti co m edio del estimador. ˆ
ˆ
El err or cuadr áti co medio de un estimador
de un parámetro está definido como ˆ
2 ECM E
ˆ
ˆ
El error cuadrático medio puede escribirse de la siguiente forma:
ECM V b ˆ
ˆ
2
ˆ
2 Dem.) Por definición ECM E . Sumamos y restamos el número E :
2 ECM E E E , y desarrollamos el cuadrado: ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
2 ECM E E E E E
ˆ
ˆ
ˆ
ˆ
ˆ
E
ˆ
2
2
ˆ
ˆ
2 E E ˆ
ˆ
ˆ
Aplicamos propiedades de la esperanza: 2 2 2 E 2 E E E V b E E ˆ
ˆ
ˆ
ˆ
ˆ
2 ˆ
ˆ
ˆ
ˆ
0
b
V
ˆ
El error cuadrático medio es un criterio importante para comparar estimadores. Si
ˆ
1
y
ˆ
2
son dos estimadores de un parámetro .
La eficiencia relativa de
ˆ
con respecto a 2
ˆ
ECM 1 ˆ
se define como 1
ECM 2 ˆ
Si la eficiencia relativa es menor que 1 entonces
ˆ
1
tiene menor error cuadrático medio que
ˆ
2
Por l o tanto 1 es más eficiente que 2 Observaciones: 1- Si es un estimador insesgado de , entonces ECM V ˆ
ˆ
ˆ
ˆ
ˆ
27
Estimación puntual
Prof. María B. Pintarelli
2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen un error cuadrático medio menor. En el error cuadrático medio se consideran tanto la varianza como el sesgo del estimador. Si
y
ˆ
1
ˆ
son dos estimadores de un parámetro , tales que E 1 ; ˆ
2
E 2 y ˆ
V 2 V 1 , habría que calcular el error cuadrático medio de cada uno, y tomar el que tenga meˆ
ˆ
nor error cuadrático medio. Pues puede ocurrir que
ˆ
2
tome valores más cercanos al verdadero parámetro que
, aunque sea sesgado, al tener menor varianza
ˆ
1
0.4
Distribución de
0.3
ˆ
2
0.2
0.1
-7.5
-5
Distribución de
-2.5
2.5
5
ˆ
1
7.5
Ejemplo:
Supóngase que
, 2 ˆ
ˆ
1
y
ˆ
3
son dos estimadores de un parámetro
,
y que
2 E 1 E 2 ; E 3 , V ( 1) 10 , V ( 2 ) 6 y E 3 4 . Haga una comparación ˆ
ˆ
ˆ
ˆ
ˆ
ˆ
de estos estimadores. ¿Cuál prefiere y por qué? Solución: Calculamos el error cuadrático medio de cada es timador ECM 1 V 1 10 pues ˆ
ˆ
ECM 2 V 2 6 pues ˆ
ˆ
1
es insesgado
2
es insesgado
ˆ
ˆ
2 ECM 3 E 3 4 es dato
ˆ
ˆ
En consecuencia
ˆ
3
es el mejor estimador de los tres dados porque tiene menor error cuadrático
medio.
Consistencia de estimadores puntuales
Sea
n ˆ
un estimador del parámetro , basado en una muestra aleatoria X 1 , X 2 ,..., X n de tama-
ño n. Se dice que
n es un estimador consistente de ˆ
lim P n 0 ˆ
n
si
para todo ε 0
Observación: 28
Estimación puntual
Prof. María B. Pintarelli
Este tipo de convergencia, que involucra a una sucesión de variables aleatorias, se llama convergen- cia en probabil idad y es la misma que consideramos en relación a la ley de los gran des números P
Suele escribirse también n . ˆ
Este tipo de convergencia debe distinguirse de la considerada en relación al teorema central del límite. En este último caso teníamos una sucesión de distribuciones: F Z n z P Z n z y se considera el límite lim F Z n z lim P Z n z z . n
n
d
Se habla, entonces, de convergencia en distri bución y suele indicarse Z n Z N 0 ,1 . Teorema. Sea
n
un estimador del parámetro basado en una muestra aleatoria X 1 , X 2 ,..., X n .
ˆ
Si lim E n y lim V n 0 , entonces ˆ
ˆ
n
n
n es un estimador consistente de . ˆ
Dem.) Utilizamos la desigualdad de Chebyshev ε 0 :
P n ˆ
2
E n ˆ
2
1
2 1 ECM V b n n n 2 2
ˆ
ˆ
ˆ
Entonces, al tomar el límite lim y teniendo presente que lim E n y lim V n 0 , vemos que ˆ
n
n
lim P n 0 ε 0 , es decir ˆ
n
ˆ
n
n es un estimador convergente de ˆ
.
Ejemplo: Sea X una variable aleatoria que describe alguna característica numérica de los individuos de una población y sean μ E X y σ 2 V X la esperanza poblacional y la varianza poblacional, res pectivamente. Sea X
1 n
n
X i
la esperanza muestral basada en una muestra aleatoria
i 1
X 1 , X 2 ,..., X n . Entonces X es un estimador consistente de la esperanza poblacional μ E X . Sabemos que a) E X μ E X b) V X
2
σ
n
V X
n n n La propiedad a) ya me dice que X es un estimador insesgado de μ E X . Por otra parte si a) vale para todo n, también vale en particular en el límite n : lim E X μ E X . n
Además, de b) deducimos inmediatamente que lim V X 0 . n
Por lo tanto vemos que X es un estimador consistente de μ E X .
29
Estimación puntual
Prof. María B. Pintarelli
2.4 – Métodos de estimación puntual
Los criterios anteriores establecen propiedades que es deseable que sean verificadas por los estimadores. Entre dos estimadores posibles para un dado parámetro poblacional es razonable elegir aquél que cumple la mayor cantidad de criterios o alguno en particular que se considera importante para el problema que se esté analizando. Sin embargo estos criterios no nos enseñan por sí mismos a construir los estimadores. Existen una serie de métodos para construir estimadores los cuales en general se basan en principios básicos de razonabilidad. Entre éstos podemos mencionar: - Mé todo de l os momentos - Mé todo de máxima verosimilitud
Método de los momentos
Se puede probar usando la desigualdad de Chebyshev el siguiente resultado: Ley débil de los grandes números: Sean X 1 , X 2 ,..., X n n variables aleatorias independientes todas las cuales tienen la misma esperanza μ E X y varianza σ V X . Sea X 2
1 n
n
X . Entonces i
i 1
lim P X 0 n
p
Decimos que X converge a μ en probabilidad y lo indicamos: X μ .
Definimos los momentos de orden k de un a vari able aleatori a como: μk E X k
x
p xi
k 0 ,1 ,2 ,...
Si X es discreta
x f xdx
k 0 ,1 ,2 ,...
Si X es continua,
i
k
xi R X
μk E X
k
k
y definimos los correspondientes momentos muestr ales de orden k como: M k
1
n
X n
k i
k 0 ,1 ,2 ,... ,
i 1
Entonces la ley débil de los grandes números se puede generalizar: lim P M k k 0 n
k 0 ,1 ,2 ,... .
De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los momentos muestrales de orden k: μk M k k 0 ,1 ,2 ,... .
30
Estimación puntual
Prof. María B. Pintarelli
Supongamos, entonces, una variable aleatoria X y supongamos que la distribución de X depende de r parámetros 1 , 2 ,..., r , esto es la fdp poblacional es p xi , 1 , 2 ,..., r si X es discreta o f x, 1 , 2 ,..., r si es continua. Sean μ1 , μ2 ,..., μr los primeros r momentos poblacionales:
x
k k E X
pxi , 1 , 2 ,..., r
k 1 ,2 ,...,r
Si X es discreta
x f x, , ,..., dx
k 1 ,2 ,...,r
Si X es continua,
i
k
xi R X
k E X
k
k
1
2
r
y sean M k
1
n
X n
k i
k 1 ,2 ,...,r los
r primeros momentos muestrales para una muestra de tamaño n
i 1
X 1 , X 2 ,..., X n . Entonces el mé : todo de los momentos consiste en pl antear el sistema de ecuaci ones μ M μ M μr M r 1
1
2
2
Es decir 1 n 1 xi p xi , 1 , 2 ,..., r n X i i 1 x R n x 2 p x , , ,..., 1 X 2 i 1 2 r i i n x R i 1 1 n r r xi p xi , 1 , 2 ,..., r n X i i 1 x R i
X
i
X
i
X
Si X es discreta,
o
1 n 1 xf x, 1 , 2 ,..., r dx X i n i 1 2 1 n 2 x f x, 1 , 2 ,..., r dx X i n i 1 r 1 n r x f x, 1 , 2 ,..., r dx X i n i 1
Si X es continua.
31
Estimación puntual
Prof. María B. Pintarelli
Resolviendo estos sistema de ecuaciones para los parámetros desconocidos 1 , 2 ,..., r en función de la muestra aleatoria X 1 , X 2 ,..., X n obtenemos los estimadores:
1 H 1 X 1 , X 2 ,..., X n 2 H 2 X 1 , X 2 ,..., X n H X , X ,..., X r 1 2 n r ˆ
ˆ
ˆ
Observación: En la forma que presentamos aquí el método necesitamos conocer la forma de la fdp poblacional, por lo tanto estamos frente a un caso de estimación puntual param é trica . Ejemplos: 1- Sea X una variable aleatoria. Supongamos que X tiene distr ibuci ón gama con parámetros σ y λ : X σ , λ , es decir su fdp está dada por:
1 x λ 1 x e σ x 0 f ( x ) σ λ σ demás valores 0
λ con σ 0 ; λ 0 y λ x 1e x dx . 0
Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamaño n. Deseamos calcular los estimadores de σ y λ dados por el método de los momentos. Solución: Como tenemos dos parámetros desconocidos a estimar, planteamos el sistema de ecuaciones:
μ1 M 1 μ2 M 2 Se puede probar que
μ1 λ.σ
μ2
λ2 .σ 2
λ.σ 2
Tenemos, entonces, el sistema de ecuaciones 1 n λ . σ X i n i 1 1 n 2 2 2 λ .σ λ.σ X i2 n i 1
. X 1 n 2 2 2 2 . . X i n i 1
32
Estimación puntual
Prof. María B. Pintarelli
1
Reemplazando en la segunda ecuación: X 2 X
n
1
X n
i
n
X n
i
2
2
X 2
i 1
X Y despejando de la primera ecuación y reemplazando la expresión hallada para i 1
n X n X i X i n X i X i n X 2
ˆ
2
1
2
1
ˆ
2- Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamaño n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el método de los momentos. Solución: Planteamos la ecuación: 1 M 1 Sabemos que 1 E ( X )
0 2
2
. Entonces
2
2 X
X
ˆ
Observación: notar que el estimador 2 X es un estimador consistente de , pues ˆ
E E 2 X 2 E X 2
ˆ
2
y
V V 2 X 4V X 4 ˆ
02 12n
2
0
3n n
3- Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ N ( , 2 ) . Encuentra los estimadores de y por el método de momentos. Solución: Planteamos las ecuaciones
μ1 M 1 μ2 M 2
X 1 n 2 2 E X X i n i 1
pero en general es válido que V ( X ) E ( X 2 ) 2 Entonces las ecuaciones quedan X n 2 2 1 X 2 2 i n i 1
ˆ
E ( X 2 ) V ( X ) X 1 n 2 X i X 2 n i 1 ˆ
4- Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ N (0, 2 ) . Hallar un estimador por el método de los momentos de 2 Solución: en este caso no es conveniente plantear 1 M 1 pues quedaría 33
Estimación puntual
Prof. María B. Pintarelli
la ecuación 0 X que no conduce a nada. Entonces podemos plantear 2 M 2 es decir E ( X ) 2
1
n
X n
0
2
2
i
i 1
1
n
X n
i
2
2
ˆ
i 1
1
n
X n
2
i
i 1
es un estimador por el método de los momentos de un parámetro de los momentos de g es g , si g ( x) es una función inyectiva. Observación: si
ˆ
, el estimador
ˆ
Por ejemplo, en el ejemplo anterior un estimador de 2
ˆ
ˆ
1
n
X n
i
2
por el método de los momentos sería
. Notar que g ( x) x es inyectiva para los reales positivos.
i 1
Método de máxima verosimilitud
Uno de los mejores métodos para obtener un estimador puntual de un parámetro es el método de máxima verosimilitud. Supongamos que X es una v.a. discreta con función de distribución de probabilidad p( x, ) , donde es un parámetro desconocido. Sean x1 , x 2 ,..., xn los valores observados de una muestra aleatoria de tamaño n. Se define la fu nción de verosimi li tud como la función de distribución conjunta de las observaciones: L x1 , x2 ,..., xn , P ( X 1 x1 ) P ( X 2 x2 )... P ( X n xn ) p( x1 , ). p( x2 , )..... p( xn , ) Notar que la función de verosimilitud es una función de . El estimador de máxima verosimilitud de es aquel valor de que maximiza la función de verosimilitud
L a i nterpretación del mé todo sería: el esti mador de máxi ma verosimilitud es aquel val or del pa- rámetro que maximi za la pr obabil idad de ocur rencia de los valores mu estr ales La adaptación para el caso en que X es una v.a. continua sería la siguiente Supongamos que X es una v.a. continua con función de densidad de probabilidad f ( x, ) , donde 2 ,..., xn los valores observados de una muestra aleato es un parámetro desconocido. Sean x1 , x ria de tamaño n. Se define la fu nción de verosimi li tud como la función de distribución conjunta de las observaciones: L x1 , x2 ,..., xn , f ( x1 , ). f ( x2 , )..... f ( xn , ) La función de verosimilitud es una función de . El estimador de máxima verosimilitud de es aquel valor de que maximiza la función de verosimilitud Notación: abreviamos estimador de máxima verosimilitud con EMV
34
Estimación puntual
Prof. María B. Pintarelli
Ejemplos: 1- Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ B (1, p ) Por ejemplo, se eligen al azar n objetos de una línea de producción, y cada uno se clasifica como defectuoso (en cuyo caso xi 1 ) o no defectuoso (en cuyo caso xi 0 ). Entonces p P ( X i 1) , es decir es la verdadera proporción de objetos defectuosos en la producción total. Queremos hallar el EMV de p Solución:
1 Si X~ B (1, p ) entonces P ( X k ) p k (1 p)1k k
k 0,1
Planteamos la función de verosimilitud
L x1 , x2 ,.., xn ; p
p x1 ; p p x2 ; p ... p xn ; p
x1
p
1
p
1 x1
x2
p
1
p
1 x2
xn
... p
1
p
1 xn
Esto puede escribirse: n
L x1 , x2 ,..., xn ; p p
x
i
i 1
n
1 p x n
i
i 1
Para maximizar la función de verosimilitud y facil itar los cálcul os tomamos el logaritmo natural de L Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos en sumas. Entonces
n
ln L x1 , x2 ,..., xn ; p
xi ln p n
i 1
n
x ln1 p i
i 1
Y ahora podemos maximizar la función derivando e igualando a cero n
n
xi n xi ln L x1 , x2 ,..., xn ; p i 1 i 1 0 p 1 p p
de donde despejando p n
x
i
p
i 1
n
x
la proporción de defectuosos en la muestra
Por lo tanto se toma como estimador a p X
1
ˆ
n
n
X
i
i 1
2- El tiempo de fallar T de una componente tiene una distribución exponencial con parámetro : , es decir la fdp es T Exp
e t 0 t f t ; 0 demás valores Recordemos que la esperanza y varianza son: 35
Estimación puntual
E T 1
Prof. María B. Pintarelli
y V T 1
2
, respectivamente.
Se desea calcular el estimador de máxima verosimilitud del parámetro para una muestra de tamaño n. Solución: La función de probabilidad es: t Lt 1 , t 2 ,..., t n ; f t 1 ; f t 2 ; ... f t n ; e t 1 e t 2 ... e n , que puede escribirse: n
Lt 1 , t 2 ,..., t n ; e n
t
i
i 1
Nuevamente tomamos logaritmo natural n
ln Lt 1 , t 2 ,..., t n ; n ln t i i 1
ln Lt 1 , t 2 ,..., t n ; 1 n n T i 0 i 1 de donde podemos despejar
n n
t ,
:
entonces el estimador de es
n
ˆ
t i
n
T i
i 1
i 1
El método de máxima verosimilitud presenta, algunas veces, dificultades para maximizar la función d L( ) 0 no resulta fácil de resolde verosimilitud debido a que la ecuación obtenida a partir de d ver. O también puede ocurrir que los métodos de cálculo para maximizar L( ) no son aplicables. Por ejemplo: Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamaño n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el método máxima verosimilitud. Solución: La f.d.p. de X es 1 si 0 x f ( x) 0 caso contrario
Planteamos la función de verosimilitud 1 n si 0 xi i L x1 , x2 ,... xn , 0 caso contrario
1 xi n si max i 0 caso contrario 36
Estimación puntual
Prof. María B. Pintarelli
d
Si derivamos con respecto a obtenemos
n
n
que es siempre menor que cero. Por lo d n1 tanto la función de verosimilitud es una función decreciente para todos los max xi
i
Si hacemos un gráfico de la función de verosimilitud
L( )
max xi
i
Vemos que donde la función tiene el máximo hay una discontinuidad no evitable. Por lo tanto max xi ˆ
i
El método de máxima verosimilitud puede emplearse en el caso donde hay más de un parámetro desconocido para estimar. En ese caso la función de verosimilitud es una función de varias variables. Específicamente si tenemos para estimar k parámetros 1 , 2 ,... k , entonces la función de verosimilitud es una función de k variables L x1 , x2 ,..., xn , 1 , 2 ,... k y los estimadores de máxima verosimilitud 1 , 2 ,... k se obtienen al plantear ( si existen las derivadas parciales) y resolver el sistema de k ˆ
ˆ
ˆ
ecuaciones con k incógnitas 1 , 2 ,... k d d i
L x1 , x2 ,..., xn , 1 , 2 ,... k 0
i 1,2,..k
Ejemplo: La variable aleatoria X tiene distribución N μ ,σ 2 con μ y σ 2 ambos parámetros desconocidos para los cuales se desea encontrar los estimadores máxima verosimilitud. La fdp es 1
f x; μ ,σ 2
1 x μ 2 σ
2
e x , 2π σ La función de verosimilitud para una muestra aleatoria de tamaño n es L x1 , x2 ,..., xn ; , 2
1 2
e
1 x 1 2
2
1 2
n
2 2 2 e
1
n
2 i 1
xi
e
1 x 2 2
2
...
1 2
e
1 x n 2
2
2
Luego 37
Estimación puntual
Prof. María B. Pintarelli
x ln L x1 , x2 ,..., xn ; , ln2 i 2 2 i 1 2
n
1
2
n
2
y el sistema de ecuaciones de verosimilitud queda:
ln L x1 , x2 ,..., xn ; , 2 n xi 0 i 1 2 2 n ln L x1 , x2 ,..., xn ; , n 1 xi 0 4 2 2 2 2 i 1 Resolvemos con respecto a μ y σ 2 :
1 n n xi x i 1 n n 2 1 xi 2 1 xi x 2 n i 1 n i 1 Entonces los estimadores máxima verosimilitud de μ y σ 2 son 1 n n X i X i 1 n 2 1 X i X 2 n i 1 ˆ
ˆ
Propiedades de los estimadores máxima verosimilitud
1- Los EMV pueden ser sesgados , pero en general si
es el EMV de un parámetro
basado en
ˆ
una muestra de tamaño n, entonces lim E () , es decir son asintóticamente insesgados ˆ
n
2- Bajo condiciones bastantes generales se puede probar que los EMV son asintóticamente consis- tentes 3- Bajo condiciones bastantes generales se puede probar que los EMV asintóti camente ti enen va- rianza mínima 4-Los EMV cumplen la propiedad de in vari anza es decir: si
es un EMV de un parámetro ˆ
, el EMV de g es g , si g ( x) es una función inyectiva. ˆ
Ejemplos: 1- Si consideramos nuevamente la situación considerada en el Ejemplo 2, donde teníamos una v.a. T , entonces, si queremos el EMV de la varianza po cuya distribución es una exponencial: T Exp blacional, podemos calcularlo recordando que V T 1
n
ˆ
n
T
1
. Por lo tanto el EMV de la varianza es 2 ˆ
T
2
, es decir, V T g 1 1
2
2
. Vimos que
.
ˆ
i
i 1
38
Estimación puntual
Prof. María B. Pintarelli
2- Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. B(1, p) . Un EMV de p es p X
1
n
X i n i 1 Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compañía. Sea X : “ el número entre los n que tienen defectos” , y p = P(el casco tiene defecto). Supongamos que solo se observa X ( el número de cascos con defectos). 3 Si n = 20 y x = 3, es la estimación de p es p 20 5 El E.M.V. de la probabilidad (1-p) , de que ninguno de los siguientes cinco cascos que se examinen ˆ
ˆ
3 tenga defectos será 1 p y su estimación en este caso 1 20
5
5
ˆ
39
Estimación puntual
Prof. María B. Pintarelli
Práctica Estimación puntual Método de máxima verosimilitud - Método de momentos
1) Suponga que se tiene una muestra aleatoria de tamaño 2n tomada de una población X , que
E ( X ) y V ( X ) 2 . Sean X 1
1 2n
2n
X
X 2
y
i
i 1
1 n
n
X
i
i 1
Dos estimadores de . ¿Cuál es el mejor estimador de ?. Explique su elección. 2) Sea X 1 , X 2 ,........, X 7 una muestra aleatoria de una población que tiene media y varianza 2 .
Considere los siguientes estimadores de :
1 ˆ
X 1 X 2 ...... X 7
y
7 a) ¿Alguno de estos estimadores es insesgado?
2 ˆ
3 X 1 X 6 X 4 2
b) Hallar el ECM de 1 y 2 . c) ¿Cuál estimador es el “mejor”?. ¿En qué sentido es mejor? ˆ
ˆ
3) Sea X 1 , X 2 ,........, X n una muestra aleatoria de tamaño n. a) Demuestre que X 2 es un estimador sesgado de 2 . b) Determine la magnitud del sesgo de este estimador. c) ¿Qué sucede con el sesgo a medida que aumenta el tamaño n de la muestra?. 4) Considere una muestra aleatoria de una distribución continua con densidad
(1 x) si 3 x 3 f ( x) 6 0 caso contrario a) ¿Es ˆ
1 3
donde el parámetro es tal que
1 / 3 1 / 3
X un estimador insesgado de ?. Explique.
b) Hallar ECM ( ) . ¿Es ˆ
1
ˆ
3
X un estimador consistente de ? Explique.
5) El número diario de desconexiones accidentales de un servidor sigue una distribución de Poisson. En cinco días se observan: 2 , 5 , 3 , 3 , 7 desconexiones accidentales. a) Obtenga el estimador de máxima verosimilitud de . Obtenga la estimación de a partir de la muestra dada. b) Encuentre el estimador de máxima verosimilitud de la probabilidad de que ocurrirán 3 o más desconexiones accidentales y encuentre la estimación de dicha probabilidad a partir de los datos. 6)a) Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. B(1, p) . Hallar un estimador de máxi-
ma verosimilitud (E.M.V.) de p. b) Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compañía. 40
Estimación puntual
Prof. María B. Pintarelli
Sea X = el número entre los n que tienen defectos y p = P(el casco tiene defecto). Supongamos que solo se observa X ( el número de cascos con defectos). b1) Si n = 20 y x = 3, ¿cuál es la estimación de p? b2) Si n = 20 y x = 3, ¿cuál es el E.M.V. de la probabilidad (1-p)5, de que ninguno de los siguientes cinco cascos que se examinen tenga defectos? 7) Denotemos por X la proporción de tiempo asignado que un estudiante seleccionado al azar em plea trabajando en cierta prueba de actitud, y supongamos que la f.d.p. de X es:
1 x , f ( x) 0,
0 x 1 c.c
donde 1
Una muestra aleatoria de diez estudiantes produce la siguiente información: 0.92, 0.79, 0.90, 0.65, 0.86, 0.47, 0.73, 0.97, 0.94, 0.77. a) Utilice el método de los momentos para obtener un estimador de y luego calcule la estimación para esta información. b) Obtenga el E.M.V. de y luego calcule la estimación para la información dada. 8) Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. N ( , 2 ) .
a) Hallar los estimadores de y por el método de momentos. b) Hallar los estimadores de y por el método de máxima verosimilitud. c) Se determina la resistencia al corte de cada una de diez soldaduras eléctricas por puntos de prueba, dando los siguientes datos (lb/plg2): 392, 376, 401, 367, 389, 362, 409, 415, 358, 375. Si se supone que la resistencia al corte esta normalmente distribuida , estime el verdadero promedio de resistencia al corte y desviación estándar de resistencia al corte usando el método de máxima verosimilitud y el método de momentos. 9) En una prueba 294 de 300 aisladores cerámicos soportaron cierto choque térmico. a) Obtenga el estimador y la estimación de máxima verosimilitud de la probabilidad de que un aislante cerámico sobrevivirá a un choque térmico. b) Suponga que un dispositivo contiene tres aislantes cerámicos y todos deben sobrevivir al choque, con la finalidad de que el dispositivo funcione. Encuentre el estimador y la estimación de máxima verosimilitud de la probabilidad de que los tres sobrevivirán a un choque térmi co. 10) Se determina la duración en horas de cada una de diez lamparitas eléctricas, dando los siguien tes datos:
49.5, 1015, 1009.4, 173.4, 251.6, 315, 1301.4, 732.8, 660.6, 1456.5 a) Si se supone que la duración en horas de cada lamparita tiene distribución exponencial, estimar el parámetro de la distribución usando el método de máxima verosimilitud. b) Hallar los estimadores de máxima verosimilitud de la esperanza y la varianza de la duración en horas de la lamparita. ¿Qué propiedad utiliza?. ¿Cuál sería la estimación de la esperanza y la varianza para los datos dados? c) Supongamos que se decide examinar otra lamparita.
Sea X: “duración en horas de la lamparita”. Utilizar la información dada en a) para obtener el EMV de P ( X 1400) , y hallar la estimación de P ( X 1400) . (Sugerencia: P ( X 1400) 1 e 1400 ).
41