INFERENCIA ESTADÍSTICA Notas de clase
Profesores: A. Leonardo Bañuelos S. Nayelli Manzanarez Gómez
TEMA II ESTIMACIÓN PUNTUAL DE PARÁMETROS POBLACIONALES
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.1 Sea
una muestra aleatoria de tamaño
pob lac ión con med ia La estimación puntual de un parámetro relativo a una población es el valor
y v ari anc ia
extraída de una
. D ete rmi nar si l os sig uie nte s
estimadores son sesgados o insesgados.
numérico de un estadístico correspondiente a ese parámetro. a) En la elección de un estimador deben tenerse en cuenta las siguientes pro pie dad es: insesgabilidad, eficiencia, consistencia y suficiencia . b)
INSESGABILIDAD Cuando se obtiene una estimación puntual de un parámetro cualquiera, es
c)
deseable que la distribución de dicha e stimación se centre en el parámetro real (al cual se le llamará parámetro-objetivo),si se cum ple la condición anterior entonces
Resolución
el estimador se llama insesgado. a) Para determinar si tiene o no sesgo debe obtenerse
es insesgado.
Fig. 2.1 b)
Definición 2.1 Sea
un estimador puntual del parámetro se dice que
. Entonces si
es un estimador insesgado de
lo contrario se dice que es sesgado.
, de
.
INFERENCIA ESTADÍSTICA
Tema II
Pág. 2
Recordando que c)
entonces: y de forma similar
Pero
Es insesgado.*falta nota de la desviación estándar”
S))))))))))))))))))))))))))))))))))))))) En la práctica se suelen p referir los estimadores insesgados sobre los sesgados; por ello que cuando se desean hacer estimaciones con respecto a la variancia Es sesgado. Otra forma de calcular si el estadístico
,
per o se sab e qu e, p ara una v.a . ji c uad rad a De donde
A.L.B.S./N.M.G
.
La siguiente tabla muestra algunos de los parámetros objetivos más es insesgado, es a través de
la variable aleatoria ji cuadrada. Se desea obtener
de una población se utiliza el estadístico
, si
.
comunes, juntos con sus valores esperados y sus variancias.
INFERENCIA ESTADÍSTICA Parámetro-
Tamaño de
objetivo
las muestras
y
Tema II
Pág. 3
Estimador pun tua l
-
y
Tabla 2.1
Valores esperados y variancias de estimadores basados en muestras grandes .
EFICIENCIA
Fig. 2.2 En la figura 2.2 se observan las distribuciones de los estadísticos
y
del parámetro , considerando que ambos estimadores son insesgados, se
Puesto que es posible obtener más de un estimador insesgado para el mismo par áme tro obj etiv o, deb erá util iza rse el de mín ima var ian cia , que rec ibe el nombre de estimador eficiente.
pre fie re al est adí sti co
por que tie ne men or var ian cia y esto rep er cute en
estimaciones con menos variabilidad.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.2 Supóngase que se tiene una muestra aleatoria de tamaño
Definición 2.2 Sean
y
con variancias
dos estimadores insesgados del parámetro y
entonces la eficiencia relativa de se define como:
,
pob lac ión den ota da por
, respectivamente, con respecto de
y
y
. Se an
y ,
,
dos estimado res de
. Determina cuál es el mejor estimador de
Explicar la selección.
Resolución y
A.L.B.S./N.M.G
de una
son estimadores insesgados; sin embargo
.
INFERENCIA ESTADÍSTICA mientras
Tema II
que
,
se concluye que más eficiente que
puesto
Pág. 4
que
es un estimado r
por lo que el mejor estimador es
La eficiencia relativa de
a
se define como
.
S)))))))))))))))))))))))))))))))))))))))
Error Cuadrático Medio si Cuando se desean comparar dos estimadores, de los cuales al menos uno no es insesgado, entonces la eficiencia relativa no se calcula como el cociente de las variancias, sino como el cociente de los errores cuadráticos medios,
.
entonces
es mejor estimador que
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.3 Supóngase que
,
y
son estimadores del parámetro
sabe que
Definición 2.3 El error cuadrático medio de un estimador
, del parámetro
.
, y
,
,
. Si se ,
, utilizando el criterio del error
cuadrático medio, determinar el mejor estimador.
se define como:
Resolución Para los primeros dos estimadores, se tiene que el error cuadrático medio,
, es:
El error cuadrático medio también puede escribirse en términos de la variancia y del sesgo.
y para el tercer estimador sumando y restando
, se tiene: Por lo que el mejor estimador es
, puesto que tiene menor error
cuadrático medio.
S)))))))))))))))))))))))))))))))))))))))
CONSISTENCIA donde a la cantidad y se denota mediante la letra
A.L.B.S./N.M.G
se le llama ses go , o bien, error cometido, , entonces:
Mientras mayor
sea el tamaño de la muestra, la estimación deberá ser más
pre cis a. Si el est ima do r c ump le con la car act erí stic a a nte rio r e nto nce s s e l lam a consistente. Por ejemplo
es un estimador consistente de
.
INFERENCIA ESTADÍSTICA
Tema II
Pág. 5 Puesto que
Definición 2.4 El estimador
es consistente al estimar a
pob lac ión con med ia
si para cualquier
forman una muestra aleatoria de una y vari anc ia
, ent onc es
, y lo primero que se prueba es el insesgamiento de
se cumple: los estimadores.
Para un estimador insesgado se puede probar la consistencia evaluando el límite de la variancia cuando
, i.e. un estimador insesgado de
es
es insesgado
consistente si:
Cuando el estimador es sesgado, debe probarse que es insesgado par a qu e
sea c ons ist ent e. Es to e s, el lí mit e de l err or c uad ráti co m ed io cu and o
n tiende a infinito debe ser cero.
Existen estimadores consistentes que son
sesgados.
S)))))))))))))))))))))))))))))))))))))))
es insesgado
Ejemplo 2.4 Sea y variancia
una muestra aleatoria de una población con media . Considérense los tres estimadores siguientes para
:
Resolución A.L.B.S./N.M.G
Para las variancias, puesto que entonces:
y
Determinar si los estimadores son consistentes para
Los tres estimadores son insesgados. ,
INFERENCIA ESTADÍSTICA
Tema II
Pág. 6 es un estimador suficiente para
o no.
Resolución Por lo que:
Y el único estimador consistente para
es
No dep end e d e
.
S)))))))))))))))))))))))))))))))))))))))
SUFICIENCIA Un estimador es suficiente si toma en cuenta toda la información de la muestra de manera adecuada. Además no dará la máxima información que pueda
es un estimador suficiente para
.
obtenerse del parámetro desconocido.
S)))))))))))))))))))))))))))))))))))))))
Definición 2.5 Sea
un parámetro desconocido y
MÉTODOS PARA DETERMINAR ESTIMADORES PUNTUALES
una
muestra aleatoria. Entonces el estadístico Anteriormente se explicaron las características deseables para un estimador, en es suficiente para dado
esta sección se verá la forma de obtenerlas . Como debe intuirse, existen varias
si la distribución condicional de no depende de
formas de estimar un parámetro, por lo que no debe ser una sorpresa el hecho de que existan varios métodos para determinar los estimadores. Dos de los métodos
.
más comunes son: el de los momentos y el de máxima verosimilitud.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.5
MÉTODOS DE LOS MOMENTOS
Considérese una muestra aleatoria de tamaño
:
de una El método de los momentos sugiere utilizar como estimador de alguno de los
pob lac ión Be rno ull i co n p ará met ro
A.L.B.S./N.M.G
. De ter min ar si
momentos de la población, al mismo momento con respecto a la muestra.
INFERENCIA ESTADÍSTICA Definición 2.6
Tema II
Pág. 7
Método de los momentos.
Elegir como estimadores puntuales, a aquellos valores de los par áme tro s q ue sea n so luc ión de las ecu aci one s ; donde
es igual al número de parámetros a estimar y
El estimador es y
representan los momentos con respecto al origen de la po bla ció n y de la m ues tra , re spe cti vam ent e.
y una estimación está dada por
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.6 Sea
una v.a. con distribución normal y parámetros
y
desconocidos. Determinar los estimadores de dichos parámetros por el método de los momentos.
Resolución
S))))))))))))))))))))))))))))))))))))))) En la práctica, es mucho más sencillo igualar mom entos con respecto a
Puesto que se buscan dos parámetros se requieren dos mom entos. La
la media. Es decir, se pueden igualar momentos con respecto al origen, o bien,
media de
momentos con respecto a la media, respectivame nte, según sea más conveniente.
es el primer momento con respecto al origen, y la variancia
es el segundo momento con respe cto a la media, pero que puede
En el ejemplo anterior basta entonc es con igualar los primeros momentos con respecto al origen (poblacional y muestral, respectivamente):
expresarse a través de momentos con respecto al origen. Para la media.
El estimador es
y los segundos momentos con respecto a la media (poblacional y muestral, respectivamente)
y una estimación está dada por
Para la variancia, se utilizan los segundos momentos con respecto a la media, por lo que
A.L.B.S./N.M.G
INFERENCIA ESTADÍSTICA
Tema II
Pág. 8
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.7 Sea
una v.a. con distribución de Pascal (binomia l negativa) con
par ám etro s
y
des con oci do s. Uti liz ar e l mét od o de los mom ent os Estimador de
par a o bte ner est ima do res de dic hos par ám etr os.
Resolución Puesto que
Y sustituyendo la última expresión en
entonces los momentos poblacionales son:
Estimador de
S)))))))))))))))))))))))))))))))))))))))
MÉTODO DE MÁXIMA VEROSIMILITUD Y los momentos muestrales son:
Uno de los mejores métodos para realizar estimación puntual es el de máxima verosimilitud , el cual consiste básicamente en obtener una función de verosimilitud y maximizarla.
por l o que a l igua lar co n los m om ent os po bla cio nal es co n los m ues tra les se tiene:
Definición 2.7 Sea
. . . (a)
la distribución de una población donde
par áme tro a e stim ar. La fun ció n de ver osi mil itu d e s un a fu nci ón de las vv.aa. de muestreo y del parámetro
. . . (b)
Resolviendo simultáneamente para
y
es el
a estimar definida
como sigue:
,
de (b) . . . (c) per o d e (a ) y sustituyendo en (c)
A.L.B.S./N.M.G
Nó tese que l a fun ció n de ve ros imi litu d las vv.aa. de muestreo si éstas son indep endientes.
es la d istr ibu ció n con jun ta de
INFERENCIA ESTADÍSTICA
Tema II
Pág. 9
Definición 2.8 Un estimador de máxima verosimilitud es aquel que maximiza la función de verosimilitud. En la práctica, para maximizar la función de verosimilitud se utiliza el cambio de variable de
por
, como se observa en el siguiente ejemplo.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.8 Construir un estimador de máxima verosimilitud para el parámetro de una distribución Bernoulli, utilizando una muestra de tamaño
.
Resolución La distribución de Bernoulli es
El estimador de máxima verosimilitud de
es
La función de verosimilitud es
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.9 Obtener un estimador de máxima verosimilitud para el parámetro
de
una distribución geométrica, utilizando una muestra aleatoria de tamaño Puesto que si un valor maximiza a
maximiza a
se puede realizar el cambio
también
.
Resolución La distribución geométrica es
utilizando las propiedades de los logaritmos por lo q ue la func ión de ver os imi litu d e s
Maximizando
A.L.B.S./N.M.G
INFERENCIA ESTADÍSTICA
Tema II
Pág. 10
S))))))))))))))))))))))))))))))))))))))) Si se desconocen dos o más parámetros de una distribución entonces se pla nte a la fun ció n de ver osi mil itu d com o una func ión de tod os los par ám etr os desconocidos; y se optima aplicando logaritmos y resolviendo el sistema de ecuaciones que se obtiene de las derivadas parciales de la función logaritmo de
Tomando logaritmos
la función de verosimilitud.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.10 Considere que distribución normal con media
es una muestra aleatoria de una y variancia
desconocidas.
Construir los estimadores de máxima verosimilitud para dichos Derivando e igualando a cero
par ám etro s y dec ir s i so n in ses gad os o no.
Resolución Para la distribución normal
despejando a
, Por lo que la función de verosimilitud es
Tomando logaritmos
El estimador de máxima verosimilitud de
es . . . (a)
A.L.B.S./N.M.G
INFERENCIA ESTADÍSTICA
Tema II
Pág. 11
Derivando parcialmente e igualando a cero . . . (b) Como se demostró anteriormente y
es un estimador sesgado de
es un estimador insesgado de
.
S)))))))))))))))))))))))))))))))))))))))
Tópico especial: Uso de la función de verosimilitud para determinar la suficiencia de un estimador . . . (c) Y las ecuaciones (b) y (c) forman un sistema de dos ecuaciones con dos
La suficiencia de un estimador está relacionada con la función de verosimilitud
incógnitas.
a través del siguiente teorema
De (b)
Teorema 2.1 Sea
un estimador del parámetro
aleatoria pa ra . . . (d)
. Entonces
si y sól o si la v ero sim ilit ud
funciones no negativas El estimador para
Sustituyendo (d) en (c)
, basado en la muestra es un estimador suficiente se p ued e fa cto riz ar e n d os y
, i.e.
es
S))))))))))))))))))))))))))))))))))))Q
Ejemplo 2.11
El estimador para
A.L.B.S./N.M.G
es
Sea
una muestra aleatoria de una distribución
Rayleigh con parámetro
.
INFERENCIA ESTADÍSTICA
Tema II
Pág. 12
BIBLIOGRAFÍA Demostrar que
es suficiente para
. Hines, William W. y Montgomery, Douglas C., et al .- Probabilidad y Estadística para Ingeniería y Administración, Cuarta Edición..- CECSA.- México, 2004.
Resolución La función de verosimilitud es
Wackerly, Dennis D., Mendenhall, William, y Scheaffer, Richard L.- Estadística Matemática con Aplicaciones, Sexta edición.- Editorial Thomson.- México, 2002. Milton, Susan J. y Arnold, Jesse C.- Introduction to probability and statistics, Fourth Edition.- McGraw-Hill, 2003. Walpole, Ronald E., et al..- Probabilidad y Estadística para Ingenieros.- Prentice Hall.Sexta Edición.- México, 1999.
Si
Scheaffer, Richard L y McClave, James T.- Probabilidad y Estadística para Ingeniería.Grupo Editorial Iberoamérica.- México 1993.
y
Canavos, George C.- Probabilidad y Estadística Aplicaciones y Métodos.- McGraw-Hill.México, 1988.
entonces y puesto que la función de verosimilitud puede factorizarse en dos funciones no negativas
Y
es suficiente para
y
.
S))))))))))))))))))))))))))))))))))))Q Evidentemente, existen varias factorizaciones de la función de verosimilitud
, con las cuales se puede probar la suficiencia. Cualquiera de ellas
es igualmente válida.
A.L.B.S./N.M.G
Borras García, Hugo E., et al.- Apuntes de Probabilidad y Estadística.-Facultad de Ingeniería, México 1985. Rosenkrantz, Walter A.- Introduction to Probability and Statistics for Scientists and Engineers.- McGraw-Hill.- EE.UU. 1997.