PROPIEDADES DE LOS ESTIMADORES MCO/MV Profesor Rafael de Arce (
[email protected] (
[email protected])) Ramó Ma!"a (ramo.ma!#
[email protected] (ramo.ma!#
[email protected])) $o%#em&re ' I$TROD*CCI+$ Una vez lograda una expresión matricial para la estimación de los paráme parámetr tros os del model modelo, o, es pertin pertinent ente e compr comproba obarr las propi propieda edades des estadísticas de los mismos. En este sentido, los parámetros MCO o Máximo-verosímiles Máximo-verosímiles se calcularán así ! ˆ = [ X ' X ] X ' Y β 1
−
donde se "a utilizado la expresión del modelo en #orma matricial! Y
nx1
=
X β + U nxk kx1
nx1
$e demuestra, a continuación, %ue estos estimadores son estimadores lineales, insesgados, óptimos & consistentes * 'E()O +Consistentes. Es decir, cumplen condiciones estadísticamente deseables para un determinado estimador. estimador.
• )nsesgadez! En primer lugar, contar con un estimador insesgado nos asegura %ue el valor esperado de nuestro cálculo coincide con el valor real del parámetro. parámetro.
• Eci Ecien enci cia! a! (a segu segund nda a prop propie ieda dad d perm permit ite e aseg asegur urar ar %ue %ue los los parámetros estimados tambin serán /óptimos01 es decir, serán los %ue cuenten con la varianza más pe%ue2a de entre todos los insesgados3.
• Cons Consis iste tenc ncia ia!! En terc tercer er luga lugar, r, se demo demost stra rará rá %ue %ue los los MCO MCO tamb tambi in n son son cons consis iste tent ntes es.. Esto Esto %uie %uierre deci decirr %ue %ue el valo valorr obtenido en la estimación MCO coincidirá con el valor de los parámetros reales si en lugar de utilizar una muestra usáramos el tota totall de los los dato datos s 'o dic" dic"o o de otr otro modo modo,, una una mues muestr tra a innita. 1
La expresión de cálculo es la misma para ambos cuando la función de densidad densidad de las perturbaci perturbaciones ones aleatorias se distribuye como una normal.
2
BLUE en ingls !Best Linnear Unbiased Estimator" y# a $eces# %EL& en algunas traducciones.
'
(ui)á se puedan encontrar formas de estimar los parámetros con un menor inter$alo de $ariación# pero si estos no son insesgados conculcan lo *ue +emos llamado condición sine*uanon para un $alor estimado. ,odemos ser muy precisos en una estimación# pero si su $alor medio o esperan)a no coincide con el $alor real# la utilidad de la estimación *uedará en entredic+o.
1
4dicionalmente, suele a2adirse a la insesgadez, eciencia & consistencia la deseable propiedad matemática de la linealidad. En concreto, en nuestro contexto, entendemos por /linealidad0 del estimador el "ec"o de %ue los estimadores sean combinación lineal de las perturbaciones aleatorias. Esta relación lineal entre estimador & perturbación tendrá importantes consecuencias para poder determinar las propiedades de la distribución de los parámetros. 5a6o el supuesto "abitual de normalidad de las perturbaciones aleatorias, demostrar %ue los parámetros son una combinación lineal de stas lleva inmediatamente a conocer en %u #orma se distribu&en nuestros coecientes estimados. $abiendo cuál es su #unción de densidad, podremos calcular con #acilidad en %u rango o intervalo se mueven stos e, incluso, podremos dise2ar algunos contrastes estadísticos para averiguar el grado de signicatividad de estos 'en %u medida podemos decir %ue los parámetros son distintos de cero o, dic"o de otra #orma, en %u grado las variables a las %ue multiplican dic"os parámetros son relevantes para la explicación de la variable endógena del modelo.
LI$EALIDAD 7ara comprobar %ue los parámetros estimados son una combinación lineal de las perturbaciones aleatorias del modelo, basta con sustituir /80 en la expresión de cálculo de los mismos por su expresión completa 'entre /llaves0 en la expresión de más aba6o! ˆ = [ X ' X ] X ' Y = {Y = X β + u } β −
[ X ' X ]
1
−
1
X ' X β + [ X ' X ] X ' u 1
−
=
=
β + [ X ' X ] X ' u 1
−
=
β + WU
Los estimadores MCO son una combinación lineal de las perturbaciones aleatorias. Como &a se "a indicado anteriormente, esta comprobación será de especial trascendencia para acometer la #ase de validación del modelo &a %ue una #unción lineal de una variable aleatoria %ue se distribu&e como una normal tambin se distribu&e como una normal. 4 partir de esta deducción, podremos determinar los intervalos de conanza en los %ue se moverán nuestras estimaciones & podremos realizar "ipótesis sobre el valor real de los parámetros a contrastar estadísticamente.
I$SES,ADEEn este momento tiene inters demostrar %ue el valor esperado del parámetro estimado con MCO coincide con el valor real del parámetro.
2
7ara la demostración, partiremos del resultado obtenido en el apartado anterior, cuando escribimos los parámetros como una combinación lineal de las perturbaciones aleatorias! ˆ = [ X ' X ] X ' Y = [ X ' X ] X ' [ X β + U ] β 1
1
−
−
[ X ' X ]
=
1
−
X ' X β + [ X ' X ]
−
1
X 'U =
ˆ = β + [ X ' X ] X 'U β 1
−
ˆ" E ! β
=
E ! β + [ X ' X ] X 'U " 1
−
β + [ X ' X ] X ' E !U " 1
−
=
ˆ" E ! β
=
=
{ E !U " = -}
=
β
El valor esperado del estimador coincide con el real.
+PTIMO (EICIE$CIA) El ob6eto de esta demostración es comprobar %ue los parámetros estimados mediante MCO son los %ue tienen la varianza más pe%ue2a de entre todos los alternativos posibles de la #amilia de los insesgados. Utilizaremos dos vías alternativas para demostrar esta propiedad.
Demosrac#ó 0 E1c#ec#a de MCO 2or com2arac#ó co u es#mador alera#%o 7ara demostrar %ue el estimador MCO es el estimador óptimo se seguirán cuatro pasos! $e determina el valor de las varianzas de los estimadores MCO. * $e propone un estimador alternativo al MCO cual%uiera & se comprueba cuál es la condición necesaria & suciente para %ue dic"o estimador sea insesgado. 3 $e determinan las varianzas de estos estimadores alternativos 9 $e comparan las varianzas de ste con las de los estimadores MCO.
) Mar#3 de %ar#a3as4co%ar#a3as de los es#madores 7artiendo de la expresión "allada al demostrar la linealidad & sabido %ue este estimador es insesgado! ˆ = β + [ X ' X ] −1 X 'U . E ! β ˆ " = β β 7odemos calcular la matriz de varianzas-covarianzas parámetros MCO del siguiente modo! ˆ " = E ! β ˆ − E ! β ˆ ""!β ˆ − E ! β ˆ ""' COV − VAR ! β
[
]
E ![ X ' X ] X 'U "![ X ' X ] X 'U "' 1
−
1
−
=
=
[
1
los
E ! β + [ X ' X ] X 'U − β "!β + [ X ' X ] X 'U − β "' 1
1
−
−
E [ X ' X ] X 'UU ' X [ X ' X ] 1
−
σ 2 [ X ' X ] X ' X [ X ' X ] −
de
1
−
=
σ 2 [ X ' X ]
ˆ " = σ 2 [ X ' X ] COV − VAR ! β
1
−
] { E !UU ' " =
=
σ 2 I n }
1
−
1
−
'
=
7osteriormente, comprobaremos las varianzas de los parámetros así estimadas 'los elementos de la diagonal principal de la expresión anterior son las más pe%ue2as o no de entre todos los estimadores insesgados posibles.
') Es#mador alera#%o #ses5ado $umando una matriz 7 no nula a la expresión del estimador MCO se obtiene la expresión general de un estimador cual%uiera alternativo, del %ue "abrá %ue comprobar %u condiciones "a de cumplir para ser insesgado. En primer lugar, escribimos la expresión de un parámetro alternativo simplemente adicionando a la #órmula de los MCO una matriz 7 distinta de cero. 7osteriormente, escribimos este parámetro alternativo sustitu&endo /80 por su valor! −1
β = [ X ' X ] X '+ P Y = {Y = X β + U } =
[[ X ' X ]
−1
]
−1
X ' X β + [ X ' X ] X 'U + PX β + PU =
[β + [ X ' X ]
−1
]
X 'U + PX β + PU
Una vez contamos con la expresión de un estimador cual%uiera alternativo, "a& %ue comprobar cuáles son las condiciones %ue este debe cumplir para ser insesgado.
E ! β " = E β + [ X ' X ] X 'U + PX β + PU 1
−
[ β
+
[ X ' X ]
1
−
X ' E !U " + PX β + PE !U "
]
=
=
[ β + PX β ] condición insesgade) PX =
β = β + [ X ' X ] X 'U + PU 1
−
En la expresión anterior, e#ectivamente es necesario vericar la siguiente condición para %ue no "a&a sesgo! PX β = - . En esta expresión, los parámetros no pueden contener ning:n cero, &a %ue se supone %ue la especicación del modelo es correcta 'no sobra ninguna variable explicativa. 7or ello, la expresión anterior de la insesgadez de los parámetros alternativos %ueda reducida a %ue! PX = - .
6) Mar#3 de %ar#a3as4co%ar#a3as del es#mador alera#%o 4 continuación, se calcula la expresión de la matriz de varianzascovarianzas de estos estimadores %ue, para ser insesgados, nos /
permiten suprimir de los cálculos cual%uier producto en el %ue intervenga PX = - 'o su transpuesta. −1
−1
co$ − $ar!β " = E ! β + [ X ' X ] X 'U + PU − E ! β ""! β + [ X ' X ] X 'U + PU − E ! β ""' =
{ E ! β " = -} = E [![ X ' X ] − X 'U + PU "![ X ' X ] − X 'U + PU "'] =
[
1
−1
E [ X ' X ] X 'UU ' X [ X ' X ]
−1
1
−1
+ [ X ' X ] X 'UU ' P '+ PUU ' X [ X ' X ]
{ E !UU ' " = σ I } = σ ![ X ' X ] − X ' X [ X ' X ] − 2
2
1
1
n
−1
−1
+ PUU ' P '] =
+ [ X ' X ] X ' P '+ PX [ X ' X ]
= { PX = -} = σ 2 ![ X ' X ]
−1
co$ − $ar!β " = σ 2 ![ X ' X ]
−1
−1
+ PP ' " =
+ PP ' " + PP ' "
7) Com2arac#ó de %ar#a3as ;inalmente, "a& %ue comprobar %ue e#ectivamente las varianzas de los estimadores MCO siempre son in#eriores a las varianzas de cual%uier otro estimador insesgado! co$− $ar!β " = σ 2 ![ X ' X ]
−1
+ PP ' " > σ 2 ![ X ' X ]
−1
= co$− $ar!β ˆ "
Esta condición se verifca siempre, ya que PP’ es una matriz por su transpuesta, lueo en su diaonal siempre !ay n"meros positivos y es precisamente la diaonal principal donde en la matriz de varianzas#covarianzas est$n las varianzas.
Demosrac#ó '0 Coa de Cramer Rao (a cota de Cramer < =ao 9 expresa una cota in#erior para la varianza de un estimador insesgado 'lineal o no, por cierto. (a expresión matemática de esta cota es! ∂ 2 L( u # β ) CCR = − E 2 ∂β
−1
(o %ue /leído0 vendría a ser! Menos la inversa de la esperanza matemática de la derivada segunda del logaritmo de la #unción de verosimilitud '#unción de in#ormación de ;is"er respecto del parámetro de inters. En nuestro caso, recordemos %ue el logaritmo de la #unción de verosimilitud era 'en el documento sobre los estimador MCO & M> se o#recieron detalles a este respecto!
/
0 tambin cota inferior de Cramér-Rao !LB"# llamada as3 en +onor a 4arald ramr y alyampudi ad+a5ris+na ao.
6
n 2 ∑ u i n − n 7 2 −n 7 2 (σ 2 ) exp 1 2 i =1 2 L = f ( u ) = ∏ f !u i " = ( 2π ) σ i =1 O lo %ue es igual, expresada matricialmente!
Ln! L " = − n
ln( 2π ) − n ln σ 2 − 1 2 U 'U 2 2 2σ 2 ˆ ˆ Ln! L" = − n ln ( 2π ) − n ln σ − 1 2 Y − X β ' Y − X β 2 2 2σ 2 ( Y ' Y − 2β ' X ' Y + β ' X ' X β ) Ln! L" = − n ln ( 2π ) − n ln σ − 1 2 2 2σ 2
(
)(
)
4sí pues, la primera derivada respecto a ? es 'observe %ue en los dos primeros sumandos no aparece el trmino ?! ∂ Ln ! L " ∂β
∂− 1 =
2σ 2
( Y 'Y − 2 β ' X 'Y + β ' X ' X β )
1
=−
∂β
2σ
2
( − 2 X 'Y + 2 X ' X β )
@e modo %ue la segunda derivada sería! ∂ 2 Ln! L" 1 = − 2 ( X ' X ) 2 ∂β σ
@e donde se deduce %ue la CC= es!
∂ 2 L( u# β ) CCR = − E 2 ∂β
−1
1 = − E − 2 ( X ' X ) σ
−1
= E [σ 2 ( X ' X )
−1
] = σ
2
( X ' X ) −1
Es decir, e#ectivamente, la cota de varianza mínima coincide con la varianza de nuestro estimador MCOAM> de donde se deduce %ue nuestro estimador es eciente 'tiene varianza mínima.
8
CO$SISTE$CIA 7or :ltimo, se demostrará %ue los parámetros MCO son consistentes1 es decir, %ue ampliando la muestra al total de la población, el valor estimado coincide con el real o, dic"o de otra #orma, %ue cuando contamos con todos los datos, no con una muestra, el cálculo de MCO da como resultado los parámetros reales, un cálculo exacto, luego con varianza igual a cero.
ˆ" p lim! β
=
β
ˆ "" p lim!$ar! β
≈
n →∞
=
-
n →∞
7ara demostrar esta situación, emplearemos la segunda expresión 'la de la probabilidad asintótica de la varianza de los estimadores. $ustitu&endo esta #órmula por su expresión de cálculo 'a la %ue "emos llegado cuando realizamos la demostración de la eciencia u optimalidad de los parámetros tenemos! ˆ "" = σ [ X ' X ] p lim!$ar!β 2
n →∞
−1
σ 2 X ' X = n n
−1
→-
(o antedic"o, podría interpretarse como %ue, a medida %ue vamos aumentando el n:mero de datos en nuestra estimación '/n0 tiende a innito, el valor del producto sería cada vez más pe%ue2o1 es decir, se iría aproximando a cero. En el límite, sería nulo siempre %ue el segundo valor del producto 'la matriz inversa #uera calculable.
COROLARIO En denitiva, despus de "aber observado %ue los estimadores MCO cumplen con las cuatro propiedades propuestas 'linealidad, insesgadez, optimalidad & consistencia1 además de saber %ue contamos con las estimaciones paramtricas con ma&ores garantías estadísticas, tambin podemos saber %ue los coecientes del modelo se distribu&en como una Bormal, con media el verdadero valor del parámetro 'son insesgados & varianza COV − VAR ! β ˆ " = σ 2 [ X ' X ] −1 . Es decir! −1
ˆ → N ! β 9 σ 2 [ X ' X ] " β
En cual%uier caso, esta expresión no será de utilidad para determinar los intervalos de conanza de los parámetros 'para conocer entre %u bandas se moverán los verdaderos valores de los parámetros salvo %ue obtengamos un mtodo para estimar la varianza de las perturbaciones aleatorias %ue interviene en esta #órmula σ 2 .
: