466
Capítulo 12 Regresión lineal múltiple y ciertos modelos de regresión no lineal
que representa una pequeña proporción de toda la variación de la regresión. Esta cantidad de regresión agregada, como lo indica la prueba previa sobre β3, es estadísticamente insignificante. Una prueba equivalente implica la formación de la razón f =
1.33 R ( β3 | β1 , β2 ) = = 0.309, 4.298 s2
que es un valor de la distribución F con 1 y 9 grados de libertad. Recuerde que la relación básica entre la distribución t con v grados de libertad y la distribución F con 1 y v grados de libertad es t 2 = f (1, v ), y se observa que el valor f de 0.309 es en realidad el cuadrado del valor t de -0.56. Para generalizar los conceptos anteriores podemos evaluar el funcionamiento de una variable independiente x i en el modelo general de regresión lineal múltiple µY | x 1 , x 2 ,..., x k = β0 + β1 x 1 + · · · + βk x k
observando la cantidad de regresión atribuida a x i sobre y por arriba de la atribuida a las demás variables , es decir, la regresión sobre x i ajustada para las demás variables . Por ejemplo, se dice que x 1 se evalúa calculando R ( β1 | β2 , β3 , . . . , βk ) = SCR − R ( β2 , β3 , . . . , β k ),
donde R( β2, β3,..., βk ) es la suma de cuadrados de regresión con β1 x 1 eliminados del modelo. Para probar la hipótesis H 0 : β1 = 0, H 1 : β1 ≠ 0, se calcula f =
R ( β1 | β2 , β3 , . . . , β k ) , s2
y se compara con f α (1, n − k − 1).
Pruebas F parciales en subconjuntos de coeficientes De manera similar, se puede hacer una prueba para la significancia de un conjunto de las variables. Por ejemplo, para investigar simultáneamente la importancia de incluir x 1 y x 2 en el modelo se prueba la hipótesis H 0 : β1 = β2 = 0, H 1: β1 y β2 no son ambas cero,
calculando f =
[ R ( β1 , β2 | β3 , β4 , . . . , β k )]/2 s2
=
[ SCR − R ( β3 , β4 , . . . , βk )]/2
www.FreeLibros.me
s2