PASOS A SEGUIR PARA ANALIZAR EL MODELO DE LA ECUACION DE REGRESION MULTIPLE
Ŷ = a + b1x1 + b2x2 + b3x3 + ………..bnxn A) 1era prueba de significación o prueba global. Contraste de regresión múltiple utilizando el estadístico “F”. Ho: B1 = 0 = B2 = B3 = -----BN = 0
Contraste conjunto de la “F”
H1: Algún B1 ≠ 0 Esta prueba investiga si es posible que todas variables independientes tengan coeficientes de regresión netas iguales a cero. B) 2da prueba de significación de los coeficientes de regresión utilizando el estadístico “t” de Student. Ho : BI = 0
Contraste individual de la “t”
H 1 : Bi ≠ 0 Esta prueba investiga si es posible que algunas variables independientes tengan coeficientes de regresión netas iguales a cero. Relación entre los contrastes individuales y los contrastes conjunto En un modelo de regresión múltiple al hacer los contrastes sobre la influencia individual de cada variable independiente con la variable dependiente y el contraste del conjunto de todas las variables independientes con la variable dependiente, pueden darse las siguientes situaciones.
Caso
Contraste (F) Conjunto 1
Contraste (“t”) Individual
1 2 3 4 5 6
Significativo Significativo Significativo No significativo No significativo No significativo
Todos significativos Algunos significativos Ningunos significativos Todos significativos Algunos significativos Ninguno significativo
Caso 1: Todas las variables independientes influyen en la variable dependiente. Caso 2: Influyen algunas variables independientes otras no. Caso 3: las variables independientes son muy dependientes entre si. Entonces conjuntamente influyen, pero los coeficientes de regresión y las varianzas son muy altos en relación con el valor de las estimaciones que no son significativas. Este problema se llama “Multicolinealidad” y se soluciona eliminando algunas variables independientes. Caso 4: Es otro caso de Multicolinealidad, las variables son muy dependientes, pero con una fuerte correlación negativa, es poco frecuente. Caso 5. Igual al caso 4. Caso 6. Ninguna de las variables independientes influyen en la variable dependiente o la influencia no detecta la muestra tomada. C) 3era prueba de significación. Esto implica el calculo del error típico de estimación, esto permite intervalos de confianza que hay que desarrollar alrededor de Ŷ; en general se usa un nivel de confianza del 95%. Este cálculo del error típico de estimación lo arroja el programa SPSS. Otras observaciones: El signo del coeficiente de regresión de una variable independiente puede no ser el mismo que el coeficiente de la matriz de correlación entre esta variable y la variable dependiente, se debe a que los ajustes que se llevan a cabo para poder obtener la mejor ecuación posible, aunque existen diferentes explicaciones para justificar el cambio de signo de un coeficiente de regresión, una de la que deben ser mas seriamente consideradas es la que se refiere de un alto grado de correlación entre algunas variables independientes, ( Multicolinealidad).
2
Los coeficientes estandarizados (Beta), proporciona una buen pista, muy útil (aunque no definitiva, por que cuando están inflados tanto en lo positivo como en lo negativo, adoptan al mismo tiempo valores mayores que 1 y menores que -1, signos de Multicolinealidad), sobre la importancia relativa de cada variable independiente en la ecuación de regresión múltiple, cuando mayor sea el numero en valor absoluto, mayor será la importancia de la variable. Cada una de estas pruebas básicas de significación, el avaluador obtendrá una mejor comprensión de la ecuación de regresión múltiple y del nivel de confianza que se puede depositar en las estimaciones desarrolladas a partir de la misma. SUPUESTOS DE UN MODELO ESTADISTICO En la grafica de dispersión, puedo obtener un diagrama de 1. Linealidad
dispersión parcial, es decir se observa si existe una relación Lineal entre la variable independiente y la variable dependiente.
2. Normalidad
1. Grafico de histograma 2. Grafico de probabilidad normal
3. Homocedasticidad . En grafica de dispersión de valores pronosticados Versus los valores de los residuos tipificados. Se observan: a. Si hay “heterocedasticidad” varianza no constante, de deben transformar los datos. b. Error en el análisis, se observa si se ha realizado un mal ajuste y se verifica que los residuos negativos se corresponden con valores pequeños, y los residuos positivos se corresponden con los valores grandes o al revés. c. Si el modelo es inadecuado por falta de linealidad, y se deben transformar los datos o se pueden introducir nuevas variables. d. Existencia de observaciones atípicas o puntos extremos.
3
Independencia de los residuos y se mide por el estadístico Durbin-Watson, que va de 0 a 4, siendo lo ideal un valor de 4. Independencia
Z, para que no exista autocorrelación, pero se pueden aceptar Valores entre 1,5 y 2,5. Valores entre 0 y Z indican autocorrelación positiva. Valores entre 2 y 4 indican autocorrelación negativa.
DIAGNOSTICO DE MULTICOLINEALIDAD 1. Chequear si hay coeficiente de regresión con valores bien grandes o de signos opuestos a lo que se esperaba que ocurriera. 2. Chequear si las variables independientes que se esperaban sean importantes tengan valores de “t” pequeños para la hipótesis de sus coeficientes o sea ( P > α, P> 0,05) y de paso R2> 0,080 podemos sospechar del efecto de multicolinealidad. 3. Chequear la matriz de correlación para detectar los que son bastantes altos r > 0,75 entre las variables independientes, la matriz de correlación es efectiva para regresiones múltiples de hasta dos variables independientes, no es totalmente suficiente para regresiones múltiples de mas de dos variables independientes. 4. Chequear el VIF si el VIF es grande, mayor de 10 entonces puede haber multicolinealidad. 5. Chequear el IC (índice de condición), si 10 ≤ IC ≤ 30 Multicolinealidad moderada. Si IC > 30 indica alta Multicolinealidad. En caso de Multicolinealidad perfecta, no se puede obtener una solución única para los coeficientes de regresión individual de las variables Xi, son indeterminados y sus errores estándar son infinitos. Si la Multicolinealidad es menos perfecta, los coeficientes de regresión poseen grandes errores estándar, lo que hace que los coeficientes no pueden ser estimados con precisión.
4
FUENTES DE MULTICOLINEALIDAD. 1. El método de recolección de muestras o referenciales es obtenidos en un rango limitado. 2. Un método sobreestimado, es decir que posee mas variables independientes que el numero de observaciones. SOLUCIONES A LA MULTICOLINEALIDAD 1. Aumentar el número de observaciones. 2. Suprimiendo variables que están altamente correlacionadas. 3. Trabajar con series logarítmicas. COEFICIENTE DE DETERMINACION R2. Mide la tasa porcentual de los cambios de Ŷ que pueden ser explicada por X1, X2……..Xn simultáneamente o sean en conjuntos. ERROR ESTANDAR DE ESTIMACION (S) Mide el grado de dispersión alrededor del plano de regresión, la estimación se hace mas precisa conforme el grado de dispersión alrededor del plano de regresión se hace mas pequeño. COEFICIENTE DE REGRESION Indica el número de unidades en que se modifica la variable dependiente “ Ŷ” por efecto del cambio de la variable independiente “X”. CLASES DE COEFICIENTES DE REGRESION El coeficiente de regresión puede ser: positivo, negativo y nulo. Es positivo: cuando las variaciones de la variable independiente “X” son directamente proporcionales a las variaciones de la variable dependiente “Ŷ”. Es negativo: cuando las variaciones de la variable independiente “X” son inversamente proporcionales a las variaciones de las variables dependiente “Ŷ”.
5
Es nulo o cero: cuando entre las variables dependientes “Ŷ” e independiente “X” no existen relación alguna.
6