Análisis Multivariado Marcelino Cuesta, 235 y Decanato Mª Dolores Paz Caballero, 306 PRÁCTICAS 45% 3 Ejercicios de evaluación de 1,5ptos. Al menos necesitas 2 puntos de Prácticas. 1-5: Evaluación 6-7: “ 8-10: “ TG 1% Trabajo Grupal EXAMEN 45% Al menos 2 puntos de Examen. Teórico: 45 preguntas V-F. 1 error descuenta 1, no descuentan omisiones. EXTRAORDINARIOS Si >2ptos no tienes que examinarte Se conserva nota TG Examen teórico-práctico si suspendes prácticas EJEMPLOS PREGUNTAS EXAMEN -
Si en un modelo de regresión lineal múltiple se cumple el supuesto de homogeneidad de varianza o Falso, porque este gráfico evalúa normalidad, no homogeneidad –tampoco cumple normalidad-:
Residuos tipificados
-
Si para un modelo log-lineal de 3 variables el estadístico de ajuste de razón de verosimilitud de 7’4 y una p<0,01, ¿El modelo ajusta? o Falso, no ajusta. Es de AJUSTE, tienes que aceptar H0. 1
-
Si la ODDS ratio de tener un infarto = 0,8 entre los que practican deporte y los que no, esto quiere decir que hacer deporte es un factor de riesgo. o Falso, porque la ODDS = 1 quiere decir que hay menos probabilidad.
-
Si los coeficientes B (Beta) de un modelo de regresión lineal múltiple son: o X1 = 0,5 o X2 = 0,8 o X3 = 0,7 o ¿Podemos estimar que la variable con más importancia es X2? Verdadero
Lo importante para garantizar que sobre unos datos puedo realizar un análisis factorial (o de componentes principales) es que las variables observadas sean asimétricas negativas. Falso, como mínimo tienen que ser simétricas, busco normalidad. El tamaño de muestra “mínimo” para sentirse tranquilo haciendo un análisis factorial es de 200 sujetos. Verdadero. Antes de rotar una solución factorial, la correlación entre los factores siempre se mantiene fija en 0,5. Falsa, la solución inicial es de factores ortogonales, la correlación entre ellos es 0, por definición son independientes. Cuando rotamos cambiamos esa correlación. Los métodos de extracción de factores denominados descriptivos, siempre van acompañados de un índice de ajuste del modelo. Falso, los que llevan índices de ajuste son los inferenciales, en máxima verosimilitud, que dan valores como chi2. Los descriptivos sólo describen. En el análisis discriminante, cuanto más correlacionadas estén las variables discriminantes mejor. Falso Cuando la lambda de wilks aplicada sobre todas las funciones discriminantes no resulta estadísticamente significativa indica que solo la primera función discriminativa es significativa. Falso La única diferencia entre la regresión logística binaria y un análisis discriminante es que en la primera solo puede haber dos grupos y en el análisis discriminativo dos o más. Falso Modelo presentado en el diagrama de senderos es un modelo identificado. o
Un modelo está identificado cuando los parámetros se estiman con una solución única
o o o
Menos parámetros a estimar que datos observados, entonces el modelo está identificado. Resta negativa: El modelo no está identificado. Debemos estimar tantos parámetros como flechas (coeficientes de regresión) + flechas errores + flecha covarianza + varianza de los errores + varianza de las variables exógenas (estátus y autoestima). 12 estimaciones. Si tenemos variables latentes no cuentan en datos observados, no entran en la matriz var-covar. Datos observados: lo que hay en la matriz de var-covar. 10 datos observados. - La diagonal principal son las varianzas, el resto son covarianzas. Los datos observados son la diagonal principal + la mitad de la matriz, el resto es redundante. Las 4 variables son los rectángulos. FALSO. El modelo NO está identificado.
o o
o o
2
TEMA 1: INTRODUCCIÓN
¿Es posible predecir el rendimiento en Análisis Multivariado en función de las notas obtenidas en las asignaturas previas del área de metodología? o Regresión lineal múltiple: Predecir una técnica a partir de otras. ¿Es posible asignar a los conductores al grupo de infractores o al de no infractores en base a sus puntuaciones en una serie de pruebas de personalidad, del sexo y del nivel socio-económico? o Regresión logística: Algunas variables cualitativas. Elaborada una prueba con 51 ítems para evaluar la Esquizotipia ¿Constituyen esos ítems una única dimensión o hay varias sub-escalas o dimensiones subyaciendo al constructo general? o Análisis factorial: Estructura interna de un test. ¿Influye el método de enseñanza en las calificaciones obtenidas en las diferentes asignaturas de 2º de bachiller? o MANOVA: Diferencias entre grupos en varias variables.
Análisis Multivariado: Múltiples Variables. Situaciones complejas que podrían descomponerse también en análisis univariado o bivariado, pero con multivariado obtenemos más información. «El Análisis multivariante es la parte de la estadística y del análisis de datos que estudia, analiza, representa e interpreta los datos que resultan de observar más de una variable estadística sobre una muestra de individuos» •
Simultaneidad (Martínez Arias, 1999)
•
Presencia de «variantes» o «valores teóricos» (Hair et al., 1999
Variables Teóricas: Variables (V) artificiales construidas como combinaciones de variables observadas. El AM trata de predecir resultados utilizando variables teóricas.
Martínez-Arias establece 4 campos de Aplicación del A.Multivariado: Técnicas de Reducción de Datos: Buscar estructuras subyacentes basándose en la relación de las V que nos permiten simplificar la información. o Ej.: Teorías de la personalidad, Rasgos. A través de un análisis factorial con técnicas multivariadas. Clasificación y Agrupación: De variables o individuos. Clasificar sujetos en grupos previamente definidos. o Agrupar es crear grupos, clasificación es meter a los sujetos en un grupo ya hecho. o Segmentar mercados, agrupar patologías… Análisis de relaciones de dependencia: Predecir a partir de la dependencia de otras variables. o Los sujetos diferentes de otros en función de cómo puntúan en otras áreas. Construcción de modelos y prueba de hipótesis: Análisis factorial, MANOVA. Las anteriores son técnicas de análisis, no diseños de investigación.
HISTORIA •
Comienzo Principios S.XX o Pearson 1901 o Spearman 1904 o Feaser principios XX 3
•
•
Desarrollo en los años 30 o Cuestiones teóricas, análisis que requieren un cálculo complejo o Kendal “BOOM” con la aparición de Ordenadores o 80’s SPSS, Software comercial
CLASIFICACIÓN Métodos de Dependencia (Predictivos): Distinguen entre variables dependientes e independientes. o Ver la relación entre dos conjuntos. Explicar VD a partir de VI. Métodos de Interdependencia (Reductivos): No hay distinción entre VD y VI, tienen el mismo estátus. o Estudia estructuras subyacentes para simplificar. Reducción de datos perdiendo la menor información. MÉTODOS DE DEPENDENCIA Variable independiente
Variable dependiente
número
tipo
número
tipo
Regresión lineal múltiple
varias
cuantitativas
una
cuantitativa
Análisis discriminante
varias
cuantitativas
una
cualitativa
Regresión logística
varias
cuantitativas y/o cualitativas
una
cualitativa
Análisis de supervivencia
varias
una
cuantitativa
ANOVA FACTORIAL
varias
cualitativas
una
cuantitativa
MANOVA
una o varias
cualitativas
varias
cuantitativas
-
cuantitativas y/o dicotómicas
Regresión Lineal Múltiple: VI 2 o más y 1 VD. Cuantitativas. Predecir algo a partir de X e Y. Análisis Discriminante: Clasificar sujetos en grupos en función de la puntación de las variables independientes, clasificar en variables dependientes (fumadores o no). Regresión Logística: Definir factores de riesgo, qué variables tienen más importancia para una enfermedad. Análisis de Supervivencia: Regresión múltiple con una VD tiempo. Tiempo de adhesión a una terapia según características del sujeto. ANOVA factorial: En qué medida más de un factor determinan el comportamiento de un sujeto X, por ejemplo en función del sexo y del bachiller.
4
-
MANOVA: Análisis multivariado de las varianzas. Varias VD. Influencia de 1 o más factores en una combinación de variables que funcionan como una (Todas las VD tomadas conjuntamente). Diferencias en una prueba X en función de si hay pista o no –TR, latencia, velocidad… VD cuantitativas agrupadas-. El análisis de medidas repetidas podría considerarse como MANOVA, variable medida en distintos momentos.
MÉTODOS DE INTERDEPENDENCIA Tipo Análisis factorial / Componentes principales
cuantitativas
Análisis de cluster (conglomerados)
todo tipo
Escalamiento multidimensional
todo tipo
Análisis de correspondencias
cualitativas
Modelos log-lineal
cualitativas
-
-
Análisis Factorial/Componentes Principales: Ambos términos no son exactamente iguales. Buscar dimensiones o factores subyacentes al conjunto de ítems. Análisis de Cluster (Conglomerados): Agrupar sujetos en cuáles son más parecidos a unas clasificaciones previas, tipologías. Es difícil encontrar un cluster de variables (son de sujetos). Escalamiento Multidimensional: Dimensiones de los sujetos para establecer parecidos entre objetos. Percepción, Marketing. Análisis de Correspondencias: Tablas de contingencia. Relación entre los niveles de las variables que estamos cruzando. Qué hace el producto atractivo –precio, brillo, duración…-, gráfico en 2D –características y producto-, anotar las frecuencias. Modelos log-lineal: Trabajan sobre tablas de contingencia con más de dos variables cualitativas. Ver relaciones entre ellas y la probabilidad de las diferentes casillas (Variables) y la influencia de cada una.
TIPOS DE DATOS
Matrices de Datos: Brutos, básico. V en columnas y sujetos (S) en filas. Matrices de Varianza-Covarianza Matrices de Correlaciones: Diagonal principal 1 Matrices de Proximidades: Similitud (Grado de Asociación) entre V, S o V-S. Las similitudes se miden en cercanía entre dos puntos (índices de correlación). o Medidas de distancia: Disimilaridad. Distancia entre objeto en fila i y j.
COMBINACIÓN LINEAL DE VARIABLES Una combinación lineal de variables es la suma ponderada de variables:
V w1 X 1 w2 X 2 ... w p X p 5
V= Variante (Nueva variable construída) W= Pesos, ponderaciones X = Variables Observadas.
Combinación útil de variables. Buscan un conjunto de pesos óptimo para nuestro objetivo.
17/09/13
Supuestos Paramétricos: Normalidad: Variable sigue Campana de Gauss. No se pide la normalidad univariada, sino multivariada; que cada una de las variables se distribuya de acuerdo a la campana de Gauss, al igual que las combinaciones lineales entre ellas. Difícil de comprobar a priori. o Para comprobar a posteriori: Ver qué ocurre con los residuos, la diferencia que dan los datos reales (empíricos) y los datos del modelo teórico (matemático) que estamos utilizando. Si se cumple una normalidad multivariada, estos residuos cumplen la distribución normal. o Cuando la prueba es de carácter descriptivo (análisis factorial exploratorio) no es muy importante, no así si la prueba tiene carácter inferencial. o Cuando no cumplimos el supuesto tiende a aumentarse el Error Tipo I. Rechazar Ho cuando había que aceptarla. Estaremos trabajando con un nivel de significación real mayor al 5%. No podría hacer inferencia estadística, cada coeficiente me dará resultados diferentes. Linealidad: Importante en todas aquellas técnicas que se basen en correlaciones. Homoscedasticidad: O igualdad de varianzas. Es importante en aquellas técnicas que haya variable dependiente, que tiene que tener igual varianza en todos los grupos (niveles) de la variable independiente; y en todos los grupos que surjan de la combinación de los niveles de esas variables. o MANOVA: más de una variable dependiente. Aquí este supuesto se establece no en las varianzas sino en las matrices de varianza-covarianza.
6
TEMA 2.A: ASOCIACIÓN ENTRE DOS O MÁS VARIABLES CATEGÓRICAS χ2 DE INDEPENDENCIA DE VARIABLES
Tabla de Contingencia: Tabla en que consideramos dos variables de tipo categórico (en este caso). En cada una de las celdillas aparece la frecuencia de cada una de esas variables. –F1,2; frecuencia de la aparición conjunta de esas variables en la condición respectiva
Marginales de columna: Nº de sujetos que están en la categoría 1 de Y, independientemente de su aparición en X. Marginales de fila: Total de sujetos que están en la categoría – de X; independientemente de Y. N: Tamaño total
Podemos ver si hay relación entre esas dos variables. Prueba de Chi2 de independencia de variables. Prueba de tipo inferencial. Establece 2 hipótesis:
Ho: X e Y son independientes. No hay relación entre ellas. H1: X e Y no son independientes.
Necesita unos supuestos para la utilización de Chi2: Una muestra aleatoria de n observaciones es clasificada en las k x r combinaciones de las categorías de las dos variables. La probabilidad de que una observación pertenezca a cada una de las categorías de la variable se mantiene constante en la n observaciones Todas las frecuencias observadas son mayores de cero ( es decir, no hay celdas vacías) y no más del 20% de las frecuencias esperadas son menores de 5 o Si hay de 0, tenemos que colapsar. No podría unir chicos y chicas, pero sí unir por resultado académico, por ejemplo unir notables-sobresalientes. Si colapso pierdo información. Se denominan 0s de tipo coyuntural, puede darse por ejemplo por muestras pequeñas o por exceso de categorías. 0s estructurales, caso de 0 por narices. Cruzar servicios de atención de hospital por sexo de pacientes. Ginecología x Varones 0. No se puede colapsar, podemos quitar esa categoría.
7
Estadístico de Contraste: Para cada una de las celdas tómese la frecuencia observada y compárese con la frecuencia esperada.
La frecuencia esperada es la que tendría que haber en esa celda si las dos variables fueran independientes Marginal de filax Marginal de columna /N-. Si fueran realmente independientes tendrían que coincidir, chi2=0, modelo teórico y empírico cuadran. En la medida en que difiere de 0 hay alguna desviación. Por puro azar nunca dará 0, aunque sean independientes. La pregunta es si la diferencia es suficientemente grande para pensar que no se debe al azar. Nº de filas-1 x nº de columnas-1 /Gl. Si rechazamos H0 hay relación entre variables, la diferencia es suficientemente grande para considerar que no se debe al azar.
k
r
2
i 1
f
o
fe
2
fe
i 1
Corrección de Yates (2x2): Caso particular para las tablas 2x2. El SPSS la da por defecto en estas tablas. Muy conservadora, puede reducir Ho. k
2
i 1
r
f
o
f e 0.5
2
fe
i 1
Ejemplo: Descriptivos. Comprobar que no hay 0 para aplicar chi2. Tabla de contingencia ESTCIV * OPINION
ESTCIV
+ 10 años casado
- 10 años casado
solteros
Total
Recuento Frecuencia esperada % de ESTCIV % de OPINION % del total Recuento Frecuencia esperada % de ESTCIV % de OPINION % del total Recuento Frecuencia esperada % de ESTCIV % de OPINION % del total Recuento Frecuencia esperada % de ESTCIV % de OPINION % del total
OPINION a favor en contra 20 80 68,0 32,0 20,0% 80,0% 5,9% 50,0% 4,0% 16,0% 200 50 170,0 80,0 80,0% 20,0% 58,8% 31,3% 40,0% 10,0% 120 30 102,0 48,0 80,0% 20,0% 35,3% 18,8% 24,0% 6,0% 340 160 340,0 160,0 68,0% 32,0% 100,0% 100,0% 68,0% 32,0%
Total 100 100,0 100,0% 20,0% 20,0% 250 250,0 100,0% 50,0% 50,0% 150 150,0 100,0% 30,0% 30,0% 500 500,0 100,0% 100,0% 100,0%
Si pides al SPSS tabla de contingencia y chi2: Pruebas de chi-cuadrado
Chi-cuadrado de Pearson Razón de verosimilitud Asociación lineal por lineal N de casos válidos
Valor 132,353a 126,467 81,544
2 2
Sig. asintótica (bilateral) ,000 ,000
1
,000
gl
500
a. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 32,00.
8
Chi2 = 132,353. El valor depende de más cosas que las variables, como nº de sujetos y tamaño de la tabla. Hay que mirar la significación; si es menor a 0,05 hay diferencia estadísticamente significativa. Sí hay relación estadísticamente significativa. Chi2 no nos dice la intensidad de la relación (no tiene que ver con la significación). Una manera posible de ver cómo se da esa relación es utilizar los residuales. No podemos utilizarlos en bruto, hay que dividirlos de su error típico y dan lugar a una variable con media 0 y error típico 1, variable normalizada –Gauss-. En la tabla el valor de Z= +-1,96 se considera significativo al 5%; si el residuo estandarizado cumple esos valores se considera que esa celda es la que está causando relación. -
20-68. Negativo. Entre esas variables a priori parece haber relación, saldría Z<1,96.
Otra posibilidad: Buscar algún índice numérico. Estas pruebas ambas se basan en chi2, tratan de corregir la influencia de la tabla y de los sujetos. Teóricamente van entre 0-1, pueden interpretarse como una correlación:
Índices de Asociación derivados de Chi2: Coeficiente de Contingencia, C: Corrige el tamaño de muestra. Teóricamente sólo entre 0-1. En tablas cuadradas puede calcularse el tamaño de contingencia máximo.
C
2 2 n
Cmáx = -Raíz- (K-1/K) V de Craner: Corrige tamaño de muestra y tamaño de la tabla. Sí va entre 0-1. Sí lo interpretamos como una correlación. En principio preferible; índice de tamaño del efecto. - K: Menor de filas o columnas. Daría igual en caso de tablas cuadradas - Phi: Caso particular de V de Craner en tablas 2x2.
V
2
n k 1
Pruebas de chi-cuadrado
Chi-cuadrado de Pearson Razón de verosimilitud Asociación lineal por lineal N de casos válidos
Valor 132,353a 126,467 81,544
2 2
Sig. asintótica (bilateral) ,000 ,000
1
,000
gl
500
a. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es 32,00.
Medidas simétricas
Nominal por nominal
N de casos válidos
Phi V de Cramer Coeficiente de contingencia
Valor ,514 ,514
Sig. aproximada ,000 ,000
,457
,000
500
a. Asumiendo la hipótesis alternativa. b. Empleando el error típico asintótico basado en la hipótesis nula.
9
TEMA 2.B: ASOCIACIÓN ENTRE DOS O MÁS VARIABLES CATEGÓRICAS Otros índices de asociación para tablas de contingencia Datos nominales. Medidas basadas en la reducción proporcional del error Son medidas de asociación que expresan la proporción en que conseguiríamos reducir la probabilidad de cometer un error de predicción cuando, al intentar clasificar un caso o grupo de casos como pertenecientes a una u otra categoría de una variable, en lugar de utilizar únicamente las probabilidades asociadas a cada categoría de esa variable, efectuamos la clasificación teniendo en cuenta las probabilidades de esa variable en cada categoría de una segunda variable.
Variables en escala nominal (categorías) vs ordinal (los nº indican orden) vs cuantitativas (los nº funcionan como tales). -
Escalas de categorías: 0 arbitriario. Escalas de razón: 0 ausencia de atributo. Medida constante entre los distintos nºs.
Índices de reducción proporcional del error: Cómo hacen la asignación de sujetos, basándose en una sola variable o utilizando las dos.
Coeficiente de incertidumbre: Basado en las tablas de contingencia. Lambda: Con dos variables nominales las cruzo. Si yo tengo que clasificar a un sujeto en una celda conociendo solo X, a todos los sujetos los voy a clasificar en la categoría de mayor probabilidad. Siempre tendré una proporción de error, porque no todos irán ahí. o Esta prueba propone que tenemos X y una cierta información de Y. De los sujetos que están en una condición (x ejemplo a favor), los clasifico en la categoría de X (estado civil) más probable. Igualmente tendré error. La diferencia entre la % de errores cuando solo utilizaba X con la % cuando utilizo X e Y nos da Lambda. Reducción proporcional del error. Si cometo el mismo error es que no hay relación entre estado civil y voto x ej. Tau: No asigna a la mayor probabilidad, sino ve la probabilidad de X y asignar a los sujetos aleatoriamente en el mismo % a cada uno de los niveles de X. Mantengo la proporción. La % de error que tenga haciéndolo así es la línea base. Cuando introduzco Y hago lo mismo. La diferencia entre la % de errores de la primera condición y la segunda es Tau.
Ambos índices van 0-1 (Tau y Lambda). 0 indica que no hay relación entre las dos variables, no hay diferencia entre el error. Si las dos variables son estadísticamente independientes dan 0; pero que los índices den 0 no significa que necesariamente las variables sean independientes. Similar a la correlación de Pearson, 0 es no relación lineal entre variables, pero puede haber relación de otro tipo. Con tamaños de muestra grande generalmente siempre va a dar estadísticamente significativo. Son más interesantes los valores en sí que dan los índices que la significación. 10
Ejemplo Diapo 4.
DATOS ORDINALES Con tablas de contingencia las ordinales se analizan con pocas categorías. En nominal puedo hablar de intensidad y decir si hay relación o no, pero no puedo decir nada sobre la dirección de la relación, porque las etiquetas son arbitrarias. En ordinal ya puedo hablar de intensidad y de dirección de la relación. Gamma d de Somers Tau-b y Tau-c de Kendall
Estas pruebas se basan en el concepto de inversión y no-inversión: -
No-inversión: El caso X puntúa más alto en las dos variables. Inversión: X puntúa más alto en A pero más bajo en B. Empate: Si X e Y puntúan igual en las dos variables.
Cuando predominan las no inversiones tendremos una relación directa o positiva entre variables. Cuando predominen las inversiones tendremos relaciones inversas o negativas. Si predominan empates no hay relación.
Los siguientes índices van entre +-1, como una correlación. El nº da la intensidad de la relación y el símbolo la dirección.
Tau-B: Sólo va entre +-1 si las tablas son cuadradas.
Conclusión ejemplo: No existe relación entre nivel socieconómico y percepción de felicidad.
11
17/09/13
Índices de Acuerdo
Kappa: Entre 0 y 1. Para probar el acuerdo entre dos fuentes. Como entre dos evaluadores, grado de acuerdo entre los jueces –interjueces-, tiene en cuenta que el acuerdo sea por azar –lo resta-. o Se emplea para evaluar el acuerdo entre dos jueces. Toma valores entre 0 (sin acuerdo) a 1 (acuerdo absoluto). Tiene en cuenta en su cálculo las clasificaciones correctas que se pueden dar simplemente por azar.
Índices de Riesgo
Diseños transversales: Los datos se recogen en un mismo momento. Diseños longitudinales: Los datos se recogen en momentos temporales distintos. (Índices de Riesgo). o Prospectivos o de cohortes Riesgo Relativo. Hacia adelante o Retrospectivos o caso-control Odds Ratio.
Diseños Prospectivos o de Cohortes: Desenlace (Tiempo 2)
Factor desencadenante (Tiempo 1)
SI
NO
SI
f11
f12
f1.
NO
f21
f22
f2.
f.1
f.2
Miramos si presentan un factor desencadenante para un determinado tipo de conducta. -
T1: Cuántas horas ven los niños la TV? T2: En adolescencia posterior, conducta excesivamente sedentaria? 12
Lo cruzo dando lugar a una tabla de contingencia 2x2. Riesgo relativo (índice): Comprobar si la % de desenlaces es más alta en un grupo que en otro.
Ejemplo: Conducta Sedentaria
Consumo televisivo
SI
NO
+ 3 horas
f11 = 23
f12 =81
f1. = 104
- 3horas
f21 = 9
f22 = 127
f2. = 136
f.1 = 32
f.2 = 208
240
Estimación de riesgo Intervalo de confianza al 95% Valor Razón de las ventajas para
Inferior
Superior
4,007
1,766
9,093
3,342
1,615
6,915
,834
,746
,933
tv (+ de 3 horas / - de 3 horas) Para la cohorte sedentarismo = sí Para la cohorte sedentarismo = no N de casos válidos
240
Interpretación La proporción de desenlace entre los sujetos expuestos al factor desencadenante es Rr veces más alta que entre los sujetos no expuestos. De otra manera, por cada desenlace observado entre los sujetos no expuestos cabe esperar que aparezcan Rr desenlaces entre los sujetos expuestos. Un Rr=1 indica que la probabilidad de desenlace es igual en ambos grupos.
La % de que en aquellos sujetos que se presenta un factor desencadenante se de el desenlace, casi 3,5 veces mayor que los que no tenían factor de riesgo. Muy utilizado en epidemiología 13
Diseño Retrospectivo o Caso-Control Desenlace (Tiempo 1)
Factor desencadenante (Tiempo 2)
SI
NO
SI
f11
f12
f1.
NO
f21
f22
f2.
f.1
f.2
Tabla de contingencia aparentemente igual que la anterior, pero el matiz de por qué no se puede aplicar el riesgo relativo es porque el número de sujetos en cada uno no depende de la proporción de desenlaces que se dan, sino del muestreo que yo haya hecho. Depende del nº de casos control las proporciones irán cambiando, no reflejan la verdadera proporción desenlaces. Se utiliza el estadístico Odds “Ventajas”. % de que se de un suceso/ % de que no se de. El resultado es la % de X es tantas veces mayor que la % de que no se de X (1-X).
Ejemplo: Fobia a Estadística después de dar datos con Marcelino. Fobia (casos)
No Fobia (control)
AD conmigo
51
374
425
No AD conmigo
15
205
220
66
579
645
- Odds de tener fobia entre los que hicieron AD conmigo (51/425) / (374/425) = 51/374 = 0.136 - Odds de tener fobia entre los que no hicieron AD conmigo (15/220) / (205/220) = 15/205= 0.073 - Odds de haber hecho AD conmigo entre los fóbicos (51/66) / (15/66) = 51/15 = 3.4 - Odds de haber hecho AD conmigo entre los no fóbicos (374/579) / (205/579) = 374/579 = 1.82 14
Valor inferior a 1 Es más probable no tener fobia que tenerla.
Output de SPSS: Estimación de riesgo Intervalo de confianza al 95% Valor Razón de las ventajas para
Inferior
Superior
1,864
1,022
3,397
Para la cohorte Fobia = sí
1,760
1,013
3,057
Para la cohorte Fobia = no
,944
,898
,993
N de casos válidos
645
AD (AD conmigo / AD sin mi)
Casi 2 veces mayor la % de que un alumno desarrolle fobia a la estadística después de AD con Marcelino. Factor de riesgo claro, desencadenante. RIESGO =/ CAUSALIDAD Que algo sea factor de riesgo no significa que sea causalidad. Puede ser una relación indirecta. La Odds relativa se utiliza también para otro tipo de análisis como tamaño del efecto.
Comparación de proporciones relacionadas: Prueba de McNemar Caso longitudinal, se compara la proporción de una determinada situación antes y después, se utiliza para evaluar el cambio. Diferencia de medias en muestras relacionadas; mido, intervengo, pasa tiempo, mido, hay cambio? Proporciones relacionadas. Este caso es similar pero con proporciones, no medias. H0: No ha habido cambio entre antes y después. Ejemplo: Variables dependientes, mirar si ha habido cambio con el debate. 15
Tabla de contingencia Intención de voto antes * Intención de voto después Recuento Intención de voto después Candidato A Intención de voto antes
Candidato B
Total
Candidato A
51
45
96
Candidato B
80
64
144
131
109
240
Total
Pruebas de chi-cuadrado Sig. exacta Valor
(bilateral)
Prueba de McNemar
,002
N de casos válidos
a
240
a. Utilizada la distribución binomial
P= 0,002. Menor 0,05. Conclusión: Las diferencias entre las proporciones de antes y después son estadísticamente significativas, debate efectivo. McNemar presentada para variables dicotómicas, si hay más de 3 niveles se necesita una modificación de la prueba McNemar-Bower Ejemplo: Ahora hay tres candidatos. Tabla de contingencia Intención de voto antes * Intención de voto después Recuento Intención de voto después Candidato A Intención de voto antes
Candidato B
Candidato C
Total
Candidato A
54
18
16
88
Candidato B
12
42
31
85
Candidato C
14
9
63
86
80
69
110
259
Total Pruebas de chi-cuadrado
Sig. asintótica Valor Prueba de McNemar-
13,433
gl
(bilateral) 3
,004
Bowker N de casos válidos
259
Si queremos ver por dónde ha ido el cambio tenemos que descomponer la tabla 3x3 en otras de 2x2 para saber dónde. Correcciones del nivel de alfa para no trabajar con nivel de alfa mayor (Error Tipo I).
16
Combinación de tablas 2x2 (Mantel-Haenzel) Existe relación entre dos variables dicotómicas controlando el efecto de una tercera variable que se descompone en grupos o estratos. Por ejemplo controlar la influencia de la variable edad sobre otras dos. Muchas veces se utiliza para mirar el funcionamiento diferencial de los ítems. Sospechamos que un ítem es injusto (Hay un grupo de personas que puntúan distinto respecto al grupo mayoritario). Ejemplo: Comparar grupo de referencia frente al grupo focal de emigrantes. Tener en cuenta nivel de los sujetos. Que realmente se vea la diferencia por el origen, no por el nivel. Realmente son dos tablas de contingencia juntas: Nativos (R) Nivel de rendimiento en el test
Emigrantes (F)
Aciertan el ítem
Fallan el ítem
Aciertan el ítem
Fallan el ítem
1 (0-3)
40
40
30
45
2 (4-7)
60
40
45
50
3 (8-11)
60
30
55
35
4 (12-15)
55
5
50
5
Suma
215
115
180
135
En niveles (SPSS) meteremos los que hemos hecho, y en columnas los datos. Ho: No hay relación entre los grupos de interés. No hay funcionamiento diferencial del ítem DIF. Tabla de contingencia grupo * item * Test Recuento Test
item aciertan
nivel 1
grupo
grupo
40
40
80
Emigrantes
30
45
75
70
85
155
60
40
100
Nativos Emigrantes
45
50
95
105
90
195
Nativos
60
30
90
Emigrantes
55
35
90
115
65
180
Nativos
55
5
60
Emigrantes
50
5
55
105
10
115
Total nivel 3
grupo
Total nivel 4
grupo
Total
Nativos
Total nivel 2
fallan
Total
Pruebas de homogeneidad de la razón de las ventajas Sig. asintótica Chi-cuadrado
gl
(bilateral)
Breslow-Day
,593
3
,898
De Tarone
,593
3
,898
17
Pruebas de independencia condicional Sig. asintótica Chi-cuadrado
gl
(bilateral)
De Cochran
4,726
1
,030
Mantel-Haenszel
4,337
1
,037
Estimación de la razón de las ventajas común de Mantel-Haenszel Estimación
1,450
ln(estimación)
,372
Error típ. de ln(estimación)
,171
Sig. asintótica (bilateral)
,030
Intervalo de confianza
Razón de ventajas común
Límite inferior
1,037
Límite superior
2,028
ln(Razón de ventajas
Límite inferior
,036
común)
Límite superior
,707
asintótico al 95%
La estimación de la razón de las ventajas común de Mantel-Haenszel se distribuye de manera asintóticamente normal bajo el supuesto de razón de las ventajas común igual a 1,000. Lo mismo ocurre con el log natural de la estimación.
-
Sí hay relación entre acertar o fallar y ser inmigrante habiendo controlado el nivel.
-
Última tabla, estimación del tamaño del efecto, realmente es grande la diferencia?
-
Valor de referencia 1. Si es mayor hay diferencia. Estimación.
-
Mayor 1, hay una relación real entre las variables del fallo del ítem y el grupo focal.
-
El logaritmo neperiano (ln) es igual pero la referencia es 0, si es mayor es que hay relación.
-
Intervalo de confianza al 95%: Odds ratio entre 1,03 y 1,28. Cuanto más alejado esté de 1 hay relación. Si los límites del intervalo fueran menores a 1 o alrededor nos daría a entender que no hay diferencia.
18
TEMA 2.C: ASOCIACIÓN ENTRE DOS O MÁS VARIABLES CATEGÓRICAS Tablas de contingencia con más de dos variables. Relación entre 3 variables categóricas. Modelos log-línea (logarítmico-lineales) Una posibilidad para ver la relación entre esas variables sería chi2 dos a dos, pero estamos perdiendo algo de información. Estos modelos sirven para ver la relación entre dos o más variables, de tipo categórico. •
Se emplean para analizar la relación entre dos o más variables en una tabla de contingencia
•
No distinguen entre variables dependientes e independientes. Todas se consideran como variables de respuesta.
•
Sólo estudian la asociación entre variables. Técnicas de Independencia o Reductivas. Estamos buscando una reducción de dimensionalidades.
Los modelos log-lineales resumen las relaciones existentes en una tabla de contingencia en una serie de componentes lo más reducida posible de tal forma que sean “fácilmente interpretables”. Estos componentes reciben el nombre de parámetros lambda (λ)
Por ejemplo, en una tabla con dos variables se pueden presentar cuatro efectos: -
Efecto de las filas (λA): Resultado de la variable A
-
Efecto de las columnas (λB): De la B
-
Efecto de la interacción entre las variables (λAB): De la interacción
-
Efecto debido al promedio de la casilla (µ) : Efecto común de todos los sujetos, la media de la casilla.
El modelo log-linea también se puede aplicar para 2 variables, no es necesario más de tres. Lo que ocurre en una matriz puede depender de varios efectos. Cada casilla puede deberse al efecto de las filas, columnas… El modelo log-linea pretende ver cuáles de esos efectos son necesarios.
Modelo ¿Log-línea? Para elaborar un modelo log-lineal se transforman las frecuencias observadas en logaritmos naturales. De esta forma el modelo multiplicativo se transforma en un modelo aditivo, similar a los modelos lineales de regresión múltiple y análisis de varianza (Modelo Lineal General). Pasar de un modelo multiplicativo a otro aditivo, lineal. En una tabla de contingencia cuando las respuestas son independientes las probabilidades conjuntas de cada casilla Pij se obtienen como el producto de los marginales de filas y columnas Pij = Pi.·P.j 19
Los modelos log-lineales usan frecuencias esperadas en lugar de probabilidades fij = n·Pij. Si asumimos la independencia de las variables tenemos fij = n·Pi.·P.j Al tomar logaritmos queda ln(fij) = ln(n) + ln(Pi.) + ln(P.j) ln(fij) = µ + λAi + λBj + λABij
La probabilidad conjunta de una celda es el producto de sus marginales. Bajo el supuesto de variables independientes. EL log-línea trabaja sobre las frecuencias esperadas de las celdas, no bajo las probabilidades. Hay que pasarlo a probabilidades. El logaritmo de un producto es la suma de los logaritmos. Pasar de una expresión multiplicativa a una aditiva, mejor análisis. Es un modelo lineal en su logaritmo.
Para tres variables tendríamos ln(fijk) = µ + λAi + λBj + λCk + λABij + λACik + λBCjk + λABCijk El objetivo fundamental del log-lineal consiste en encontrar un modelo que represente óptimamente los resultados empíricos (de la tabla de contingencia) y que sea además el más simple de todos los posibles modelos con ajuste óptimo. Una vez hallado ese modelo, se interpretan sus parámetros desde una perspectiva sustantiva. La interpretación de parámetros de modelos no ajustados no tiene sentido (se calculan cuando tenemos el modelo definido).
Limitaciones-Precauciones en el uso del log-lineal •
Aspectos teóricos –
•
•
El mayor peligro está en el uso de muchas variables que hace que su interpretación sea muy complicada
Aspectos prácticos –
Independencia. Que las frecuencias de una celda no interfieran con las de otras, tener bien definidas las variables para que un sujeto no pueda estar en varias. Comprobar que la N coincida con el nº de casos.
–
Un caso no puede contribuir a la frecuencia de más de una celda.
Aspectos prácticos •
Ratio casos/variables. Tendremos problema de convergencia cuando hay pocos casos en relación al número de variables. Esto puede dar lugar a celdas con frecuencia 0 (vacías), que sí pueden analizarse en log-líneal, pero cuando hay muchas hay problemas de convergencia, los parámetros no son adecuados. Posibilidad de añadir en SPSS +0,5 a todas las frecuencias, evitas convergencia. 20
•
Adecuación de las frecuencias esperadas. Frecuencias esperadas inadecuadamente pequeñas producen pérdida de potencia estadística. Problemas de potencia estadística, muchas variables para los sujetos.
Norma estándar: 5 veces más casos que nº de celdas. Cruzar las variables dos a dos y comprobar que no hay problemas.
Fases en la elaboración de un modelo log-lineal •
Formulación (Especificación) del modelo o modelos que pudieran dar cuenta de las frecuencias esperadas para poder obtener las frecuencias esperadas. Una vez definido el modelo:
•
Comprobación del ajuste mediante la comparación de las frecuencias esperadas obtenidas en cada modelo con las frecuencias observadas. Estadísticos de ajuste, hay mucha diferencia entre las frecuencias esperadas y observadas?
•
Selección del modelo más adecuado de entre los que ajusten –para la tabla de contingencia-.
•
Estimación de los parámetros del modelo seleccionado para ver su importancia relativa.
•
Interpretación del modelo.
En la realidad las fases se solapan.
Principales Modelos Log-Lineales Desde la contingencia de 3 variables
Modelo Saturado ln(fijk) = µ + λAi + λBj + λCk + λABij + λACik + λBCjk + λABCijk Modelo en el que aparecen todos los efectos, para dar cuenta del logaritmo de la frecuencia tengo que tener en cuenta todos los efectos. Las tres variables están relacionadas entre sí, por ello hay un término de tercer orden. La relación entre A y B varía por la relación con la tercera variable C. La interacción entre las tres es significativa, aparece en el modelo. Contempla todos los posibles efectos de una tabla. Siempre ajustan de manera perfecta a los datos. Los residuales en un modelo saturado siempre son 0, no hay diferencias entre la frecuencia observada y la frecuencia esperada. El log-línea busca simplificar, no utilizar todos los efectos. El modelo saturado suele utilizarse como punto de partida para ir rebajando.
Modelo de Independencia ln(fijk) = µ + λAi + λBj + λCk
21
Modelos Jerárquicos Los modelos jerárquicos son los que cumplen la siguiente condición: -
Si hay un término para la interacción de un grupo de variables, entonces tiene que haber términos de orden inferior para todas las combinaciones posibles de esas variables. Para describir un modelo jerárquico es suficiente enumerar los términos de orden superior en los cuales aparecen las variables. A esto se le llama “clase generadora” (generating class) de un modelo.
La frecuencia de la celda puede expresarse a través de un modelo con solo los efectos principales. Las variables son independientes y no tienen relación con otras. Contrario al saturado. Está presente una determinada interacción y todos los términos que están por debajo de la misma. Estos modelos pueden abreviarse indicando los términos de orden más altos presenten en el modelo.
Modelo (ABC), significa de interacción de tercer orden. Clase generadora (BC)(A). Interacción BC, que incluye B y C, pero hay que tener en cuenta tb el efecto principal de A.
22
TEMA 2.D: ASOCIACIÓN ENTRE DOS O MÁS VARIABLES CATEGÓRICAS Tablas de Contingencia con más de dos variables: Modelos log-lineal Ajuste del Modelo -
Chi2
-
Razón de verosimilitud (Likelihood Ratio)[LR2, RV2, G2, L2]
Comparar lo teórico con lo empírico. Si el modelo ajusta de manera perfecta el valor del estadístico es 0, a medida que no aumenta. Hay que comprobar la significación estadística. La H0 es que el modelo ajusta, que no hay diferencias entre lo observado y lo esperado. En este caso, al contrario que en la generalidad, es aceptar la Ho, que P>0,05 Cuando la muestra es pequeña suele diferir bastante. En log-lineal suele preferirse la razón de verosimilitud.
Selección del Modelo •
Un solo modelo ajusta
•
Ningún modelo ajusta
•
¡¡¡Varios modelos ajustan!!!
Criterios para elegir: Parsimonia: Mejor el más simple Significación estadística: Nos la da el ordenador Interpretabilidad sustantiva: Podemos interpretarlo?
¿Qué estrategias podemos emplear para determinar con qué modelo nos quedamos? Tengo varios modelos, con cuál me quedo. Podemos plantearnos dos situaciones generales: 1. Tenemos un modelo teórico en la cabeza y queremos ver si se ajusta. 2. Estamos bajo un enfoque más exploratorio. 23
1- Tenemos un modelo teórico. En este caso simplemente se pone a prueba el modelo y si se ajusta se da por bueno y se interpreta. Ejemplo conductor nobel y velocidad sin tener en cuenta más variables. También podría ser que hubiera relación entre otras variables, entonces el modelo tendría que proponer más interacciones. Tendría que decidir entre uno y otro modelo. 2- Generalmente en psicología es más exploratorio, no tengo muy claro lo que ocurre y voy probando.
Herramientas (tácticas) para elegir entre diferentes modelos •
Parámetros estandarizados
•
Comparación de modelos
•
Prueba de los efectos de orden k y asociación parcial
•
Residuales
•
Stepwise: Resume en parte todos los demás
Parámetros estandarizados •
Comenzar ajustando el modelo saturado
•
Los residuos estandarizados menores a |1.96| indican que ese parámetro puede ser eliminado del modelo
Se distribuyen de acuerdo a la curva normal. Comparar su valor con +-1,96, los que estén por abajo y por arriba se consideran valores estadísticamente significativo. A partir del modelo saturado pedirle al programa que nos de los parámetros para los efectos, los que no podríamos eliminarlos, no aportan información estadísticamente significativa. Teniendo en cuenta siempre que estamos en modelos JERÁRQUICOS, lo que está en interacción más alta tiene que estar por abajo representado.
Comparación de Modelos Es posible comparar dos modelos restando sus respectivos valores de G2 y comprobando si la diferencia es o no significativa. El único requisito necesario es que todos los términos de uno de ellos estén incluidos en el otro, es decir, que uno de los modelos sea un subconjunto del otro.
24
El modelo que tiene más efectos hay que tenerlo presente, sino perderíamos información. Que el que tenga más términos tenga incluidos a los más pequeños (que estén anidados). Propiedades: 1. Para hacer la comparación de modelos nos basamos en el estadístico de Razón de Verosimilitud, que dice que la misma del modelo más simple siempre será mayor o igual que la del modelo más complejo. Esta razón va decreciendo a medida que aumentamos términos en el modelo. El extremo sería el modelo saturado, donde G2 sería 0. Para que esta propiedad se cumpla tienen que ser modelos anidados. 2. El modelo más simple puede descomponerse entre las razones de verosimilitud de los modelos sucesivos. Se compara con chi2, y si da estadísticamente significativo es que ese término de más que hemos incluido sí es importante (rechazar H0) a. G2(c-d) = G2(c) – G2(d) b. Para saber si merece la pena quedarnos con el tercer término, si es que ajustasen varios modelos.
Prueba de los efectos de orden K y asociación parcial Prueba de los efectos de orden K Probar que los efectos de un determinado orden o inferior son estadísticamente significativas o probar exclusivamente que los efectos de un determinado orden son significativos. Prueba global, Omnibus, nos dice si en conjunto x ej las interacciones son o no estadísticamente significativas, pero no una por una, no sabemos cuál. Para esto asociación parcial que compara una por una, AB-AC-BC. Prueba de asociación parcial Nos dan información sobre la significación de los efectos individuales.
25/09/13
Residuales Si se estandarizan aquellos con un valor mayor a |1.96| indican diferencias estadísticamente significativas entre la frecuencia observada y esperada de esa celda, es decir que esa casilla no ajusta a los datos. Si encontramos varias celdas con residuales significativos quizás podríamos replantearnos el modelo y probar otro alternativo. Cuando un modelo ajusta muy bien los residuales son similares a 0. Si tenemos muchas celdas con residuales muy altos, aunque el modelo general ajuste, habría que plantearse tomar otro modelo. No mirar solo el ajuste global del modelo.
Stepwise Se trata de tomar el modelo saturado como punto de partida, y a partir de él se van eliminando los términos que no satisfacen el criterio de permanencia en el modelo. El procedimiento se basa en la significación de la asociación parcial al ir añadiendo o suprimiendo un parámetro, analizando el ajuste de los modelos resultantes Procedimientos estadísticos son aquellos que el programa va quitando por significación estadística. Utilizando las pruebas de asociación parcial, utilizando término a término, de una clase generadora ir quitando términos. Si el 25
término es significativo el término no puede quitarse. Forma más común de trabajar. Enfoque más exploratorio de todos.
Estimación de Parámetros Solo tiene sentido cuando tenemos ya un modelo ajustado elegido. El SPSS no lo hace del modelo final, solo del saturado. •
Las estimaciones de los parámetros son función directa de los logaritmos de las frecuencias esperadas. •
Se calculan a partir de los log. De las frecuencias esperadas, de las celdas de las tablas de contingencia y de los marginales. En tablas de 2x2 procedimientos substractivos, en mayores interactivos.
•
Para tablas de tres o más dimensiones esta estimación se realiza por procedimientos iterativos.
•
La suma de las estimaciones de los parámetros correspondientes a los diferentes niveles de una variable debe valer 0. •
La suma de las estimaciones para una determinada variable tiene que valer 0.
Interpretación No hay unas normas fijas. Ir analizando los diferentes términos. Cuando hay un modelo con interacciones, la que se interpreta es la interacción más alta, ya que las siguientes están condicionadas por la superior. Con interacciones de segundo orden podría hacer tablas de contingencia de 2x2 para entender mejor dónde se produce más incidencia. Con variables de tercer orden es más complicado •
Para realizar la interpretación hay que tener ajustado el modelo e ir analizando lo que implican los términos que permanecen en él.
•
Hay que tener en cuenta que al igual que en el AVAR se interpreta siempre la interacción de más alto orden.
Ejemplo Tomado de Field (2013) Relación entre asistencia o no a clase de prácticas, ver o no Facebook y aprobar o no la asignatura. Relación entre variables. Procedimiento log-lineal en SPSS, modelo razonado de 3 variables. Cruzar todas las variables entre sí en una tabla de contingencia. - Filas/Columnas y Niveles –para una tercera variable en tabla- Cruza los niveles con filas y columnas. Comprobar frecuencias esperadas y observadas y celdas vacías. Las frecuencias esperadas no son muy bajas. No habrá problemas de pérdida de potencia estadística. El programa empieza a trabajar sobre un modelo saturado, y nos da la tabla 2, que nos da residuales 0 (modelo saturado). Se puede desmarcar la casilla de +0,5 si sabemos que no vamos a tener problemas de contingencia; sale por defecto. Comprobar ajuste del modelo, tabla 3. El valor es 0 –ajusta de manera perfecta-. No hay diferencia entre lo esperado y lo observado. Modelo saturado.
26
Tablas 4,5 y 6 empieza a dar parámetros para escoger otro modelo más simplificado. Pruebas de orden K y superior, tabla 4. Comprobar si los efectos de un determinado orden y superiores a él son significativos. La segunda parte de esta tabla si los efectos de un determinado orden y solo ellos son significativos, prueba ómnibus. La conclusión ha de ser la misma. - 1 (efectos principales). Significativo, merece la pena introducir el siguiente. Si este no da significativo nos dice que todo lo que está por encima de “mu” no aporta nada. - 2 o +. Estadísticamente significativo. - 3 o +. Como no hay más de tres aquí miraríamos solo 3. No es estadísticamente significativo, p<0.05. En principio parece descartable del modelo. Los estadísticos coinciden en la primera y segunda parte respecto al 3, ya que es el mayor factor del modelo. La tabla de asociaciones parciales mira elemento a elemento. Plantea la interacción entre asistir o no a clase y Facebook, y plantea si esa interacción es significativa. Si lo es, no podemos eliminar este término del modelo. - Aquí sale que las tres interacciones de segundo orden son estadísticamente significativas. Y además lo son los efectos principales en sí mismos. Estimación de parámetros del modelo saturado. El valor del parámetro para cada uno de los términos, esto se transforma en una z de acuerdo a la curva normal, y esto lo transforma en significación. - La de tercer orden no es sign. Y todas las de segundo sí. Parece que el parámetro de mirar Facebook no es sig. Aunque tiene que estar porque se incluye en un modelo superior. Procedimiento Stepwise, tabla resumen de los pasos, información de los diferentes pasos hasta parar el modelo. - Paso 0: Clase generadora de tercer orden, que pasa si se quita. P>0,05, el modelo sigue ajustando, podemos prescindir de ese término. - Paso 1: Modelo interacciones segundo orden, si quito alguna de esas interacciones, la pérdida es estadísticamente significativa? Ninguno de estos términos pueden ser eliminados - Modelo ajustado y definido, los términos de primer orden necesariamente van a tener que entrar. - El ajuste del modelo es de P=210. Con las tres interacciones de segundo orden. Frecuencia y residuos de casillas. Que ajuste el modelo estadísticamente no significa que sea perfecto. Si vemos los residuales, ya no son 0. - Columnas de residuos típicos, son z en la curva normal. Alarma cuando más o menos 1,96. Indicará que son residuos demasiado grandes para no tenerlos en cuenta. Tendríamos que buscar otro modelo que ajuste mejor. Si pasa en pocas celdas no pasa nada. La chi2 es el estadístico de ajuste global del modelo. Pearson es lo que nosotros llamamos chi2. Hay relación entre ver Facebook y la nota, pero no tiene que ver con asistir a clase. Dentro de la gente que va más del 50% a clase, el 80% aprueban y el 20% suspende. Información cualitativa de la relación. - Odds ratio, estimación de riesgo, tabla 2x2. Relación positiva entre ir a clase y la proporción de aprobar es de 7,20 a 1. 42% aprueba vs 57% suspende de los que miran Facebook. 80% aprueba de los que no miran Facebook. - Odds ratio, 1/X, cuánto es mayor la probabilidad de suspender para los que aprueban Facebook. 1/0,18 = 5,29 veces más probable suspender si miras Facebook en las prácticas.
27
28
29
30
TEMA 3.A: EL MODELO DE REGRESIÓN LINEAL Pensado para variables cuantitativas, escala de intervalo. Centrada en la relación lineal entre variables. Correlación: +-1. Covarianza tipificada. Covarianza: Sin relación máximos ni mínimos. 0 no hay relación. Regresión: Se basa en la correlación. Estos modelos sirven para hacer pronósticos de cosas. Basadas en relaciones lineales, ya no hay variables simétricas. Variable Dependiente o criterio. Y Variables Predictoras o Independientes. X Modelo de regresión lineal múltiple: predecimos una variable a partir de muchas. Un caso particular es la regresión lineal simple, solo una X e Y. Puedo representarlas como un diagrama de dispersión, cuanto más inteligencia más rendimiento, relación directa –regresión simple-. Con más X tenemos dos dimensiones, bidimensional. Covarianza – Correlación = relación lineal no direccional rXY = rYX Regresión = realizar predicciones sobre una variable a partir de otra(s). Relación direccional. Variable a predecir (Y) = Variable dependiente o criterio. Variables que sirven para predecir (X) = Variables independientes o predictoras. Modelo general = Regresión múltiple. Modelo más simple = Regresión simple.
Regresión Lineal Simple 6
A
Rendimiento
5 4 3 2 1 0 -1 -2
Inteligencia Modelo de regresión: Y’=A+BX A. Coeficiente de regresión o peso, ligado a las variables independientes. Ordenada en el origen, en qué punto la recta corta al eje que representa la variable dependiente.
31
B. Pendiente de la recta, inclinación. Relación directa. Además las B se representan como tasa de cambio. Cuando yo paso de una puntuación a otra en Y, qué cambio se produce en la Y. Tasa de cambio por unidad de Y. El cambio en horizontal cuánto cambio produce en vertical. Y’ – La pronosticada Error de predicción/error de pronóstico/residuales: la diferencia entre la realidad y lo que dice el modelo: e = Y – Y’ Criterios de mínimos cuadrados para dibujar la recta en la nube de puntos, busco la recta que haga que esos errores, sumados para todos los sujetos, sean los mínimos posibles. En cuadrado porque algunos son por exceso y otros por defecto, por lo que la suma sería 0. Pero al cuadrado son todos positivos.
Regresión Lineal Múltiple
Y’ = A + B1X1 + B2X2+…+BKXK
Cálculo de los Coeficientes: Algoritmo Matricial Coeficientes en puntuaciones directas:
Y ' A B1 X 1 B2 X 2 ...... Bk X k 1 B X ' X X 'Y
B eselvector de pesosestimados X eslamatrizde puntuacionesdirectasenlas variables predictoras conuna primeracolumnadeunos Y vector de puntuacionesenelcriterio
32
Coeficientes en puntuaciones diferenciales:
y ' a b1 x1 b2 x2 ...... bk x k b Cxx1Cxy
b eselvector de pesosestimados
Cxx1 Inversadelamatrizde varianzas covarianzas entrelas variables predictoras Cxy vector de covarianzasentre variables predictoras yelcriterio Coeficientes en puntuaciones típicas:
zy ' 1 zx1 2 zx2 ...... k zx k Rxx1 Rxy
eselvector de pesosestimados Rxx1 Inversadelamatrizdecorrelaciones entrelas variables predictoras Rxy vector decorrelacinesentre variables predictoras yelcriterio Álgebra lineal y Álgebra matricial. Algoritmos matriciales para ecuaciones de regresión. La A va en la unidad de la Y, las B están en la unidad de las X. X: Puntuación directa x: Puntuación diferencial X-mediaX Z’: Puntuación típica, Diferencial / desviación típica Ver la importancia de las variables, B: Mantenidas el resto de las variables constantes, el valor de B es el que determina el valor de Y. Si los valores están en escalas distintas no son comparables, nuestra escala de referencia son las puntuaciones típicas. Cuando queramos hacer la comparación relativas de las variables se comparan los coeficientes Beta, no las B.
Valoración del Modelo 6
ERRORES (Y)
5 4
Y
3 2
Y
Y’
1
Y
Y
0 0
2
4
6
8
10
12
14
TIEMPO (X)
33
S2Y Varianza de la Variable criterio S2Y’ Varianza de los Pronósticos o Varianza explicada S2E o S2yx Varianza de los errores o varianza no explicada
Los errores pueden seguir siendo grandes aunque sean los más pequeños posibles. Valoración del modelo, la foto es buena? Comparar un modelo base con nuestro modelo, y comparar si nuestro modelo es mejor o peor. Variación total de la variable, la media entre la puntuación del sujeto y la media del grupo. Variación explicada: tras introducir el modelo de regresión Variación no explicada: el error que aún queda tras introducir el modelo de regresión. La varianza de la variable dependiente se descompone en la varianza de los pronósticos más la varianza de los errores (lo que el modelo de regresión no consigue explicar) Si el modelo fuera perfecto la varianza explicada coincidiría con la varianza total. Recta perfecta por todos los puntos. Coeficiente de determinación: Para verlo hacemos una relación de cocientes. Qué proporción de varianza explica el modelo de regresión de la varianza que quiero explicar. Viene dado por la correlación múltiple al cuadrado. Manera en la que empíricamente se calcula el ajuste.
Coeficiente de Determinación Ajustado 2 2 n 11 RYY p1 RYY 2 2 ' ' ˆ RYY ' 1 RYY ' n p 1 n p 1
p es el número de variables independientes n es el tamaño de la muestra
34
Correlación múltiple: Extensión de Pearson. Una variable con un conjunto de variables tomadas todas a la vez. Combinación lineal de variables para poder tomarlas conjuntamente, eso es lo mismo que la ecuación de regresión, sería R2y,y’ = R2y,x1x2x3. R2 -> Varianza explicada. Estimador sesgado positivo: Tiende a sobreestimar la proporción de varianza explicada. Coeficiente de determinación insesgado: Corregirlo en función del tamaño de muestra nº de variables; valor igual o más bajo que el coeficiente de determinación. Comprobar si la varianza explicada por el modelo es significativamente mayor que la explicada por el error. SI es significativa el modelo ajusta bien. En qué medida ajusta el modelo. Cuánto añade de nuevo esa variable al modelo. Cuadrado de la Correlación Semiparcial, proporción de varianza con la que esa variable contribuye a explicar el modelo. Funciona parecido a tipificar, también nos da qué variable es más importante para ajustar el modelo. Correlación Semiparcial: Correlación de x e y eliminando el efecto de z solo sobre una de ellas. Vx(y.z) Correlación parcial, cómo correlacionan x e y quitando el efecto de la variable z. Vxy.z
Otro procedimiento:
Ejemplo Rendimiento en matemáticas a partir del rendimiento en otras áreas curriculares. Partimos de un modelo lineal, tiene que haber relaciones, sino no podemos pronosticar. Vemos que las correlaciones son al menos moderadas en un primer análisis. El SPSS primero nos mira la valoración del modelo y luego nos da datos del mismo. Tabla: Resumen del modelo. Información sobre el ajuste. Las puntuaciones, tomadas conjuntamente, es de 0,72, que elevado al cuadrado es el coeficiente de determinación, proporción de varianza de las puntuaciones en matemáticas que consigue explicar, 56%. R cuadrado corregida, insesgada, 0,55. Algo más baja que la anterior. Comprobar ajuste a partir de análisis de varianza. Regresión suficientemente grande respecto al residual F Est. Significativo. Hay ajuste del modelo. En el conjunto del modelo, las variables consiguen explicar algo de la variable que queremos explicar. De forma conjunta, no nos habla de las variables particulares. Prueba ómnibus, global.
35
Estimaciones de los coeficientes. Primera parte de la tabla B ligadas a cada una de las variables, constante A. Error típico y B pasadas a Beta. EN puntuaciones típicas B0 = 0. La constante desaparece del modelo, la casilla aparece vacía. Más importante la puntuación en lectura. En este caso podríamos verlo también en puntuaciones de B. Los pesos se valoran en puntuaciones absolutas, el signo nos dice solo hacia dónde se inclina la recta. Las puntuaciones en sociales no son significativas T. estadístico de contraste, H0 que el peso B=0, la variable no tiene importancia, nos interesa rechazar H0, p<0,05. Correlación X e Y eliminando el efecto de las demás. Correlaciones.
36
Sesgos en el Modelo Outliers: Problemas en regresión. Estimación de los coeficientes sesgada. Aunque el modelo de forma general sea ajustada. - El 95% de los residuales estandarizados deberían estar entre ± 2. - El 99% de los residuales estandarizados deberían estar entre ± 2.5. - Cualquier caso con un valor superior a |3| es un serio candidato a ser un outlier.
Casos influyentes: Grupo de sujetos no representativos de lo que puede ocurrir, pero aparecen con más frecuencia de lo que tendría que ocurrir en una muestra estándar; sin ser extremos. ¿Están influyendo en exceso? El estadístico más clásico es la distancia de Cook. Beta con el caso dentro y sin él. Si distancia >1 problemas.
Norma general: Si tienes un outlier pero la distancia de Cook es menor a 1, no pasa nada desde el pto de vista estadístico. SPSS. Qué casos tienen un residual con valor absoluto >3. Diagnósticos por caso. Te da el outlier. Miras los estadísticos sobre residuos, residuales tipificados +-3. Valor de Cook, no problemas de valores influyentes, límite en 1. El SPSS cambia la base de datos, sujeto 21 el outlier, en amarillo. Contraste: 2-raiz-(p+1/n)
Stevens (2002): Si un punto es un outlier en Y, pero su distancia de Cook es menor a 1 no hay necesidad real de eliminar ese punto ya que no tiene gran efecto sobre el análisis de regresión. Sin embargo, a pesar de todo uno podría aun estar interesado en estudiar ese valor para tratar de entender porque no ajusta al modelo.
37
Supuestos del Modelo
Linealidad No colinealidad Independencia Normalidad: Más importante cuanto más pequeña es la muestra, como homoscedascidiad. Al menos 10 casos por variable independiente. Importante para intervalos de confianza. El resto de supuestos es más para que los valores sean insesgados. Homoscedasticidad
38
Linealidad Gráficos de dispersión y Gráficos de dispersión parcial (regresión parcial).
Para intentar controlar el efecto de terceras variables se utilizan gráficos de dispersión parcial. Eje Y, residuos del modelo en que pronostico matemáticas a partir de escritura, cc.sociales y cc.naturales. Eje X, residuos modelo de regresión de lectura a partir de las variables independientes, escritura, ccsociales y ccnaturales. Miramos la correlación de la lectura y escritura. Relación entre lectura y matemáticas eliminando el efecto de escritura, ccsociales y ccnaturales. Si se cumple nube alargada y estrecha. Sociales más débil que las demás. Aunque parecen cumplir todas el supuesto de linealidad.
Colinealidad •
Un posible indicio de problema de colinealidad puede ser que la F que pone a prueba la hipótesis global de no relación (R2 = 0) sea estadísticamente significativa y sin embargo ninguno de los coeficientes de regresión lo sea.
39
•
El nivel de tolerancia de una variable independiente Xj se obtiene restando a 1 el valor de la R2 de esa variable con el resto de variables independientes del modelo (T = 1 – R2XJ,X1,X2..,Xp). Fluctúa entre 0 y 1. Suele asumirse que los problemas asociados a la presencia de colinealidad empiezan con tolerancias inferiores a 0.10.
•
El FIV (Factor de Influencia de la Varianza) de una VI es el inverso de su nivel de tolerancia, (1/ 1 – R2XJ,X1,X2..,Xp). Valores mayores de 10 suelen ir acompañados de los problemas de estimación asociados a un exceso de colinealidad.
Cuando una variable puede expresarse de manera perfecta en función de otra variable u otras variables. La variable nota total es una combinación perfecta de la ponderación de las parciales. Cuando esto ocurre el modelo no lo permite. Cuando hay colinealidad perfecta el determinante = 0. Información redundante. Muy rara, se plantea si es tan alta para que pueda dar problemas de estimación de parámetros. SI el modelo ajusta y ninguna variable significativa puede indicar problema de colinealidad. Tolerancia y factor de inflación de la varianza. Correlación múltiple entre la variable de estudio y el resto de las VI tomadas independientemente y restarlo de 1. Si la correlación multiple es muy alta dice que esa variable depende mucho de las otras, problema de colinealidad. Límite aceptable 0-10. Factor de influencia de la varianza. Inverso del nivel de tolerancia. Límite 10. Tolerancia 0,448, lejos del límite. El valor más alto de la inflación 2,23, también lejos. No hay problema de colinealidad. Sin embargo sí hay colinealidad, sí hay correlación de las variables entre sí, pero no son tan altas como para dar problemas.
Independencia Los errores que cometemos no siguen ningún tipo de tendencia, son idependientes unos de otros. Errores autocorrelacionados, frecuentes en estudios longitudinales. Da coeficientes inestables. Durbin-Watson: Trabaja con el error en un sujeto y en el sujeto anterior. Entre 0-4; ausencia de correlación 2. Si es menor a 2 es correlación positiva y si es mayor es correlación negativa. Ideal entre 1,5 y 2,5.
40
Este estadístico toma valores entre 0 y 4: - los valores en torno a 2 indican que los residuos son independientes; - los valores menores que 2 indican autocorrelación positiva - los mayores a 2 autocorrelación negativa. - Suele asumirse que los errores son independientes cuando el estadístico DW está entre 1.5 y 2.5
Valor 2,178
Normalidad Se refiere a los residuos. Si las variables tienen distribución normal multivariada los residuos se distribuirán en la curva de la normal. Estamos comprobando la normalidad multivariada a posteriori. La H0 es que el modelo ajusta, distribución normal. P=0,20. Aceptamos H0, normalidad. Shapiro-Wilk para muestras pequeñas, menos 50. Sino Kolmogrov-Smirnov
Homoscedasticidad Los errores tienen la misma varianza para todos los valores de las variables X. Para cada valor de X tendríamos una curva normal. X: Valor pronosticado en z Y: Residuo tipificado
41
Si esto se cumple, todos los puntos entorno al valor 0, más o mismo con la misma anchura, en un gráfico de dispersión. Nube de puntos: se percibe un cierto aumento de la variabilidad a medida que aumentan las puntuaciones. Homoscedasticidad en entredicho. Mínimos cuadrados ponderados: Introduce un peso que hace referencia a la varianza.
Métodos de Regresión Las variables del modelo suelen elegirse por razones teóricas. Procedimiento Jerárquico o por bloques: Modelo basado en la teoría - Variables importante de inteligencia y rendimiento - Introducir otras variables de manera más exploratoria. Aquí puedes mezclar otros procedimientos. Método directo (Enter): - Modelo para pronosticar las notas de matemáticas con las notas de otras asignaturas. Más de tipo confirmatorio. No te planteas quitar ninguna. Paso a paso (Stepwise): Procedimientos más estadísticos, el modelo final se construye sólo por criterios estadísticos. Va paso a paso introduciendo variables, no todas a la vez. Para que una variable entre en el modelo utiliza una correlación parcial más alta con el modelo dependiente, siempre que sea estadísticamente significativa. SPSS nivel sig. 5%. Si tengo que sacar una variable del modelo pero en este caso p = 0,10; más difícil que salga. Tiene que cumplirse además que el nivel de la varianza esté en unos límites razonables. 1. Correlación 2. Supuesto de tolerancia -
-
Fordward: No hay ninguna variable, se introducen una a una. Stepwise: Mezcla de los otros dos, parte del Fordward, pero a diferencia del mismo cuando entra una variable y luego entra la segunda, se comprueba si ahora podría quitar la primera y el modelo sigue ajustando, hasta que no se pueden poner ni quitar más. Backward: Se introducen todas las variables y de ahí va quitando variables con el criterio de significación al 10%.
El Stepwise es el más popular. Criterios puramente estadísticos, crítica. Variables muy importantes puede dejarlas fuera. Puede no ser interpretable desde el punto de vista sustantivo. 42
-FALTA-
43
44
TEMA 3.B.: REGRESIÓN LOGÍSTICA BINARIA •
La regresión logística es un tipo de regresión en el que la variable dependiente es categórica y los predictores pueden ser categóricos (dicotómicos) o cuantitativos.
•
En su forma más simple esto significa que podemos predecir a cuál de dos categorías una persona es probable que pertenezca conocida cierta información.
•
Si tratamos de predecir una variable con dos categorías tendremos una regresión logística binaria (la que aquí vamos a ver) y si la VD tiene más de dos categorías tendremos una regresión logística multinomial.
08/10/13 –REVISAR TEMA¿Por qué no podemos usar la expresión
Con datos categóricos?
Variable categórica, solo dos valores Sí/No. Pueden ser variables categóricas (sólo dicotómicas), cuantitativas o una mezcla de ambas. No podemos usar la expresión básica del modelo con datos categóricos porque no se da linealidad. Puede utilizarse haciendo la transformación necesaria de los datos. Necesitamos un formato más lineal, la regresión logística linealiza ese modelo.
Una manera de evitar este problema es sometiendo los datos a una transformación logarítmica La regresión logística se basa en el siguiente principio: Expresa la ecuación de regresión en términos de logaritmos de probabilidades de Y (lo que llamamos Logit) y de este modo vence el problema de violar la asunción de linealidad. Ecuación de la Regresión Logística:
45
Pasar la ecuación a logaritmos de las probabilidades. Ecuación de la regresión logística, curva en forma de S. Expresa las probabilidades de un determinado suceso en función de unas variables de tipo cuantitativo. Probabilidad de éxito considerada en términos genéricos. Término de Odds, probabilidad de suceso/contrario. Expresión logarítmica creciente. Odds de tener la cardiopatía. El logaritmo de la Odds es la expresión lineal. Un log-it, éxito frente a no éxito, esto se puede representar de acuerdo al modelo lineal que conocemos. Logaritmo neperiano de las ODDS. Para trabajar sobre el modelo lineal. La regresión logística binaria sirve para la probabilidad de una variable dicotómica en función de variables categóricas o cuantitativas. Tantas variables nuevas como categorías que tenga la variable original menos 1. Si tenemos una variable con 3 niveles, tenemos que crear 2 variables nuevas. Ej.: Nivel socioeconómico: Alto-Medio-Bajo La primera variable que creamos, valor 1 a la primera categoría de la variable original, y 0 a las demás. Sería una nueva variable dicotómica. La segunda variable 1 al segundo nivel de la variable original y 0 a los demás. La caracterización del nivel alto será 0-0
46
Dar valores a los coeficientes de regresión, nos quedaremos con los que más probables hagan los valores empíricos de nuestro estudio. Proceso iterativo. La probabilidad conjunta de unos sucesos independientes son el producto de sus probabilidades. Verosimilitud para los coeficientes. Índice de riesgo realmente. Pero sólo de una variable dicotómica en la de riesgo, aquí puede haber varias.
Transformación de las Variables Categóricas en Dicotómicas
Estimación de Parámetros A diferencia de la regresión lineal los coeficientes B no se estiman por Mínimos Cuadrados sino por Máxima Verosimilitud. El método de Máxima Verosimilitud consiste, en buscar estimaciones de los coeficientes de regresión que hacen que los valores observados sean los más probables, es decir, se buscan valores que maximicen la probabilidad (verosimilitud) de los valores observados en nuestra muestra Por ejemplo, supongamos que tres sujetos tienen en el criterio puntuaciones de 1, 1 y 0 y que, estimando unos determinados valores para los pesos de las variables predictoras, las probabilidades pronosticadas a cada sujeto de obtener 1 en el criterio son 0.9, 0.8 y 0.2. La verosimilitud (L) es la probabilidad que asigna el modelo a los datos obtenidos. Así pues : L = P (Y1=1) * P (Y2=1) * P(Y3=0) = (0.9) (0.8) (1 - 0.2) = 0.576 Cuanto mayor sea la verosimilitud (L), más se ajusta el modelo (parámetros estimados) a los datos observados, así, el ordenador utiliza un procedimiento iterativo que finaliza cuando logra la máxima verosimilitud
Interpretación de los Coeficientes Estadístico de Wald Puede producir aumento del error Tipo II. Odds Ratio: eB Incremento en las odds de “éxito” cuando se aumenta una unidad en un VI.
Ejemplo:
47
Trato de pronosticar una variable dicotómica. Similar al output de una regresión múltiple. Parece que el sexo tiene mayor capacidad predictiva. A partir del valor típico se calcula la Z. Las dos variables que tenemos parece que son estadísticamente significativas. Exp (B) ODDS. Para sujetos con un mismo nivel de escrupulosisdad la mejora de tener éxito en la terapia según seas hombre o mujer se multiplican x 9,191. Ser mujer parece que tiene muchas más probabildiades de éxito, para un mismo nivel de escrupulosidad! Dentro de ser hombre o mujer, el hecho de aumentar un punto en escrupulosidad aumenta la probabilidad de éxito. Factor sexo, diferencial claro respecto al funcionamiento de la terapia. El punto neutro de las OODS es 1, NO 0. Igual probabilidad de tener éxito como de no tenerlo. Si está por encima de 1, mayor probabilidad de tenerlo al aumentar en esa variable, si es inferior a 1, menor probabilidad de tenerlo cuanto más aumenta esa variable, relación inversa. Significación estadística no a través de una p sino a través del intervalo de confianza. Valores distintos de 0. Construir una tabla de clasificación: Para criterio. Funcionará bien el modelo cuando el porcentaje de bien clasificados sea alto, es un método de ajuste. Cuando buscamos ajuste buscamos aceptar la H0, contrario que normalmente.
48
Evaluación del Modelo
09/10/13 Índices similares a R2, que nos dan la varianza explicada. Para el ajuste nos fijamos en las tablas de clasificación. Respecto a la regresión múltiple, cambian los criterios que se utilizan para realizar los modelos. Estadístico score: correlación entre la VI y la VD, un chi2. Si es estadísticamente significativo esa variable puede entrar Para decidir si una variable puede salir o no, una vez dentro del modelo: - Estadístico de Wald: Estadístico sesgado, valor alto de coeficiente B hace que se infle su error típico, podríamos estar dando por significativo algo que en realidad no lo es. - Bondad de ajuste: La compara entre dos modelos, con o sin la variable. Si la razón de verosimilitud de la diferencia es estadísticamente significativa o no.
49
Procedimientos de ajuste del modelo: Devianza: Logaritmo de la verosimilitud. También sirve para comparar modelos. Si la razón de verosimilitud entre dos modelos es significativa, la variable aporta información, no podemos quitarla. Para poder quitarla ha de ser no significativa.
Construcción del Modelo •
Introducir (Enter): Se incluyen todas las variables en la ecuación de regresión.
•
Adelante (Forward-Stepwise) : Se van incluyendo una a una las variables siempre que cumplan un determinado criterio. Cada vez que se incluye una nueva variable vuelve a cuestionarse la permanencia de las anteriores.
•
Atrás (Backward-Stepwise) : Comienza con un modelo que contiene todas las variables y va eliminando una a una todas las que no cumplan un determinado criterio. Cada vez que se elimina una variable se vuelve a cuestionar la inclusión en la ecuación de las eliminadas anteriormente.
Como criterio para incluir una variable en la ecuación se utiliza la significación estadística de su correlación con el criterio, que viene dada por el estadístico score (puntuación) Como criterios de permanencia de una variable en la ecuación pueden utilizarse dos :
La significación estadística de W (estadístico de Wald) El cambio en la bondad de ajuste del modelo ( RV o Condicional)
Ejemplo Stepwise 1. Éxito en la terapia. 1. Mujer 0. Hombre Modelo base: solo tiene la constante, no VI. 0.66 %
50
Peso para la constante significativo. No hace falta fijarse. Variable sexo: Estadístico score de 100. Significativo V. Escrupulosidad: Score 28,6. Significativo La primera que entra es, dentro de las significativas, la variable con mayor puntuación. En este caso sexo Después nos da una prueba ómnibus de ajuste del modelo. Paso 1 - Escalón: Comparación del modelo base con el modelo con una variable independiente (sexo). Ganancia que tenemos y si es significativo. Paso 2 - El modelo sigue siendo la comparación del modelo (ahora con dos variables) con el modelo base. - Escalón/Paso: Diferencia entre este modelo y el del paso 1. - Para que este pseudopaso se de, tiene que ser signigicativa la ganancia. Paso 2. Escalón. Sig.
51
Cox y Snell. No llega a 1. Negelkerke variación del anterior, llega a 1, mejor interpretación. Proporción de varianza explicable con 1 variable de 0,305. Bastante buena. La otra aporta matizaciones. Ajuste global del modelo con Hosmer. Buscamos p>0,05. H0 el modelo ajusta. 75,2% de los sujetos explicados sólo con la variable sexo. Este es el global. Cuando metemos también la escrupulosisdad tenemos un 75,7%, no conseguimos mucha mejora. 66,7% el modelo base. Donde hay más cambio al meter la segunda variable es en los porcentajes intermedios, no en los globales. Según lo que estemos buscando igual es más interesante meter o no esa variable. Sujetos que la terapia no funciona acertamos en el 77,3% cuando pronosticamos que no va a funcionar, si metemos la segunda variable acertamos en un 59,6%. Construcción del modelo en los dos pasos. Una vez visto que el modelo ajusta. Los coeficientes cambian cuando metemos más variables en un modelo. Cuando estamos en el modelo con solo el sexo, las ODDS son 9,746, mientras que cuando añadimos la segunda son 9,191. Variable que desde el punto de vista estadístico se podría eliminar del modelo. Modelo si el término se ha eliminado. Si quito sexo nos da unos valores, que son estadísticamente significativos, no puedo quitar la variable. En el segundo paso mira las dos variables; pérdida estadísticamente significativa tanto de sexo como de escrpulosidad.
52
Algunas situaciones problemáticas en la regresión logística El procedimiento de cálculos de coeficientes es integrativo, hasta estabilizar los valores. Pero hay veces que el procedimiento no converge, no encuentra valores estables. A veces el SPSS nos da valores muy inestables, con un error muy alto. Información incompleta sobre los predictores: Cuando tenemos muy pocos casos en la VI o incluso ningún caso. - Considerar si un sujeto se siente feliz o no en cuanto a sexo, raza… Si solo tengo un caso de una raza y coincide que es feliz, va a hacer que diga que todos los de esa raza son felices. Problemas de convergencia e inestabilidad. - La solución es aumentar tamaño de muestra, reducir variables o reducir categorías dentro de las variables. Problema de separación total - Tiene que ver con la ratio de categorías. - A partir de una sola variable o una combinación de las mismas, podemos decir exactamente a qué grupo pertenece el sujeto. - Separación completa entre unos y otros, si puntúa más de dos pertenece al grupo 1 x ej. Lo normal es que se solapen - Problema de estimación, tratamos de construir una curva logística. Lo que nos dan los coeficientes es la pendiente de la curva. Cuando no hay una graduación, el SPSS no sabe qué pendiente ponerle. Problemas para la estimación de los parámetros. Hace una estimación con un error típico muy alto, parámetros muy inestables. - La solución es coger más sujetos.
Información sin Power
La prueba de la regresión logística a veces se utiliza para clasificar sujetos. Peor más flexible que la discriminantes. También nos sirve para trabajar con índices de riesgo. Punto de corte arbitrario de 0,50 para meter en grupos. Si cambiamos el punto de corte la clasificación será distinta. Dependiendo de lo que busques en tu investigación puede interesarte cambiar el punto de corte.
Procedimiento para intentar cambiar el umbral: Curvas ROC: Para tratar de determinar cómo podríamos modificar. Nos permite evaluar las decisiones que toman los sujetos en base a una V categórica. Utilizada en percepción para distinción de señales. Dónde está el criterio adecuado para que las decisiones que tomemos sean lo menos erróneas posibles.
53
Valores predichos Valores reales
0
1
0 A. Verdaderos Negativos. No tienen el síndrome y decimos que son negativos En epidemiología: Especificidad (Tasa de verdaderos negativos) A/(A+B) C.Falsos negativos. Errores
1 B.Falsos Positivos.
D.Verdaderos Positivos. Sensibilidad de una prueba: Tasa o % D/(C+D)
Curvas ROC: En el eje Y se representa la sensibilidad y en el X 1-Especificidad (falsos positivos). Se dibuja una diagonal que representaría un modelo con solo la constante, sin ninguna capacidad predictiva. Después para las diferentes tasas se van calculando las probabilidades y se dibuja una curva:
Para un determinado cruce de tasas cuál es la probabilidad de asignar a un sujeto al grupo 1 o al 0; la curva es la probabilidad, mirando la curva y haciendo un punto de corte puedo saber además la especificidad y la sensibilidad. La V cuantitativa a partir de las que construimos es el cruce de tasas. Hay que ver las consecencias, qué modelo es mejor? Es preferible decirle a alguien que tiene cáncer que no lo tiene o viceversa? No te lo da la estadística. Elegir un modelo equilibrado o no según la significación misma, el punto de corte. El SPSS me da el área bajo curva. El modelo de referencia ocupa la mitad, el total 1. Se calcula por debajo de la curva, si es estadísticamente significativo al 0,5 que es lo que queda por debajo de la curva. Después de cambiar el punto de corte tienes que ver la predectibilidad total del modelo, explicación global, que puede perder al cambiar las parciales.
54
TEMA 4.A.: ANOVA CON FACTORES ENTRE SUJETOS -San MillánVeremos si hay diferencias entre los grupos entre las medidas de grupo en una o más variables cuantitativas. Lógica general del ANOVA:
Modelo lineal general (MLG): El Análisis de Varianza (ANOVA) es una familia de técnicas de análisis que permiten explicar el comportamiento de una variable dependiente cuantitativa a partir de una o más variables independientes categóricas. A partir de comprobar esta influencia también podremos introducir en estos modelos, un cierto control estadístico sobre variables extrañas, introduciéndolas en el modelo como co-variables. Esta familia de técnicas se basan en una ecuación matemática, el modelo lineal general. En esencia lo que hace este modelo es explicar una variable en función de la suma ponderada de otras variables.Habrá multitud de causas que sean las que den esas puntuaciones en las variables dependientes de los sujetos. Nosotros no podemos tener en cuenta todos esos factores que tienen efecto en la variable de interés.
El anova en el contexto del MLG:
55
Podemos controlar previamente una variable que parece que influye nuestro modelo. Si yo presupongo que en el estudio que estoy haciendo la variable edad está influyendo a los datos, pues entonces podemos solucionarlos buscando a sujetos de la misma edad, haciéndola así constante. En otras ocasiones no podemos controlar la variable, como la historia personal de los sujetos. La puntuación del sujeto en VD dependerá de aquellas variables que me interesan estudiar pero también habrá otra parte explicada por una parte común para todos los sujetos y una parte de error, parte que no controlamos en la que varían los sujetos. Si queremos pronosticar el rendimiento de los sujetos en base al nivel cultural de los padres y al nivel de CI de los niños. Aquí habría dos VI, CI y nivel cultural. Traduciendo eso, yo tendría que la puntuación de un sujeto en la variable rendimiento vendrá explicada por: -
Una parte común a todos los sujetos, la media general de los sujetos en rendimiento
-
Efectos que tengan el nivel cultural de los padres + efectos del CI de los niños
-
Efectos que no controlamos.
Este es un esquema similar al de la regresión múltiple. De este modelo, el primer término hace referencia a la constante, y en el caso de la ANOVA, haría referencia a eso que es común a todos los sujetos. A la “X” se le da valor 1 y la B0 es la media. (β0 xi0): recoge el conjunto de efectos debidos a los factores mantenidos constantes, es decir, aquellos factores que son comunes a todos los sujetos: -
xi0 suele tomar valor 1 para todos los sujetos indicando que todos los sujetos puntúan igual en los factores que se mantienen constantes)
-
β0 es, generalmente, la media poblacional (que es justamente la parte de la variable dependiente que es común a todos los sujetos).
El último término es el épsilon que indica el error.
56
Los coeficientes de ponderación (pesos) β indican la diferencia entre la media del grupo y la media total (la gran media) Nuestro modelo base sería aquel que asignaría a los sujetos la media general a la variable dependiente. Así, estaríamos asumiendo que todos los grupos son iguales, las variables independientes no producen efectos. En el segundo se pronostica la media del grupo al que pertenece, estamos diciendo que los grupos son distintos entre sí (su media no es igual a la media general. -
Modelo base: media similar para todos los grupos (media global)
-
Modelo 3: medidas de grupos diferentes distinta a la media global.
En el caso de los análisis del tipo ANOVA lo que tendríamos es un modelo que pronosticaría a todos los sujetos la media general en la variable dependiente y por tanto implicaría que no hay diferencias entre las medias de los diferentes grupos, frente a un modelo que pronosticaría a cada sujeto la media del grupo al que pertenece, lo que implica que las medias difieren entre los diferentes grupos. Comprobamos si la partre de la varianza de los factores que tenemso en el modelo es realmente mayor que la parte que no explica (el error). Esto da lugar al estadístico F. Cuando este da 1, quiere decir que la parte explicada no es realmente mayor que la parte no explicada. Cuando da mayor que uno, quiere decir que la parte explicada es mayor que la parte no explicada. Esto deberemos de comprobarlo con el nivel de significación, ya que si no hay
57
La línea horizontal muestra la media general, mientras que las puntuaciones se muestras con las líneas verticales de colores. Muestran cuanto dista cada puntuación de la media. Los distintos colores muestran los distintos niveles de la variable. El primero es el modelo base. Lo siguiente que se hace es poner la puntuación de cada sujeto en relación con la media. Con el ANOVA proponemos otro modelo que afirma que hay diferencias entre los grupos, y por tanto para pronosticar las puntuaciones lo mejor sería usar la media del grupo al que pertenece en vez de la gran media. El grafico de arriba a la derecha representa el error. Si la varianza explicada por el modelo de abajo es mayor que el de la derecha (el del error) la hipótesis correcta será que nuestro nuevo modelo (las medias de cada grupo). Si la varianza explicada de la derecha es mayor que el de abajo, nos tenemos que quedar con el modelo de la izquierda, es decir el de la media general para todos los grupos.
LÓGICA BÁSICA DEL ANOVA Dos estimaciones de la varianza poblacional: •
Estimación intergrupal de la varianza poblacional, se basa en la variación entre las medias de los grupos.
•
Estimación intragrupal de la varianza poblacional, se basa en la variación de las puntuaciones dentro de cada uno de los grupos.
Si la hipótesis nula es verdadera, las dos estimaciones de la varianza deberían ser aproximadamente iguales y, por tanto, la razón entre la estimación intergrupal y la estimación intragrupal, es decir, la F debería ser aproximadamente 1. Esas dos estimaciones de la varianza tienen que dar valores muy parecidos, y para ello utilizamos el estadístico F.
CLASIFICACIÓN DE LOS MODELOS DE ANOVA Según el número de factores: en el contexto del análisis de varianza, factor es sinónimo de variable independiente. Siempre que tenga dos o mas factores hablamos de anova factorial. -
ANOVA de un factor
-
ANOVA de dos Factores
-
…
-
ANOVA multifactorial
Según la asignación de las unidades de análisis a los niveles de estudio: llamamos unidades de análisis a los sujetos, aquello de lo que recojamos datos. Llamamos a las condiciones de estudio a los niveles que surgen de cruzar nuestros niveles de las variables independientes. Deberíamos utilizar siempre la asignación aleatoria. Dentro de esta tenemos dos grandes formas, grupos o bloques aleatorios. -
Diseños de grupos aleatorios ANOVA completamente aleatorizado. Consiste en seleccionar aleatoriamente las unidades de análisis y a su vez asignarlas aleatoriamente a las distintas condiciones de tratamiento. Esta es la manera ideal, pero no siempre se puede hacer de manera tan estricta.
58
-
Diseños de bloques aleatorios modelo aleatorizado en bloques. Se aplica cuando sospechamos que hay una determinada variable extraña que puede estar influyendo en los resultados del estudio. Una posibilidad de controlar esta variable es el bloqueo. Por ejemplo, fármaco para el insomnio que funciona de manera diferencial dependiendo de la severidad del trastorno, esto habría que controlarlo. Esto se puede controlar realizando grupos de gravedad del trastorno (leve, moderado y grave) y distribuirlos aleatoriamente en las condiciones de fármaco.
-
Diseño intrasujetos modelo de medidas repetidas. Es un diseño particular de bloques, y es donde cada sujeto es un bloque, cada sujeto se controla a sí mismo. Cada sujeto no se asigna a un nivel tratamiento distinto de la variable independiente sino que el sujeto pasa por todos los niveles de la variable independiente.
Según la forma de establecer los niveles de un factor: niveles de un factor se refiere a los grupos. Hay dos tácticas para elegir estos factores: -
Efectos fijos: dentro de una variable independiente, elegimos unos niveles concretos de esa variable y estos son los niveles que nos interesan. Puede ser que no tengamos mas remedio que sean determinados previamente, por ejemplo el sexo. Pero también puede ser que nos interesen por lo que sea, la cantidad del fármaco (10g, 15g, etc.). Cuando generalizo los resultados solo lo puedo hacer para estos niveles de la variable. Si repito el análisis los sujetos variarían pero no los niveles de esta variable. Sería el modelo tipo 1.
-
Efectos aleatorios: considerar que una variable independiente tienen infinitos niveles y yo de manera aleatoria escojo 3 o 4 de esos niveles, que podrían ser esos u otros cualquiera. No es que solo me interesen esos 3 o 4 valores, sino que me interesa la inferencia. Si replicamos los estudios los niveles de la variable independiente seguramente sean distintos. Sería el modelo tipo 2.
SUPUESTOS Normalidad: la variable dependiente tiene que ser cuantitativa y debe de tener una distribución normal en cada uno de los niveles de tratamiento. Homocedasticidad: la varianza de la VD sea equivalente en cada uno de los niveles de la variable independiente, equivalente en cada uno de los grupos. Con tamaños de muestra grandes el modelo resulta, en general, robusto a violaciones no extremas de los supuestos, especialmente con grupos equilibrados. Este modelo soporta bastante bien ciertos incumplimientos de supuestos. Sobre todo bajo las condiciones de un tamaño de muestra grande (de 30 para arriba) y que los grupos sean del mismo tamaño). Por definición en el ANOVA, no importa el tamaño de los grupos, pero desde el punto de vista estadístico, esto es importante.
59
COMPARAR VARIOS GRUPOS EN UNA VARIABLE CUANTITATIVA:
ANOVA CON UN FACTOR ENTRE SUJETOS Comprar varios grupos (mas de dos) con una variable dependiente cuantitativa, la variable independiente que define grupos aleatorios. Ejemplo/ ¿el nivel socioeconómico de los sujetos influye en la nota matemáticas.?
Dado este esquema de datos, la hipótesis nula es que la media grupo 1 = media grupo 2 = media grupo 3. La Hipótesis alternativa es que al menos uno difiere de los demás.
Para comprobar la hipótesis hacemos una prueba F. Los grados de libertad cambiaran dependiendo del modelo. Las medias cuadráticas son las varianza, que es la suma de los cuadrados partidos de los grados de libertad. La F es la parte entre, entre la parte intra. La prueba F es una prueba ómnibus, una prueba global. Si rechazamos la Hipotesis nula la conclusión es que al menos dos de los grupos difieren con respecto a la VI que estamos considerando. No podemos ir mas allá. Siguiendo el ejemplo anterior:
60
Encontramos que en el nivel mas bajo la VI se distribuye de una forma asimétrica. Si no fijamos en la caja, la mediana no está centrada con respecto a la caja. Por tanto aquí hay asimetría. Por tanto este nivel nos puede dar algún tipo de problema con respecto a la normalidad. La homogeneidad puede que no sea significativa.
Pruebas de normalidad a
status socio-
Kolmogorov-Smirnov
económico puntuación en matemáticas dimension2
Estadístico
gl
Shapiro-Wilk
Sig.
Estadístico
gl
Sig.
bajo
,150
47
,010
,883
47
,000
medio
,062
95
,200
*
,977
95
,093
,200
*
,967
58
,112
alto
,096
58
a. Corrección de la significación de Lilliefors *. Este es un límite inferior de la significación verdadera.
Para comprobar lo anterior, pedimos K-S. Encontramos entonces que el nivel medio y alto aceptamos la hipótesis nula, el modelo ajusta, mientras que nuestro nivel bajo no cumple el supuesto de normalidad. De todas formas seguiremos adelante. El siguiente supuesto de homogeneidad de varianzas se comprueba con la prueba de Levene. La hipótesis nula es que las varianzas son iguales, la alternativa que las varianzas son distincas. En este caso la significación es 0,86. y por tanto es significativa y se cumple el supuesto.
61
Origen Suma de cuadrados tipo III gl
Media cuadrática F
Sig.
Eta al cuadrado parcial
Modelo corregido
1307,091a
2
653,546
7,968
,000
,075
Intersección
506134,263
1
506134,263
6170,572
,000
,969
ses
1307,091
2
653,546
7,968
,000
,075
Error
16158,704
197
82,024
Total
571765,000
200
Total corregida
17465,795
199
Pruebas de los efectos inter-sujetos : pedimos un box-plot para cada nivel Variable dependiente:puntuación en matemáticas a. R cuadrado = ,075 (R cuadrado corregida = ,065)
Fecha Si Levene no cumple estadísticamente signativa, si no se cumple el supuesto de homogeneidad de varianzas, usar: Brown-Forsythe WDLCH F (SES): significativa, rechazamos H0. La diferencia no puede deberse al azar, las diferencias de medias, pero pueden deberse a que efectivamente los grupos son diferentes u otros factores como tamaño de muestra, no nos asegura que haya un efecto importante de la variable independiente sobre la dependiente. Para comprobar esto utilizamos pruebas de Tamaño del efecto, la más clásica con ANOVA es “eta 2” (n2), que se interpreta en términos de proporción de varianza explicada: R cuadrado = 0,075. Que sale del modelo corregido entre la proporción de varianza total. Nos dice cuánto explican nuestras variables del modelo Cohen propone 3 valores para valorar tamaño del efecto: 0,01 pequeño 0,09 mediano 0,25 grande Tamaño del efecto mediano. Ses error cuadrado parcial (n2) 0,075
62
Comparaciones Múltiples entre Medias Entre cuáles de los grupos hay diferencias Tenemos que fijar un error con el que trabajar, generalmente 0,05, admitimos un 5% de rechazar una H0 que en realidad es verdadera (alfa). Pero si hacemos dos comparaciones, la % de cometer errores aumenta, y cuantos más metamos más aumenta, por lo que no es cierto que alfa siga siendo 0,05, la % de error TIPO I crece.
Comparaciones a Posteriore o Post-Hoc y a Priori o Planeadas
Comparaciones Post-Hoc o a Posteriori Las Post-Hoc sirve para cuando no tengo hipótesis previas y quiero mirar sobre qué grupos hay diferencias. 18 pruebas del SPSS para hacer comparaciones a posteriori corrigiendo la tasa de error por familia, intentando mantener 5%. DMS: No corrige ninguna tasa de error, T de Student
Tener en cuenta para escoger: Si los grupos son iguales de tamaño o no Si se cumple o no el supuesto de homogeneidad de varianzas
La prueba más popular es la de Tukey, pero solo sirve para grupos equilibrados. Si no tenemos grupos equilibrados podemos usar Scheffe, pero es una prueba conservadora, pide diferencias muy grandes para considerar diferencias significativas. También se puede usar con equilibrados.
63
Bonferroni: 0,05 entre el nº de comparaciones que haces. P no sería con 0,05 sino con el resultado de la división. Una T de Student corrigiendo el nivel de alfa, puede hacerse a mano. Muy popular. Sirve para grupos no equilibrados también. Sin asumir varianzas iguales Games-Howel o C de Dunnet. El SPSS te da la opción de fijar la tasa de error que quieres.
Comparaciones múltiples Variable dependiente: puntuación en matemáticas
Scheffe
(I) status socio-
(J) status socio-
económico
económico
bajo
medio
Bonferroni bajo
Error
Límite
Límite
Sig.
inferior
superior
-3,04031
1,61512
,173
-7,0240
*
1,77747
,001
3,04031
1,61512
,173
-,9433
7,0240
-3,96189
*
1,50918
,034
-7,6842
-,2395
7,00220
*
1,77747
,001
2,6181
11,3863
medio
3,96189
*
1,50918
,034
,2395
7,6842
medio
-3,04031
1,61512
,184
-6,9402
,8595
*
1,77747
,000
3,04031
1,61512
,184
-,8595
6,9402
-3,96189
*
1,50918
,028
-7,6059
-,3178
7,00220
*
1,77747
,000
2,7103
11,2941
3,96189
*
1,50918
,028
,3178
7,6059
bajo
bajo
bajo alto
alto
de confianza
estándar
alto
medio
de
J)
alto alto
95% de intervalo
medias (I-
alto
medio
Diferencia
bajo medio
-7,00220
-7,00220
11,3863
11,2941
,9433 -2,6181
-2,7103
*. La diferencia de medias es significativa en el nivel 0.05.
En nuestro ejemplo grupos desequilibrados, Scheffe y Bomferroni: Diferencias estadísticamente significativas entre el medio y el alto y entre el bajo y el alto. Por lo tanto el grupo alto es el más diferenciado. En este caso la conclusión para ambas pruebas es la misma. El estatus socioeconómico ejerce efecto con las notas de matemáticas, efecto medio-bajo. Se da entre el grupo social alto respecto a medio o bajo.
Comparaciones múltiples entre medias: Comparaciones Planificadas o a Priori •
•
Si se tienen ciertas hipótesis previas sobre donde deben darse las diferencias entre los grupos, en estos casos no es necesario comparar todos los grupos con todos sino que el número de comparaciones a realizar es menor. Para elaborar estos contrastes asignamos un coeficiente a cada uno de los grupos, con la única restricción de que la suma de los coeficientes de cada contraste tiene que ser cero. Cada contraste compara los grupos al los que se asigna un coeficiente positivo con los grupos a los que se asigna un coeficiente negativo. A los grupos no considerados en cada comparación se les asigna el coeficiente cero.
Cuando antes de hacer el ANOVA tienes hipótesis sobre qué grupo habrá diferencias. Lo normal es que no compares todos con todos. 64
La suma de los coeficientes para un determiando contraste tiene que sumar 0. Los grupos con coeficiente positivo se comparan con los de negativo. Si un grupo no quieres que entre en la comparación, le asignas el coeficiente 0. Si en nuestro ejemplo supusiéramos que el rendimiento aumenta a medida que aumenta la clase social deberíamos hacer las siguientes comparaciones: cada nivel con el inmediatamente posterior. bajo – medio medio – alto bajo
medio
alto
1
-1
0
0
1
-1
Tiene que haber diferencias entre grupos significativos. Comparar bajo con medio: - 1 bajo - -1 medio - 0 alto - Suma por fila = 0. Comparar que vaya in creccendo: - 0 bajo - 1 medio - -1 alto Comparaciones múltiples Variable dependiente: puntuación en matemáticas
Scheffe
(I) status socio-
(J) status socio-
económico
económico
bajo
medio
Bonferroni bajo
medias (I-
Error
J)
Límite
Límite superior
Sig.
inferior
,173
-7,0240
*
1,77747
,001
3,04031
1,61512
,173
-,9433
7,0240
-3,96189
*
1,50918
,034
-7,6842
-,2395
7,00220
*
1,77747
,001
2,6181
11,3863
medio
3,96189
*
1,50918
,034
,2395
7,6842
medio
-3,04031
1,61512
,184
-6,9402
,8595
*
1,77747
,000
3,04031
1,61512
,184
-,8595
6,9402
-3,96189
*
1,50918
,028
-7,6059
-,3178
7,00220
*
1,77747
,000
2,7103
11,2941
3,96189
*
1,50918
,028
,3178
7,6059
bajo
bajo
bajo alto
alto
de confianza
1,61512
alto
medio
de
estándar
alto alto
95% de intervalo
-3,04031
alto
medio
Diferencia
bajo medio
-7,00220
-7,00220
11,3863
11,2941
,9433 -2,6181
-2,7103
*. La diferencia de medias es significativa en el nivel 0.05.
Dentro de este tipo de contrastes, hay unos denominados contrastes ortogonales, que son independientes unos de los otros. Tienen que cumplirse que los productos cruzados entre los coeficientes sumen 0. 65
Primer contraste, comparo el 1 con el resto de los grupos Segundo, comparar 1 con 3. La suma de productos cruzados tiene que dar 0. En este caso se cumple, contrastes ortogonales En el segundo caso la suma de productos cruzados = -1, no son términos independientes. Los independientes no inflan la tasa de error tipo I, no habría que corregir. Contrastes ortogonales:
Se diferencian del resto de contrastes planeados en que cada contraste (o comparación) es independiente de los otros. Para comprobar la independencia de dos contrastes basta con sumar los productos cruzados de los coeficientes de ambos. En caso de independencia (ortogonalidad) la suma de los productos debe ser cero.
Sí
No
Análisis de tendencias Un tipo de contrastes ortogonales son los contrastes polinómicos, que se utilizan para analizar las tendencias de las medias en aquellos casos en que los niveles del factor pueden ordenarse de menor a mayor. Con dos grupos la tendencia sólo puede ser lineal Con tres grupos lineal o cuadrática Con cuatro grupos lineal, cuadrática y cúbica
Contrastes polinómicos: se utilizan cuando los niveles de la VI pueden seguir una tendencia, datos cuantitativos, pueden ponderarse. Al menos ordinal, como la dosis de un medicamento. Comparar los grupos para ver si hay diferencias y para ver si hay una determinada tendencia. Se pueden hacer tantos contrastes como nº de grupos menos 1. Estamos contrastando qué tipo de tendencia siguen los grupos. Tabla de varianza, no me da valor global, sino que me da para comparar los posibles términos que podemos tener, en este caso lineal y cuadrático.
66
La que nos da estadísticamente significativa es la lineal. La manera de comparar si es esta es pedirle un diagrama donde represente las medias. Con el gráfico puedes ver la tendencia casi sin necesidad de la tabla.
Análisis de Tendencias Lineal
Cuadrática
Cúbica
67
Comparar grupos definidos por más de una variable categórica en una variable cuantitativa
ANOVA Factorial Al menos dos variables cualitativas que definen grupos. Nos van a interesar sus combinaciones. Tendremos más efectos, el efecto individual de cada una de las variables que estamos contemplando más la combinación de ambas, estudio del efecto de interacción. No es l mismo un anova factorial que dos de un factor por separado. Nos da la interacción. EJEMPLO:
Si sexo y zona donde se vive influye en el nº de horas en redes sociales. Diseños de grupos independientes, factores entre. Generalización de un factor. Dos factores independientes como fuente de variación e interacción entre ellos, pasamos de uno a 3 efectos de interés.
ANOVA Factorial: La Interacción Una interacción estadísticamente significativa quiere decir que el efecto de cada una de las variables independientes implicadas sobre la variable dependiente dependerá del nivel de la otra u otras variables independientes implicadas en la interacción. Cuando la interacción es estadísticamente significativa es lo que se interpreta y nos “olvidamos” de los efectos principales presentes en ella aunque hayan resultado estadísticamente significativos. Similar a log-lineal, que haya interacción entre dos factores es que una de las VI se comporta de distinta manera dependiendo de alguno de los niveles de la otra VI. Si la interacción es significativa, pasamos de los efectos principales. 68
Cuando no hay interacción, las líneas son paralelas, pudiendo haber diferencias entre los efectos principales o no. No hay cambio de comportamiento de una variable para otra. Tampoco habrá efectos, no diferencias sig. Para b1 y b2. Hay una diferencia entre medias globales de b1, b2; pero no hay diferencia con a. Cuando los gráficos no son paralelos, podemos esperarnos (no seguro) una interacción significativa: Comportamiento de b contrario dependiendo del nivel de a (X). Diferencias de los grupos primero muy grandes y luego muy pequeños.
Medias
SÍ
Medias
a1 a2
b1
a1 a2
b2
b1
b2
a1
a2
b1
b2
Medias
Medias
NO
a1 a2
b1
b2
Supuestos: Homogeneidad de varianzas. Levene. P = 0,25, aceptamos H0, varianzas iguales Normalidad Sexo, tamaño de ciudad e interacción significativas. El efecto global de todos a la vez es el eta cuadrado. Suma de cuadrados del efecto entre suma total Eta cuadrado parcial, 0, 186. Se interpreta en términos de proporción de varianza explicada. EL sexo explica el 20% de la diferencia de la variable dependiente.
22/10/13
69
Ejemplo Estadísticos descriptivos Variable dependiente:Uso de las redes sociales en horas semanales sexo tamaño_ciudad Desviación Media típica N mujer grande 17,71 1,604 pequeña 20,43 1,718 Total 19,07 2,129 hombre grande 29,57 2,637 pequeña 12,14 1,952 Total 20,86 9,314 Total grande 23,64 6,500 pequeña 16,29 4,648 Total 19,96 6,692
7 7 14 7 7 14 14 14 28
dimension2
dimension2
dimension2
Contraste de Levene sobre la igualdad de las varianzas error
a
Variable dependiente:Uso de las redes sociales en horas semanales F
gl1
1,434
gl2 3
Sig. 24
,257
Contrasta la hipótesis nula de que la varianza error de la variable dependiente es igual a lo largo de todos los grupos. a. Diseño: Intersección + sexo + tamaño_ciudad + sexo * tamaño_ciudad
Pruebas de los efectos inter-sujetos Variable dependiente:Uso de las redes sociales en horas semanales Origen
Suma de
Eta al
cuadrados
Media
tipo III
gl
cuadrática
Modelo corregido
1111,250
a
3
Intersección
11160,036
1
22,321
1
22,321
tamaño_ciudad
378,893
1
sexo *
710,036
1
Error
97,714
24
4,071
Total
12369,000
28
1208,964
27
sexo
370,417
cuadrado F
Sig.
parcial
90,980
,000
,919
11160,036 2741,061
,000
,991
5,482
,028
,186
378,893
93,061
,000
,795
710,036
174,395
,000
,879
tamaño_ciudad
Total corregida
a. R cuadrado = ,919 (R cuadrado corregida = ,909)
70
Los supuestos son los mismos, el SPSS nos da la prueba de Levene para comprobar homogeneidad, cuya H0 es que las varianzas son iguales. Si p>0,05 cumplimos supuesto de homogeneidad de varianzas. El factor principal sexo diferencias estadísticamente significativas, también tamaño de ciudad y la interacción. Nos quedamos con la interacción. Nos da dos tamaños de efecto distintos. R2 es lo que llamábamos eta2 en el ANOVA de un factor, nos da el tamaño de efecto para el modelo global. Toma en cuenta todos los efectos del modelo y ve conjuntamente cuál es el efecto. Dividiendo la suma de cuadrados del modelo corregido / Total corregida = 0,92. El modelo globalmente explica el 92% de la varianza de la variable dependiente. Si quiero los efectos por separado utilizamos el eta cuadrado parcial. Esa interacción tiene un tamaño de efecto muy alto, 0,88. My buen modelo. Pedir gráfico de perfiles: Gráfica de medias, eje X niveles de una de las VI y mediante líneas distintas representamos los niveles de la otra VI. Si hay un cruce claro, líneas no paralelas, es que hay interacción, puede que la interacción no sea estadísticamente significativa, en este caso sí. -
Los efectos son muy distintos según el nivel en el que te muevas, hay gran diferencia del uso de las redes sociales en ciudad grande y pequeña.
Si la interacción no sale significativa: -
Si alguno de los efectos principales es significativo y tiene más de dos niveles, cómo es esa diferencia? Hasta dos niveles bien. - La prueba F es ómnibus, todas son iguales excepto una que es distinta. - Tengo 2 opciones: - Comparaciones post-occ - Comparaciones planeadas: Si tengo concepciones previas de cómo pueden ir, concepción del modelo - Utilizamos condiciones arbitrarias, suma cero - Ortogonales: Además pide la suma de productos cruzados 0 - Contrastes polinómicos o de tendencias: En el caso de que pudiéramos ordenar los datos, sería de tipo cúbico x ej…
Estamos trabajando con factores en teoría independientes. La diferencia práctica es que en ANOVA de un factor tienes que meter tu los contrastes si son planeados. En factorial necesitas el modelo lineal general, modelo univariante, te da él los contrastes predefinidos. -
Repetido: Si mi hipótesis es que cada nivel debe ser distinto del inmediatamente anterior. Simple: Compara cada nivel con uno de referencia. En regresión logística, cuando hay variables categóricas con más de dos niveles. Lo hacemos respecto al último. Desviación: Compara cada nivel menos el primero, con la media del resto de niveles.
Si la interacción da significativa y a mí me interesa saber en la de 3 niveles cuáles son las diferencias, no puedo utilizar una prueba post-oc porque tenemos que tener en cuenta todas las VI. Análisis de los efectos simples. Interacción significativa. Comparar los niveles de una variable dentro de los niveles de la otra variable.
71
-
En realidad es una T-student con corrección error tipo I. Hay que pedirlo a través de sintaxis. SI le das a PEGAR te pega la sintaxis.
(Tabla) Comparaciones por pares: Vemos que ambas diferencias (en ciudades grandes y pequeñas) la diferencia por sexo es significativa. - En ciudades grandes los hombres tienden a consumir muchas más horas que las mujeres en ciudades grandes. - Utilizan más tiempo en las redes sociales las mujeres que los hombres en ciudades pequeñas. Si me limito a contar los efectos principales me quedo a medias. Cuando el SPSS hace gráficos de medias Los límites de los ejes los coge en función de los datos empíricos, gráficamente parece que hay grandes diferencias en sitios donde no las hay. Combiene modificarlo para que empiece en el cero.
ANOVA Factorial: Comparación de los Efectos Simples Hablamos de analizar los efectos simples cuando habiendo sido una interacción estadísticamente significativa comparamos entre sí los niveles de un factor dentro de cada nivel del otro factor
Comparaciones por pares Variable dependiente:Uso de las redes sociales en horas semanales tamaño_ciudad
(I)sexo
(J)sexo
Intervalo de confianza al 95 % para la diferencia
Diferencia de medias (I-J) grande
mujer hombre
hombre mujer
Error típ.
mujer hombre
hombre mujer
a
Límite inferior
Límite superior
-11,857
*
1,079
,000
-14,083
-9,631
11,857
*
1,079
,000
9,631
14,083
8,286
*
1,079
,000
6,060
10,512
-8,286
*
1,079
,000
-10,512
-6,060
dimension1
pequeña
Sig.
a
Basadas en las medias marginales estimadas. *. La diferencia de medias es significativa al nivel ,05. a. Ajuste para comparaciones múltiples: Bonferroni. Comparaciones por pares Variable dependiente:Uso de las redes sociales en horas semanales sexo
(I)tamaño_ciudad
(J)tamaño_ciudad
Intervalo de confianza al 95 % para la diferencia
Diferencia de medias (I-J) mujer
grande
dimension3
pequeña
Error típ.
hombre
dimension3
grande
grande
dimension3
pequeña
pequeña
dimension3
grande
a
Límite inferior
Límite superior
-2,714
*
1,079
,019
-4,940
-,488
2,714
*
1,079
,019
,488
4,940
17,429
*
1,079
,000
15,203
19,655
-17,429
*
1,079
,000
-19,655
-15,203
dimension2
pequeña
Sig.
a
dimension2
Basadas en las medias marginales estimadas. *. La diferencia de medias es significativa al nivel ,05. a. Ajuste para comparaciones múltiples: Bonferroni.
72
Controlar estadísticamente el efecto sobre la variable dependiente de una variable cuantitativa
ANCOVA ANCOVA o Análisis de la Covarianza. Cuando tenemos la creencia de que hay una tercera variable de tipo cuantitativo que creemos puede estar influyendo en la VI y que tratamos de controlarla desde el punto de vista estadístico ya que no lo hemos hecho en el experimental.
Esquema General del ANOCA
Ajustar las puntuaciones en la V.D. en función de la covariable Efectuar un ANOVA sobre las puntuaciones ajustadas
La V que controlamos es la covariable, Cuantitativa. -
-
Ajustar las puntuaciones (en rendimiento) de la VD en función de la covariable, el CI - Algún tipo de correlación con la VD. Intentamos eliminar de la VD esa influencia que tiene la covariable sobre ella. - Aplicamos un modelo de regresión lineal, en el que la VD del modelo de ANOVA será la VD del modelo de regresión, y la covariable la VI del modelo de regresión. - Puntuaciones ajustadas en la VD Hacer un ANOVA: Vamos a trabajar sobre las puntuaciones ajustadas, que son los residuales del modelo de regresión. - E =Y-Y’ - Estas puntuaciones son limpias de la influencia de la covariable. - Y’ es la pronosticada, la parte de Y que depende de la X del modelo, por lo que la Y’ corresponden a la parte de la VI que es explicada por la VD. La parte del rendimiento que es explicada por el CI. Si lo quitamos tenemos la parte del rendimiento que no está influenciada por el CI. Y sobre estas últimas hacemos un ANOVA. - Si da significativo es que ese efecto es real independientemente del CI - Si no da significativo ese efecto se debía en parte a la influencia del CI
Asunciones del ANCOVA El ANCOVA requiere dos supuestos propios además de todos los del ANOVA: -
Linealidad de la regresión: Ya que aplicamos un modelo de regresión, el supuesto básico de la regresión lineal es que entre las variables haya una relación lineal. - Tomar la muestra entera de sujetos (no dentro de cada grupo de las variables) y hacer un diagrama de dispersión, en el eje Y las puntuaciones de la VI y en el x las de VD (CI).
73
-
Supuesto de homogeneidad en la regresión: Se mira dentro de cada uno de los grupos definidos dentro de la variable del modelo. Las pendientes de la recta de regresión son iguales en todos los grupos definidos por la VI. Todas las B son iguales. - Si no se cumple no podemos aplicar. - Líneas de regresión paralelas, miramos la pendiente (B), pero no la ordenada en el origen (A), no tienen que estar superpuestas. - Se comprueba por un ANOVA en el que se comprueba si es significativa la relación entre la covariable (CI) y la VI (estatus socioeconómico). NO debe ser estadísticamente sig. Para que se cumpla el supuesto. - La interacción que da en las pruebas de los efectos inter-sujetos. P=0,986. Sí se cumple el supuesto - ANOVA at OC para comprobar el supuesto.
NO HOMOGENEIDAD
HOMOGENEIDAD
Homogeneidad de la regresión: Pruebas de los efectos inter-sujetos Variable dependiente:puntuación en matemáticas Origen
Suma de cuadrados tipo III
Media gl
cuadrática
F
Sig.
a
5
1555,804
31,159
,000
3117,139
1
3117,139
62,428
,000
ses * CI
1,397
2
,698
,014
,986
ses
9,407
2
4,703
,094
,910
5892,607
1
5892,607
118,013
,000
Error
9686,777
194
49,932
Total
571765,000
200
17465,795
199
Modelo corregido Intersección
CI
Total corregida
7779,018
a. R cuadrado = ,445 (R cuadrado corregida = ,431)
74
Interpretación ANCOVA Nuestro interés sigue siendo el mismo de un ANOVA normal, los efectos de las VI, pero controlando una tercera variable. Podemos mirar además el efecto de las covariables. Si no son sig. No hay relación lineal, las podemos eliminar del modelo, no interesa controlarlas. El resultado con el ANOVA tiene que ser prácticamente el mismo. Nos interesan los efectos principales y las interacciones. Si el efecto no resulta estadísticamente significativa quiere decir que esa covariable no está linealmente relacionada con la V.D. y podría ser eliminada del análisis. Si hay alguna covariable significativa: • •
El ANCOVA DA LO MISMO QUE EL ANOVA El ANCOVA NO DA LO MISMO QUE EL ANOVA o Lo significativo pasa a no significativo o Lo no significativo pasa a significativo
Pardo y San Martín: Libro 2005, Análisis de Datos con el SPSS. -
Cómo funcionar con análisis de covarianza Para interpretar el ANCOVA siempre hay que hacer un ANOVA previo normal y comprararlo con el que has controlado la covariable. - Puede ocurrir que de lo mismo el ANCOVA que el ANOVA previo. Aunque las convariables sean significativas su influencia no hace que cambie el efecto de la VI que estamos considerando.
75
Puede ocurrir que no den lo mismo: - Lo que era significativo en el ANOVA pasa a no significativo: la relación que habíamos visto era artificial, y podía deberse al efecto de la covariable que no estábamos controlando. - Viceversa: Puede deberse a que esa VI cuando consideras la VD globalmente no están relacionadas, pero sí con aquella parte de la VD que no explica la covariable. Relación con la VD cuando quitamos la influencia de la covariable. Estamos controlando un efecto de tercer orden.
-
Levene no significativo. Se cumple supuesto de homogeneidad Relación entre rendimiento y clase social espúrea, desaparece en el momento en que controlamos otra variable que está influyendo entre ellas. SI lo hubiéramos controlado experimentalmente tendríamos que haber pasado una prueba de CI y haber agrupado a los sujetos por un mismo nivel de CI para controlar la variable.
Contraste de Levene sobre la igualdad de las varianzas error
a
Variable dependiente:puntuación en matemáticas F
gl1
gl2
1,845
2
Sig. 197
,161
Contrasta la hipótesis nula de que la varianza error de la variable dependiente es igual a lo largo de todos los grupos. a. Diseño: Intersección + CI + ses
Pruebas de los efectos inter-sujetos Variable dependiente:puntuación en matemáticas Origen
Suma de
Eta al
cuadrados tipo III
Media gl
cuadrática
cuadrado F
Sig.
parcial
a
3
2592,540
52,449
,000
,445
Intersección
3327,049
1
3327,049
67,309
,000
,256
CI
6470,529
1
6470,529
130,904
,000
,400
ses
116,862
2
58,431
1,182
,309
,012
Error
9688,174
196
49,429
Total
571765,000
200
17465,795
199
Modelo corregido
Total corregida
7777,621
a. R cuadrado = ,445 (R cuadrado corregida = ,437)
76
TEMA 4.B: ANOVA CON FACTORES INTRA-SUJETOS La Lógica General del ANOVA de Medidas Repetidas Grupos dependientes, normalmente porque los sujetos pasan por distintos niveles. Modelos de medidas repetidas. -
Grupos independientes: 10 sujetos pasan cada prueba Dependientes: los mismos 10 sujetos se miden 3 veces
Los modelos de medidas repetidas una de las grandes ventajas es que necesitas menos sujetos. Variabilidad intragrupos meten ruido, cuando los sujetos son los mismos reducimos la fuente de error intra, los sujetos son los mismos. Inconveniente: Hay que poner más supuestos, además medir a los sujetos repetidas veces tiene diversos efectos, como de memoria o cansancio, orden en que presentas los tratamientos. Problemas a nivel de diseño, no de análisis estadístico.
Pros y Contras Ventajas • Necesitan menos sujetos •
Eliminan la variabilidad debida a las diferencias entre sujetos
Inconvenientes • Nuevos supuestos •
Efectos de emplear los mismos sujetos, por ejemplo o o o
Superposición Latencia Aprendizaje
23/10/13 77
Los mismos sujetos medidos repetidas veces en una misma variable
ANOVA con un Factor de Medidas Repetidas Todos los sujetos pasan por todas las situaciones Ej: Conocer si la cantidad de ingesta de alcohol influye en la cantidad de interacciones violenta con otros jugadores. -
-
Coger grupo de S, observarlos en diferentes findes consecutivos: - En el 1º toman solo 1 copa, en el 2º dos… - Estarían interaccionando las dosis de tratamiento Mirar número de interacciones violentas
Con un modelo entre, tendríamos una variable que define grupos, ahora no, tenemos la misma variable medida en distintas ocasiones, por lo que en la base de datos entra como distintas variables (SPSS). La estructura de la tabla resumen también varía un poco. No nos interesa la variabilidad de unos sujetos por otros. El error se considera la interacción de sujetos*tratamientos.
78
Comparaciones Múltiples
El supuesto de esfericidad: Las varianzas de las diferencias entre cada dos niveles de la VI son homogéneas, iguales. Este supuesto implica que las varianzas de las diferencias entre cada dos niveles de la VI son iguales Se evalúa con el estadístico W de Mauchly Cuando la asunción de esfericidad se viola el estadístico F se comporta de manera liberal
La forma más popular de evaluarlo es la W de Mauchly, pero es muy sensible al tamaño de muestra, en muestras pequeñas puede decirnos que hay esfericidad aunque no la haya; A tamaños de muestra grande es probable que nos diga que no hay esfericidad por algún sujeto que se desvíe. -
Epsilon: Nos indica en qué medida nos alejamos de la esfericidad. Es un parámetro, por tanto hay que estimarlo. - 1. Esfericidad perfecta - Cuando nos alejamos de la esfericidad va bajando de valor, hasta el valor mínimo de 1/(J1). J = Nº de niveles de la variable independiente.
Para estimar el valor de épsilon; cambian los grados de libertad de A-B-C: -
E de Greenhose-Geisser: más popular, más conservador. Si por este procedimiento la E vale 0,75 o más, es mejor utilizar Huynt-Feld. E de Huynt-Feld
Si no tenemos esfericidad la F se comporta de forma liberada, tiende a decir que hay diferencias significativas sin que necesariamente las haya, aumenta el error. Por lo que la F no sirve de manera adecuada como contraste. Dos posibles soluciones: -
-
Seguir utilizando la F pero modificarle los gl. Para hacerla más conservadora. Con Greenhose o Huynt. - Tomar para E el valor mínimo que puede tomar, hacemos que los gl bajen más. Multiplicar el E por los gl de la F normal. Utilizar una aproximación multivariada: Considerar cada uno de los niveles de la VI como VD, el análisis multivariado de la varianza no requiere supuestos de esfericidad.
79
-
La desventaja es que pierde potencia de prueba cuando el tamaó de muestra es pequeó. La capacidad de ver diferencias donde las hay realmente, puede que no seamos capaces de captar esas diferencias.
Si se cumple el supuesto de esfericidad: -
Mejor procedimiento univariado, más potencia de prueba
Si no se cumple: -
Mirar estadísticos multivariados, si no encontramos significación pasar a segunda fase, si hay significación parar el análisis, ya las hay. - Si no hay significación pasar al enfoque univariado con los gl modificados.
Utilizar la F con los grados de libertad modificados
ε de Greenhose-Geisser ε de Huynt-Feld
Utilizar la aproximación multivariada
SI encontramos diferencias estadísticamente significativas en la F con cualquier método:
Podemos calcular tamaños de efecto También podemos calcular pruebas a posteriori. Con medidas repetidas no se puede, sólo con medidas entre. Sí podemos hacer contrastes polinómicos, como ortogonal. Comprobar los efectos simples con las interacciones, a través de la sintaxis en el análisis de varianzas de medidas repetidas Opciones. o Realmente va a hacer T de Student, diferencia de medias entre los niveles. Pedir que ajuste por Bonferroni para evitar error tipo I. Al hacerlo por Bonferroni no hace falta meter sintaxis.
Ejemplo: 1. Comprobar supuestos: a. Normalidad: Para cada uno de los niveles de la VI comprobar si se cumple el supuesto. Pedir para cada uno de los niveles, no conjuntamente. i. Como estamos mirando ajuste del modelo, interesa por encima de 0,05. b. Esfericidad: H0, varianzas homogéneas, sí esfericidad. Interesa p superior a 0,05. i. Mauchly, si rechazamos H0 no hay esfericidad. No deberíamos utilizar la F estándar. 80
Aceptamos H0, no hay efecto de tratamiento, no hay diferencias en el número de interacciones violentas independientemente del número de copas. P=0,59 Pero multivariado poca potencia de prueba. Vamos al enfoque univariado con los grados de libertad multivariado. Si hubiéramos cumplido esfericidad nos iríamos directamente al univariado.
81
Análisis de varianza estándar: -
F normal o corregida de distintas maneras. - Sí hay efecto de tratamiento.
H0: Ponemos lo que queremos rechazar. Ahora tenemos que ver entre qué niveles hay diferencias. T de Student modificando alfa con Bonferroni, porque SPSS no nos va a dar post Occ para medidas repetidas. -
Diferencia significativa entre la segunda y la tercera noche.
Cuando hay mucha variabilidad es más difícil explicar diferencias. Error típico variable.
82
Los mismos sujetos medidos repetidas veces en dos variables
ANOVA con Dos Factores de Medidas Repetidas Ejemplo: Utilizar imágenes para cambiar la actitud de los sujetos, adolescentes en consumo de alcohol. Diseño: 3 tipos de bebida y 3 tipos de imágenes junto con sloganes (negativas, positivas, neutras). 2 variables independientes con 3 niveles cruzados, ambas de medidas repetidas (por cada cruce pasan todos los sujetos). Diseño Factorial de Medidas Repetidas 3 sesiones. Se aleatorizan, después de cada sesión se pregunta a los sujetos por su opinión respecto a la bebida, de -100 a + 100. Esquema del diseño:
Tendré que tener tantas columnas en el SPSS como número de combinaciones:
83
Ejemplo, resultados: Comprobar supuesto de normalidad dentro de cada uno de los cruces: -
Cierta ausencia de normalidad en cerveza + imagen negativa. En descriptivos vemos actitudes positivas en todas excepto vino + cuerpo y agua + cuerpo.
-
Prueba de análisis de varianza. Tenemos el supuesto añadido de esfericidad, que tiene que cumplirse para cada uno de los factores y para la interacción entre ellas - Sólo cumple el supuesto la interacción, los factores individuales no. - En esfericidad mejor univariada que multivariada, más potencia de prueba - Si no cumple mirar multivariada, si no da estadísticamente significativa mirar univariada corrigiendo grados de libertad.
-
Miramos primero la interacción, estadísticamente significativa, además la interacción cumple esfericidad. La actitud hacia una determinada bebida dependerá de la imagen. - Traza de Pillai es el que mejor funciona, aunque se suele dar Lambda de Wilks. Como solo miramos la interacción así vale, para mirar los efectos principales tendríamos que corregir esfericidad.
-
84
-
Miramos esfericidad asumida. - La F, asumiendo grados de esfericidad, da F=17,155, tamaño grande, grados de libertad y significación. Dar los datos de esta tabla.
Efectos Simples Cuando tenemos interacción significativa, miramos efectos simples. Bloqueando una variable que efectos tiene la otra. Pedir un gráfico de perfiles para hacerlo más visual.
85
Entre las bebidas sólo hay diferencia entre 2 y 3, vino y agua.
-
Comparaciones por pares Medida:MEASURE_1 (I)bebida (J)bebida
1 dimension2
2 dimension1
dimension2
3 dimension2
Diferencia de medias (I-J) Error típ. 3,500 2,849 8,317 3,335 -3,500 2,849 * 4,817 1,116 -8,317 3,335 * -4,817 1,116
2 3 1 3 1 2
Intervalo de confianza al 95 a % para la diferencia Límite Límite inferior superior -3,980 10,980 -,438 17,072 -10,980 3,980 1,886 7,747 -17,072 ,438 -7,747 -1,886
a
Sig. ,703 ,066 ,703 ,001 ,066 ,001
Comparaciones por pares Medida:MEASURE_1 (I)imagen (J)imagen
1 dimension2
2 dimension1
dimension2
3 dimension2
Diferencia de medias (I-J) * 26,850 * 13,267 * -26,850 * -13,583 * -13,267 * 13,583
2 3 1 3 1 2
Error típ. 1,915 1,113 1,915 1,980 1,113 1,980
Intervalo de confianza al 95 % a para la diferencia Límite inferior Límite superior 21,824 31,876 10,346 16,187 -31,876 -21,824 -18,781 -8,386 -16,187 -10,346 8,386 18,781
a
Sig. ,000 ,000 ,000 ,000 ,000 ,000
Esta tabla es la más interesante: El que de alguna manera ejerce un efecto diferencial es la cerveza
-
Comparaciones por pares Medida:MEASURE_1 bebida (I)imagen (J)imagen
1
1 dimension3
2 dimension2
dimension3
3 dimension3
2
1 dimension3
2 dimension1
dimension2
dimension3
3 dimension3
3
1 dimension3
2 dimension2
dimension3
3 dimension3
-
2 3 1 3 1 2 2 3 1 3 1 2 2 3 1 3 1 2
Diferencia de medias (I-J) Error típ. * 16,600 3,239 * 11,050 2,666 * -16,600 3,239 -5,550 2,604 * -11,050 2,666 5,550 2,604 * 37,350 2,487 * 13,700 1,874 * -37,350 2,487 * -23,650 2,392 * -13,700 1,874 * 23,650 2,392 * 26,600 1,639 * 15,050 1,660 * -26,600 1,639 * -11,550 2,044 * -15,050 1,660 * 11,550 2,044
a
Sig. ,000 ,002 ,000 ,139 ,002 ,139 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000 ,000
Intervalo de confianza al 95 % a para la diferencia Límite Límite inferior superior 8,097 25,103 4,051 18,049 -25,103 -8,097 -12,386 1,286 -18,049 -4,051 -1,286 12,386 30,821 43,879 8,781 18,619 -43,879 -30,821 -29,930 -17,370 -18,619 -8,781 17,370 29,930 22,297 30,903 10,693 19,407 -30,903 -22,297 -16,915 -6,185 -19,407 -10,693 6,185 16,915
En la gráfica vemos los resultados anteriores de forma más visual, la cerveza se mantiene con una actitud positiva incluso con imágenes negativas:
86
87
Diseños mixtos o split-plot
ANOVA con Dos Factores, Uno de Ellos de Mdidas Repetidas Hay al menos una variable intra, pero también tenemos variables entre. Es una mezcla de los dos diseños.
Ventajas: •
necesita menos sujetos que un diseño completamente aleatorizado
•
permite reducir la variabilidad error al utilizar los mismos sujetos
•
permite cubrir situaciones que no pueden abordarse con otros enfoques pues un diseño completamente aleatorizados permite efectuar comparaciones entre tratamientos pero no un seguimiento de los sujetos y por su parte un diseño de medidas repetidas permite hacer un seguimiento de los sujetos pero no comparación de tratamientos. El diseño que nos ocupa permite realizar ambas cosas. •
Permite comparar grupos y a la vez dar seguimiento a esos grupos en el tiempo. Comparar dos tipos de terapias.
Ejemplo: Ver los efectos en las notas según e-learning o método tradicional. VI, de forma aleatoria se asignan sujetos a grupos. Variable que define grupos independientes. Se les va a hacer dos medidas a los sujetos, a principio y a final de semestre. Diseño 2x2 Medidas repetidas como sucesivas VD. Diseño Factorial
Método
Web
Clase
Evaluación Pre-tratamiento Post-tratamiento S1 S1 S2 S2 . . . . . . S9 S9 S10 S10 . . . . . .
88
Supuestos •
Normalidad
•
Homogeneidad de varianzas entre los niveles del factor entre
•
Esfericidad multi-muestra •
Esfericidad
•
Homogeneidad de las matrices de varianza-covarianza (Prueba de Box). Prueba muy sensible a normalidad, si box significativa no se cumple esfericidad hacer más conservadora la prueba bajando el nivel de alfa.
•
Que se cumpla para cada uno de los niveles de la variable entre.
Ejemplo: Nos interesa mayor a 0,05 Pruebas de normalidad Kolmogorov-Smirnova
Shapiro-Wilk
Estadístico
gl
Sig.
Estadístico gl
Sig.
pre_tratamiento
,112
16
,200*
,972
16
,876
post_tratamiento
,152
16
,200*
,919
16
,162
Estadísticos descriptivos
Media
Desviación típica N
web
51,13
5,842
8
dimension1 clase
50,63
7,482
8
Total
50,87
6,490
16
web
66,75
7,517
8
dimension1 clase
84,75
8,844
8
Total
75,75
12,217
16
método
pre_tratamiento
post_tratamiento
Prueba de Box sobre la igualdad de las matrices de covarianzasa
89
M de Box 4,415 F
1,244
gl1
3
gl2
35280,000
Sig.
,292
El SPSS nos da por una parte la parte entre y por otro la intra (medidas repetidas) Intra: Mauchly No es que la esfericidad sea perfecta, sino que no hay varianzas que comparar, sólo hay dos niveles. Prueba de esfericidad de Mauchlyb Medida:MEASURE_1 Epsilona
Efecto intra-sujetos W de Mauchly dimension1 evaluación 1,000
Chicuadrado aprox.
gl
,000
0
Sig.
Greenhouse- HuynhGeisser Feldt
Límiteinferior
.
1,000
1,000
1,000
Contrastes multivariadosb -
El tratamiento tiene algún tipo de efecto, pero es diferencial para el momento pre y post. La esfericidad no tiene sentido, no hay ningún tipo de corrección, los gl son iguales en todos los sitios y la F es estándar
Gl del error
Sig.
Eta al cuadrado parcial
Efecto
evaluación
Valor
F
Gl de la hipótesis
Traza de Pillai
,939
214,972a
1,000
14,000
,000
,939
Lambda de Wilks
,061
214,972a
1,000
14,000
,000
,939
Traza de Hotelling
15,355
214,972a
1,000
14,000
,000
,939
Raíz mayor de 15,355 Roy
214,972a
1,000
14,000
,000
,939
90
evaluación * método
-
Traza de Pillai
,680
29,726a
1,000
14,000
,000
,680
Lambda de Wilks
,320
29,726a
1,000
14,000
,000
,680
Traza de Hotelling
2,123
29,726a
1,000
14,000
,000
,680
Raíz mayor de 2,123 Roy
29,726a
1,000
14,000
,000
,680
Sabiendo que la interacción es significativa no habría que mirar nada más. Pero vamos a ver como sería si no. Mirar efectos entre. Levene: se cumple homogeneidad de varianzas.
Contraste de Levene sobre la igualdad de las varianzas errora F
gl1
gl2
Sig.
,477
1
14
,501
post_tratamiento ,160
1
14
,695
pre_tratamiento
Pruebas de los efectos inter-sujetos Medida:MEASURE_1 Variable transformada:Promedio Suma de cuadrados tipo III
Intersección
Origen
gl
Media cuadrática
F
Sig.
Eta al cuadrado parcial
128271,125
1
128271,125
1435,058
,000
,990
método
612,500
1
612,500
6,852
,020
,329
Error
1251,375
14
89,384
-
Mirar efectos simples. A través de sintaxis. - En el pre no existe diferencia entre tratamientos, los grupos son iguales al principio. Aleatorización funciona, si no fuera así podríamos encontrar luego diferencias que se debieran a los grupos, no al método de enseñanza. - A final de curso sí hay diferencias, diferencia entre medias negativa, tienen peor puntuación los que han seguido la asignatura vía e-learning.
91
Comparaciones por pares Medida:MEASURE_1 evaluación (I)método (J)método
1 dimension2
dimension1
2 dimension2
-
web clase web clase
dimension3
dimension3
dimension3
dimension3
clase web clase web
Diferencia de medias (I-J) Error típ. ,500 3,356 -,500 3,356 * -18,000 4,104 * 18,000 4,104
a
Sig. ,884 ,884 ,001 ,001
Intervalo de confianza al 95 a % para la diferencia Límite Límite inferior superior -6,698 7,698 -7,698 6,698 -26,801 -9,199 9,199 26,801
Interacción significativa, hay cruce.
92
TEMA 4.C.: MANOVA Trabajar simultáneamente con varias VD en un solo análisis. Análisis de varianza multivariado. Generalización del ANOVA. VI Grupo 1
Grupo 2
Grupo 3
VD1
VD1
VD1
VD2
VD2
VD2
VD3
VD3
VD3
Para cada uno de los grupos varias VD medidas. Estamos hablando de fenómenos difíciles de medir con una sola variable y que se miden mejor con varios indicadores, que nos interesa tomarlos de forma conjunta, no como atajo del ANOVA para hacer menos. NO VARIABLES INCONEXAS, diferentes indicadores de la misma cosa, que contribuyen a construir una única variable. Ej.: satisfacción laboral relacionada con muchas variables distintas. •
Múltiples variables dependientes nos quiere decir recolectar variables dependientes de forma indiscriminada.
•
Suele ser relativamente común que el fenómeno que tratamos de estudiar sea lo suficientemente complejo como para que sea necesario medirlo empleando más de un índice o medida cuantitativa. Es en esos caso cuando tiene sentido emplear el MANOVA y no con múltiples variables dependientes inconexas.
•
Estas múltiples medidas pueden combinarse en lo que conocemos como variada (en inglés variate) o variable latente de forma que podremos determinar si los sujetos difieren no en una única dimensión sino en una combinación de ellas haciendo uso de la información sobre la relación entre las propias variables dependientes.
Escalares vs Vectores • La variada o variable latente puede pensarse como un vector formado por la suma ponderada de sus componentes. • En el contexto del MANOVA, las variables en los vectores son combinadas de forma que maximicen las diferencias entre los grupos definidos por la(s) variable(s) independiente(s). Tamaño de muestra • Una regla de mínimos planteada por diferentes autores es tener al menos 20 casos por cada grupo para asegurarnos una mínima potencia de prueba, especialmente con muchas variables dependientes.
El MANOVA puede pensarse como un vector en el que se combinan las diferentes variables. En ANOVA solo trabajábamos con un único número, con un escalar. Busca la mejor combinación para que los grupos sean lo más distintos posibles y podamos captar esas diferencias. Con múltiples variables no nos valen los escalares, vamos a vectores de manera matricial.
93
Beneficios y Problemas del MANOVA Beneficios 2. Abarcar mejor el fenómeno de estudio 3. Control de la Tasa de Error Tipo I 4. Puede tener mayor potencia de prueba
Problemas 1. Variables relativamente incorrelacionadas 2. Variables altamente correlacionadas
Mayor tamaño de muestra necesario que en el ANOVA. Con comparaciones múltiples de los mismos datos aumenta probabilidad de error tipo I, para ello utilizamos pruebas post-hoc. Solución posible: Corregir por Bonferroni. Potencia de prueba: Capacidad para captar las diferencias. No combiene que las variables correlacionen entre sí más de 0,70. Si tengo variables muy correlacionadas son redundantes. Sumar variables o eliminar alguna. 30/10/13
Lógica General del MANOVA El precursor: T2 de Hotelling •
Extensión de la t de diferencia de medias al caso de dos o más VD.
•
Crea un vector que es el que mejor separa los niveles o categorías de la variable independiente.
•
La hipótesis nula de esta prueba es que los vectores de medias en la población para los dos grupos son iguales. Por lo tanto la diferencia con la prueba univariada está en que ahora se comparan dos vectores de medias no dos medias poblacionales.
La idea introducida por Hotelling puede extenderse al caso de tres o más grupos. Entonces la hipótesis nula será los vectores de medias de los k grupos son iguales.
Como precursor del manova, Tcuadrado de Hotelling, extensión de la T de Student. Para ver diferencias de medias entre dos grupos con varias VD. Crea un vector en el que combina las variables dependientes que estamos manejando, de tal manera que maximiza las diferencias entre los grupos. No compara dos escalares, sino dos vectores de medias. La H0 es que esos vectores son iguales.
ANOVA MANOVA Sumas de Cuadrados Matrices de Sumas de Cuadrados y Productos Cruzados (SCPC) SCPC Total (T) que reflejará la generalización multivariada de cómo los casos en cada nivel de la variable independiente se desvía respecto a la Media Total de cada variable dependiente SCPC Entre (E) expresa los efectos diferenciales de un tratamiento sobre un conjunto de variables dependientes 94
SCPC Intra (I) representa como los casos de cada nivel de la variable independiente se desvían de las medias de su grupo en las variables dependientes T=E+I
Descomponer la varianza total en dos tipos de variables, entre e intra. La suma de ambas explican la varianza de la VD, esto lo hacíamos a través de la suma de cuadrados. Distancias respecto a una media. Ahora ya no trabajamos solo con sumas de cuadrados, sino sobre matrices, aunque es el mismo concepto. Matrices de sumas de cuadrados y productos cruzados. Matrices cuadradas, en la diagonal sumas de cuadrados y en el resto los productos cruzados. Matriz varianzacovarianza al dividir por el número de variables. Aquí tiene en cuenta la varianza de las propias variables y la relación entre ellas, matiz del MANOVA respecto al ANOVA, puede tener más potencia estadística. Puntuaciones desviación: diferencia entre una puntuación y su media.
Supuestos -
Normalidad multivariada: en todas las variables dependientes y correlación entre ellas. Si las variables se distribuyen de forma univariada más o menos normal podemos dar por bueno al supuesto. Homogeneidad: de matrices de Var-Covar. Homogeneidad para cada una de las VD y para cada cruce de VD, de correlaciones entre variables. - Prueba de Box
No hay propuestas de técnicas estadísticas no paramétricas fácilmente aplicables, si te alejas mucho de los dos supuestos hay problema de aplicación.
Estadísticos -
Lambda de Wilks Traza de Hotelling Traza de Pillai: Para más de dos grupos, más potente. Más robusta, sobre todo cuando los grupos son del mismo tamaño. Raíz máxima de Roy: Para el caso de 2 grupos, más potente
Comparación suma de cuadrados entre/suma de cuadrados intra ANOVA. El MANOVA intenta hacer lo mismo, pero comparando matrices y no variables. Potencia (capacidad explicativa) y Robustez (qué pasa cuando no se cumplen los supuestos)
¿Qué hacemos cuando el ANOVA sale significativo? La estrategia más popular (pero no la única) es la de continuar realizando múltiples pruebas t o F corrigiendo el nivel de significación de acuerdo al ajuste de Bonferroni, seguidas de comparaciones múltiples a posteriori cuando sea pertinente.
Variable variada: combinación, ver si hay diferencias significativas en los dos grupos. Prueba Omnibus, F. Post-hoc, hay que corregir la tasa de error, corregir por Bonferroni, alfa cambia.
95
Ejemplo Queremos comprobar si la intensidad en la enseñanza tiene efecto sobre el rendimiento en una tarea de taquigrafía, en la que se miden velocidad y precisión. La VI tiene tres niveles: 2 horas al día durante 6 semanas; 3 horas día durante 4 semanas; 4 horas día durante 3 semanas. (Tomado de Bisquerra, 1989) ¿Diferentes intensidades de enseñanza producen cambios en el rendimiento de los sujetos? El rendimiento a la hora de escribir se operativiza por velocidad y precisión. Estadísticos descriptivos
Media
Desviación típica
N
38,5500
7,03731
20
semi-intensiva: 3 horas 34,0000 dia 4 semanas
5,24153
20
intensiva: 4 horas dia 3 28,3000 semanas
4,04058
20
Total
33,6167
6,92353
60
extensiva: 2 horas al día 6 semanas
23,7000
2,75490
20
semi-intensiva: 3 horas 18,3500 dia 4 semanas
2,05900
20
intensiva: 4 horas dia 3 12,8500 semanas
1,78517
20
Total
4,97894
60
condicion
extensiva: 2 horas al día 6 semanas
velocidad
precision
18,3000
Prueba de Box sobre la igualdad de las matrices de covarianzasa
M de Box
9,653
F
1,527
gl1
6
gl2
80975,077
Razón de verosimilitudes Chi-cuadrado aprox. gl
Sig.
,165
Sig.
Prueba de esfericidad de Bartlett
a
,000 65,003 2 ,000
96
-
Box: Aceptamos H0, se cumple homogeneidad, sig=0,165 Las VD tienen que estar relacionadas entre sí, distintos indicadores de lo mismo. La prueba de esfericidad de Barlett comprueba la correlación. H0 matriz identidad, interesa rechazar.
Cumplimos supuestos, ahora miramos contrastes multivariados. Si hay relación entre variables. Contrastes multivariados
c
Efecto
Eta al Gl de la Valor
Intersección
Traza de Pillai
,986
Lambda de Wilks Traza de Hotelling Raíz mayor de Roy condicion
-
F
,014 72,854 72,854
Traza de Pillai
,817
Lambda de Wilks
,185
Traza de Hotelling
4,400
Raíz mayor de Roy
4,397
hipótesis
cuadrado Gl del error
Sig.
parcial
2039,913
a
2,000
56,000
,000
,986
2039,913
a
2,000
56,000
,000
,986
2039,913
a
2,000
56,000
,000
,986
2039,913
a
2,000
56,000
,000
,986
19,701
4,000
114,000
,000
,409
a
4,000
112,000
,000
,570
60,503
4,000
110,000
,000
,688
b
2,000
57,000
,000
,815
37,140
125,328
Hay diferencias entre grupos.
Ahora univariado. Por separado para cada una de las variables dependientes vemos si se cumple el supuesto. Contraste de Levene sobre la igualdad de las varianzas errora F
gl1
gl2
Sig.
velocidad 4,381
2
57
,017
precision
2
57
,104
2,357
Pruebas de los efectos inter-sujetos Origen
Variable
Suma de
dependiente
Eta al
cuadrados
Media
tipo III Modelo corregido
cuadrática
F
Sig.
parcial
velocidad
1055,033
a
2
527,517
16,958
,000
,373
precision
1177,300
b
2
588,650
117,606
,000
,805
velocidad
67804,817
1
67804,817
2179,666
,000
,975
precision
20093,400
1
20093,400
4014,454
,000
,986
velocidad
1055,033
2
527,517
16,958
,000
,373
precision
1177,300
2
588,650
117,606
,000
,805
velocidad
1773,150
57
31,108
precision
285,300
57
5,005
velocidad
70633,000
60
precision
21556,000
60
velocidad
2828,183
59
precision
1462,600
59
dimension1
Intersección
gl
cuadrado
dimension1
condicion dimension1
Error dimension1
Total dimension1
Total corregida dimension1
a. R cuadrado = ,373 (R cuadrado corregida = ,351) b. R cuadrado = ,805 (R cuadrado corregida = ,798)
97
-
El tipo de intensidad de programa establece diferencias estadísticamente significativas tanto para la velocidad como para la precisión.
Pruebas post-hoc o contrastes planeados: -
Cuadro de diálogo de pruebas a posteriori
Si no se cumple el supuesto de homogeneidad de varianzas no puedo pedir Tukey. Para precisión sí puedo pedir Tukey, se cumple el sujeto y los grupos son homogéneos. Comparaciones múltiples Variable dependiente (I)condicion
Intervalo de confianza 95%
(J)Condicion
Diferencia de medias (I-J) Error típ. Sig. velocidad GamesHowell
extensiva: 2 horas al semi-intensiva: 3 4,5500 día 6 semanas horas dia 4 semanas intensiva: 4 horas dia 3 semanas
10,2500*
semi-intensiva: 3 extensiva: 2 horas al -4,5500 horas dia 4 semanas día 6 semanas intensiva: 4 horas dia 3 semanas intensiva: 4 horas dia 3 semanas
Variable dependiente
precision
DHS de Tukey
5,7000*
Límite inferior
Límite superior
1,96211 ,066 -,2511
9,3511
1,81452 ,000 5,7790
14,7210
1,96211 ,066 -9,3511
,2511
1,47986 ,001 2,0814
9,3186
extensiva: 2 horas al -10,2500* día 6 semanas
1,81452 ,000 -14,7210 -5,7790
semi-intensiva: 3 -5,7000* horas dia 4 semanas
1,47986 ,001 -9,3186
Comparaciones múltiples (J)condicion Diferencia de medias (I-J) Error típ. * extensiva: 2 horas semi-intensiva: 3 5,3500 ,70748 al día 6 semanas horas dia 4 semanas * intensiva: 4 horas 10,8500 ,70748 dia 3 semanas * semi-intensiva: 3 extensiva: 2 -5,3500 ,70748 horas dia 4 horas al día 6 semanas semanas * intensiva: 4 horas 5,5000 ,70748 dia 3 semanas * intensiva: 4 horas extensiva: 2 -10,8500 ,70748 dia 3 semanas horas al día 6 semanas * semi-intensiva: 3 -5,5000 ,70748 horas dia 4 semanas
(I)condicion
Sig. ,000
-2,0814
Intervalo de confianza 95% Límite Límite inferior superior 3,6475 7,0525
,000
9,1475
12,5525
,000
-7,0525
-3,6475
,000
3,7975
7,2025
,000
-12,5525
-9,1475
,000
-7,2025
-3,7975
98
-
Velocidad. Games-Howell, prueba post-hoc sin homogeneidad. Diferencias entre modalidad extensive e intensiva, y la semi-intensiva e intensiva. Respecto a la variable velocidad Precisión. Tukey, hay diferencias de todos con todos.
Pillai significativa, por la intensidad de la enseñanza en interacción con el método. Interacción significativa. Sin embargo el método por sí mismo no es significativo. -
-
Como la interacción es significativa, ahora miramos las interacciones para cada una de las VD. - Dentro del ANOVA univariado interacción condición*método. Tanto para una variable como para la otra es significativa. Hacer por separado efectos simples de velocidad y depresión
Si no hay interacción significativa nos hubiéramos ido directamente a los efectos principales. Estudiar qué ocurre para la condición en la variable velocidad, ya que el método por sí mismo no era significativo. Para analizar el factor principal tiene que dar significativo en la parte multivariada. -
Factores simples por separado para la variable velocidad y para variable precisión. - No hay diferencias en función del tipo de enseñanza, para el método b hay diferencias para todos los niveles. - Para precisión para ambos métodos hay diferencias significativas en todos los niveles.
Tabla dada la vuelta por velocidad y precisión para método. Comparaciones por pares.
Diseños Factoriales Meyers, Gamst y Guarino (2013) A) Realizar el análisis omnibus. B) Examinar la interacción. 1. Si la interacción multivariada es estadísticamente significativa se examinan los efectos de interacción univariados. 2. Para cada interacción univariada que es estadísticamente significativa aplicando la corrección de Bonferroni, ejecutamos un análisis de efectos simples y lo interpretamos para esa variable dependiente. 3. Para cada interacción univariada que no de significativa pasamos a considerar los efectos principales. 4. Si la interacción multivariada no es estadísticamente significativa pasamos a los efectos principales. C) Examinar los efectos principales relevantes Cuando alguna de las interacciones univariadas no es significativa puede ser interesante estudiar los efectos principales multivariados, siguiendo el siguiente esquema. 1. Si un efecto principal multivariado es significativos examinamos los efectos principales univariados para aquellas variables dependientes que no están incluidas en una interacción significativa. 2. Para cada efecto principal univariado que resulte significativo empleando la corrección de Bonferroni realizamos comparaciones múltiples e interpretamos. 3. Si un efecto principal multivariado no es significativo no realizamos el análisis univariado. 99
Estadísticos descriptivos condicion
metodo
Desviación Media
velocidad
Prueba de Box sobre la N
extensiva: 2 horas al día 6
método A
34,3000
5,88878
10
semanas
método B
42,8000
5,45283
10
Total
igualdad de las matrices de covarianzas
a
38,5500
7,03731
20
semi-intensiva: 3 horas dia 4 método A
32,5000
6,20484
10
semanas
método B
35,5000
3,80789
10
Total
34,0000
5,24153
20
gl1
15
intensiva: 4 horas dia 3
método A
29,6000
4,37671
10
gl2
15949,680
semanas
método B
27,0000
3,39935
10
Sig.
Total
28,3000
4,04058
20
método A
32,1333
5,70380
30
método B
35,1000
7,77418
30
Total
33,6167
6,92353
60
extensiva: 2 horas al día 6
método A
21,8000
2,25093
10
Razón de verosimilitudes
semanas
método B
25,6000
1,71270
10
Chi-cuadrado aprox.
Total
23,7000
2,75490
20
semi-intensiva: 3 horas dia 4 método A
18,2000
2,65832
10
semanas
método B
18,5000
1,35401
10
Total
precision
típica
Total
18,3500
2,05900
20
intensiva: 4 horas dia 3
método A
14,1000
1,28668
10
semanas
método B
11,6000
1,26491
10
Total
12,8500
1,78517
20
método A
18,0333
3,81000
30
método B
18,5667
5,98091
30
Total
18,3000
4,97894
60
Total
M de Box
22,089
F
1,333
,172
Prueba de esfericidad de Bartlett
gl Sig.
a
,000 57,441 2 ,000
100
Contrastes multivariados
c
Efecto
Intersección
condicion
metodo
condicion * metodo
Traza de Pillai Lambda de Wilks Traza de Hotelling Raíz mayor de Roy Traza de Pillai Lambda de Wilks Traza de Hotelling Raíz mayor de Roy Traza de Pillai Lambda de Wilks Traza de Hotelling Raíz mayor de Roy Traza de Pillai Lambda de Wilks Traza de Hotelling Raíz mayor de Roy
Gl de la hipótesis 2,000 2,000 2,000
Gl del error 53,000 53,000 53,000
Sig. ,000 ,000 ,000
Eta al cuadrado parcial ,992 ,992 ,992
a
2,000
53,000
,000
,992
20,827 a 46,500 85,383
4,000 4,000 4,000
108,000 106,000 104,000
,000 ,000 ,000
,435 ,637 ,767
b
2,000
54,000
,000
,868
a
Valor ,992 ,008 118,258
F a 3133,833 a 3133,833 a 3133,833
118,258
3133,833
,871 ,132 6,568 6,565
177,250
,090 ,910 ,099
2,630 a 2,630 a 2,630
2,000 2,000 2,000
53,000 53,000 53,000
,081 ,081 ,081
,090 ,090 ,090
,099
2,630
a
2,000
53,000
,081
,090
,367 ,633 ,579
6,075 a 6,804 7,522
4,000 4,000 4,000
108,000 106,000 104,000
,000 ,000 ,000
,184 ,204 ,224
b
2,000
54,000
,000
,366
,577
15,588
Contraste de Levene sobre la igualdad de las varianzas error F
a
gl1
gl2
Sig.
velocidad
,456
5
54
,807
precision
1,644
5
54
,164
Origen
Modelo corregido Intersección
dimension1
dimension1
condicion dimension1
metodo dimension1
condicion * metodo Error
Pruebas de los efectos inter-sujetos Suma de cuadrados Media tipo III gl cuadrática F a velocidad 1495,083 5 299,017 12,112 b precision 1281,200 5 256,240 76,279 velocidad 67804,817 1 67804,817 2746,576 precision 20093,400 1 20093,400 5981,497 velocidad 1055,033 2 527,517 21,368 precision 1177,300 2 588,650 175,232 velocidad 132,017 1 132,017 5,348 precision 4,267 1 4,267 1,270 velocidad 308,033 2 154,017 6,239 precision 99,633 2 49,817 14,830 velocidad 1333,100 54 24,687
Variable dependiente
dimension1
Sig. ,000 ,000 ,000 ,000 ,000 ,000 ,025 ,265 ,004 ,000
Eta al cuadrado parcial ,529 ,876 ,981 ,991 ,442 ,866 ,090 ,023 ,188 ,355
dimension1
precision Total
181,400
54
velocidad 70633,000
60
precision
21556,000
60
velocidad
2828,183
59
precision
1462,600
59
3,359
dimension1
Total corregida
dimension1
a. R cuadrado = ,529 (R cuadrado corregida = ,485) b. R cuadrado = ,876 (R cuadrado corregida = ,864)
101
Variable dependiente
velocidad
dimension0
metodo (I)condicion
(J)condicion
método extensiva: 2 horas semi-intensiva: 3 A al día 6 semanas horas dia 4 semanas intensiva: 4 horas dia 3 semanas semi-intensiva: 3 extensiva: 2 horas horas dia 4 al día 6 semanas semanas intensiva: 4 horas dia 3 semanas intensiva: 4 horas extensiva: 2 horas dia 3 semanas al día 6 semanas semi-intensiva: 3 horas dia 4 semanas método extensiva: 2 horas semi-intensiva: 3 B al día 6 semanas horas dia 4 semanas intensiva: 4 horas dia 3 semanas semi-intensiva: 3 extensiva: 2 horas horas dia 4 al día 6 semanas semanas intensiva: 4 horas dia 3 semanas intensiva: 4 horas extensiva: 2 horas dia 3 semanas al día 6 semanas semi-intensiva: 3 horas dia 4 semanas
precision método A
extensiva: 2 horas al día 6 semanas
semi-intensiva: 3 horas dia 4 semanas
intensiva: 4 horas dia 3 semanas
método B
extensiva: 2 horas al día 6 semanas
semi-intensiva: 3 horas dia 4 semanas
intensiva: 4 horas dia 3 semanas
Diferencia de medias (I-J) 1,800
4,700
Error a típ. Sig. 2,222 1,000
2,222
Intervalo de confianza al a 95 % para la diferencia Límite Límite inferior superior -3,690 7,290
,117
-,790
10,190
2,222 1,000
-7,290
3,690
2,900
2,222
,592
-2,590
8,390
-4,700
2,222
,117
-10,190
,790
-2,900
2,222
,592
-8,390
2,590
*
2,222
,005
1,810
12,790
*
2,222
,000
10,310
21,290
-7,300
*
2,222
,005
-12,790
-1,810
8,500
*
2,222
,001
3,010
13,990
*
2,222
,000
-21,290
-10,310
*
2,222
,001
-13,990
-3,010
-1,800
7,300
15,800
-15,800
-8,500
semi-intensiva: 3 horas dia 4 semanas intensiva: 4 horas dia 3 semanas extensiva: 2 horas al día 6 semanas intensiva: 4 horas dia 3 semanas extensiva: 2 horas al día 6 semanas semi-intensiva: 3 horas dia 4 semanas semi-intensiva: 3 horas dia 4 semanas intensiva: 4 horas dia 3 semanas extensiva: 2 horas al día 6 semanas intensiva: 4 horas dia 3 semanas extensiva: 2 horas al día 6 semanas semi-intensiva: 3 horas dia 4 semanas
3,600
*
,820 ,000
1,575
5,625
7,700
*
,820 ,000
5,675
9,725
-3,600
*
,820 ,000
-5,625
-1,575
4,100
*
,820 ,000
2,075
6,125
-7,700
*
,820 ,000
-9,725
-5,675
-4,100
*
,820 ,000
-6,125
-2,075
7,100
*
,820 ,000
5,075
9,125
*
,820 ,000
11,975
16,025
-7,100
*
,820 ,000
-9,125
-5,075
6,900
*
,820 ,000
4,875
8,925
- ,820 ,000 * 14,000 * -6,900 ,820 ,000
16,025 -8,925
11,975 -4,875
14,000
102
Variable dependiente
velocidad
condicion
extensiva: 2 horas al día 6 semanas
Comparaciones por pares (I)metodo (J)metodo
método A método B
semi-intensiva: 3 horas dia 4 semanas intensiva: 4 horas dia 3 semanas
método A método B método A método B
dimension3
dimension3
dimension3
dimension3
dimension3
dimension3
dimension0
precision
extensiva: 2 horas al día 6 semanas
método A método B
semi-intensiva: 3 horas dia 4 semanas intensiva: 4 horas dia 3 semanas
método A método B método A método B
dimension3
dimension3
dimension3
dimension3
dimension3
dimension3
método B método A método B método A método B método A método B método A método B método A método B método A
Diferencia de medias (I-J) * -8,500
Intervalo de confianza al 95 % a para la diferencia Límite Límite inferior superior -12,955 -4,045
Error típ. 2,222
Sig. ,000
*
2,222
,000
4,045
12,955
-3,000
2,222
,183
-7,455
1,455
3,000
2,222
,183
-1,455
7,455
2,600
2,222
,247
-1,855
7,055
-2,600
2,222
,247
-7,055
1,855
-3,800
*
,820
,000
-5,443
-2,157
3,800
*
,820
,000
2,157
5,443
-,300
,820
,716
-1,943
1,343
,300
,820
,716
-1,343
1,943
2,500
*
,820
,004
,857
4,143
-2,500
*
,820
,004
-4,143
-,857
8,500
a
103
TEMA 5.A.: ANÁLISIS FACTORIAL EXPLORATORIO Y COMPONENTES PRINCIPALES Introducción
Técnicas de reducción de datos que permiten estudiar las dimensiones que subyacen a las relaciones entre una serie de variables.
Carácter exploratorio
Análisis Factorial (AF) ≠ Componentes Principales (CP)
Uso
Estudios psicométricos
Estructura interna de un test
Relación de un test con otros
Desarrollar teorías
Resumir información a través de las puntuaciones factoriales
05/11/13 Busca las relaciones que se dan entre una serie de variables cuantitativas, y qué dimensiones subyacen entre las variables que estamos midiendo. No hay diferencias entre VI y VD, son todas del mismo estatus. Buscan agrupar variables basándose en la relación que existe entre ellas. Dimensiones o factores subyacentes. Lo que permite que las variables sean homogéneas son los factores o componentes. Técnicas de carácter exploratorio, no partimos de hipótesis previas, la única aspiración que tenemos es contar lo que ocurre en la muestra con la que estamos trabajando. Ser capaces de construir menos dimensiones con la menor pérdida de información posible que expliquen las relaciones entre los datos. Técnicas de análisis factorial confirmatorio, se dan frente a las anteriores, sí parten a priori de la definición de una cierta estructura de los datos. Mirar si ese modelo cuadra con la estructura real de los datos. Siempre tienes una cierta idea de lo que esperas encontrar, también en el exploratorio. En estudios psicométricos, el análisis factorial sirve para mirar validez. Para desarrollar teorías, como la teoría factorial de Eysenck.
104
El comienzo: La matriz de correlaciones Punto de partida del análisis factorial, matriz de correlaciones simétrica. El análisis factorial busca conjuntos homogéneos de variables, con variables muy relacionadas entre sí y que se diferencian de otras. Nºs rojos: correlaciones altas entre un número de variables. Nºs azules: tienen el mismo patrón, se relacionan mucho entre sí y poco con el resto de variables. El resultado final es la matriz factorial. Expresa la relación entre las variables observables y los factores que subyacen a la primera matriz. El modelo es de dos dimensiones subyacentes a los datos. Matriz factorial que aparece con unos pesos, cargas o saturaciones factoriales. Nos dan la relación que existe entre las variables observadas y el factor. Los coeficientes factoriales o saturaciones van entre +-1. Cuanto más alto el valor del peso, la variable contribuye más a definir el factor.
A B C D
A
B
C
D
E
F
G
H
VAR
Factor 1
Factor 2
1
.87
.12
.11
.92
.08
.61
.08
A
.95558
.04616
1
.07
.17
.89
.13
.57
.15
E
.94828
.04119
1
.86
.10
.88
.14
.56
B
.93463
.08318
1
.14
.91
.09
.60
G
.73099
.06213
1
.06
.55
.07
F
.03531
.95125
1
.08
.58
D
.08330
.94641
1
.07
C
.05697
.92905
1
H
.05845
.73754
E F G H Matriz de correlaciones (R)
Matriz factorial
El modelo matemático
La puntuación de un sujeto en una variable observada depende de la combinación lineal de sus puntuaciones en una serie de variables no observadas que denominamos factores. -
F. Factores comunes, que determinan la puntuación en diferentes variables observadas. Explican la correlación entre las variables, explican lo que hay en común entre ellas, son lo que aparece en la matriz factorial.
105
-
-
E. Factores únicos, se refiere a factores exclusivos de una sola variable observable. Expresa la parte específica de cada variable, lo que no tiene en común con el resto de variables. Suele incluirse aquí el error de muestreo (por tener muestra en lugar de población) y el error de medida Lambda. Peso factorial o carga factorial, indican la relación entre la variable observada y el factor subyacente. A veces se pone p en lugar de lambda.
Se asume que los factores comunes no se relacionan con los factores únicos, correlación 0. En una primera etapa del modelo, los factores comunes además son independientes entre sí, correlación entre Fs 0.
Conceptos Básicos
Comunalidad (H2): Proporción de varianza de la variable observable Xj que es explicada por los factores comunes del modelo. Para cada una de las variables tendremos su correspondiente comunalidad, parte de varianza común explicada. ¿Qué proporción de la varianza de A consiguen explicar entre C1 y C2? Si son independientes, vale con sumar los pesos al cuadrado.
Unicidad: Complementario. Proporción de la varianza de la variable Xj que no es explicada por los factores comunes. 1-Comunalidad = Unicidad
Autovalores: Indicador de la varianza que u factor explica del total de la varianza de las variables observadas. Cuanta varianza, del total de las variables observadas, explica un factor. Trabajamos en columna.
R = Reproducida + Residual: Matriz de correlaciones de las diferencias entre las observadas y las reproducidas por el modelo. Correlación A-B: Empírica Correlación A-B reproducida Correlación A-B residual
Si quiero saber si un modelo factorial ajusta bien tendría que esperar que la residual fuera 0, que coincidieran la empírica y la reproducida. Cuanto mayor sea el coeficiente más influencia tiene el factor en la variable observable. Coeficientes estandarizados de regresión Una puntuación típica tiene varianza 1.
Pesos factoriales vs Coeficientes de estructura
106
Si los factores con los que estamos trabajando no tienen correlación entre ellos, factores ortogonales. En este caso esos pesos factoriales son la correlación entre la variable observada y el factor correspondiente, además de aplicarse la interpretación anterior. La solución final nos da dos matrices, la matriz patrón o de configuración, donde van los pesos factoriales, y lo que nos indican esos pesos son la interpretación como Beta; pero ya no indican correlación, porque además de la matriz patrón da una matriz de estructura, donde aparecen los coeficientes de estructura, correlaciones entre la variable y el factor. Factores oblicuos: aquellos que tienen relación entre sí. Se mira generalmente la matriz de configuración o patrón.
“No hay una única manera “correcta” de hacer un análisis factorial del mismo modo que no hay una única manera “correcta” de fotografiar Waikiki Beach” Cronbach, 1970
Pasos en la Realización de un Análisis Factorial 1.- Diseño del estudio y comprobación de la adecuación de los datos: La calidad del análisis depende de la calidad de los datos 2.- Extracción de factores 3.- Selección del número de factores 4.- Rotación 5.- Interpretación de la solución 6.- Cálculo de la puntuaciones factoriales
Tipo, Distribución y Número de Variables
Como partimos de correlaciones de Pearson necesitamos variables cuantitativas y normalmente distribuidas (especialmente su queremos generalizar los resultados más allá de nuestra muestra).
Si empleamos variables tipo Likert podemos tener problemas si las distribuciones son muy asimétricas. Los índices de asimetría deberían estar entre +1 y -1.
Para ítems dicotómicos sus medias deberían estar entre .4 y .6.
Correlaciones policóricas.
Al menos tres variables por factor
Partimos de una matriz r de correlaciones de Pearson, se supone que esas variables están normalmente distribuidas. La mayoría de las veces el análisis factorial no cuadra con los datos.
107
La normalidad es importante para hacer técnicas inferenciadas, no tiene tanta importancia para comprobar un modelo, sí cuando queremos generalizar a población. Pruebas psicométricas: campo en el que más se utiliza el análisis factorial Opciones: Correlaciones policóricas: con más de dos categorías, la matriz r no sería de pearson sino policóricas o tetracóricas (de 2, cuando binómicas).
06/11/13
Tamaño y tipo de muestra
Las muestras de conveniencia pueden dar problemas porque suelen ser muy homogéneas y eso produce una atenuación de las correlaciones por la restricción del rango de puntuaciones.
Tamaño de muestra recomendable: 200 sujetos mínimo. Con menos de 5 sujetos por variable, o con menos de 100 sujetos, el AF daría resultados poco fiables.
Las muestras de conveniencia tienen el problema de que los sujetos suelen ser muy homogéneos entre sí, atenuación por restricción de rasgos, las correlaciones tienden a dar más bajas. Como si utilizamos una muestra de estudiantes de psicología. Si no tenemos muestras aleatorias. Además problema de generalización de resultados. Adecuado 10 sujetos por variable.
Índices de adecuación
Determinante:
Indicador de multicolinealidad
Debería ser mayor de 0.00001.
Kaiser-Meyer-Olkin (KMO):
Medida de adecuación de la muestra (mide en que medida cada variable está correlacionada con las otras)
1 ≥ KMO > 0.9 muy bueno 0.9 ≥ KMO > 0.8 meritorio 0.8 ≥ KMO >0.7 mediano 0.7 ≥ KMO > 0.6 mediocre 0.6 ≥ KMO > 0.5 bajo KMO > 0.5 inaceptable
108
Test de esfericidad de Barlett:
Pone a prueba la hipótesis de que R es una matriz identidad
Debería ser significativo p < .05
Permiten comprobar si cumplimos unos ciertos límites para abordar el análisis factorial. Las pruebas más comunes de adecuación de la muestra son el KMO (fuerza de correlación entre cada una de las variables y el resto de las variables, de 0 a 1, cuanto más cerca de 1 mejor se adecúa; por debajo de 0,7 mal); y el test de esfericidad de Barlett (matriz de correlaciones inicial no sea una matriz identidad, nos interesa p<0,05). Buscan que las variables observadas estén correlacionadas entre sí para poder hacer análisis factorial. El Determinante busca lo mismo de manera contraria, que no haya una correlación muy alta, si todas correlacionaran 1 el determinante de la matriz saldría 0, en correlación perfecta no tiene sentido aplicar análisis factorial.
Extracción de factores AF vs CP Procedimientos de AF Extracción de factores. Busca dar valores a los parámetros que hagan que las correlaciones producidas por el modelo sean lo más parecidas posibles a las observadas, que la matriz de residuales sea lo más cercana a 0 posible.
Diferencia entre Análisis Factorial y Componentes Principales
Aparentemente son casi idénticos, ambos procedimientos tienen un objetivo común, extraer dimensiones a partir de los datos empíricos, diferencias más conceptuales. Cuando hacemos un AF se asume que refleja un constructo, una variable que realmente existe pero que no podemos observar/medir directamente. De tal forma que mis datos empíricos, las variables observadas, funcionan como indicadores de ese constructo. Es esa variable teórica la que genera las variables observadas, los indicadores. Cuando hacemos un análisis de CP no suponemos nada, combinación de datos por transformaciones lineales, pero no asumen que por debajo hay constructos psicológicos reales. Hace una reagrupación
109
empírica de datos. Procedimiento de reducción de dimensiones puramente empírico. Hablo de componentes, no de factores; el flujo va de lo observado a lo no observado. En el AF se distingue entre varianza común, a todas las variables empíricas, y única, exclusiva a una determianda variable. Se trata explicar la varianza común, en el CP trata de explicar todas las varianzas de las variables empíricas. Comunalidad, en componentes principales, como quiero explicar toda la varianza, la comunalidad valdrá 1, quiero explicar toda la varianza. En AF, la comunalidad será siempre un valor inferior a 1. R reducida: Estimación de la comunalidad en la diagonal principal. Cuando hagamos componentes principales, el valor será 1, en AF menor. En la mayoría de las ocasiones las diferencias empíricas son mínimas.
Distingue entre varianza común y varianza única Trata de explicar la varianza común. Comunalidad inicial = correlación múltiple al cuadrado No distingue “segmentos” de varianza Trata de explicar toda la varianza. Comunalidad inicial = 1
Producen resultados similares cuando: 1. el número de variables es grande (más de 30) 2. las variables tienen poco error (mucha comunalidad)
Métodos de extracción en AF
Descriptivos
No tratan de generalizar a la población, se quedan en la muestra. Para generalizar mirar en diferentes muestras, por replicación del mismo experimento. Métodos de mínimos cuadrados ordinarios, buscan minimizar los residuales al cuadrado: o Ejes principales, o factores principales o Imagen o Mínimos cuadrados no ponderados, ULS
110
Inferenciales
Pretendemos hacer generalización a la población, a costa de poner más supuestos a. Aleatoridad b. Asumir que los ítems son la población de todos los posibles para medir un determinado constructo Dan índices tipo chi2 que permiten mirar el ajuste del modelo, pero cuando el tamaño de muestra es grande tiende a sobreestimar el nº de factores. La mayoría procedimientos iterativos.
Métodos de extracción en AF Independientemente del método el resultado es la Matriz Factorial No Rotada, que se caracteriza porque los factores: a) Correlacionan 0, son independientes b) Aparecen ordenados según la proporción de varianza que explican
Este parte de matriz reducida con diagonal principal de correlaciones múltiples al cuadrado. Por defecto SPSS usa componentes principales. 1. Independientemente del método, el resultado es la Matriz Funcional No Rotada. Solución inicial que siempre cumple con: Entre los factores extraidos correlación 0. Factores independientes Se presentan de forma decreciente en función de su varianza explicada 2. Podemos derivar tantos factores o componentes como variables observadas tengamos. Pero entonces no habría reducción de la dimensionalidad.
Ejemplo Escala de actitud hacia la democracia. Lickert 1-5
Determinante bien Barlett significativa KMO 0,8 bueno Tabla de comunalidades: Iniciales: si hubiera utilizado componentes principales la comunalidad inicial sería 1, y luego tras aplicar el procedimiento la suya. Rotación ortogonal Matriz factorial no rotada o inicial: Pesos de la variable observada. No hay en blanco, mandaste al SPSS que por debajo de un determinado peso los quite.
111
Selección del número de variables Dos procedimientos: Rela de Kaiser o K1 de Kaiser: Cuál es el autovalor de cada uno de los factores, reteniendo aquellos que tengan un autovalor mayor que 1. Tiende a sobreestimar el número de factores. El procedimiento funciona peor cuanto menor tamaño de muestra y más número de variables, aunque es el procedimiento más popular. Gráfico de sedimentación (Scree plot de Catell), más intuitivo, hacer una gráfica, en el eje X pones los diferentes componenetes, en Y los autovalores. Lo normal es encontrar gráficas curvas con algún punto de inflexión, a partir del punto donde la línea se hace horizontal tenemos que dejar de coger componentes. Nos quedaríamos con todos los componentes que están a la izquierda del punto de inflexión.
-San MillánMap de velicer (mínimum average partial correlation): Es un nuevo procedimiento. Basado en las correlaciones parciales. Lo que hace es ver en qué valor la media de las correlaciones parciales al cuadrado es mínimo. Ese mínimo indica en qué momento debemos de dejar de extraer factores. Análisis paralelo de Horn: Genera un número de matrices aleatorias (que suele ser entre 50 y 100) y con la misma dimensión que nuestra matriz original. Estas variables serán independientes entre sí, por lo que se supone que no subyacen factores comunes, la poca correlación que pueda haber será mera casualidad. El procedimiento para todas estas matrices es calcular el autovalor para cada uno de los factores que se puedan extraer en esa matriz y luego los promedia para con el número de matrices que tengamos. Esos valores son los que luego comparan con los autovalores de nuestra matriz empírica (la real) y se queda con aquellos factores en los que los autovalores de la matriz empírica sean mayores a la media de los factores de las matrices aleatorias. En nuestro ejemplo, las dos primeras están por encima de las muestras aleatorias, por lo que únicamente nos quedaríamos con el Factor 1 y el Factor 2.
112
METODOS NO TAN POPULARES Residuales: Lo que deberíamos de tender a encontrarnos es que esos residuales tienen una distribución mas o menos simétrica, tirando a la curva normal y su media debería de ser 0. La ecuación que tenemos arriba, se considera un índice de ajuste y con valores menores de 0,08 indican un buen ajuste Máxima verosimilitud: número más bajo de factores con chi-cuadrado no significativa. Buscamos que el modelo ajuste por lo que no debe de ser significativa. Entre todos aquellos que ajustan nos quedamos con el que menos factores tiene. Medidas basadas en los modelos AF confirmatorios: en algunos programas o artículos se utilizan este tipo de índices, que provienen de los modelos confirmatorios. -
Índice Gamma o GFI superior a 0.9 (va entre 0 y 1)
-
TLI-NNFI superior a 0.9 (va entre 0 y 1)
-
RMSEA Inferior a 0.08
Como no hay acuerdo de que índice mirar, pues se mira mas de uno.
113
ROTACIÓN DE FACTORES La matriz de correlaciones que nosotros tenemos podría reproducirse ajustando igual de bien desde diferentes matrices factoriales. Dicho de otra manera no hay una única solución factorial. Por tanto tenemos una indeterminación. Esto se representa como lo vemos aquí (representación ortogonal, ángulos rectos). Los ejes serían los factores (factor 1 y factor 2). Entonces en esta grafica indicamos los pesos en forma de coordenadas. Es decir se coloca el peso según la puntuación que tenga en el factor 1 y en el 2. Si los dos ejes tienen ángulos distintos, hablamos entonces de factores relacionados u oblicuos. Los factores que tienen los mismos pesos en los dos factores son muy difíciles de interpretar puesto que no podemos decidir a qué factor pertenece. Para solucionar esto, giramos los ejes de coordenadas (rayas rojas) para que se acerquen a los pesos.
Estructura Simple Nos indica que debemos hacer para que sea simple interpretar una estructura factorial. Se defiende que han de cumplirse 3 condiciones: 1 - Cada factor debe tener unos pocos pesos altos y otros próximos a 0. 2 - Cada variable no debe de cargar más que en un factor. 3 – No deben existir factores con la misma distribución, es decir, los factores distintos deben presentar distribuciones de cargas altas y bajas. Si tienen la misma distribución de cargas, estamos contando lo mismo.
rotación ortogonal (factores independientes)
Varimax
Quartimax
rotación oblicua (factores correlacionados)
Matriz de configuración Matriz de estructura
Oblimin
A la hora de mover los ejes hay dos opciones: rotamos ortogonal (90 grados entre los ejes) u oblicuo (permitimos cambiar los grados). Cuando rotamos el eje, cambian los pesos, pero no cambia la varianza explicada por el modelo.
114
Rotación ortogonal (factores independientes): Varimax: intenta maximizar la varianza de los pesos dentro de un factor. Es decir, trata de que haya unas variables con pesos muy altos y otras con pesos muy bajos. Esto se realiza cuando no hay factores dominantes (los factores explican más o menos la misma proporción de varianza) Quartimax: maximizar la varianza de los pesos pero por filas dentro de una variable. El caso más extremo sería un peso muy alto en una variable y un peso muy bajo sobre otras (se centra sobre todo en la segunda condición). Se tiende a dar un factor dominante y otros mas pequeños Cuando utilizar uno u otro depende de lo que estemos buscando
Rotación oblicua (factores correlacionados): además de girar permitimos que los ejes se acerquen, por lo tanto sus factores ya no son ortogonales, son factores con correlación entre ellos. Aquí ya son cosas distintas los pesos y la correlación -
Matriz de configuración: nos indica los pesos
-
Matriz de estructura: nos indica las correlaciones. Oblimin: es el método clásico, trata de maximizar las diferencias entre los factores, para que sean unos claramente diferentes a los otros.
En principio, Marcelino es partidario de la oblicua. En psicología en la mayoría de las ocasiones los constructos están relacionados entre sí. Pero en lo que debemos de fijarnos es en nuestro supuesto: si yo asumo que lo que subyace a mis variables está relacionado o no. Una manera de operar racional es empezar con una oblicua, si entre los factores que tengo la correlación es muy baja (.20) entonces es recomendable no complicarnos la vida y hacer una ortogonal. No se podrá rotar en soluciones unifactoriales (ya que si cada eje es un factor, es imposible)
Interpretación de los Factores
Estudiar la composición de las saturaciones factoriales de cada factor
Dar nombres a los factores
Para que nos ayude:
Ordenar la matriz rotada según el tamaño de los pesos
Eliminar pesos bajos (> .30)
115
Puntuaciones factoriales •
Componentes principales
•
Método de Regresión
•
Método de Barlett
•
Método de Anderson-Rubin
No es para nada obligatorio Se hace cuando el objetivo de nuestro análisis es simplemente una reducción de datos. Las puntuaciones factoriales se calculan después de realizar la rotación. Se calcula multiplicando el peso de cada factor por su puntuación en la variable. Componentes principales: •
Método de Regresión: es el que da por defecto el Spss, da lugar a unas puntuaciones factoriales de media 0 y su varianza es la correlación múltiple al cuadrado entre las variables y el factor con el que estamos trabajando. Hay que tener en cuenta que las puntuaciones factoriales estimadas pueden estar correlacionadas entre sí aunque la rotación que hayamos hecho haya sido ortogonal.
•
Método de Barlett: media 0 y la varianza es la correlación múltiple al cuadrado entre variables y factor. Trata de minimizar la influencia del factor especifico, de la unicidad. Da mas fuerza a lo que hay común entre los factores. También podría darnos puntuaciones factoriales relacionadas entre sí
•
Método de Anderson-Rubin: modificación del anterior, con una escala de media 0 y desviación típica 1 y donde las puntuaciones factoriales no están correlacionadas entre sí.
Ejemplo: análisis de una escala de actitud hacia la democracia (Morales 2006) Los ítems negativos irían en contra de la democracia y los positivos a favor. Es una escala con 6 items que trata de medir actitudes hacia la democracia.
Matriz de correlacionesa a. Determinante = ,092
116
Se analizaron los datos para ver: Matriz de correlaciones: determinante= 0’092. No hay problema de multicolinealidad perfecta. La prueba de esfericidad de bartlett es significativa, por tanto no es una matriz de identidad y es adecuada para hacer una AF. El KMO es meritorio (0’805). La tabla de comunalidades nos indica dos cosas: -
Columna inicial: si fuese componentes principales sería 1. Como no lo es, sé que me encuentro ante AF.
La tabla de varianza total explicada se llamaría solución explicada. Como en el Spss se utiliza la regla de K1, pues extrae todos los factores con sus correspondientes autovalores y corta por autovalores mayores que 1. Si no le decimos nada al Spss, el utiliza por regla el K1. Así, encontramos que nos quedamos con dos únicos factores el 1 y el 2.
En este caso K1 y plot de Catell cuadran perfectamente.
117
Rotación Ortogonal En la matriz factorial tengo los pesos de cada variable observada en los dos factores. Lo que aparece en vacío es para que SPPS quite valores bajos. Cuando nosotros rotamos por los ejes manteniéndolos independientes nos encontramos con la matriz de factor rotado. Como vemos es mucho mas fácil interpretar la segunda.
Rotación Oblicua SI rotamos de forma oblicua encontramos una matriz de patrón (pesos factoriales), una de estructura y una de correlaciones factorial. Aquí, la matriz de patrón es mucho mas fácil de interpretar. La matriz de estructura da lugar a confusión. Si queremos ver que variable define cada factor, nos lo indica la matriz patrón.
Si la correlación estan los dos de 0.60 para arriba, entonces están midiendo lo mismo. Para interpretar el analisis factorial, lo primero que debemos de mirar son las cargas factoriales olvidandonos del signo, dependiendo del tipo de rotación que hemos realizado elegiremos una tabla u otra (matriz de factor rotado ortogonal; matriz de patron oblicua). El segundo paso es darle nombre al factor. Para ello ordenamos las variables según su peso en los factores. Si los dejas desordenado es mucho mas dificil de interpretar. Una variable que carga en mas (mas o menos lo mismo) de un factor es una variable compleja. Esa no se utiliza para la interpretación, es decir, no se tiene en cuenta a la hora de denominar le factor. Para nombrar los factores entonces, deberemos de mirar a que se refieren las variables originales que definen ese factor y buscar lo que hay de común en ellas. 118
Los items impares que son los que representan el primer factor vemos que presentan una actitud antidemocracia. Los items pares representan una actitud favorable a la democracia. La matriz de correlación reproducida es la que saldría del modelo. Esta no coincide con la original, pero se trata de que si el modelo funciona bien debería de estar bastante cerca de la original y esto nos lo ofrece la matriz de residuo. Como vemos todos están muy cercanos a 0. Por tanto si que parece que la solución por la que hemos adoptado de 2 factores es eficiente.
13/11/13
Ejemplo Práctico, Programa FACTOR Con el programa FACTOR puede trabajarse desde una matriz de datos brutos, de correlaciones o matriz var-covar. Escala Lickert, ansiedad ante la estadística. Las escalas lickert, a partir de 5, puedes contarlas como cuantitativas. SPSS 1. Comprobar supuestos de normalidad. Con índices estadísticos o histograma. a. KS de 1 muestra. i. Ninguna se corresponde con la normal, pero era esperable puesto que solo tenemos 5 categorías. b. Gráficos. i. Con distribuciones más o menos centradas no son muy preocupantes. 2. Factorial con componentes principales, para ver con cuántos factores nos quedamos y empezar a trabajar. a. Pedimos KMO para ver cómo funcionan las muestras, si la matriz es adecuada para analizar. i. Valor mínimo .50, buscamos entorno a .80. ii. Barlett tiene que dar significativa. iii. Comunalidad inicial 1 b. Autovalores mayores que 1 (por defecto), regla K1. i. 23 componentes principales
119
ii. Con 4 factores se explica entorno al 50% de la varianza, los que tienen más que 1 en autovalor cuando te da los resultados. c. Gráfico de sedimentación i. En un primer golpe de vista parece que hay solo dos factores, ver la solución con 2 y con 4 y ver con cuál cuadra mejor nuestro modelo.
Podríamos hacerlo con SPSS, pero vamos a ver el programa “Factor”. psico.fcep.urv/utilitats/factor Factor no lee datos de SPSS, tenemos que pasarlo a formato “ascii”, el SPSS en -guardar como- le das a delimitado por tabuladores. Factor te pide que introduzcas nº de sujetos y nº de variables (23 ítems que componen el cuestionario). Hull: Busca un modelo parsimonioso Factores relacionados entre sí, todos intentan mirar la ansiedad. Intentamos en principio con oblicua, si no sale muy bien podemos probar con ortogonal. No nos interesan variables muy asimétricas. En los descriptores univariantes tenemos que mirar los índices, tienen que estar entre +-1. La curtosis nunca ajusta, siempre da significativo. Puede que sea por el tamaño de muestra, que cuando es muy grande siempre da significativa, puede que sea muy sensible a la muestra. Matriz de datos estandarizada. El programa aconseja quedarnos con 4 factores. Rotación oblicua, en la primera matriz no hay forma de interpretar nada. Rotated loading matrix: A partir de la matriz original de distribución de pesos, plantean una matriz objetivo de llevar a 0 los pesos que no son significativos, para dar una visión más clara. Esta es la matriz que utilizamos para interpretar los datos, no la de correlaciones. Corta a partir de .30, en clase vimos a partir de .40.
120
TEMA 6.A.: ANÁLISIS DISCRIMINANTE Definición •
El Análisis Discriminante es una técnica estadística que permite estudiar las diferencias entre dos o más grupos de objetos con respecto a varias variables cuantitativas simultáneamente.
•
El problema que nos resuelve el Análisis Discriminante es el de reducir el número de variables que discriminan entre los grupos a una, dos o varias nuevas variables (llamadas factores, variadas, variables canónicas), que son combinación de las anteriores y que viene expresadas por una función discriminante.
19/11/13 Respecto a una serie de variantes cuantitativas de manera simultánea para tratar de diferenciar entre dos o más grupos. Reducir el número de variables que discriminan entre grupos, creando dos, tres o más variables nuevas (canónicas) que son combinación de las anteriores y que vienen expresadas en una función discriminante, perdiendo la menor información posible. Se parece bastante a otras técnicas. El caso más sencillo posible tenemos dos variables cuantitativas, representación conjunta de dos grupos de sujetos respecto a dos variables (los dos huevos de la gráfica 1 de la diapositiva). ¿Qué ganancia tengo utilizando la función discriminante respecto a utilizar las variables cuantitativas?
Si yo tuviera sólo X1, los grupos se solapan, si cojo un punto medio en algunos casos me voy a equivocar. Si lo hago sólo con X2 y establezco un criterio de a partir de una puntuación los sujetos son de un grupo o de otro, también voy a tener una serie de errores. El análisis discriminante busca que seamos más capaces de diferenciar los grupos, para que se solapen menos y cometer menos errores de los que se cometen en un principio. Nueva variable D, ya no x1 ni x2. Cómo se distribuyen los grupos respecto a las dos variables conjuntamente. Menores errores en la clasificación.
121
Usos •
Clasificación (Análisis Discriminante Predictivo)
•
Explicación (Análisis Discriminante Descriptivo)
Uso de clasificación: asignar sujetos a grupos en base a las nuevas variables. Análisis discriminante predictivo. Explicar en qué difieren los grupos: por qué se dan diferentes grupos, de esas variables que estamos considerando, cuáles tienen mayor influencia. Análisis discriminante descriptivo Generalmente en los análisis se mezclan ambos usos de la técnica.
Análisis Discriminante vs. Regresión Logística o o
Tipo de VI Tipo de función: Lineal vs Sigmoidal
Muy parecida a regresión logística. Aunque esta última se utiliza en cuanto a factores de riesgo, el discriminante se utiliza más en el ámbito económico, aunque fundamentalmente es lo mismo. La diferencia más clara es la VD, en logística podría ser cualitativas o cuantitativas o mixtas, en el análisis discriminante las variables son necesariamente cuantitativas. Menos supuestos que en regresión logística. El discriminante se basa directamente en el modelo lineal, no en modelo logístico (S). En muchos libros animan a aplicar la logística cuando no se puede utilizar la discriminante. Lo que no se puede hacer es al revés, ya que el discriminante no admite variables cualitativas.
Análisis Discriminante vs. MANOVA
El AD es otra forma de ver el MANOVA con un solo factor.
122
Condiciones de Aplicación •
Al menos dos grupos mutuamente excluyentes
•
2 casos o más por cada grupo
•
Número VI máximo: número de casos menos 2
•
VD cualitativa, VIs cuantitativas
•
Ausencia de multicolinealidad entre las VI
•
Número máximo de Funciones Discriminantes = el menor de: número de VIs o número de grupos menos 1
•
Homogeneidad de varianzas
•
Normalidad multivariada
•
Sensible a los valores extremos
•
Tamaño de muestra: En cada grupo 20 casos por predictor.
En MANOVA, VI a la V. cualitativas, VD a las cuantitativas. Cuando AD tratamos de ver si con una combinación de V.cuantitativas somos capaces de explicar una serie de diferencias entre los grupos, ahora las VI son las cuantitativas, y la VI las cualitatativas. En el fondo estamos intentando ver las diferencias entre grupos. La diferencia principal está en cómo planteamos la situación, pero incluso algunos estadísticos son los mismos. ANOVAS univariados como alternativa cuando da significativo el MANOVA, hay otras posibilidades de hacerlo, como con análisis discriminante. El MANOVA calcula una variada, combinación de V.D. Hay una dimensión o más que explican las diferencias entre grupos?
Tenemos que tener al menos dos grupos, que tienen que definir categorías excluyentes, que no se solapen. Al menos han de tener dos casos por grupos. Con dos variables independientes menos que el tamaño demuestra, pero los modelos cuanto más parsimoniosos sean mejor. La VD tiene que ser de tipo cualitativa, y las VI o variables discriminantes han de ser cuantitativas. Las VI no deben ser muy redundantes, problema de colinealidad. Podemos construir más de una función discriminante, hasta el nº de VI que tengamos o el nº de grupos menos 1 (el valor de entre los dos que sea más pequeños). Tiene los supuestos básicos del modelo lineal general. Es una prueba bastante robusta, tiene más problemas en casos extremos, que influyen mucho en la varianza. Prueba propuesta por Fisher, aunque en sus datos no cumplen normalidad ni homogeneidad de varianzas. El AD admite grupos de distinto tamaño, aunque mejor cuanto más equilibrados estén los grupos. Lo que no se puede es tener grupos con muy pocos sujetos, bastantes más casos que VI. 20 sujetos por cada variable predictora en cada grupo.
123
Ejemplo de empresas:
ver si en base a unas características de los empleados podríamos diferenciar
entre unas empresas y otras. Análisis de varianza univariado de forma contraria que en el ANOVA. Lambda de Wilks como si fuera una F, las variables predictoras o discriminantes difieren estadísticamente en los grupos que tenemos. Si la gran mayoría no tiene diferencias significativas para este tipo de análisis no va bien. Comparación del supuesto de homogeneidad de varianzas. Matrices var-covar. En ANOVA utilizábamos la M de Box, cuando era significativo no hay homogeneidad (suele ser lo más habitual). M de Box criticada, con tamaños de muestra grande, a la mínima desviación da significativo, seguramente no haya tanta diferencia de varianzas. El logaritmo de los determinantes de las matrices var-covar para cada uno de los grupos. Indicador generalizado de la varianza. El determinante es un escalar, resumen de la varianza. Entre los determinantes no hay muchas diferencias, lo que apunta a que cualquier mínima diferencia da significativa M de Box.
124
La función discriminante
•
Las funciones maximizan la distancia entre los grupos.
•
Los coeficientes se derivan por Máxima Verosimilitud
•
Cada función explica una cantidad decreciente de varianza
Combinación lineal de variables, donde la D son las puntuaciones discriminantes. X puntuaciones directas de los sujetos en las V. discriminantes, U pesos discriminantes para las variables. Función que consigue la mejor diferenciación entre los grupos, maximizar las diferencias entre los grupos. El centroide, media multivariada, el centroide de un grupo, media de variables combinadas. Busca maximizar la distancia entre los centroides de un grupo. La segunda función busca lo mismo, pero con la condición de que las puntuaciones discriminantes de la segunda función no estén correlacionadas con la primera. Las de la tercera no pueden estar correlacionadas ni con la primera ni con la segunda, funciones ortogonales entre sí. Los coeficientes en regresión múltiples se estiman por mínimos cuadrados. Aquí, como en regresión logística, procedimientos iterativos. Tantas funciones como n-1 grupos. Explicar lo más posible de las varianzas de las funciones discriminantes. El procedimiento es secuencial, la segunda función es la que explica la mayor cantidad de varianza de la varianza que la primera dejó sin explicar (varianza residual).
Significación de las Funciones
Lambda de Wilks para ver diferencia de medias, si es significativa indicará que el conjunto de funciones consiguen discriminar entre los grupos mejor que el azar. Cuanto más bajo sea su valor, mayor capacidad predictiva, cuanto más cercanos a 0, nos indica que la proporción de varianza no explicada por el modelo es baja. Va de 0-1. Nos dice si el global de las funciones derivadas tienen capacidad discriminativa; para saber si una función tiene capacidad discriminativa por ella misma utilizamos un procedimiento algorítmico. Autovalores: indicador de varianza explicada, no de proporción. Puede conceptualizarse como el cociente entre varianza explicada y varianza no explicada (de error). Autovalores mayores que 1 nos están diciendo que 125
hay más varianza explicada que varianza de error. Nuestro objetivo es que ese autovalor sea mayor que 1. Con términos negativos MAL. Autovalores y Lambda son más descriptivos. Algoritmo para comprobar la significación de las funciones. Calcular la lambda de wilks para las funciones que tengo (3 por ejemplo), si no da estadísticamente significativo acabo el análisis, si no tienen capacidad discriminativas todas juntas menos lo tiene una. Si da estadísticamente significativa el conjunto de las funciones tienen capacidad predictiva. Al menos la primera será por tanto significativa, porque es la que más explica de las tres, al menos la primera diferencia bien los grupos. Veo si la segunda y tercera dan diferencias significativas, si no la dan sólo la primera lo era; si dan significativas, al menos la primera y la segunda son significativas. Sigo haciéndolo hasta que lambda no de significativo, te quedas con las que hayan dado. Cuando me quedo con el modelo, por ejemplo de dos funciones, tengo que ver en qué medida funciona ese modelo, como el ajuste. Uno de los índices que nos permiten ver esto es lambda, si queremos la proporción de varianza explicada podemos utilizar 1-Lambda, esto nos sirve para valorar el modelo. El autovalor es el indicador de la varianza discriminante. Si sumamos los autovalores de todas las funciones, tendremos la cantidad total de varianza que explica. Si lo dividimos entre el número de funciones tendremos la proporción de varianza que explica cada función. Capacidad discriminativa de esas funciones respecto al total.
La correlación canónica es un estadístico que permite calcular la correlación entre dos grupos de variables. En el contexto del AD se calcula la correlación entre las variables discriminantes y los grupos. Proporción de varianza explicada. El punto de referencia no es 0, sino el número de sujetos clasificados correctamente por azar. Cuidado porque los grupos pueden tener distinto tamaño, tener en cuenta para calcular los aciertos por azar. Cuando el tamaño de los grupos sean muy extremos por alguna razón sustantiva, tener o no X. Si ese desequilibrio en los grupos refleja el desequilibrio en la población, tener en cuenta a la hora de hacer la clasificación, no son la mitad de cada grupo, por azar. Si en la población los grupos son equilibrados aunque en mi muestra sean desequilibrados, trabajamos con los grupos de manera estándar. Clasificación dejando uno fuera, procedimiento de validación cruzada. No infla los resultados. Interesante. Es “trampa” utilizar los mismos sujetos para construir el modelo y problarlo. Solución de partir la muestra, una mirad se deja para hacer el constructo y otra para la prueba. 126
Otro procedimiento similar es el método Jack Knife, hace el modelo con todos los sujetos menos 1 y luego lo clasifica con el modelo construido sin él. Se hace así con todos los sujetos, es el procedimiento de validación cruzada.
Tabla para análisis cualitativo, cuando me equivoco, ¿Dónde me equivoco? Resultados de la clasificación.
Evaluar la Calidad de los Resultados •
Lambda o (1 – Lambda)
•
Correlaciones canónicas y autovalores
•
Los resultados de la clasificación ▫
Con todos los sujetos
▫
Dejando uno fuera (validación cruzada)
20/11/13
Los Coeficientes de las Funciones Discriminantes Cuando el SPSS deriva la función discriminante nos da varios tipos de coeficientes: Coeficientes discriminantes no estandarizados: los que aparecen directamente en la ecuación del modelo, coeficientes en puntuaciones directas, las U. Equivalente a lo que antes eran las B. Importancia en términos absolutos y en diferentes escalas. Se utilizan para calcular las puntuaciones discriminantes de los sujetos.
127
Coeficientes discriminantes estandarizados: tipificados, equivalentes a las Betas de regresión múltiple. Tenemos ahora términos relativos, nos permiten comparar unas variables con otras. Importancia relativa. Coeficientes de estructura: correlaciones entre la función discriminante y la variable. Intentar dar un nombre al constructo subyacente que está definiendo la diferencia entre los grupos. La variable que tenga más correlación con la función comparte más.
Siguiendo nuestro ejemplo,
La tabla 1 es de típicas (autoestima y neuroticismo las que más cargan en la función 1 y depresión en 2). La 3 de directas (da también constantes). La tabla 2 es de coeficientes de estructura (la que define la segunda función es depresión). La 4 es la tabla de centroides, medias multivariadas. La primera función diferencia sobre todo al grupo de las empresas en quiebra de las de rápida expansión, separa los más extremos. o Es lógico que los que trabajan en empresas en quiebra tengan mayores niveles de depresión, neuroticismo y menores de autoestima. Sensaciones psicológicas contrarias. o La segunda función es más residual, entre el grupo medio y los otros dos grupos.
Cada redondel es la puntuación discriminante de cada sujeto, cada cuadrado es un centroide de cada uno de los grupos. La primera función sí que ayuda a discriminar bien entre los grupos. Pero si miramos la segunda función (eje y) vemos que poco contribuye esa segunda función.
128
Procedimientos de Clasificación •
Las funciones de clasificación
b coeficientes de la función de clasificación El sujeto se clasifica en el grupo con h más alto •
Distancias de Mahalanobis al cuadrado (D2)
Probabilidad a posteriori, P(Gk/D2)
Varias formas de clasificar los sujetos: Función de clasificación: no es exactamente un análisis discriminante. Fisher propone que dentro de cada grupo se busque una combinación lineal de las variables independientes, denominada h. Coeficientes de la función de clasificación (b), para cada uno de los grupos de variables un valor de h para cada sujeto. Clasifico al sujeto en aquel grupo en el que su puntuación h sea mayor. Distancias de Mahalanobis al cuadrado (D2): Distancia entre un sujeto y los centroides de los grupos, le clasificamos en el que la distancia sea más pequeña. Propabilidad a posteriori, P(Gk/D): Es la que utiliza el SPSS. Probabilidad de pertenecer al grupo K dado que el sujeto tiene una puntuación D. Clasificaremos al sujeto en el grupo en que su probabilidad a posteriori sea mayor. 1-nº de grupos, probabilidad a priori cuando los grupos son equilibrados. Si los grupos son desequilibrados quedará reflejado en la fórmula, para grupo habrá una probabilidad a priori distinta. Dará lugar a distintas clasificaciones. Me da una puntuación para cada uno de los grupos. Para hacer este paso hay que pedirlo específicamente al SPSS; no es necesario hacer el análisis discriminante. 129
La probabilidad Vallesiana se diferencia de la a priori en que utiliza más información que puedes obtener en la realidad, no solo la probabilidad a priori sino la puntuación discriminante del sujeto, da una probabilidad a posteriori.
El resultado final es una tabla de resultados de clasificación, el estadístico por casos se pide a parte si quieres, te desmenuza el proceso de clasificación (los asteriscos dan donde se falla, la probabilidad asignada puede ser mucho menor por ejemplo). Compara probabilidades y asigna.
130
Métodos Stepwise de Construcción de las Funciones Discriminantes •
Procedimientos para seleccionar las variables
Lambda de Wilks: Lambda más baja o F más alta.
Varianza no explicada. La variable que minimiza la varianza no explicada
D2 de Mahalanobis. La que maximiza la D2 entre los grupos más próximos
Menor razón F: La variable que hace máxima la menor de las F calculadas según:
V de Rao: La que maximiza este estadístico
Podemos utilizar Stepwise para no quedarnos con todas las variables, o bien a ojo. Las críticas de los procedimientos es que son procedimientos exclusivamente estadísticos. •
Criterios para seleccionar las variables ▫
Valor de F. Mayor a 3,84 para entrar y menor a 2,71 para salir
▫
Probabilidad de F. Menor de 0,05 para entrar y mayor de 0,10 para salir
▫
Tolerancia
Criterios:
Lambda de Wilks: busca que sean lambdas bajas, pero si miramos F buscamos que sea la más alta La variable que hace mínima la varianza no explicada Mahalanobis: coge aquella variable que hace que los grupos estén más separados Estadístico de razón de F: para cada pareja de grupos calculo una F, donde p es el nº de variables independientes dentro del modelo (incluida la que estamos intentando meter). La variable que entra es la que hace máxima el valor de las F más pequeñas. V de Rao: Estadístico de MANOVA que calcula diferencias de medias, incluye la que es capaz de discriminar más entre las medias.
Condiciones previas para seleccionar variables, independientemente del criterio que escojamos de selección. Probabilidad de F: alfa. Similar a valor de F. Es más fácil entrar que salir. Segunda condición: Nivel de tolerancia, 0,001 mínimo para que pueda entrar una variable. Mide la colinealidad entre las variables, la tolerancia es 1-R2. Si R2 es muy alta la tolerancia será muy baja, variables muy relacionadas. Esto se mira para la variable que está entrando y para las variables que están dentro.
131
132
133
134
TEMA 6.B.: ANÁLISIS DE CLÚSTER O CONGLOMERADOS El Análisis de Cluster es una técnica de análisis de datos de carácter exploratorio que sirve para revelar agrupaciones dentro de un conjunto de datos. Se trata de una técnica multivariante que permite agrupar casos o variables en función del parecido o similaridad. Grupos lo más homogéneos entre sí y los más heterogéneos unos frente a otros. Dos técnicas a las que se asemeja bastante el análisis de clúster: Análisis factorial: El análisis factorial es bastante rígido en sus supuestos, mientras que el de clúster es más generalizable. En el factorial partimos de una matriz de correlaciones entre las variables (matriz de distancias), mientras que en el análisis de clúster se pueden utilizar diferentes tipos de matrices de distancia. Cuando los supuestos no se cumplen, o n pequeña, análisis de clúster. o La finalidad es la misma. Análisis discriminante: Desde la perspectiva de agrupar casos, no variables. En el AD tenemos los grupos hechos, cuantitativas; mientras que en el de clúster hacemos los grupos a partir de observadas, y no tenemos supuestos, más flexible.
¿Cómo funciona el análisis de clúster? • • • • • • •
Se basa en el concepto de distancia, agrupando a los casos más próximos. No ofrece soluciones unívocas. Admite todo tipo de variables. No se deben usar variables muy correlacionadas entre sí. Cuidado con los outliers. Las variables deben ser cuidadosamente seleccionadas en base a criterios teóricos. Suele tipificarse las variables
El clúster se basa en el análisis de distancia, agrupa sujetos menos distantes entre sí. Técnica claramente exploratoria en análisis multivariado:
Admite variables tanto cualitativas como cuantitativas, aunque conviene no mezclarlas.
Primero suele hacerse un análisis de componentes principales, para dar coger las variables que dan cuenta de la información, así reducimos la dimensionalidad y tenemos componentes ortogonales.
Problema de outliers, que pueden dar lugar a clústers únicos que realmente no representan a nadie. 135
Los outliers a posteriori se ven bien, también pueden detectarse a priori. Podemos eliminar esos sujetos.
Seleccionar bien las variables para que los grupos resultantes tengan sentido sustantivo.
Se basa sobre todo en el concepto de distancia, basada en las puntuaciones de las variables observadas. Puede surgir problema si hay muchas diferencias en cuanto a la escala, las medidas de distancia pueden ser infladas, puede influir en el resultado de los grupos. o Solución, tipificar, media 0, desviación típica 1.
No existe un único análisis de clúster, dependerá del tipo de variable con la que estamos trabajando, cómo miramos la similitud entre los casos y cómo definiremos cuándo dos casos se agrupan entre sí o cuando dos grupos ya formados se unirán para formar uno mayor.
Medidas de Proximidad (Distancias) En qué medida dos observaciones están relacionadas entre sí. Con las distancias medimos las diferencias, lo que se aleja una observación de otra: raíz cuadrada de la resta de las puntuaciones de los dos sujetos elevados al cuadrado. Medidas de similitud o simaridades: estamos viendo lo contrario, cuán cerca están dos observaciones entre sí. La medida más clásica de similitud es la correlación, Pearson; se calcula respecto a la correlación de dos observaciones, no de dos variables.
Métodos de Clúster Métodos Jerárquicos Grandes bloques, métodos jerárquicos y no jerárquicos, de agrupación. Procedimiento por pasos sucesivos, en el primer paso hay tantos grupos como sujetos observados, se mide la distancia entre esos sujetos y en el primer paso se agrupan los dos que son más cercanos. El siguiente paso puede ser hacer un nuevo grupo o unir a un sujeto a un grupo ya formado. Más adelante se darán agrupamientos de clúster entre sí para dar lugar a grupos superiores. Dentro de los modelos jerárquicos, diferentes criterios para decidir qué sujetos uno:
136
Vecino más próximo: todos los sujetos son clústers individuales, unimos los más cercanos entre sí. o Se miden las distancias entre cada uno del resto de sujetos y cada uno de los elementos que forman parte de ese clúster, se unen aquellos con la distancia más corta. Vecino más alejado: medir distancias entre ellos y quedarnos con la distancia más lejana, de entre los grupos más alejados, se queda con la más próxima. Vinculación inter-grupos: calcula todas las distancias y compara distancias medias. Agrupa los que tienen una distancia media menor Método de agrupación de centroides: Mide la distancia entre los vectores de medias.
El SPSS también oferta el método de WOR, varianza intragrupos la menor posible.
Procedimientos de salida: De tipo anidado, no se separan del mismo grupo una vez se han medio Una vez que un caso se une a un grupo permanece en él durante el resto de etapas posteriores
137
Ejemplo: Situación sanitaria en los países árabes (Engelman, 1985)
Matriz de distancias entre todas las observaciones que tenemos. Se suelen mirar los gráficos del SPSS, Trazar una línea por la mitad superior del gráfico, nos quedaríamos con tantos clúster como líneas cortáramos. Aunque hay que sustantivizarlo, igual tenemos que quedarnos con más que lo que dice la teoría. Razonable estándar las variables, no es lo mismo nº de enfermeras, nº de camas y nº de hospitales. Dendograma. Las soluciones no suelen ser muy claras.
Calcular para cada una de las variables iniciales la media y hacer un gráfico de perfil. Ahí vemos en qué son diferentes esos grupos, por ejemplo aquí vemos que las diferencias de grupos se dieron fundamentalmente por la diferencia en el número de camas. No se estandarizó en el análisis, al ver la tipificación se arrepintió.
138
139
Métodos no jerárquicos: K-Means Aquí los sujetos pueden cambiar de un grupo a otro. Análisis recomendado cuando tenemos muchos casos y relativamente pocas variables. En los procedimientos no jerárquicos nosotros establecemos de antemano el número de grupos que queremos. Procedimientos de tipo iterativo, un paso se basa en los resultados del paso anterior. Hasta llegar a una solución estable. SPSS no estandariza valores, a diferencia del procedimiento jerárquico, no se puede tipificar. En el comando descriptivos, opción de guardar valores tipificados como variables.
140
Procedimiento: 1. Fase de clasificación: parte de un número de clúster al que tiene que llegar. Busca a los sujetos más separados entre sí y los toma como centroides de esos grupos iniciales o semillas. a. Ojo con los utliers, que tomará como grupos iniciales. Mirar primero los datos para descartar esos outliers. 2. Mirar distancia oclídea entre el caso y el centroide del grupo. a. Una vez formados esos grupos, recalcula los centroides de media. Una vez recalculados los centroides, se reasignan todos los sujetos. Reasignación. 3. Se valora si el cambio de distancias que ha habido respecto a las dos fases cumple un cierto criterio, que la distancia sea más pequeña. Si no lo cumple, se realiza una nueva iteración. Si cumple el umbral la situación está estabilizada. a. Se para cuando no hay cambio entre una iteración o se llega a la mínima establecida; o cuando hayamos llegado al máximo de iteraciones establecidas por defecto. Suele ser bastante típico pedir soluciones con varios números de clúster, para al final coger la que mejor te cuadra.
Ejemplo Agrupación de alumnos universitarios en función del NEO, Five Factor Inventory (tomado de Meyers, Gamst y Guarino, 2013) Variables de personalidad. Estandarizadas y a partir de ahí solución con 4 clústers.
Con 10 iteracciones que había pedido no convergía, pidió que el SPSS hiciera más iteraciones.
141
Análisis de varianza para ver si hay divergencia en las variables que hemos creado. Pruebas F puramente descriptivas, los sujetos no han sido asignados al azar a los grupos ni los estamos protegiendo contra la tasa de error tipo I. Esto no te lo da el análisis anterior. Debería haber diferencias estadísticamente significativas, diferenciar los sujetos entre las variables. También mirar diferencias de los grupos, tomar terceras variables relacionadas con las variables que hemos utilizado para realizar los grupos, y ver si hay relación… Buscar evidencias para validar el análisis. Mirar también nº de sujetos por clúster, generalmente nos interesan grupos más o menos equilibrados, igual nos interesa tener 3 clústers en vez de 4 si así conseguimos grupos más equilibrados, también podría ser de 5, los grupos se van distribuyendo de diferente manera.
142
TEMA 5.B.: ANÁLISIS FACTORIAL CONFIRMATORIO 03/12/13 San Millán
INTRODUCCIÓN AL ANÁLISIS FACTORIAL CONFIRMATORIO Cuando trabajamos en el contexto de análisis factorial, lo que hacíamos era determinar a partir de una serie de variables observadas cuantos factores y como las diferentes variables por procedimientos empíricos cargaban en esos factores. Siempre hacíamos esto desde el punto de vista exploratorio. En ese mismo contexto, podemos hipotetizar por adelantado y basándonos en una teoría que constructos psicológicos subyacen a los datos. Lo que estamos hablando es de proponer un modelo con variables subyacentes y observadas y como se relacionan entre ellas y comprobar si eso ajusta a unos datos empíricos. Lo que luego hacemos es si ese modelo que tenemos cuadra con los datos empíricos que tenemos, es una bondad de ajuste. En el AFC el investigador va a plantear hipótesis previas al análisis definidas a priori sobre:
Cuál es el numero de factores: cuantos factores subyacen a los datos Si hay correlación o no entre los factores Como saturan las variables observadas en esos factores, cuales son los pesos. Si existen correlaciones entre los términos de error específicos. Esto el AFE no lo hacía.
Nuestra finalidad ahora no es dejar que los datos nos cuenten cosas si no decirles a los datos, “creo que vais a funcionar así”. Por tanto: -
AFE procedimiento inductivo, tratamos de encontrar unos factores subyacentes de una serie de datos partiendo de una serie de variables observadas.
-
AFC procedimiento deductivo. Basándome en la teoría, propugnamos que existen una serie de factores o constructos subyacentes, y a partir de ellos voy a los datos a ver si se cumplen.
Frente al AFE, el AFC tiene algunas VENTAJAS ya que permite: -
Contrastar directamente el modelo teórico del investigador. Esto es un inconveniente en el sentido de que podemos dar palos de ciegos
-
Estudiar modelos complejos (por ejemplo se pueden introducir errores correlacionados entre las variables).
-
Establecer restricciones en los pesos (por ejemplo que los pesos de dos variables sean iguales). Es decir, no metemos los datos y a ver que sale, sino que de antemano vamos a introducir restricciones, poniendo como cargan determinados ítems en ciertos factores.
-
Reducir el número de parámetros a estimar. Al fijar que variables no pesan en los factores, se estima un menor número de parámetros.
143
PASOS EN EL AFC 1. 2. 3. 4. 5.
Especificación del modelo Identificación del modelo Estimación del modelo Evaluación del modelo (hasta aquí son los necesarios) Re-especificación si es necesario (lo suyo, sería no hacerlo, ya que realizar esto supone cambiar el modelo y se pone d entredicho el confirmatorio)
1- ESPECIFICACIÓN DEL MODELO Indicar que variables entran en el modelo y qué papel juegan dentro de este. Esta especificación del modelo se hace a través de un gráfico, el diagrama de caminos o senderos. El término más habitual es el path diagram. A la hora de escribir estos gráficos hay una serie de convenciones que se siguen siempre. Distinguimos diferentes tipos de variables: -
Variables observadas o medidas. Representadas con rectángulos o cuadrados.
-
Variables latentes o constructos: se representan con círculos u óvalos. Estarían incluidos en este grupo los factores presupuestos los errores de medida de las variables observadas.
-
Paths, flechas: pueden ser unidireccionales (rectas), que indican que cosa influye en que otra; y bidireccionales (curvas) que expresan covariación entre variables.
E1
E2
E3
E4
E5
E6
E7
X1
X2
X3
X4
X5
X6
X7
F1
F2
Además de estas, se suele hacer una distinción en modelos estructurales entre variables endógenas y exógenas. Las variables endógenas son aquellas que en el grafico reciben alguna influencia de otras variables. Las variables exógenas, son aquellas que no reciben ninguna flecha direccional. Solo flechas direccionales, no estamos hablando de bidireccionales.
Ecuaciones de las puntuaciones: Un modelo de AFC se puede expresar de forma genérica como: No todos los ítems tienen que cargar en todos los factores. Se puede indicar correlaciones entre los errores. Podemos establecer otras restricciones como que todos los pesos del factor 1 sean iguales.
144
Diferentes entre el AFC y AFE -
Pesos no estandarizados (AFC, tratamos de modelar la matriz de varianza-covarianza) Vs pesos estandarizados (AFE, tratamos de modelar la matriz de correlaciones)
-
Parámetros a estimar: los parámetros a estimar son los pesos factoriales, las varianzas y las covarianzas entre las variables exógenas (las variables latentes: Fm Ej). En el AFC los parámetros no están estandarizados y por tanto no son comparables entre sí. Por ello debemos estandarizarlos posteriormente. Esto no pasa en AFE.
-
Los parámetros a estimar son los pesos factoriales, las varianzas y las covarianzas entre las variables exógenas (las variables latentes: Fm y Ej). En el modelo del ejemplo los parámetros a estimar (inicialmente) serían:
2- IDENTIFICACIÓN DEL MODELO Comprobar que el número de datos observados es mayor que el de parámetros que deben estimarse y que se va a estimar de una forma única. Un modelo no está identificado cuando es posible estimar o derivar más de un conjunto de parámetro que den lugar a modelos que ajusten. Por tanto, no habría una única solución. El número de datos observados debe tener unos grados de libertad positivos. Ese número de datos observados debe de ser mayor que el número de parámetros a observar. Si no se cumple eso, deberemos de ir apañárnosla para que haya menos parámetros a estimar. Mas cosas para que el modelo de una solución única: Establecer una escala común para los factores comunes. -
Fijar la varianza de los factores a 1: suponiendo que esos factores subyacentes son factores estadarizados
-
Fijar, para cada factor, el peso factorial de una de las variables que cargan en él a 1: es la que hace el Spss, fijar para cada uno de los factores subyacentes el peso de una variable a 1.
Antes de empezar el análisis siempre debemos comprobar que el modelo esté bien identificado.
3- ESTIMACIÓN DEL MODELO Métodos más populares: son procedimientos de tipo iterativo y por tanto son necesarios ordenadores para llevarlos a cabo. Es más, estás técnicas no fueron desarrolladas hasta que no se crearon los primeros paquetes estadísticos informáticos. 1) Mínimos cuadrados no ponderados (ULS): 2) Mínimos cuadrados generalizados (GLS): son la mejor opción con muestras pequeñas siempre y cuando sea plausible la asunción de normalidad. 3) Máxima verosimilitud (ML): son la mejor opción con muestras pequeñas siempre y cuando sea plausible la asunción de normalidad. 4) Máxima verosimilitud robusto o de media ajustada (MLM): funciona cuando nos apartamos de los supuestos y no requiere de grandes muestras (entre 200 y 500). 145
Todos ellos trabajan en función de discrepancia o función de perdida. Esta función de discrepancia es una medida de las diferencias entre la matriz de varianza-covarianza reproducida por el modelo y la misma matriz empírica. Estas funciones tienen la característica de que cuando la diferencia es muy grande, tiende a 2 y cuando no a 0. Cada uno de ellos, además de esta diferencia también debemos de calcular otros parámetros, entonces también tiene en cuenta la discrepancia entre los coeficientes estimados y los reales. La estimación de parámetros pasará con la función de perdida mas pequeña posible.
04/12/13 Modelo sobreidentificado: cuando hay más datos observados que parámetros a estimar, es lo que buscamos realmente. Los métodos trabajan a partir de una función de discrepancia o función de pérdida, medida entre matriz var-covar reproducida por el modelo y la medida de la matriz var-covar empírica. Esta función tiene la característica de que cuando las matrices tienen una diferencia muy pequeña tienden a 0. También tienen en cuenta los coeficientes calculados y los reales, se busca una función de pérdida lo más baja posible. Procedimiento de media ajustada o rubusta va bien con muestras pequeñas (200-500 sujetos)
Ajuste del Modelo La bondad de ajuste se resuelve en dos dimensiones: 1) bondad de ajuste de los parámetros individuales (bondad de ajuste de cada uno de los parámetros, individualmente considerados) 2) bondad de ajuste global (del modelo en su totalidad). La bondad de ajuste global ha de considerarse siempre previamente a la valoración de la bondad de ajuste de los parámetros En qué medida lo propuesto cuadra con la realidad. Miran la diferencia entre la matriz var-covar hipotetizada y la empírica, en qué medida cuadra, si la diferencia es estadísticamente aceptable. Mirar los parámetros individuales Mirar el ajuste global del modelo: esto es lo primero que se mira, si el modelo ajusta miramos si los parámetros individuales también ajustan. Índices absolutos: miran la discrepancia entre las matrices var-covar en puntuaciones brutas. Índices relativos: pone en relación nuestro modelo con dos extremos del continuo (el modelo de independencia, nada se relaciona con nada, no ajusta; y el modelo saturado, que ajusta de manera perfecta a los datos), en qué punto de esa escala está nuestro modelo, a partir de 0,90 se dice que el modelo ajusta razonablemente bien. Índices parsimoniosos: tratan de corregir que cuantos más parámetros tenga el modelo mejor ajusta, el problema es que los modelos así son más complejos de interpretar. Penalizan en función del número de parámetros, cuanto más complejo es el modelo más penalización, así hacemos que el sesgo se reduzca. Índices de comparación del modelo: ver qué modelo tiene el índice más pequeño, nos quedaríamos con ese.
146
El coeficiente de máxima similitud da un x2 (en AFE), similar a los índices absolutos; el problema que tienen es que x2 varía mucho según la muestra; se pone siempre aunque de significativo (buscamos que no de), luego ponemos otros índices que igual nos dan bien, como GFI. Índices inferenciales, ajuste absoluto y ajuste comparativo. Supuesta distribución subyacente, podrían hacerse extrapolaciones a la población. Dependen mucho del tamaño de muestra Índices descriptivos, ajuste comparativo. El CFI penaliza mejor los modelos no parsimoniosos.
Índices de Ajuste Global
Abad, Olea, Ponsoda y García, 2011
147
Meyers, Gamst y Guarino (2013)
Una vez comprobado que el modelo ajusta globalmente: Significación de los coeficientes de los pesos factoriales, el cociente entre el valor del peso y el error típico es la razón crítica, que se distribuye según la normal; por la razón crítica miramos si los coeficientes son estadísticamente significativos o no. Cuando en un modelo tenemos muchos pesos que no ajustan, seguramente habría que replantearse el modelo. Aún cuando el modelo globalmente ajuste, habría que hacerse una serie de preguntas, que en caso de no ser negativas habría que replantearse el modelo; Ajuste de los Parámetros:
¿Existen correlaciones superiores a 1? ¿Existen cargas factoriales estandarizadas fuera del intervalo +-1? ¿Son los residuos estandarizados anormalmente grandes o pequeños? ¿Hay estimaciones negativas de las varianzas? Es imposible que sean negativas (son al cuadrado).
Posibles causas del mal ajuste de los parámetros: -
El modelo está mal especificado Los datos no respaldan la hipótesis de normalidad multivariante de las variables observadas La muestra es demasiado pequeña: Resultados difícilmente generalizables. El modelo está demasiado cerca de no estar identificado, lo que hace la estimación de algunos de algunos parámetros difícil o inestable Los valores perdidos de algunas variables observadas han provocado que cada elemento de la matriz de covarianzas muestral esté calculado sobre una muestra diferente: A veces no conseguimos medir a todos los sujetos, diferentes n en cada uno de los grupos realmente pero suponemos iguales, estimaciones incorrectas.
148
Ajuste de los Parámetros •
¿Existen correlaciones superiores a 1?
•
¿Existen cargas factoriales estandarizadas fuera del intervalo -1 +1?
•
¿Son los residuos estandarizados anormalmente grandes o pequeños?
•
¿Hay estimaciones negativas de las varianzas?
Posibles causas del mal ajuste de los parámetros •
El modelo está mal especificado
•
Los datos no respaldan la hipótesis de normalidad multivariante de las variables observadas
•
La muestra es demasiado pequeña
•
El modelo está demasiado cerca de no estar identificado, lo que hace la estimación de algunos parámetros difícil o inestable
•
Los valores perdidos de algunas variables observadas han provocado que cada elemento de la matriz de covarianzas muestral esté calculado sobre una muestra diferente
Si el modelo no ajusta: Re-especificación del modelo
¿Confirmatorio?
Índices de Modificación
Recomendaciones de Hatcher (1994)
Utilizar muestras grandes
Hacer pocas modificaciones
Realizar sólo aquellos cambios que puedan ser interpretados desde una perspectiva teórica o tengan soporte en trabajos anteriores
Seguir un procedimiento paralelo de especificación
Comparar modelos alternativos desde el principio
Describir detalladamente las limitaciones de su estudio
Estamos en un modelo teóricamente dirigido, Índices de Modificación: Suele tomarse un umbral de índices mayores 3-4, relación candidata para introducir una modificación, esto suele hacerse cuando el modelo global no ajusta. Hay que ver que además ese cambio tenga sentido. 149
Recomendaciones de Hatcher (1994)
Utilizar muestras grandes, de lo contrario poco estable, conseguimos ajuste en nuestra muestra concreta pero no es generalizable, más de 100 sujetos como mínimo. Hacer pocas modificaciones, si estamos en un enfoque confirmatorio no tiene sentido cambiar hasta que ya no sea nuestro modelo, al final las especificaciones son específicas de la muestra concreta que estamos analizando. Realizar sólo aquellos cambios que puedan ser interpretados desde una perspectiva teórica o tengan soporte en trabajos anteriores. Seguir un procedimiento paralelo de especificación, proponer desde el principio modelos distintos. Comparar modelos alternativos desde el principio: proponiendo dos modelos o trabajando con dos muestras paralelamente. Variación cruzada. Describir detalladamanete las limitaciones de su estudio.
150
04/12/13
Ejemplo con otro programa:
El modelo fija a 1 los pesos de los errores y se fija por defecto 1 a una de las variables de cada factor que tengas. Especificar un modelo. Variables no observadas: los errores Los modelos suponen que tienes el mismo número de sujetos para todas las variables, si tienes valores perdidos hay consecuencias en estimaciones, tienes que marcarlo. Tienes que pedir que transforme los estadísticos a estandarizados. Coeficientes no estandarizados, coeficientes en diferenciales, no en típicas. Cuando están estandarizados, la flecha que une pasa a ser la correlación, no la covarianza. Coeficientes en rango de +-1 al estar en típicas. Variables endógenas y variables exógenas (no observadas, errores) Para que un modelo esté identificado tiene que haber menos parámetros a estimar que valores observados. El número de datos observados es nº de variables * nº de variables observadas/2 Modelo sobreidentificado y por tanto estimado. X2 de ajuste, si la diferencia entre la matriz var-covar estimada y la empírica ajusta o no. Pesos de regresión en puntuaciones típicas, no estandarizadas, *** estadísticamente significativos. Valores estandarizados, los que van en la segunda gráfica. La relación entre los constructos, entre los factores subyacentes, nos lo da en formato estandarizado y no estandarizado. Si estadísticamente significativo, el modelo no ajusta En todos los casos da el modelo por defecto (el que metimos nosotros) en comparación con el modelo saturado y el de independencia. En términos relativos. Los índices de modificación se distribuyen según X2, si superiores a 4 son susceptibles de modificación estadísticamente en el modelo. Te da el parámetro estimado para esa nueva flecha si lo haces. Pero hay que sustantivarlo para ver si tiene sentido, dos variables más relacionadas de lo que creíamos, se refleja en que sus errores están covariados, susceptibles de modificación. Pero sólo una o dos modificaciones, me puedo quedar con un modelo no identificado y además sería como pasar a un modelo exploratorio. Nueva estimación de los parámetros del modelo en formato estandarizado y no estandarizado. Que hayamos hecho modificación no garantiza nada, hay que volver a mirar que el modelo ajusta. Ahora incluso con X2 el modelo ajusta. Mejora con la modificación.
151
152
153
154
155
TEMA 7.A.: ECUACIONES ESTRUCTURALES: PATH ANALYSIS Introducción Las ecuaciones estructurales (Structural equation modeling – SEM-) es un procedimiento estadístico que permite evaluar relaciones hipotetizadas por el investigador entre un conjunto de variables. Suelen distinguirse dos partes en el modelo global: •
Un modelo de medida que se evalúa por medio de un Análisis Factorial Confirmatorio.
•
Un modelo estructural en el que se hipotetizan interrelaciones entre constructos latentes o entre constructos latentes y variables medidas
El Path Analysis es el caso más simple de SEM en el cual no hay variables latentes, todas son observadas. Debido a esto no hay modelo de medida que evaluar y los procedimientos estadísticos son algo más simples.
Las ecuaciones estructurales trabajan con variables latentes, con constructos. Por tanto siempre habrá que tener un modelo de medida, implícito de alguna manera un AFC. Se definen las relaciones existentes entre las diferentes variables latentes y entre las variables latentes y las variables observadas. Modelo que trabaja solo con variables observadas, medidas, el path (dibujos en cuadrados). Path análisis, generalización del modelo de regresión múltiple. A veces se denominan modelos causales, modelos basados en la regresión, en la covariación, no realmente causa, la covariación es una relación necesaria pero no suficiente de la causalidad; capacidad predictiva de una variable para otra. Se puede hacer por un modelo de regresión o por ajuste del modelo. Por ajuste del modelo tiene algunas ventajas.
Path Analysis
Fue introducido por Wright (1921) como una aplicación de la regresión múltiple.
Puede resolverse por ajuste de modelos o por regresión.
Permite evaluar relaciones explícitamente hipotetizadas entre las variables observadas.
Sólo tengo rectángulos, solo variables observadas, especificarlo es indicar qué variables tengo y cómo se relacionan entre ellas. Sólo como variables latentes los errores, ligados a las variables endógenas que tengo. Representado por rectángulos, variables directamente observadas, las únicas latentes son los errores, tenemos relaciones directas y covarianzas (representadas por flechas curvas); además las flechas tienen dirección, por lo que a veces se denominan modelos causales, ya que aunque realmente no dice causalidad, visualmente lo parece, matiz de causalidad. Son diseños de tipo correlacional, no experimental (distintivos de los de causalidad). -
-
Variables endógenas: que reciben flechas - Pueden ser variables dependientes o independientes: Depende de a qué parte del diagrama miremos puede ser dependiente o independiente, pueden recibir y lanzar flechas a su vez. Variables exógenas: que lanzan flechas - Siempre son variables independientes 156
Como si tuviéramos dos modelos de regresión, uno para explicar motivación y otro para rendimiento académico. Este tipo de modelo se puede resolver por sucesivas regresiones múltiples o por modelos estructurales.
Asunciones:
La relación entre las variables debe ser lineal Los errores asociados con las variables endógenas no están correlacionados con las variables que predicen esa variable: los errores no están correlacionados con las variables predictoras, no hay flechas ni covariaciones que las unan en el modelo. Las variables están medidas al menos en escala de intervalo: cuantitativas Las variables están medidas sin error; esto es tienen fiabilidad perfecta. Esta es una asunción irreal en psicología.
Kline (2011) recomienda usar el enfoque basado en ajuste de modelos porque el software existente nos da: a) El ajuste global del modelo a los datos b) Los efectos indirectos y totales de las variables predictoras c) Estimar los coeficientes de regresión (path coefficients) para las variables latentes, en el caso de que se incluya alguna en el modelo
10/12/13 Para realizar un Path Analysis seguimos básicamente los mismos pasos explicados para el Análisis Factorial Confirmatorio: a) b) c) d) e)
Especificar el modelo Identificación del modelo Estimación Evaluación Re-especificación
La fase de especificación del modelo para nuestro ejemplo queda recogida en el diagrama mostrado antes.
157
Relación directa de estatus socioeconómico a rendimiento e indirecta a través de la motivación. El producto de los coeficientes me dará el efecto indirecto del estatus socioeconómico sobre el rendimiento.
Identificación del modelo •
Número de valores conocidos: Número de valores no redundantes de la matriz de correlaciones o de la matriz de varianza-covarianza q(q+1)/2
•
Número de valores desconocidos: ¿Cuántos parámetros hay que estimar? •
Los coeficientes de regresión asociados con cada una de las variables predictoras
•
Los coeficientes de regresión asociados con los errores de las variables endógenas
•
Las varianzas de las variables exógenas
•
Las varianzas de las variables de error
•
La correlación entre las variables exógenas (si asumimos que están correlacionadas)
Al intentar hacerlo con el SPSS, te dice que el modelo no está identificado, nos interesa un modelo sobreidentificado, así que al menos 3 restricciones para que el modelo funcione bien. Reducir parámetros a estimar para que el modelo pueda estar identificado, suelen fijarse las flechas de los errores en 1, fijar alguno de los otros parámetros. Se podrían quitar flechas y valdría, pero se supone que tú estimas que tu modelo es así, mejor no quitarla.
158
Relación inversa de las variables, fijo motivación en -1. Puedo fijar en 1 o -1 de manera estandarizada, aunque si tienes mucho conocimiento se pueden poner más valores. Ahora 10 datos observados y 9 para estimar, grados de libertad positivos.
Solución no estandarizada, en puntuaciones típicas, no estima aquellos que hemos fijado:
Coeficientes de regresión prácticamente 0, no parece que el modelo vaya muy bien, he puesto unas flechas de influencia que parece que no influyen mucho. Tenerlo en cuenta para posible re-especificación del modelo. Índices de ajuste relacionados con la regresión múltiples, en motivación y rendimiento académico, R2 (tamaño del efecto):
159
Te da también el modelo en letra. X2 significativo, el modelo no ajusta
Coeficientes de regresión. La significación estadística de un coeficiente se hace con la correlación típica. De estatus socioeconómico a rendimiento (o,118) y de y de autoduda (0,136) a rendimiento no son significativas:
160
Efecto directo sobre la motivación del estus es 0,35 (nº que aparece en la tabla), el efecto indirecto es -0,95.
Estatus socioeconómico sobre rendimiento, efecto indirecto 0,180. El efecto total es la suma del directo y el indirecto.
161
No ajusta muy bien. CMIN/DF GFI da bien TLI valor muy bajo RMSA Parece que el modelo no ajusta, acuerdo con lo que decía X2. Habría que re-especificar el modelo
Re-Especificación del Modelo Más grados de libertad, reducidos parámetros a estimar. Los coeficientes que me quedan son todos significativos. El ajuste por otros índices mejora. Con todo esto explico un 33% de la varianza de rendimiento, habría que ver en términos relativos si eso es poco o mucho. Ahora chi cuadrado no es significativo, por lo que el modelo ajusta.
162
163
TEMA 7.B. ECUACIONES ESTRUCTURALES: MODELO COMPLETO Introducción Un modelo de ecuaciones estructurales puede ser “deconstruido” en dos modelos: •
El modelo de medida que representa el grado en el cual las variables indicadoras captan la esencia del factor latente.
•
El modelo estructural en que buscamos las relaciones “causales” entre las variables de interés de nuestra teoría. Normalmente el interés se centra en variables latentes y no en indicadores.
Un modelo SEM evalúa cómo de bien las interrelaciones predichas por el modelo teórico casan con las interrelaciones entre las variables observadas. Tiene la capacidad de evaluar simultáneamente tanto el modelo de medida como el modelo estructural
Del Path Analysis al modelo de ecuaciones estructurales
El path analysis asume que las variables (todas observadas) están medidas sin error (poco realista).
Modelo de ecuaciones estructurales (SEM) introduce variables latentes modelo de medida (facilita la identificación del modelo). En el momento que metemos variables latentes debemos de meter obligatoriamente variables de medida. Esto en el Path no era necesario.
Se introduce en el modelo el error de medida (variables con fiabilidad no perfecta) lo cual es un mejor reflejo de la realidad. Al introducir modelos de medida estoy viendo la capacidad de tener en cuenta el error de medida de mi modelo, cosa que el path analysis no lo hace.
Mayor coste en el diseño. Si para cada constructo tenemos que pensar en una serie de indicadores empíricos bajo los cuales subyace el constructo tengo que medirlos.
Modelo Completo:
164
En este caso, queremos ver si hay una serie de variables que influyen en la nota media final de la carrera. Esta variable como vemos no es latente. Los autores de trabajo creen que hay cuatro variables: influencias que recibe el alumno a la hora de elegir la universidad, percepción de autoeficacia académica, calidad del centro y vida social de la universidad. Estos se objetivizan con 3 indicadores de cada uno y estos ya son variables observadas, medidas. Como son variables observadas, pues tenemos los errores. Se asume que estas variables entre si tienen ciertas relaciones, que la autoeficacia tiene influencia sobre la vida social pero no sobre las notas, que influencia y autoeficacia covarían, etc. A la hora de definirlo, automáticamente asignamos a una variable que fijamos en 1 para darle escala al factor subyacente. También fijamos a 1 el peso de los errores. Este modelo es más complejo que los vistos hasta ahora, pero las fases son las mismas que en el Path analysis.
Lo primero que hay que mirar es si el modelo está identificado. Miramos en Degrees of freedom (91-33) y encontramos grados de libertad positivos. Vemos que chi-cuadrado no ajusta, ya que su sig es 0,00.
Luego en pesos de regresión, encontramos que hay flechas que no son estadísticamente significativas. Influencia en vida social es un peso no estadísticamente significativo, por ejemplo. Así que es posible que sea necesaria una re-especificación del modelo.
Mirando los índices, miramos que TLI no está bien, mientras que GFI si lo está. RMSEA da bastante bien. Por lo tanto no es un modelo que vaya muy mal pero se puede mejorar.
165
En cuanto a los índices de modificación (convariances y regresión Weights.). Propone añadir flechas al modelo, interacciones. Lo que hay que ver es que sean pocas modificaciones y congruentes desde el punto de vista teórico. Por ejemplo los análisis nos informan que el modelo mejoraría si uniésemos la autoeficacia academica con el error 14. Esto no tiene mucho sentido así que se desecha. La mayoría de las modificaciones que nos da, son covarianzas entre errores. Esto puede tener sentido, pero lo tendrá entre errores que pertenecen al mismo constructo o cosas muy parecidos, pero lo que nos indica mezclar errores de distintos factores subyacentes parece que no tienen mucho sentido. Luego nos proporciona los pesos de regresión y deberemos de hacer lo mismo, mirar cuales tienen sentido. Pero hay que recordar que se debe de limitar los cambios a hacer.
166
Este sería el modelo final. Han añadido covarianzas entre algunos errores. También han quitado ciertas flechas que no eran significativas. Algunas cosas que nos pueden preocupar del modelo es que los pesos de las variables con los factores son razonables, no hay muchas por debajo de 0,30. Se podría decir que el modelo de medida está justito. El 0,20 de la nota es R cuadrado, el porcentaje del modelo que explica la nota.
Después vemos que el modelo no ajusta, pero que se ha mejorado relativamente 0,011. Veamos qué pasa con el resto de índices. El resto de índices dan valores bastante buenos. Con lo cual el modelo más o menos ajustaría, pero no estaríamos muy contentos con él por el 20% que logra explicar la nota.
167
Puntaciones totales, las marcadas: si nos fijamos en las 4 variables subyacentes, la conclusión a la que llegamos es que la única que ejerce influencias importantes es la propia opinión del alumno. Si el alumno cree en sí mismo.
168