133
CAPÍTULO 10 ANÁLISIS DE COVARIANZA (ANCOVA) 10.1
INTRODUCCIÓN
Uno de los problemas con el que frecuentemente se enfrenta el investigador, es el de controlar aquellos factores que no le he es posible medir y cuyo efecto no puede justificar, los cuales constituyen el error experimental. Una de las formas de minimizar este error es mediante la aleatorización de los tratamientos y la utilización de material experimental muy homogéneo. Sin embargo, la aleatorización difcilmente cancela la influencia de las variables involucradas en el error y la disponibilidad de material experimental homogéneo no es frecuente en algunos experimentos, principalmente con animales, quedando restringidos a experimentos de laboratorio, invernadero o con animales de bioterio. Ronald Fisher en 1932 desarrolló una técnica conocida como Análisis de Covarianza, que combina el Análisis de Regresión con el Análisis de Varianza. Covarianza significa variación simultánea de dos variables que se asume están influyendo sobre la variable respuesta. En este caso se tiene la variable independiente tratamientos y otra variable que no es efecto de tratamientos pero que influye en la variable de respuesta, llamada a menudo: covariable. El Análisis de Covarianza consiste básicamente en elegir una o más variables adicionales o covariables que estén relacionadas con la variable de respuesta, evitando que los promedios de tratamientos se confundan con los de las covariables, incrementando de esa manera la precisión del experimento. Por ejemplo: número de plantas por unidad experimental, pesos iniciales en animales, grado de infestación de garrapatas, das de lactancia o edad de destete, etc.; pueden ser covariables que influyan en el resultado final y cuyo efecto de regresión sobre la variable respuesta el investigador desea eliminar, ajustando las medias de tratamientos a una media común de X. En este análisis se asume que la variable dependiente Y está asociada en forma lineal con la variable independiente X, existiendo homogeneidad de pendientes. El procedimiento de análisis comprende: a)
ANDEVA para X (covariable),
b)
ANDEVA para Y (variable de respuesta),
c)
Estimación del coeficiente angular de la regresión.
d)
Obtención de la ecuación de regresión y ajuste a los promedios de la variable de respuesta.
10.2
SUPOSICIONES BÁSICAS DEL ANÁLISIS DE COVARIANZA
Como es de esperarse, las suposiciones que se hacen cuando se efectúa un análisis de covarianza son similares a las requeridas para la regresión lineal y el análisis de varianza. De esta manera, se encuentran las suposiciones usuales de independencia, normalidad, homocedasticidad, X fijas, etc. Para ser más exactos, se presenta a continuación los modelos estadsticoímatemáticos asociados con algunos de los diseños más comunes cuando se realiza un análisis de covarianza.
134
a)
Diseño Completamente al Azar i=1,..., t Yij = + i +E (Xij X.. ) +
ij
j = 1 , . . . , r Yij i Xij
= = = = =
Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. Media general Efecto del iíésimo tratamiento. Coeficiente angular de la regresión. Variable independiente o covariable.
X..
=
=
Media general de la covariable. Error experimental.
b)
Diseño en bloques completos al azar.
E
ij
i=1,..., t Yij = + i + U j +E (Xij X.. ) +
ij
j = 1 , . . . , r Yij i
Xij
= = = = = =
Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. Media general Efecto del iíésimo tratamiento. Efecto del jíésimo bloque o repetición. Coeficiente angular de la regresión. Variable independiente o covariable.
X..
=
=
Media general de la covariable. Error experimental.
c)
Diseño cuadrado latino
U j E
ij
i=1,..., t Yijk = + i + U j + Jk +E (Xijk X.. ) +
ijk
k=1,..., t j = 1 , . . . , r
Yijk i
Xijk
= = = = = = =
Variable de respuesta medida en la jíésima repetición y el iíésimo tratamiento. Media general Efecto del iíésimo tratamiento. Efecto de la jíésima fila. Efecto de la kíésima columna. Coeficiente angular de la regresión. Variable independiente o covariable.
X..
=
=
Media general de la covariable. Error experimental.
U j Jk E
ij k
Otra suposición necesaria para el análisis correcto de covarianza, es que la variable concomitante X, no debe ser afectada por los tratamientos.
135
10.3
EJEMPLO DE APLICACIÓN
Un grupo de estudiantes del curso de Investigación Agrcola de la Escuela Nacional Central de Agricultura evaluó en 1990 el efecto del tiempo de cosecha sobre el rendimiento de grano de maz. Se utilizaron 4 tratamientos y 3 repeticiones, con el diseño bloques completos al azar. Los tratamientos fueron: 30, 40, 50 y 60 das después de la polinización. El número de plantas planificado por parcela útil fue de 52, pero al cosechar se obtuvieron diferentes números de plantas por unidad experimental. Los resultados se presentan en el cuadro siguiente:
Tratamientos
I x 41 37 37 35 150
30 40 50 60 x.j , y.j 1º.
Repeticiones II x y 24 2.78 32 4.92 34 5.05 22 3.63 112 16.38
y 4.08 4.72 4.00 4.59 17.39
III x 31 38 47 44 160
x i. 96 107 118 101 422
yi. 9.65 14.14 14.59 14.42 52.80
ANDEVA para las variables X y Y ANDEVA para X FV
GL
SC
CM
Trats. Bloques Error Total
3 2 6 11
89.67 320.67 183.33 593.67
29.89 160.33 30.56
ANDEVA para Y Valor F 0.98
X = número de plantas
2º.
y 2.79 4.50 5.54 6.20 19.03
F crtica 4.76
FV
GL
SC
CM
Trats. Bloques Error Total
3 2 6 11
5.64 0.89 4.92 11.45
1.88 0.45 0.82
Valor F F crtica 2.29 4.76
Y = rendimiento expresado en kilogramos/unidad experimental.
Estimación del coeficiente angular de la regresión y del coeficiente de correlación.
Factor de corrección = F.C. ( x , y y) =
§ t r · § t r · ¨ ¦ ¦ x ij ¸ ¨ ¦ ¦ yij ¸ (422) (52.8) (52.8) © i1 j1 ¹ © i 1 j1 ¹ (422) 1856.8 tr 4u3
Suma de Productos Total para x y y. SPT( x , y y) SP T ( x , y )
t
r
¦¦x
ij
yij F.C.( x , y) [(41u 4.08) (37 u 4.72) ... (44u 6.2)] 1856.8 60.16
i 1 j 1
Suma de Productos de Bloques para x y y. SPB ( x , y y) t
SPB( x , y)
r
¦¦ x i 1 j1
t
.j
y. j
F.C.( x, y)
[(150 u 17.39) ... (160 u 19.03)] 4
1856.8 15.165
136
Suma de Productos de Tratamietos para x y y. SPTrat ( x , y y) t
SPTrat ( x , y)
r
¦¦ x
.j
y. j
i 1 j1
[(96 u 9.65) ... (101u 14.42)]
F.C.(x, y)
r
3
1856.8 15.673
Suma de Productos del Error para x y y. SPE ( x , y) SPE( x , y) y ) SPT( x , y) y ) [ SP S PTrat ( x , y) y ) SPB( x , y) y ) ] 60.16 (15.673 15.165) 29.322
Coeficiente angular de la regresión: E ˆ
SPE ( x , y ) SC E ( x )
29.322 183.33
0.1599
Este coeficiente da la relación promedio de rendimiento por planta, es decir, el efecto de una planta en promedio es de 0.1599 kg. Debe aclararse que el coeficiente de regresión E se supuso diferente diferente de cero. Si este no fuera el caso, la introducción de la variable concomitante concomitante X sera una complicación innecesaria. Algunas veces el investigador querrá comprobar estas suposiciones. suposiciones. Esto es, evaluará las hipótesis: Ho: Ha:
E = 0 (no hay regresión lineal simple) E z 0
Utilizando la estadstica F (Fisher Snedecor): 2
>SPE(x,y)@
SCE(x)
F
CME ( y ajustado)
29.3222
183.33 100.50 0.04666318
que tiene v1 = 1 y v 2 =(r 1) (t1) 1, grados de libertad. En este caso F crtica (1,5,0.05) = 6.61. 6.61. Por lo tanto se concluye que la regresión lineal es significativa. El cálculo del coeficiente de correlación lineal (r) se efectúa de la manera siguiente:
r
SPE ( x, y) SCE ( x ) u SCE ( y)
29.322 (183.33) u (4.92)
0.976
Este valor de r puede ser evaluado con la prueba t de Student:
t
r 1 r
2
u
n
0.976 1 (0.976)
2
u
5
10.02 *
t crtica (5,0.05/2) = 2.57 siendo n = 5, el número de grados de libertad del residuo, luego de ser ajustado por la regresión (se le restó un grado de libertar).
137 3º.
ANCOVA (los valores ajustados)
a)
Cálculo de la suma de cuadrados de la regresión lineal.
SC R e g b)
y)@ >SPE(x, y) SCE( x )
2
29.322 183.33
2
4.691
Suma de cuadrados del residuo, ajustada a la regresión
SCE( y Ajustado) SCE ( y) SC R Ree g 4.92 4.69 0.23 c)
Suma de cuadrados de los tratamientos, ajustada de acuerdo con la regresión
SCTrat Ajustada > SCE( y) SCTrat ( y)@
[ SPTrat(x,y) t(x,y) SPE(x, (x, y) ]2 SCTrat(x) t(x) SCE(x) E(x)
SCE ( y Ajustada )
2
15.673 29.332 SCTrat Ajustada > 4.92 5.64@ 0.23 2.914 89.67 183.33 d)
Resumen del ANCOVA
FV
GL
SCX
SCY
Tratamientos Bloques Error Total
3 2 6 11
89.67 320.67 183.33 593.67
5.64 0.89 4.92 11.45
Suma de Productos 15.673 15.165 29.322 60.16
GL
SC
CM
Valor F
F crtica
3
2.914 2.914
0.97
21.09*
5.41
5 10
0.23
0.04666
De acuerdo con el ANCOVA, ANCOVA, existen existen diferencias diferencias significativas significativas entre tratamientos. En consecuencia, es conveniente hacer un ajuste por número de plantas a los promedios de rendimiento, de acuerdo con la siguiente ecuación:
yˆ i. yˆ i.
yi. E ˆ (x i. x ) ,
siendo:
=
promedio ajustado de cada tratamiento.
=
promedio de cada tratamiento sin ajustar.
ˆ E
=
coeficiente angular de la regresión.
x i.
=
promedio del número de plantas de cada tratamiento.
x
=
promedio general del número de plantas.
yi.
138 e)
El error estándar para la diferencia SE(d) entre dos medias ajustadas es dado por:
ª 1 1 ( x i x j )2 º CME ( y Ajustado) u « » «¬ ri rj SCE (x ) »¼
SE (d )
Cuando el número de repeticiones es el mismo para todos los tratamientos, el error estándar para la diferencia entre dos medias ajustadas es dado por:
2 u CME(y E(y Ajustado)
SE (d )
r
ª (x i x j )2 º u «1 » «¬ SCE( x ) »¼
Cuando los valores de x1 , x 2 , . . . , x t no son muy diferentes (lo que se puede concluir cuando los tratamientos no producen efectos significativos en la variable X), se puede usar una estimación media para el error estándar, estándar, aplicable a cualquier cualquier contraste entre dos tratamientos. tratamientos. Esta estimación media tiene la siguiente expresión:
SE (d )
f)
2 u CME ( y Ajustado) r
ª CMTrat (x ) º u «1 » SCE ( x ) ¼ ¬
ˆ i. se presenta a El cálculo de los promedios ajustados del rendimiento de grano de maz y continuación:
g)
yi.
xi.
x i.
yˆ i.
9.65
3.22
96
32.00
3.72
40
14.14
4.71
107
35.67
4.63
50
14.59
4.86
118
39.33
4.20
60
14.42
4.81
101
33.67
5.05
Media general
35.17
Tratamientos
yi.
30
La presentación final de los resultados quedará de la siguiente forma:
Das después de la polinización 60 40 50 30
Media ajustada (kg/u.exp.) 5.05 4.63 4.20 3.72
a a b b c c