Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
APUNTES SOBRE ESTADISTICA APLICADA 4.7
COEFICIENTE DE VARIABILIDAD.
No es posible comparar fácilmente las desviaciones estándar de diferentes poblaciones o muestras, siendo esto tanto más difícil, si difieren por su naturaleza y la unidad de medida empleada (alturas, pesos, porcentajes. etc.). Es por esto, que para fines comparativos se acostumbra a expresar la desviación estándar en porcentajes de sus respectivos promedios, promedios, en la forma siguiente: CV =
s x
x 100
Aplicando esta ecuación a la muestra del primer ejemplo de la sección 4.5, (véase página 61) tenemos: CV =
3 .3 24
x 100 = 13.8 %
Para saber si en una particular característica o variable el valor obtenido del CV es muy alto, está dentro de lo normal o muy bajo, se requiere experiencia dentro de las condiciones del lugar en que se trabaja. El coeficiente de variabilidad variabilidad es especialmente especialmente útil cuando se desea comparar variabilidades
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
4.8
MODELO ADICTIVO LINEAL
4.9
DESVIACION ESTANDAR DE LOS PROMEDIOS ( x ’s)
De una población población infinita o finita pero muy grande es posible sacar sacar un sinnúmero sinnúmero de muestras diferentes, todas de igual tamaño, y cada una con su propio promedio. Estos x ’ s ) formarían una distribución de frecuencia con la forma de una curva normal. promedios ( x Esta curva normal sería más homogénea que la curva normal de la población de X's de donde provienen las muestras; tanto más homogénea (curva más angosta y parada), cuanto mayor sea n de las muestras.
Como ejemplo consideremos que tenemos una población hipotética de N = 5, de la cual extraemos todas las muestras diferentes posibles de n = 2. El número de tales muestras, es el número de combinaciones de N elementos tomados de 2 en 2, este número está dado por: NCn
=
N ! n!( N − n)!
=
5! 2!(5 − 2)!
=
5 x4 x3 x 2 x1 2 x1(3 x 2 x1)
= 10
A continuación se da la población original (hipotética), las 10 muestras y los promedios de estas muestras:
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
4.8
MODELO ADICTIVO LINEAL
4.9
DESVIACION ESTANDAR DE LOS PROMEDIOS ( x ’s)
De una población población infinita o finita pero muy grande es posible sacar sacar un sinnúmero sinnúmero de muestras diferentes, todas de igual tamaño, y cada una con su propio promedio. Estos x ’ s ) formarían una distribución de frecuencia con la forma de una curva normal. promedios ( x Esta curva normal sería más homogénea que la curva normal de la población de X's de donde provienen las muestras; tanto más homogénea (curva más angosta y parada), cuanto mayor sea n de las muestras.
Como ejemplo consideremos que tenemos una población hipotética de N = 5, de la cual extraemos todas las muestras diferentes posibles de n = 2. El número de tales muestras, es el número de combinaciones de N elementos tomados de 2 en 2, este número está dado por: NCn
=
N ! n!( N − n)!
=
5! 2!(5 − 2)!
=
5 x4 x3 x 2 x1 2 x1(3 x 2 x1)
= 10
A continuación se da la población original (hipotética), las 10 muestras y los promedios de estas muestras:
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
A continuación con la misma formula calcularemos calcularemos σ de la población de promedios, a la que por ser de promedios representamos representamos por σ x ; esto es: σ x =
15.5 2
+ 16 .5 2 + ..... + 20.5 2 − (208) 2 / 10 10
= 7.48
Esta desviación estándar de los promedios también puede ser deducida a base de σ de la población original con la formula que se da a continuación, que se emplea para poblaciones finitas relativamente pequeñas. σ x =
σ n
x
N − n N − 1
(4.9.1)
Así sustituyendo valores valores en la formula formula con los de nuestro nuestro ejemplo, ejemplo, tenemos: σ x =
12.221 5−2 x = (8.64) (0.866) = 7.48 5 −1 2
Nótese que es el mismo resultado que hemos tenido anteriormente para σ x El factor de
( N − n) /( N − 1) de la formula anterior se denomina fracción de muestreo, y
sólo tiene importancia cuando el tamaño de la población original es relativamente pequeño y el tamaño de la muestra es relativamente grande (caso de nuestro ejemplo), pero en los casos frecuentes de poblaciones grandes y muestras chicas, este factor prácticamente se
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
encontraremos que hay diferencias entre las entre las
d ’s. ’s.
d ’s, ’s,
lo que quiere decir que hay variabilidad
Siendo siempre n1 y n2 constantes, tendríamos tal cantidad de valores de
d
que podríamos considerar una distribución de diferencias de promedios de muestras, cuya forma sería la de una curva normal si es que las poblaciones de A y B se ajustan a la curva normal. Toda distribución de diferencias tiene como promedio la diferencia entre los promedios de las poblaciones de donde provienen. A esta diferencia es a la que hemos representado por
µ d y como desviación estándar σ d , a ésta la denominamos desviación estándar de diferencias. El parámetro σ d es estimado por la medida estadística s d , y su valor está basado en dos muestras extraídas al azar de las poblaciones originales. La forma de calcular su valor cambia, dependiendo de: 1º.- Si los tamaños de las muestras son iguales o no. 2º.- Si las variancias de las poblaciones son homogéneas o no ( 1 ) Según esto se pueden presentar los casos A, B, C y D, siguientes: (A) Cuando las variancias son homogéneas y n 1 y n2 = n s
=
2
s2
2
2
; siendo s =
s1 + s 2
2
= Variancia Común
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
levanta una ordenada a uno y otro lado de µ a una distancia igual a σ (desviación estándar de la población original), esto es µ ± σ , el 68.26 % de los valores de X i i quedan encerrados entre estos límites. Entre µ ± 2σ , el 95.46 % quedan encerrados entre estos limites. Entre µ ± 3σ , el 99.73% quedan encerrados entre estos límites.
Dib. (4.11.1) Limites y porcentajes del total de las X’s que quedan encerrados
5.- En forma forma similar sucede de que en una distribución de frecuencia ajustada a la curva normal de valores de x ’ s, si se levanta una ordenada a una y otro lado de µ x a una distancia igual a σ x (desviación estándar de la población de promedios de muestras), esto es µ x ± σ x , el 68.26 % de los valores de x i quedan encerrados entre estos límites. Recuérdese que µ x = µ Entre µ x ± 2 σ x , el 95.46 % quedan encerrados entre estos límites. Entre µ ± 3 σ , el 99.73 % quedan encerrados entre estos límites.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
es iguales a 1.60 m., al aplicarles la fórmula de iguales a µ darán 2,000 valores de
z
, estos promedios cuyos valores son
= 0 . Esto es z = (1.60 -1.60) / 0.033 = 0.
z
Los valores de x que sean iguales a µ + σ x = 1.60 + 0.033 = 1.633, al transformarlos en valores de z todos dan z = 1. Esto es (1.633 - 1.600) / 0.033 = 1. Igualmente los valores de x que sean iguales a µ − σ x = 1.60 - 0.033 = 1.567, darán valores de
z
= − 1.
De aquí que cualquiera que sea la distribución de x (promedios de muestras de altura de alumnos o promedios de muestras de lechones, etc.), puede transformarse en la correspondiente distribución de z , todas las cuales tienen las siguientes características comunes: 1.- El promedio de cada una de estas distribuciones de z es µ = 0 z
2.- La desviación estándar de cada una de estas distribuciones de 3.- Entre µ + z
σ
z
es σ = 1
z
z
= 0 ± 1, se encuentra el 68.26 % de todos los valores de
z
de esta
distribución. Entre µ ± 2σ = 0 ± 2 se encuentra el 95.46 % de todos los valores de z
z
z
de esta distribución. Entre µ ± 3σ = 0 ± 3 se encuentra el 99.73 % de todos los z
valores de z de esta distribución.
z
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
A continuación se da el dibujo que incluye la distribución normal de las x ’s y la curva de la distribución de t que corresponde a muestras de (n - 1) = 8, y la curva de la distribución de t que corresponde a (n - 1) = 4. A (n - 1) lo representamos en el Dibujo (4.13.1) por v .
Dib. (4.13.1) Curvas de las distribuciones de t que corresponden a (n - 1) = 8 y (n - 1) = 4.
Hemos visto que 2.306 es el valor de la ordenada de la distribución de t para (n - 1) = 8 para
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
P
( - x - 2.306 s x <
P
( x
+ 2.306 s x
>
- µ
< - x + 2.306 s x )
=
0.95
µ
> x - 2.306 s x )
=
0.95
En forma simplificada: P
( l2 >
µ
> l 1 ) = 0.95
De aquí que entre el l2 y l1 (o sea entre estos dos límites) se encuentra el promedio de la población original con 95 % de probabilidades. Para determinar estos límites habría que sacar una muestra de n = 9, y deducir su x y su s x y sustituir estos valores en la ecuación de estos limites. Para otros tamaños de muestra, 2.306 cambia, debiendo ser buscados los nuevos valores en la Tabla de t con los grados de libertad de la muestra en cada caso.
Calzada Benza,
5.4
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
ANALISIS DEL DISEÑO COMPLETAMENTE RANDOMIZADO CON MAS DE DOS TRATAMIENTOS
Consideremos que 12 alumnos procedentes de 3 centros de enseñanza han sido sometidos a un examen con el fin de determinar si hay diferencia en el grado de preparación impartido por los centros de enseñanza, habiéndose obtenido los siguientes resultados sobre un máximo de 10 puntos. 1er. Ejemplo:
Totales : Promedios :
SC dentro de A =
SC dentro de B =
A
B
C
2 = x 11 6 = x 12 4 = x 13 8 = x 14 20 = x 1. 5 = x1.
7 = x 21 3 = x 22 8 = x 23 6 = x 24 24 = x 2. 6 = x 2.
8 = x 31 6 = x 32 7 = x 33 7 = x 34 28 = x 3. 7 = x 3.
22 + 62 + 4 2 +82 1 72
+ 32 + 8 2 +62 1
-
-
202 4 242 4
= 20, con 3 GL
= 14, con 3 GL
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Variancia Total : 22 + 62 + ....... + 7 2 + 7 2 2
s Total
=
SC GL
=
1
−
72 2 12
11
=
44 11
= 4
Con las SC y los GL de estas tres variancias confeccionamos a continuación el cuadro siguiente: Cuadro (5.4.1) Cuadro de Análisis de Varianci a Fuentes de Variabilidad Entre Tratamientos Dentro de Tratamientos Total
SC 8 36 44
GL 2 9 11
CM 4 4 = sc 2 -
Los siguientes pasos que se realizan utilizando la sc para someter a prueba la hipótesis nula de µ A = µB = µC (en la forma ya conocida), nos conducen a la conclusión de que no se llega a probar que hayan diferencias en el grado de preparación de los alumnos de los tres centros de enseñanza. Nótese que la suma de los GL de Entre Tratamientos y Dentro de Tratamientos es igual a los GL de Total, esto es: 2 + 9 = 11, y sucede lo mismo con las SC, esto es: 8 + 36 = 44. Esto sucede en todos los análisis de este diseño, razón por la cual, una vez que se ha hallado la SC del Total y Entre Tratamientos por diferencia se puede encontrar la de Dentro
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
De aquí pasamos al C uadro de análisis de Variancia. Cuadro (5.4.2) Cuadro de Análisis de Variancia Fuentes de Variabilidad Entre Tratamientos Dentro de Tratamientos Total
SC 32 36 68
GL 2 9 11
CM 16 4 -
La fuente de variabilidad dentro de tratamientos corresponde a las repeticiones, por lo que decimos que el factor "repeticiones" es un factor anidado, y el factor tratamientos es un factor cruzado. Una explicación más amplia sobre lo que son factores anidados y factores cruzados la tendremos en el capítulo sobre experimentos factoriales. Al comparar los dos cuadros anteriores observamos que no ha variado el CM dentro de tratamientos, lo cual se debe a que los datos de las muestras A y C han variado en cantidades constantes, lo cual no influye en la desviación estándar, pero en cambio el CM entre tratamientos ha pasad o de 4 a 16, lo cual se debe a una mayor diferencia entre los promedios de las muestras. En lo sucesivo a la fuente de variabilidad Entre Tratamientos la denominaremos simplemente Tratamientos, y a Dentro de Tratamientos la denominaremos Error Experimental o simplemente Error. La simbolización usada para indicar la sumación de las repeticiones de un tratamiento
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Simbolización de la suma de los cuadrados de las repeticiones de un tratamiento cualquiera.
∑ X
2
= 22 + 62 + 42 + 82 = 120 ; 72 + 32 + 82 + 62 = 158; etc.
ij
j
Suma de los sumandos de los cuadrados de los totales de las repeticiones de todos los tratamientos:
⎛
∑ ⎜⎝ ∑ X
ij
i
j
2
⎞ ⎟ = ⎠
∑ X .
2
i
= 202 + 242 + 282 = 1760
i
El promedio de las repeticiones de un tratamiento es: x i. = X i. / r El promedio general de un experimento es: x .. = X.. / rt = 72 / 4 La suma de las SC Dentro de Tratamientos queda simbolizada en la forma siguiente: Total de las SC Dentro de Tratamientos =
∑ i
⎛ ⎜∑ ⎝ j
X i
2 j
−
X i 2 . r
⎞ ⎟ ⎠
⎛ 2 2 2 2 202 ⎞ = ⎜2 +6 + 4 + 8 − ⎟ + etc. . = 36 4 ⎝ ⎠
∑
2
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
estas muestras son estimadoras de la variancia σ 2 de la población de peso. Si al azar les aplicamos a los alumnos de estas 3 muestras los tratamientos A, B y C y nos ajustamos al principio estadístico de que los efectos de los tratamientos son aditivos (ver modelo lineal), resulta que los pesos de los 10 estudiantes de la muestra A habrán variado de peso en una cantidad constante, que representaremos por t A (tB es estimador del parámetro τ A), igualmente los 10 estudiantes de B habrán variado de peso en la cantidad constante t B, y los 10 de C en la cantidad constante t C ; y sabemos que si a los datos de una muestra se les suma una cantidad constante no varia su variancia, resulta pues que las variancias de las tres muestras después de la aplicación de los tratamientos seguirán siendo iguales a las que respectivamente tenía cada una antes de la aplicación de los tratamientos y por consiguiente seguirán estimando la σ 2 de la población de donde provinieron. Esto es s A 2, sB 2, sC 2 son estimadores de σ 2. La Sc 2 que es el promedio de esas tres variancias también es estimador de σ 2 de la población, con la ventaja de ser un mejor esti mador por ser el promedio de tres estimadores. Si x .. es el promedio general del experimento y µ es el promedio de la po blación, tenemos que: x A.
=
x .. + t A , estima la µ A
= µ + τ A , de la población A
x B.
=
x .. + tB , estima la µ B
= µ + τ B , de la población B
x C.
=
x .. + tC , estima la µ C
= µ + τ C , de la población C
Calzada Benza,
5.6
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
PRUEBAS DE SIGNIFICACION DE F, t Y DLS.
Valores Esperados de los Componentes de los Cuadrados Medios o VEC (CM) En el segundo ejemplo que hemos tenido en la Sección 5.4 (final página 108), los promedios de los tres tr atamientos son: x A = 1; x B = 6; x C = 8 y x.. = 6. Según esto, t A = 4 – 6 = -2, t B = 6 - 6 = 0, t C = 8 - 6 = 2. En el Cuadro (5.4.2) hemos visto que el CM de tratamientos es 16. Este valor mide la variabilidad total presente en la x i. con respecto a x .. , tal como podemos verlo a continuación: CM de Tratamientos = =
SC _ de _ Trat . GL _ de _ Trat
[
4 ( 4 − 6) 2
=
r (t A
2
+ t B 2 + t C 2 ) (t − 1)
+ (6 − 6) 2 + (8 − 6) 2 ] = (3 − 1)
32 2
= 16
Si es que las diferencias µ i. – µ. . = τi son todas iguales a cero ( τi = 0), el CM de tratamientos de las muestras será un estimador de σc 2, solamente. En el caso de que haya variabilidad entre los τ i , entonces al sacar muestras de las poblaciones implicadas, esperamos que en cada x i. - x .. influyan las variabilidades siguientes: (a) la que existe "dentro" de tratamientos que hemos representado po r σc 2, estimada
Calzada Benza,
•
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
En el caso de que r i varía de un tratamiento a otro.
σ τ 2 + Σ r i τ i2 / (t-1) σ τ 2 + n0 στ 2
El CM de tratamientos fijos es estimador de El CM de tratamientos al azar es estimador de R − r i / R 2
Siendo n0 =
r − 1
; en donde R = Σ r i , o sea número total de unidades experimentales.
El CM del Error es estimador de σ o 2. Prueba de F Se designa por F a la razón "CM de Tratamientos / CM del Error". De lo expuesto es natural esperar que F > 1, puesto que: F =
Esta razón está estimada por: Fc =
σ o
2
+ r σ o 2 σ o
2
CM _ de _ Tratamient os CM _ del _ Error
=
16 4
= 4
Sólo en el caso de que los τ i = 0 , esperaríamos que F = 1; aunque aún así puede suceder que F > 1; pero en este caso sólo sería por causa del az ar. Luego, no es suficiente de que
Calzada Benza,
Fc
=
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
CM _ de _ Tratamient os CM _ del _ Error
=
16 4
= 4
(5.6.1)
Si es que σ τ 2 = 0 , sólo hay 5% de probabilidades de que F c sea mayor que el F tabular que corresponde a ( t - 1) y [ (r - 1) t ] grados de libertad en la Tabla IV, los que vienen a ser los grados de libertad de Tratamientos y del Error Experimental respectivamente (los que para nuestro ejemplo son 2 y 9). En general, F tabular es buscado en la Tabla mencionada con los grados de libertad del numerador en la primera línea de la Tabla y con los grados de libertad del denominador en la primera columna de la Tabla, en el encuentro correspondiente se hallan dos números; uno en tipo corriente que corresponde al nivel de 0.05 y otro de tipo negrita que corresponde al nivel 0.01, que marca la separación de las regiones que dejan 5 y 1 % del área de frecuencia en la d istribución de F. F tabular para 2 y 9 (lo que corrientemente se representa por F (2,9) ), encontramos que es para 0.05 el valor de 4.26 y para 0.01 el valor de 8.02. Como F c hemos visto que es 4, no supera a 4.26, por lo que no pode mos r echazar la Ho: δ τ 2 = 0 , por lo que no p odemos aceptar que Has.: σ τ 2 ≠ 0 . Esto nos indica que no se ha probado que los τ i sean diferentes de cero, y por lo consiguiente tampoco que ha y diferencias entre los µ i Como sc 2 y st 2 son estimadores de δc
2
y δt 2, luego en los experimentos el CM de
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Sabemos que en el análisis de la variancia el CM del error es la variancia común (s c2) de los tratamientos. Esta variancia debe deducirse siempre que ella sea una buena representativa d e las variancias dentro de los tratamientos. Tal cosa ocurre cuando hay homogeneidad de variancias. Hecho este que se presenta siempre que el origen de las unidades experimentales que forman las muestras de los tratamientos sea el mismo, y hallan sido distribuidos al azar entre los tratamientos. En caso de duda de la homog eneidad de variancias, debería realizarse una prueb a de homogeneidad, ado ptan do para esto el procedimiento de Bartlett que se da en la Secció n ?. A continuación se describen los cinco pasos para la prueba de t, aplicados a un ejemplo numérico. (a) Se plantea la Ho µ1 = µ2 y las Has µ1 > µ2, µ1 < µ2 Para el caso de nuestro segundo ejemplo de la Sección 5. 4, ten emos: Para A vs. B Para A vs. C Para B vs. C Ho µA = µB Ho µ A = µC Ho µB = µC Has. µA ≠ µB Has. µA ≠ µC Has. µB ≠ µC (b) Desviación estándar de las diferencias (Sđ). Aplicamos la formula conocida siguiente: Sđ =
2
Sc 2 r
=
2
CM _ del _ Error r
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
(e) Comparar t calculado de cada comparación con t α Si resulta t c > t α se rechaza la H o y se acepta la H as., pero si t c < t α se acepta la Ho. Para nuestro ejemplo tenemos: Para A vs. B: t c = 1.41 < t 0.05 = 2.262; aceptamos la H o Para A vs. C: t c = 2.83 > t 0.05 = 2.262; por ser x C > x A , aceptamos la Has. de que µC >µ A, con 5% de probabilidades de que estos dos promedios sean iguales. Para B vs. C: t c = 1.41 < t 0.05 = 2.262; aceptamos la H o. Como el resultado de la prueba de F no fue significativa, no se toma en cuenta la significación que acabamos de obtener para A vs. C. T éngase presente, que la aceptación de la H o , no constituye una prueba de que dos promedios son iguales. En estadística podemos probar que el promedio de una población es superior al promedio de otra población, pero no podemos probar que son iguales. La falta del rechazo de la H o , se debe a que para la diferencia qué hay entre los dos promedios de las poblaciones a las que pertenecen, las muestras resultaron pequeñas, por lo que con muestras de tamaño más grande (convenientemente más grande) se llegaría a rechazar la hipótesis H o .
La prueba de F es equivalente a la prueba de t en los casos en que se tenga dos tratamientos, pues en estos casos, F para 1 y 2 (r - 1) grados de libertad es igual a t 2 para 2(r-1); buscados F y t en las tablas respectivas. Así por ejemplo, para el nivel de 0.05, F( )
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Sucede algunas veces, como en el presente ejemplo, que sin haber sido significativa la prueba de F, salga alguna significación en las pruebas de la DLS; en este caso la aceptación de superioridad de un tratamiento sobre otro no debe tomarse en cuenta. La prueba de la DLS y de t deben usarse simplemente cuando se comparan dos tr atamientos en el experimento o cuando habrían varios tratamientos, previamente a la conducción del estudio ya se han determinado las com paraciones que se van a hacer entre los tratamientos de acuerdo a las necesidades de la investigación; pero no debe emplearse una vez conocido los resultados para comparar aquellos tratamientos de resultados altos con los de resultados bajos. La prueba de la DLS es fácil de realizar, pero tiene la desventaja al igual que la prueba de t , que puede fallar en las comparaciones de aquellos tratamientos de resultados altos con los de resultados bajos, la falla consiste en que comparaciones así que no deberían salir significativas al nivel de 0.05 adoptado, pueden llegar a salir significativa, a pesar de emplearse los valores de t para este nivel (aún cuando haya diferencia real entre los extremos). La razón se explica más adelante. Cuándo y porqué falla la prueba de t y la de la DLS La explicación es la siguiente. En un experimento con más de 2 tratamientos y con mayor razón si el número es elevado, resulta que aún sin tener efectos diferentes los tratamientos, habrá variabilidad entre los x i. de los tratamientos, debido exclusivamente a la variabilidad
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Los estadísticos han determinado que sí en los experimentos hay 3 tratamientos y no existe diferencia de efectos, pero en todos se compara el tratamiento con resultados más alto con el de resultado más bajo, el 13% de estas comparaciones resultarán significativas, y no 5% como debería se r. En experimentos con 6 tratamientos en los que en todos los tratamientos sean iguales, a! comparar siempre el tratamiento de resultado más alto con el de resultado más bajo, 40% de estas comparaciones fallarán dando significación estadística, en lugar de fallar solo en 5% que es el nivel de la prueba o sea 0.05. En la misma forma con 10 tratamientos la falla es de 59%, y con 20 tratamientos la falla es de 86%. En resumen, en comparaciones del más alto con el más bajo las fallas son: Con 2 tratamientos falla 5% Con 10 tratamientos falla 59% Con 3 tratamientos falla 13% Con 20 tratamientos falla 86% Con 6 tratamientos falla 40% De aquí que las pruebas de t y de la DLS solo dan 5% de fallas cuando se hacen comparaciones al azar o si son comparaciones predeterminadas de acuerdo a implicaciones de los estudios. Afortunadamente los estadísticos han ideado otras pruebas (pruebas de Duncan, Tukey, Student - Newman - Keul, Dunnett, Scheffé) con las que no s e falla en desechar indebidamente la hipótesis nula (H o) con más frecuencia que la que corresponde al nivel en que se hace la prueba.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Σ X i.
174
166
195
147
207
197
163
x i.
34.8
33.2
39.0
29.4
41.4
39.4
32.6
SC Dentro
14.80
48.80
40.00
45.20
57.20
53.20
137.30
GL Dentro
4
4
4
4
4
4
4
s2 Dentro
3.70
12.20
10.00
11.30
14.30
13.30
34.30
Variancia común = sc2 = 12.16
En el Cuadro (5.7.2) se da el análisis de la variancia: Cuadro (5.7.2) Análisis de la variancia del estudio de porcentaje de limpieza de lana.
1ra. Etapa.-
Fuentes
SC
GL
CM
Fc
Tratamientos
567
6
94.5
6.65
Error
396
28
14.2
Total
963
34
Determinación de s x =
sc 2 r =
= 2da. E tapa.-
CM _ del _ Error r
14.2 5 = 1.69
Con los GL del error se va a la Tabla VII en donde se encuentran los valores
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
3ra. Etapa.- A continuación se ordenan en orden creciente los resultados promedios de los tratamientos, y para más sencillez de las comparaciones se les pone de clave números romanos, tal como puede verse en el ejemplo: Tratamientos Promedios ( x i. ) Clave
4A 29.4 I
7C 32.6 II
2A 33.2 III
1A 34.8 IV
3A 39.0 V
6B 39.4 VI
5B 41.4 VII
4ta. E tapa. - Se empieza a comparar el promedio más alto con el más bajo (en el ejemplo VII-I = 41.4-29.4 = 12.0), Y la diferencia se ve si es mayor o me nor que la ALS(D) que corresponde al valor de p del número de lugares que hay entre los que se comparan incluyendo ellos (en el ejemplo de VII a I hay 7 lugares, luego se compara con el valor que corresponde a p1 que es 5.6, como 12.0 es mayor que 5.6, hay superioridad de 5B sobre 4A al nivel de 0.05).
A continuación se compara el promedio más alto con el que sigue al más bajo (en nuestro ejemplo VII - II = 41.4 - 32.6 = 8.8, y la diferencia s e ve si es mayor o menor que la ALS(D) correspondiente al valor de p del número de lugares que hay entre los que se comparan incluyendo ellos (en el ejemplo de VII a II hay 6 lugares, lue go se compara con el valor que corresponde a p6 que es 5.5, como 8.8 supera a 5.5, hay significación). Y as í se sigue has ta co mparar II con I (y la dif erencia se ve si es mayor que el valor de la ALS (D) que corresponden a p2 (en el ejemplo, II – I = 32.6 - 29.4 = 3.2, que no supera a la ALS{D) de p2 que es 4.9, por lo tan to no es significativa . Los
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Cada diferencia se considera significativa si excede a la correspondiente ALS(D), en caso contrario no es significativo, con la excepción siguiente; si una diferencia entre dos promedios alcanza a la significación, pero esta significación está comprendida entre dos no significaciones, no puede declararse significativa. Esto se debe a que en realidad se está probando la homogeneidad de grupos de promedios homogéneos. Regla práctica.- Cuando el número de tratamientos es elevado el procedimiento expuesto es demasiado largo. En estos casos se recomienda adoptar el procedimiento abreviado que consiste en restar, del promedio más alto el valor de la ALS(D) más alto (en nuestro ejemplo, a VII le restamos la ALS(D)(7), 41.4 - 5.6 = 35.8), todos los promedios menores de esta diferencia son significativamente diferentes del promedio más altos, los promedios de los tratamientos menores de 35.8 que son los siguientes: I, II, III y IV, son significativos con VII, porque las diferencias de éste con los 4 mencionados serán mayores que las ALS(D) que a cada uno le corresponde, porque éstas son menores que la ALS(D)(7). Quedaría por determinar si entre el promedio más alto y los promedios que siguen hacia arriba hay también significativa, para lo cual se sigue con el procedimiento normal (en el ejemplo quedaría por determinar si VII es significativo con V y VI). En la misma forma se seguiría con el promedio menor al más alto [a VI le restaríamos la ALS(D) (6)], esto es 39.4 - 5.5 = 33.9, deduciendo de inmediato que VI es significativo con l, Il y III, y seguiríamos después comparando VI con IV, V.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Cuadro (5.7.4) Diferencias y significaciones entre tratamientos (cada línea compara con su correspondiente en la primera columna) 4A 7C 2A 1A 3A 6B Comparados 29.4 32.6 33.2 34.8 39.0 39.4 con: I II III IV V VI
5.8
horizontal se 5B 41.4 VII
4A 29.4 – I 7C 32.6 – II
.... ....
3.2 ....
3.8 0.6
5.4 * 2.2
9.6 * 6.4 *
10.0 * 6.8 *
12.0 * 8.8 *
2A 33.2 – III
....
....
....
1.6
5.8 *
6.2 *
8.2 *
1A 34.8 – IV
....
....
....
....
4.2
4.6
6.6 *
3A 39.0 – V
....
....
....
....
....
2.4
6B 39.4 – VI
....
....
....
....
....
0.4 ....
2.0
5B 41.4 – VII
....
....
....
....
....
....
....
PRUEBA DE SIGNIFICACION DE TUKEY.
Esta prueba no tiene en cuenta los ordenes entre sí de los promedios de los tratamientos porque está basada en otro principio que las pruebas anteriores; mientras que en las pruebas de t, DLS y ALS(D), cada comparación entre dos promedios de un experimento es considerada como una unidad para computar el 5% o 1 % de fallas en desechar indebidamente la H o; es decir en estas pruebas, si se hacen al nivel de 0.05, se tiene que de 100 comparaciones que se hiciesen, en todas las cuales la H o fuese cierta, sólo en 5
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
dichos GL y de pt , y este valor se multiplica por s x de la etapa anterior, con lo que se obtiene la ALS(T); esto es:
(5.8.1)
ALS (T) = AES (T) s x
Para 28 GL y p = 7 no hay en la Tabla el valor de la AES(T), por lo que hay que hacer una interpolación armónica ( 4 ), para lo cual se emplean los recíprocos de GL más próximos para establecer la regla de tres. Así, hay valores para 24 y 30, estos son 4.54 y 4.46 respectivamente (nivel 0.05), luego se hace una regla de tres simple, como sigue: (1 / 24) – (1 / 30) = 1 / 120; es a 4.54 – 4.46 = 0.08 Como (1 / 24) – (1 / 28) = 1 / 168; es a x ; de donde x =
(1/168)(0.08) (1/120)
= 0.057;
de aquí que la AEST (T) = 4.54 – 0.057 = 4.483 De aquí que la ALST (T) = (4.483) (1.69) = 7.6 3ra. Etapa.- Esta etapa es igual que la correspondiente de la Prueba de Duncan. 4ta. Etapa.- En esta etapa se hacen todas las comparaciones posibles entre los promedios de los tratamientos. Las diferencias se comparan con la ALS(T), y aquellas que sean superiores son significativas. En nuestro ejemplo, las diferencias que superan a 7.6 se indican a continuación: VII, VI y V superiores significativamente a I
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
ALS (S) =
( F )(t − 1)(sc
2
⎛ c12 c2 2 ⎞ )⎜ + + ..... ⎟ r ⎝ r ⎠
En donde: F , es el valor tabular de F para los GL de tratamientos y del error, del análisis de la variancia. (t-1),son los GL de libertad de tratamientos. r , es el número de repeticiones de los tratamientos. c 12, c 22, ….. son los coeficientes que corresponden a los promedios de los grupos de tratamientos en comparación, los que deben establecerse de acuerdo a las reglas siguientes: 1º.- La suma algebraica de los coeficientes de cada comparación debe ser cero (en la primera comparación que se da más adelante son: 1 + 1 - 1 - 1 = 0). 2º.- Los signos de los coeficientes de los promedios de un grupo deben ser iguales entre sí y de signo contrario a los del otro grupo. 3º.- Cada comparación debe obedecer a un interés especial, y no simplemente a comparar un grupo de promedios mayores con otro de promedios menores. En el Cuadro (5.7.1), en el que se dan los porcentajes de lana limpia de 7 zonas ganaderas, de las que 4 pertenecen a la región A, dos a la región B y uno a la región C; puede haber interés en hacer las siguientes comparaciones:
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
⎛ 12 12 12 12 12 12 ⎞ ALS(S) = (2.44)(7 − 1)(14.2) ⎜ + + + + + ⎟ = ⎝5 5 5 5 5 5⎠
⎛ 12 ⎞ = 22.33 ⎟ ⎝5⎠
(207.888) ⎜
Como 25.2 supera a 22.33 podemos decir que en la región A el promedio de los porcentajes de limpieza de la lana es menor que en la región B. Los promedios obtenidos son: para A es (136.4)/4 = 34.1, y para B es (161.6)/4= 40.4%, y la diferencia es 40.4-34.1 = 25.2/4 = 6.3%. 3ra. Comparación. Puede también interesar comparar las regiones B y C, en este ca so los coeficientes de c son los siguientes: c1 x 1B + c2 x 6B - c3 x 7C = (1)(41.4) + (1)(39.4) - (2)(32.6)= 80.8 - 65.2 = 15.6 La formula general aplicada a esta comparación de contraste da:
⎛ 12 12 22 ⎞ ALS(S) = (2.44)(7 − 1)(14.2) ⎜ + + ⎟ = ⎝5 5 5⎠
⎛ 6 ⎞ = 15.79 ⎟ ⎝5⎠
(207.888) ⎜
Como 15.6 supera a 15.79, quiere decir que no se llega a probar que el prome dio de la región B es mayor que el promedio de la región C. 5.10 METODOS ABREVIADOS DE SIGNIFICACION BASADOS EN LA AMPLITUD. Link y Wallace (5.24) han ideado un método fácil y rápido para probar la significación
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Método para dos tratamientos. Cuando las dos muestras son de igual tamaño y los da tos no pueden parearse, se comienza por deducir el promedio de las amplitud es dentro de las 2 muestras; esto es: A = (A1 + A2)/2, y la diferencia entre los promedios, esto es se calcula
ta ' ,
d
= x1 + x2 . Con estos dos valores
tal como se indica a continuación: ta '
= ( d - 0)
A .
El cero corresponde a la hipótesis nula. Este valor se compara con
ta
lado derecho de la Tabla X con el tamaño de las muestras. Si
ta '
tabular buscado en el >
ta
se desecha la
hipótesis nula, en caso contrario se acepta. Se desea probar cuál de dos racionamientos de cerdos representados por A y B es mejor, para esto un grupo de 10 cerdos es alimentado con la ración A y otro con la ra ción B; las ganancias en peso, se dan a continuación: Rac. A: 26, 25, 12, 25, 20, 16, 18, 21, 11, 8.
Σ
X = 182
Rac. B: 23, 22, 16, 29, 24, 15, 24, 25, 16, 14.
Σ
X = 208
x A
= 18.2
x B
= 20.8
2(14.2 5)
d
= 2.6
La amplitud de la primera muestra es 18 y de la segunda muestra es 15, luego
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
eficiencia; para n entre 12 y 22. Se recomienda dividir al azar la muestra en dos submuestras de igual tamaño y emplear el promedio de las amplitudes de las dos para realizar las pruebas. En el artículo publicado por Lord (539) puede encontrarse m ayor información sobre el empleo de la amplitud de las muestras y las tablas que se emplean. 5.11
PRUEBA DE SIGNIFICACION CON EL CONTROL DE DUNNETT.
En algunos estudios el objetivo principal es determinar si hay diferencias significativas de nuevos tratamientos sobre un testigo o control, sin interesar por el momento las comparaciones entre los nuevos tratamientos, lo que se deja para un posterior estudio. Las comparaciones de los nue vos tratamientos con el control, no son independientes ni al azar, requisitos que se requieren para las pruebas de t y de la DLS. Es por esto que Dunnett ha desarrollado una prueba que da una ALS(D) que sirve para juzgar todas las comparaciones con el control. Para aplicar esta prueba se requiere conocer los GL del error, el CM del error y el número de comparaciones con el control. La prueba es de dos colas y los niveles pueden ser de 0.05 o 0.01. Si ésta prueba la aplicamos a nuestro ejemplo del Cuadro (5.7.1) y consideramos que el tratamiento 1A es el control, tenemos: GL el error = 28, CM del error = 14.2, número de comparaciones con el control = 6, o sea el número de tratamientos sin incluir el control.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
adoptado para la prueba cuando la H o es cierta (error I). Pero si el número de tratamiento es mayor de 2, en aquellas comparaciones del mayor promedio con el menor, las pruebas de t y Duncan dan más fallas que el indicado por el nivel de significación adoptado, dando t mayores porcentajes aún que Duncan. Así, si las pruebas se hacen a nivel de α = 0.05, las probabilida des de sacar significaciones cuando no las hay entre promedios extremos son: Probabilidades de sacar significaciones en donde H o es cierta en comparaciones extremas Para : t = 2 t = 3 t = 4 t = 5 t = 6 t = 7 t = 10
Prueba de t 5% ( 5 ) 13% 40% 59%
Prueba de Duncan 5% 10% 14% 19% 23% 26% 37%
Prueba de Tukey 5% 5% 5% 5% 5% 5% 5%
En cambio, con la Prueba de Tukey la probabilidad, en este tipo de comparaciones, permanece siempre igual a 5%, siendo por lo tanto más severa que las otras dos pruebas La prueba de Duncan tiene un porcenta je de fallas intermedio entre la de t y la de Tukey. En cuanto a la prueba de Scheffé para las comparaciones entre promedios es aún más severa que la de Tukey, razón por la que se recomienda solo para pruebas de contraste entre
Calzada Benza,
5.16
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
DISEÑO COMPLETAMENTE RANDOMIZADO CON DESIGUAL NUMERO DE UNIDADES POR TRATAMIENTO
Muchas veces no es posible tener igual número de repeticiones para todos los tratamientos, hecho que suele ocurrir con relativa frecuencia, sobre todo en los experimentos de ganadería. Así por ejemplo, si el experimentador está trabajando con vacas, algunas pueden enfermarse, morir, o bien el material experimental puede que no alcance por igual para todos los tratamientos. En el laboratorio también puede ocurrir que un asistente involuntariamente tome algunos resultados equivocadamente, olvide de tomarlos, etc. En estos casos el análisis es poco afectado por el desigual número de repeticiones por tratamiento, pues solo resulta ligeramente más complicado. Otra consecuencia es de que las comparaciones entre tratamientos que tienen menos repeticiones son menos precisas, que entre las que tiene mas repeticiones. Como ejemplo consideremos el análisis de los resultados de la descendencia de tres reproductores vacunos, expresados por los pesos de los terneros hijos de cada reproductor a los 4 meses de nacidos; los dalos se dan en el Cuadro (5.16.1) en el que se han incluido los cálculos para la determinación de la SC dentro de cada tratamiento (reproductor). Cuadro (5.16.1) Cálculos de la SC de tratamientos, siendo desigual el número de repeticiones (datos Kgs. por ternero). Reproductores
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
2 ⎛ X i . ⎞ 2 2 2 2 SC dentro de Trat. = ∑ ⎜ ∑ X ij − ⎟ = (90 + 92 + . . . .+ 76 r i ⎠ i ⎝ j
2
2
96 + . . . + 103 -
3642 4
6062 7
) + . . . . + (1012 +
) = 5,462; con 6 + 5 + 3 = 14 GL
El total de las SC dentro de tratamientos, dividido entre el total de GL, da la variancia común (error experimental); siendo en nuestro ejemplo: 5,462 / 14 = 390.1. El término de corrección general está dado por: TC =
2 X ..
Σr i
2
2
( 606 + 528 + 364 ) ( x1 . + .... + xt .) = = = 132,000 r1 + ... + r t 7+6+4
La SC entre tratamientos está dado por la Ecuación (5.16.1 ) que tiene en cuenta el número de repeticiones que tiene c ada tratamiento: SC entre Tratamientos = =
6062 7
+
5282 6
+
3642 4
∑
2
X t . r i
- TC =
X 1 2 r1
+
. .. +
X t r t
2
- TC
2
( 606 + 528 + 364 ) = 132,050 – 132,000 = 50 7+6+4
7, 6 y 4 son las repeticiones de los tratamientos 1, 2 y 3 respectivamente.
(5.16.1)
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Siendo s2 el CM del error experimental, r 1 y r 2 el número de repeticiones de los tratamientos puestos en comparación y t α. el valor tabular de t de la Tabla III, buscado con los GL de libertad del error experimental. Así, para la comparación entre los tratamientos 1 y 2 al nivel de 0.05 tenemos: DLS =
390.1 7
+
390.1 6
(2.145)
En caso de aplicar la prueba de Duncan, debe multiplicarse los valores de la AES de la Tabla VII por el valor s del error experimental, (en lugar de multiplicarse por s x para obtener un juego intermedio de amplitudes de significación. Para cada comparación deseada, debe multiplicarse el valor intermediario por la Ecuación (5.16.3). 1/ 2
⎛ 1 ⎜ r + ⎝ 1
1 r 2
⎞ ⎟ ⎠
(5.16.3)
Aplicando esto a nuestro ejemplo, tenemos que s del E.E. = 390.1 = 19.75. Los valores de p para 14 GL del error y 0.05 de la Tabla VII son: p2 = 3.03 y p3 = 3.18. Los valores intermedios (I) son: Para dos tratamientos ju ntos en el orden de mérito I 2 = (19.75) (3,03) = 59.8 Para dos tratamientos separado en el orden de mérito I 3 = (19.75) (3.18) = 62.8
Calzada Benza,
5.17
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
DISEÑO COMPLETAMENTE RANDOMIZADO CON IGUAL NUMERO DE SUB UNIDADES POR UNIDAD.
Hay experimentos que demandan unidades experimentales muy grandes, digamos por ejemplo, parcelas de gran tamaño o toda una fabrica por unidad, también suele realizarse algunas determinaciones en los experimentos que serian muy tediosas tomarlas en toda la unidad experimental, siendo por esto necesario sacar sub unidades de cada unidad . Por ejemplo, un experimentador puede tener parcelas de 20 surcos de 40 metros de largo, y no haber tiempo para realizar la cosecha de todo el experimento, en este caso se puede, resolver el problema muestreando cada parcela, para lo cual pueden tomarse cinco secciones de surco de 5 m. cada una al azar; pongamos otro ejemplo, en un experimento de variedades de caña de azúcar en que se estudian rendimientos, hay generalmente interés de conocer el porcentaje de sacarosa de las variedades, en este caso puede sacarse al azar 4 muestras de caña por parcela y analizarlas separadamente en lugar de tomar una sola muestra, ya que hay variación en el contenido de una muestra a otra, y por consiguiente una muestra resultaría insuficiente para representar a la parcela. Las sub unidades que forman la muestra de cada parcela (unidad experimental) no debe tratarse de localizar previo examen de la parcela con la esperanza de obtener un mejor muestreo. El muestreo debe hacerse al azar o bien con una regularidad anticipadamente establecida, por ejemplo, de la cabecera, medio y pie de los surcos.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Como ejemplo vamos a considerar los datos del Cuadro (5.17.1). Cuadro (5.17.1) 3 Sub unidades por unidad experimental, 4 unidades experimentales por tratamiento y 9 tratamientos. Tratamientos (i ) Unidades Sub Unidades j k 1 2 3 4 5 6 7 8 9 1 21 67 41 183 59 70 44 235 113 1
2
34
77
81
52
69
68
47
235
55
3
48
71
105
235
50
70
74
235
60
103
215
227
470
178
208
165
705
228
1
37
96
94
183
56
180
235
88
131
2
23
106
78
235
47
84
120
220
82
3
45
126
67
235
235
183
66
62
193
105
328
239
653
338
447
421
370
406
1
35
146
44
60
80
85
36
88
178
2
41
145
54
72
51
73
36
54
235
3
36
167
42
49
59
41
33
70
126
112
458
140
181
190
199
105
212
539
1
30
100
46
235
54
120
73
218
216
2
50
80
46
203
160
65
118
110
176
Total Unids. = x i j . 2
Total Unids. = x i j . 3
Total Unids. = x i j . 4
Calzada Benza,
TC =
20,650 X 2 ... 6,227
srt
=
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
109592 ... 3 x 4 x9
∑ X
ij
SC Total Unidades =
2
= 1,112,034
.
i, j
- TC =
s
∑ X ..
1032
+ 2152 + .... + 4562 3
- TC = 333,323 con 35 GL
2
i
SC Entre Tratamientos =
i
s
- TC =
4272
+ 12592 + .... + 16392 3 x 4
- TC = 165,200 con 8GL
Debemos indicar que sr = (3)( 4) = 12, es el número de sub unidades que tiene el total de cada tratamiento, o sea X i .. ; de aquí que el divisor sea sr. La SC Total Unidades, comprende a SC Entre Tratamientos y SC Unidades dentro de Tratamientos; de aquí que esta última SC pueda ser encontrada por simple sustracción entre las dos primeras; en nuestro ejemplo resulta: 333,323 - 165,200 = 168,12 3. Con los grados de libertad se hace lo mismo: 35 - 8 = 27, estos son los GL de Unidades dentro de Tratamientos. El análisis de la variancia de este experimento puede verse en el Cuadro (5.11.2): Cuadro (5.17.12) Análisis de las observaciones dadas en el Cuadro (5.17.1) Fuente de Variabilidad SC GL CM El CM estimación de:
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
El divisor 3 sirve para poner la SC q ue resulta en base de sub unidades a fin de que la suma de las SC de todos los tratamientos así calculados, sea igual a la SC de Unidades dentro de Tratamientos o Error Experimental que hemos obtenido por sustracción; esto es 15.0 + . . . . . + 71,306 = 168,123; con (3)(9) = 27 GL, que son los mismos resultados que hemos obtenido antes en forma indirecta. La SC de Total Entre Sub Unidades está dado por: SC Total Entre Sub Unidades =
∑
X
2 i j k
– TC = 212 + 672 + . . . . +982 + 642 – TC =
i j k
1,586,267 – 1,112,034 = 474,213. Con 107 GL. La SC del Error de Muestreo (entre sub unidades dentro de cada unidad) se obtiene restando, de la SC Total entre Sub Unidades la SC Total Unidades; en nuestro ejemplo es: SC del Error de Muestreo = 474,213 - 333,323 = 140,890 con 107 – 35 = 72 GL.
Puede comprobarse esta SC también deduciendo las SC de las Sub Unidades de cada Unidad y sumándolas; para la primera unidad es: 2
2
2
SC de la 1ra. unidad del 1er. tratamiento (S)=21 + 34 + 48 –
1032 3
= 364.7
La suma de las SC de las 36 unidades de 364.7 + . . . . + 12,416.0 = 140,890; con (2)(36) = 72 GL, que es el mismo resultado que tenemos en el Cuadro (5.18.2).
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
5.18 MODELO ADITIVO LINEAL PARA SUB-UNlDADES Si los tratamientos de un experimento se ajustan al modelo I (tratamientos seleccionados por el experimentador); µ representa el promedio de los promedios de las poblaciones, poblaciones representadas por sus respectivas muestras en el experimento, una por cada tratamiento, µ + τ i representa los promedios de esas poblaciones, y τ i representa las diferencias de los promedios de las poblaciones con respe cto a µ . En este caso Στ i ≠ 0. La Στ i 2 no es un estimador de σ τ2. Pero si los tratamientos están ajustados al modelo II (tratamientos tomados al azar) , µ no es solamente el promedio de !as pob laciones representadas en el experimento sino incluye también los promedios de las poblaciones que no están representadas. En este caso los τ i de las poblaciones representadas en el experimento constituyen una muestra al azar de la población de τ i y Στ i 2 es un estimador de σ τ 2.
εij
representa las discrepancias al azar de una unidad con respecto al promedio de la población a la que pertenece el tratamiento.
δijk
representa las discrepancias de una sub unidad con respecto al promedio de la unidad a la que pertenece. El modelo lineal de una sub unidad es:
X ijk =
+
i
+
i j
+
i j k
(5.18,1)
Calzada Benza,
5.19
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
DISEÑO COMPLETAMENTE RANDOMIZADO CON DESIGUAL NUMERO DE UNIDADES y SUB-UNIDADES.
En algunos estudios ocurre con frecuencia que no es posible obtener igual número de unidades por muestra y de sub unidades por unidad; en estos casos el análisis se aparta ligeramente del análisis básico, pero sin que cambie el procedimiento para calcular la SC, es decir, que cada ΣX2 se divide entre el número de observaciones que forman cada X del numerador, así como también de que para el Termino de Corrección (TC) la ( ΣX)2 se divide entre el número total de observaciones involucradas en la ( ΣX) del numerador en la formula SC =
∑ X / r − (∑ X ) / rt 2
2
Como ejemplo consideremos el estudio comparativo del tenor de nitrógeno, expresado en porcentaje de los suelos de tres valles que representamos por A, B y C, para cuyo fin se disponen de los análisis provenientes de tres haciendas representativas del valle A (I, II y III), de dos del valle B (I y II) y de dos del valle C (I y lI); con dos análisis de suelo de la hacienda lA, tres análisis de la hacienda IIA ...... , y finalmente con dos análisis de la hacienda IIC. los resultados de los análisis se indican en el Cuadro (5.19.1) en "clave" ( 6 ). Cuadro (5.19.1) Tres muestras con desigual número de unidades por muestra y desigual número de sub unidades por unidad Valles A B C Haciendas I II III I II I II
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
SC Haciendas Sin Considerar Valles - SC Valles = 61.50 – 38.94 = 22.66, GL = 6 – 2 = 4 Los resultados del análisis de la variancia están dados en el Cuadro (5.19.2) Cuadro (5.19.2) Análisis de la variancia de los datos del Cuadr o (5.19.1) Fuentes de Variabilidad SC GL CM CM estimación de: 2 Valles 38.94 2 19.47 σ + 2.64 σε2 + 5.84 στ2 Hdas. Dentro de Valles = Error 22.66 4 5.67 σ2 + 2.51 σε2 Experimental Análisis Dentro de Hdas. = Error de 21.34 11 1.94 σ2 Muestreo TOTAL 82.94 17
Los resultados del análisis estadístico no dan evidencia de que la variación entre los promedios de los análisis de nitrógeno de las haciendas sea mayor que la variación entre los análisis de las haciendas, ya que F = 5.67 / 1.94 = 2.99 no supera al F tabular. Los resultados del análisis tampoco evidencia que existe diferencia significativa entre los promedios de nitrógeno de los tres valles, puesto que F = 19.47 / 5.67 = 3.43 no supera a F tabular. Esta última prueba es correcta cuando no hay significación del Error Experimental sobre el Error de Muestreo; pero si hubiera superioridad, entonces reco mendamos consultar
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
El coeficiente de στ2 es: r.. −
∑ X . / r .. 2
j
j
GL _ Valles
5.20
−
18 − (82 + 52 + 22 ) /18 2
= 5.84
RELACION ENTRE s2 Y s 2 Y EL PLANEAMIENTO DE UN NUEVO EXPERIMENTO.
Al planear un nuevo experimento, surge la pregunta: ¿Conviene más aumentar el número de unidades y disminuir el de sub-unidades o hacer a la inversa? Las sub-unidades pueden representar fáciles determinaciones, etc., o por el contrario pueden constituir costosas determinaciones o pérdidas de un valioso material como consecuencia. Por otra parte las unidades pueden representar simples modificaciones de labores de rutina, o puede suceder que el aumento del número de unidades demande incrementar valioso material, equipo, etc. Todo esto hay que tener presente. La respuesta a esta pregunta puede verse en la página 198 de Ia 2da. edición de este mismo libro.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
ANEXO 1: Pruebas de Comparación Múltiples de Medias Cuando el análisis de varianza aplicado detecta diferencias entre las modalidades estudiadas se utilizan comparaciones múltiples que diferencien el máximo número de tratamientos, es decir, emplear pruebas que detecten diferencias pequeñas entre ellos. El hecho planteado es justamente un problema de precisión, pero si no se identifica como tal, se corre el riesgo de usar pruebas que proporcionan diferencias pequeñas pero que no conservan el nivel de significancia establecido, tal es el caso del uso de la prueba de Duncan por ejemplo, en lugar de emplear Tukey. La prueba de Tukey cuando interesa efectuar todas las comparaciones entre pares de tratamientos, y se desea encontrar diferencias más grandes entre las diferentes modalidades. La prueba de Dunnett cuando el interés se centra en comparar un conjunto de tratamientos con un testigo o tratamiento control. Para el cálculo de esta prueba no es necesario realizar un ANVA.
A N E X O 2: Pruebas Múltiples de Medias
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Error experimental ajustado por el tamaño de la muestra (número de repeticiones) •
Ordenar los promedios de los tratamientos en forma descendente horizontalmente, y verticalmente en forma ascendente, y construir una matriz con las diferencias entre ellos.
•
Regla de decisión: Si la diferencia entre dos promedios es mayor que el comparador WP, los promedios son estadísticamente diferentes. Si la diferencia entre dos promedios es menor o igual que WP, los promedios son iguales y se identifican con la misma literal.
•
Construir la tabla de presentación final de los resultados.
SNK •
Encontrar t-1 comparadores WP
•
Continuar de la misma manera que en TUKEY. (Esta prueba es una modificación o suavización de la prueba de TUKEY, por lo que se emplea la misma tabla)
DUNCAN • Encontrar t-1 comparadores CD
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
TUKEY •
Cálculo del comparador : qa (6,20,0.05)= 4.45
WP= 4.45 * 3.0171 = 13.66 •
Construcción de la matriz de diferencias
V5 V2 V3 V6 V1 V4 •
26.6 29.2 37.4 39.8 48 57.6
V4 57.6 31 28.4 20.2 17.8 9.6 0
V1 48 21.4 18.8 10.6 8.2 0
V6 39.8 13.2 10.6 2.4 0
V3 37.4 10.8 8.2 0
V2 29.2 2.6 0
Presentación Variedad
Rendimiento promedio
Grupo Tukey
V5 26.6 0
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Variedad
Rendimiento promedio
Grupo SNK
V4
57.6
a
V1
48.0
b
V6
39.8
bc
V3
37.4
bcd
V2
29.2
cd
V5
26.6
d
DUNCAN Un experimento donde se empleó un diseño completamente al azar, con cinco tratamientos y cuatro repeticiones, demostró alta significancia de acuerdo a la prueba de F, con un CMee de 0.041. Los promedios de los tratamientos (expresados en kg./und. exp.) son: Tratamiento A Tratamiento B Tratamiento C Tratamiento D
6.30 7.40 8.75 7.66
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
ANEXO 3: Páginas Web Útiles GENERAL:
http://mipagina.cantv.net/ssinha/
DUNCAN:
http://mipagina.cantv.net/ssinha/duncan.htm
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
(Trascripción de la página Web)
COMPARACION MULTIPLE POR EL METODO DE TUKEY Escriba los datos según el formato en la ayuda:
Ayuda
(Salida de Resultados)
Rst1
Rst2
Ejemplo 1
Ejemplo 2
Acerca de ...
Ejecuta Tukey
Ayuda para la entrada de datos para el programa: Comparación Múltiple por el Método de Tukey: (A) Diseños Básicos: Completamente aleatorio, Bloques aleatorios y Cuadrado Latino. Consideremos los 3 diseños básicos pero excluyendo el caso cuando se trata del experimento
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Luego haga click sobre el botón que se llama: Ejecutar Tukey. Nota: Obsérvese que también será correcto entrar la siguiente hilera de datos en la caja del texto: 6 ; 28.8 24 14.6 19.9 13.3 18.7 ; 4.37 11.79 5 Esta entrada tiene la ventaja que se usa ; para indicar el comienzo y el fin de ciertos subgrupos de datos para una mejor visualización. El Programa no tomará en cuenta el separador ; en el procesamiento de datos. Nota: En algunos casos para hallar los valores tabulares, será necesario usar la interpolación line al, ya que la tabla presenta discontinuidades entre los valores presentados, tanto en las filas como en las columnas. Sucederá esto por ejemplo si un diseño tiene 26 GL para el error experimental y/o hay más de 20 tratamientos. (B) Experimentos Factoriales: En el caso de los experimentos factoriales, el cálculo del número efectivo de replicaciones dependerá del tipo de promedios que serán comparados que pueden ser promedios unidimensionales, bidimensionales, tridimensionales, etc.; y también según los factores que se consideran en los promedios que serán comparados, como por ejemplo A, B , C, AB, AC, etc. La información que se presenta acerca del cálculo del número efectivo de replicaci ones para experimentos factoriales en la ayuda del Rango múltiple de Duncan en la sección de la Computación estadística por Java Script es aplicable también en el caso de comparaciones múltiples por el método de Tukey. Para leer esta ayuda, haga click sobre DUNCAN en el menú principal y luego haga click sobre la ayuda.. Nota: Para otros diseños tales como Parcela Dividida y Parcela Sub Dividida que tiene más de un tipo del error experimental, será necesario seleccionar el CM del error experimental que sea apropiado para una comparación en el momento de hacer la entrada de datos al programa.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
Donde Q α , t , r es el α − ésimo percentil de la distribución rango estandarizado. Tablas par a hallar los valores de Q α , t , glerror son dadas por Harter (1960), Hochberg and Tamhane (1987). En esta prueba se uti liza un sólo valor con el cual se comparan todos los posibles pares de medias. El método de comparación de Tukey fue reformado por Kramer (1956) para casos en el que el número de réplicas no es igual. Este método es conocido como método de Tukey-Kramer. Este simplemente reemplaza la expresión dada en Tukey por: −
y i .
−
−
y i '. ≥ Qα , t , glerror
1 ⎛ 1
1 ⎞ ⎜ + ⎟CM EE 2 ⎝ ri. ri '. ⎠
∑ ri − t en un D.C.A. Si el número de repeticiones no es demasiado desigual, Spotuall y Stoline (1973) dieron un método para probar la hipótesis H 0 : µ = µ . Donde r =
i
Rechazar H 0 si
µ ˆi −µ ˆi'
≥
i'
CM EE Qα , t , glerror min( ri , ri'
Cuando las réplicas son muy diferentes este método es menos sensible que el de Scheffé.
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
APENDICE 1: TABLAS ESTADISTICAS TABLA 1: DISTRIBUCIÓN NORMAL ___________________________________ 51 TABLA 2: DISTRIBUCIÓN t DE STUDENT ______________________________ 52 TABLA 3: DISTRIBUCIÓN X 2 _________________________________________ 53 TABLA 4: DISTRIBUCIÓN F DE FISHER________________________________ 54 TABLA 5: AMPLITUD ESTUDIANTIZADA SIGNIFICATIVA DE DUNCAN ______ 57 TABLA 6: AMPLITUD ESTUDIANTIZADA SIGNIFICATIVA DE TUKEY ________ 59
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
TABLA 1: DISTRIBUCIÓN NORMAL
Desv. Normal X 0.0
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.5000
0.4960
0.4920
0.4880
0.4840
0.4801
0.4761
0.4721
0.4681
0.4641
0.1
0.4602
0.4562
0.4522
0.4483
0.4443
0.4404
0.4364
0.4325
0.4286
0.4247
0.2
0.4207
0.4168
0.4129
0.4090
0.4052
0.4013
0.3974
0.3936
0.3897
0.3859
0.3 0.4
0.3821 0.3446
0.3783 0.3409
0.3745 0.3372
0.3707 0.3336
0.3669 0.3300
0.3632 0.3264
0.3594 0.3228
0.3557 0.3192
0.3520 0.3156
0.3483 0.3121
0.5 0.6
0.3085 0.2743
0.3050 0.2709
0.3015 0.2676
0.2981 0.2643
0.2946 0.2611
0.2912 0.2578
0.2877 0.2546
0.2843 0.2514
0.2810 0.2483
0.2776 0.2451
0.7
0.2420
0.2389
0.2358
0.2327
0.2296
0.2266
0.2236
0.2206
0.2177
0.2148
0.8 0.9
0.2119 0.1841
0.2090 0.1814
0.2061 0.1788
0.2033 0.1762
0.2005 0.1736
0.1977 0.1711
0.1949 0.1685
0.1922 0.1660
0.1894 0.1635
0.1867 0.1611
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
TABLA 2: DISTRIBUCIÓN t DE STUDENT
α
0,25
0,2
0,15
0,1
0,05
0,025
0,01
0,005
0,0005
1 2
1,000 0,816
1,376 1,061
1,963 1,386
3,078 1,886
6,314 2,920
12,706 4,303
31,821 6,965
63,656 9,925
636,578 31,600
3
0,765
0,978
1,250
1,638
2,353
3,182
4,541
5,841
12,924
4 5
0,741 0,727
0,941 0,920
1,190 1,156
1,533 1,476
2,132 2,015
2,776 2,571
3,747 3,365
4,604 4,032
8,610 6,869
6 7
0,718 0,711
0,906 0,896
1,134 1,119
1,440 1,415
1,943 1,895
2,447 2,365
3,143 2,998
3,707 3,499
5,959 5,408
8
0,706
0,889
1,108
1,397
1,860
2,306
2,896
3,355
5,041
9 10
0,703 0,700
0,883 0,879
1,100 1,093
1,383 1,372
1,833 1,812
2,262 2,228
2,821 2,764
3,250 3,169
4,781 4,587
11
0,697
0,876
1,088
1,363
1,796
2,201
2,718
3,106
4,437
r
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
TABLA 3: DISTRIBUCIÓN X 2
π
π
0.995
0.99
0.975
0.95
0.9
0.75
0.5
0.25
0.1
0.05
0.025
0.01
0.005
1
3.93E-05
1.57E-04
9.82E-04
3.93E-03
1.58E-02
0.102
0.455
1.323
2.71
3.84
5.02
6.63
7.88
1
2
1.00E-02
2.01E-02
5.06E-02
0.103
0.211
0.575
1.386
2.77
4.61
5.99
7.38
9.21
10.60
2
3
7.17E-02
0.115
0.216
0.352
0.584
1.213
2.37
4.11
6.25
7.81
9.35
11.34
12.84
3
4 5
0.207 0.412
0.297 0.554
0.484 0.831
0.711 1.145
1.064 1.610
1.923 2.67
3.36 4.35
5.39 6.63
7.78 9.24
9.49 11.07
11.14 12.83
13.28 15.09
14.86 16.75
4 5
6 7
0.676 0.989
0.872 1.239
1.237 1.690
1.635 2.17
2.20 2.83
3.45 4.25
5.35 6.35
7.84 9.04
10.64 12.02
12.59 14.07
14.45 16.01
16.81 18.48
18.55 20.3
6 7
8
1.344
1.647
2.18
2.73
3.49
5.07
7.34
10.22
13.36
15.51
17.53
20.1
22.0
8
9 10
1.735 2.16
2.09 2.56
2.70 3.25
3.33 3.94
4.17 4.87
5.90 6.74
8.34 9.34
11.39 12.55
14.68 15.99
16.92 18.31
19.02 20.5
21.7 23.2
23.6 25.2
9 10
11 12
2.60 3.07
3.05 3.57
3.82 4.40
4.57 5.23
5.58 6.30
7.58 8.44
10.34 11.34
13.70 14.85
17.28 18.55
19.68 21.0
21.9 23.3
24.7 26.2
26.8 28.3
11 12
ϕ
ϕ
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
TABLA 4: DISTRIBUCIÓN F DE FISHER
54 de 59
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
55 de 59
Calzada Benza,
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
56 de 59
Calzada Benza,
GL Error 16 17 18 19 20 22 24 26 28 30 40 60 100 ∞
Nivel 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1 0.5 0.1
2
3
4
3.00 4.13 2.98 4.10 2.97 4.07 2.96 4.06 2.95 4.02 2.93 3.99 2.92 3.96 2.91 3.93 2.90 3.91 2.88 3.39 2.86 3.62 2.83 3.76 2.80 3.71 2.77 3.64
3.15 4.34 3.13 4.29 3.12 4.27 3.11 4.24 3.10 4.22 3.08 4.17 3.07 4.14 3.06 4.11 3.04 4.06 3.04 4.06 3.01 3.99 2.98 3.92 2.95 3.85 2.92 3.80
3.22 4.45 3.22 4.41 3.21 4.38 3.19 4.35 3.18 4.33 3.17 4.28 3.15 4.24 3.14 4.21 3.15 4.16 3.12 4.16 3.10 4.10 3.08 4.05 3.05 3.98 3.02 3.90
José (1982): Métodos Estadísticos para la Investigación, 5ta edición.
p = número de promedios del ordenamiento que se esta probando 5 6 7 8 9 10 12 14
16
18
20
3.30 4.54 3.28 4.50 3.27 4.46 3.26 4.45 3.25 4.40 3.24 4.36 3.22 4.33 3.21 4.30 3.20 4.25 3.20 4.22 3.17 4.17 3.14 4.12 3.12 4.00 3.09 3.98
3.46 4.91 3.46 4.86 3.46 4.82 3.46 4.79 3.46 4.76 3.45 4.71 3.45 4.67 3.45 4.65 3.45 4.62 3.44 4.61 3.44 4.54 3.43 4.47 3.42 4.42 3.41 4.34
3.47 4.92 3.47 4.88 3.47 4.84 3.47 4.81 3.46 4.78 3.46 4.74 3.46 4.70 3.46 4.67 3.46 4.65 3.46 4.63 3.46 4.57 3.45 4.50 3.45 4.45 3.44 4.38
3.47 4.94 3.47 4.89 3.47 4.85 3.47 4.82 3.47 4.79 3.47 4.75 3.47 4.72 3.47 4.69 3.47 4.67 3.47 4.65 3.47 4.58 3.47 4.55 3.47 4.48 3.47 4.41
3.34 4.60 3.33 4.55 3.32 4.55 3.31 4.50 3.30 4.47 3.29 4.42 3.26 4.39 3.27 4.36 3.28 4.34 3.23 4.32 3.22 4.24 3.20 4.17 3.18 4.11 3.15 4.04
3.37 4.67 3.36 4.63 3.35 4.59 3.35 4.56 3.34 4.55 3.32 4.48 3.31 4.44 3.30 4.41 3.30 4.38 3.25 4.36 3.27 4.30 3.24 4.23 3.22 4.17 3.19 4.09
3.39 4.72 3.38 4.68 3.37 4.64 3.37 4.61 3.36 4.58 3.36 4.56 3.34 4.49 3.34 4.45 3.33 4.43 3.32 4.41 3.30 4.34 3.26 4.27 3.25 4.21 3.25 4.14
3.41 4.75 3.40 4.72 3.39 4.68 3.38 4.64 3.38 4.61 3.37 4.57 3.37 4.56 3.36 4.50 3.33 4.47 3.35 4.45 3.33 4.37 3.31 4.31 3.29 4.23 3.28 4.17
3.43 4.79 3.42 4.75 3.41 4.71 3.41 4.67 3.40 4.65 3.39 4.60 3.38 4.57 3.38 4.53 3.37 4.51 3.37 4.48 3.35 4.41 3.33 4.34 3.31 4.25 3.29 4.20
3.44 4.85 3.44 4.80 3.44 4.73 3.43 4.72 3.42 4.68 3.42 4.65 3.41 4.62 3.41 4.58 3.40 4.55 3.40 4.54 3.39 4.45 3.37 4.39 3.35 4.35 3.34 4.26
3.45 4.88 3.45 4.85 3.45 4.74 3.44 4.75 3.44 4.71 3.44 4.66 3.44 4.64 3.43 4.60 3.43 4.60 3.42 4.58 3.42 4.51 3.40 4.44 3.40 4.40 3.38 4.31
58 de 59