Pruebas de Bondad de Ajuste Un problema importante en estadística es obtener información acerca de la forma de la población de la cual se tomó la muestra. La forma de la distribución es lo importante. A vece veces s lo que que nos nos inte interresa esa es cier cierto to aspe aspect cto o en part partic icul ular ar de la población, por ejemplo, el valor de un parámetro, pero para realizar las pruebas se hacen supuestos sobre la distribución, así que primero hay que revisar si la población se distribuye como se supone, como por ejemplo, la prueba para la media que supone poblaciones normales. La compatibilidad de un conjunto de valores observados en una muestra con una distribución normal o cualquier otra puede ser revisada utilizando una prueba de bondad de ajuste. Estas Estas pruebas pruebas están diseñadas diseñadas para una hipótesis nula donde se enuncia la forma de la función de distribución o de la función de probabilidad de la población de la cual se tomó la muest muestra ra.. Idea Idealm lmen ente te,, la distr distribu ibuci ción ón supue supuest sta a está está comp complet letam amen ente te especificada, incluyendo a todos sus parámetros.
Pruebas de Bondad de Ajuste
La hipótesis hipótesis alternativa alternativa puede ser muy amplia, incluyend incluyendo o diferencias diferencias en localización, escala, otros parámetros, etc. Hay diferentes tipos de prueba de bondad de ajuste: a) Las Las dise diseña ñada das s para para H0 que conciernen a distribuciones discretas y compa compara ran n las frecu frecuen encia cias s obser observa vada das s con con las las espe espera rada das s bajo bajo la hipótesis nula. Esta es la prueba Ji-cuadrada Ji-cuadrada de Pearson Pearson b) Las Las dise diseña ñada das s para para H0 que conciernen a distribuciones continuas y comparan las frecuencias relativas acumuladas observadas con las esperadas bajo la hipótesis nula. Ejemplo de estas pruebas se tiene la Kolmogorov-Smirnov y Lilliefors.
Pruebas de Ji-Cuadrada Se tiene una m.a. de tamaño n de una población con función de distribución acumulada F x desconocida.
La hipótesis nula puede ser vista como:
! F x
H 0 : F x
0
x
Donde F 0 x está completamente especificada contra:
1
:
x { x p.a.x 0
Estadístico de Prueba:
Q! donde:
f i eÖi
!
k
f i e i 2
i !1
eÖi
§
es la frecuencia absoluta de la categoría i
npÖ i es la frecuencia esperada para la categoría i, donde pÖ i es
la probabilidad de estar en la categoría i dada H0. 2
~ G 1E ,k 1 (ó cuantil de cola derecha). Para muestras grandes Esta aproximación puede usarse con confianza siempre y cuando: 1er. Criterio: cada frecuencia esperada sea al menos 5. 2do. Criterio: cada frecuencia esperada sea al menos 1.5 (poco restrictivo). Cuando hay una eÖ 1.5 lo que se debe hacer es unir ese i grupo con su adyacente para acumular la frecuencia esperada y reducir acordemente los grados de libertad (colapsar grupos).
Ejercicio: Un ingeniero de control de calidad tomó 50 muestras de un mismo tamaño (13) de un proceso de producción. Se registró el número de muestras defectuosas. Probar H0 a un nivel =0.05 de que el número de defectuosas sigue: a) Una distribución Poisson b) Una distribución binomial No. de defectuosos
No. de muestras
0
10
1
24
2
10
3
4
4
1
5
1
6 ó más
0
Prueba Kolmogorov-Smirnov
Esta prueba es utilizada para probar funciones de distribución continua. Se utiliza la función de distribución empírica definida como:
S n x !
i
n
, si X i e x X 11
siendo X i la observación ordenada que ocupa la posición i-ésima dentro de una muestra de tamaño n
Prueba Kolmogorov-Smirnov El estadístico de prueba se define como:
Dn
!
? S n x F x x , S n x I F x x A, I " 0 F x x ! max x
sup S n x x
Para la hipótesis:
! F x
H 0 : F x
0
x
{ F 0 x p.a.x
vs. H 1 : F x
Para encontrar los cuantiles que ayuden a determinar la región de rechazo, se puede utilizar la tabla F, o bien, hacer uso del siguiente teorema
Prueba Kolmogorov-Smirnov
Y
se rechaza H 0
si:
Dn
" Dn*,E
Este último siendo cuantil de la tabla F, a un nivel alfa de significancia.
Prueba Kolmogorov-Smirnov
Prueba Kolmogorov-Smirnov Para ampliar la prueba a hipótesis de una cola, se definen a los estadísticos:
Para la alternativa:
u F x
H 1 : F x
0
x
Se rechaza la hipótesis nula si: Dn Dn,E siendo este último cuantil obtenido de la tabla F (Gibbons), donde el alfa a considerar es aproximadamente la mitad a la de la prueba de dos colas. Por ejemplo, para n=20, el cuantil para una prueba de dos colas a un nivel de 0.10 es 0.265, mientras que para las de una cola a un nivel de 0.10 es 0.294.
Prueba Kolmogorov-Smirnov Para la otra alternativa:
e F 0 x x
H 1 : F x
Dn
Dn,E
Se rechaza la hipótesis nula si: siendo este último cuantil obtenido de la tabla F (Gibbons), donde el alfa a considerar es aproximadamente la mitad a la de la prueba de dos colas (mismo caso que el anterior).
Prueba Kolmogorov-Smirnov Observación:
La prueba Kolmogorov como tal no puede ser desarrollada en SPSS. SPSS permite realizar la prueba de bondad de ajuste para una normal, uniforme, Poisson y exponencial sin especificar los parámetros
En esta prueba SPSS estima los parámetros de la muestra. La media y desviación muestral son los estimadores de los parámetros de la distribución normal, el mínimo y máximo de las observaciones muestrales son el rango que define a la distribución uniforme y las medias muestrales son los parámetros de las distribuciones Poisson y exponencial.
Para mayor referencia, consultar la ayuda de SPSS.
Prueba Lilliefors para normalidad En la prueba Kolmogorov-Smirnov, uno de los supuestos es que la distribución que se propone siguen los datos es totalmente especificada. Cuando esto no sucede, se tiene un conjunto de pruebas no paramétricas, diseñadas para las distribuciones continuas más utilizadas, tal es el caso de la prueba Lilliefors para normalidad.
La prueba ocupa prácticamente el mismo estadístico que la prueba * Kolmogorov, con una nueva definición de: x 0
* * 0* x ! max ? S n x 0 x , S n x I 0 x A , I x
Dn ! sup S n x x
Donde:
! J z
F 0* x
0
Prueba Lilliefors para normalidad Y
z se define como: z !
xi x
W Ö n
dond e x e s la med ia mue str al y Ö!
§ i !1
,
xi x 2 n 1
( la d e sviación
mue str al)
Pueden ocuparse las tablas de la Kolmogorov (tabla F) pero se ha mostrado que llevan a conclusiones más conservadoras, por lo que Lilliefors propone calcular estas probabilidades con simulaciones Monte Carlo. Los cuantiles están definidos en la tabla O. Es decir, se rechaza la hipótesis de normalidad si: último, cuantil de la tabla O.
Dn " Dn*,E
este
Prueba Lilliefors exponencial Otra
prueba importante de bondad de ajuste en la práctica es probar que una muestra proviene de una población con una distribución exponencial sin media especificada. Es muy utilizada, por ejemplo, cuando la variable de estudio son tiempos de espera (el tiempo de ocurrencia de un evento). Lilliefors propone un modificación de la prueba Kolmogorov, con su mismo estadístico de prueba y con cuantiles aproximados por * simulaciones Monte Carlo y también con una nueva forma de definir F 0 x
Dn
!
x
Donde:
? F 0* x ! max S n x F 0* x , S n x I F 0* x A , I " 0 x
sup S n x
x
* F 0
siend o
x ! 1 e x
z !
x x
! F 0 z ! 1 e *
z
,
par a cada val or observad o xi
La tabla a ocupar es la tabla T. Se rechaza la hipótesis nula (los datos provienen de una población exponencial) si: Dn " Dn*,E (este último cuantil de la tabla T).
Prueba Shapiro Wilks Es una prueba de normalidad de uso muy frecuente. Las hipótesis son:
H 0 : F x x es una función de distribuci ón normal con media y
varianza no especifica da
H 1 : F x x no se distribuye normal Pasos para la construcción del estadístico de prueba: n
1. Calcular el denominador: muestral. 2.
Ordenar
D !
2
X X
siendo X barra la media
i
i !1
a la muestra de menor a mayor: X 1 e X 2 e .
e X n
3. De la tabla A16, para la muestra de observaciones de tamaño n se deben obtener los coeficientes a1 , a2 , -con , ak los que se calcula:
« k » T 3 ! ¬§ ai X ni 1 X i ¼ D - i !1 ½ 1
2
Prueba Shapiro Wilks Este estadístico es básicamente el cuadrado de un coeficiente de correlación. Si es cercano a 1, la muestra aleatoria proviene de una población normal. Los cuantiles de esta tabla están dados por la tabla A17. Se rechaza la hipótesis nula de normalidad si el estadístico es menor que el cuantil al nivel E obtenido de esta tabla. Un P-value más preciso se obtiene con la siguiente transformación:
¨ T 3 d n ¸ ¹¹ G ! bn cn ln©© ª 1 T 3 º bn , cn y d n Los coeficientes se obtienen de la tabla A18 y G se distribuye como una normal estándar. La probabilidad alcanzada en este valor es el resultante P-value.
Salida en SPSS Para la prueba Shapiro Wilks, se elige dentro del menú:
No se despliega como una prueba, sino que se debe escoger del botón Plot la opción Normality plots with test
La salida que arroja (junto con estadísticas descriptivas, gráficas de probabilidad y de caja) es la siguiente:
Como puede verse, además de proporcionar la prueba Shapiro Wilks, también arroja la Lilliefors Normal.
Ejercicios: 1. Cinco niños de cuarto año fueron seleccionados al azar dentro de su clase y puestos a prueba en una pequeña carrera de velocidad. Los tiempos en segundos fueron: 4.2, 4.7, 5.7, 6 y 6.3. Pruebe la hipótesis de que los datos siguen la siguiente distribución:
para x 4 ® 0 ± x 4 para 4 e x 8 F 0 x ! ¯ 4 ± 1 para x u 8 °
2. A una muestra de 12 personas se les entrevista para estimar el ingreso medio bruto anual en cierta ciudad en vías de desarrollo. Use la prueba más apropiada para la hipótesis nula de que los datos provienen de una distribución normal. 9800
8600
10200
9600
9300
12200
8700
15500
15200
116000
6900
7200
3. La incidencia de llamadas telefónicas de larga distancia en cierta localidad se considera un proceso aleatorio, donde los tiempos entre llamadas se distribuyen de manera exponencial. Las primeras 10 llamadas en lunes, después de las 1 p.m., ocurrieron a la 1:06, 1:08, 1:16, 1:22, 1:23, 1:34, 1:44, 1:47, 1:51 y 1:57. Los tiempos sucesivos entre llamadas, contando desde la primera (1:00 a 1:06, 1:06 a 1:08, etc.) fueron: 6, 2, 8, 6, 1, 11, 10, 3, 4 y 6, con una media muestral de 5.7. ¿Qué puede concluir?