2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
INSTITUTO TECNOLOGICO SUPERIOR DE COTZACOALCOS
CARRERA: INGENIERIA MECANICA.
MATERIA: PROBABILIDAD Y ESTADISTICA.
PROFESOR: ING. JUAN CARLOS HERNANDEZ OSORIO.
TEMA: 2.4 INDEPENDENCIA Y DEPENDENCIA DE ESTADISTICA.
INTEGRANTES:
JARED ABAD RAMIREZ. JESUS FRANCISCO REYES EVANGELISTA. EVARISTO SALOME MATEO. GERMAIN TORRES MIGUEL. OSVALDO HERNANDEZ PEREZ. SERGIO DE JESUS LOPEZ ZENTENO.
Página | 1
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
COATZACOALCOS, VERACRUZ A 24 DE OCTUBRE DEL 2012 INDICE.
INTRODUCCIÓN……………………………………………………………….. PAG. 3. INDEPNDENCIA…………………………………………………….…………...PAG. 4 INDEPENDENCIA ESTADISTICA…………………………………………….. PAG. 4 COVARIANZA CASO DE INDEPENDENCIA………………. ………………..PAG. 4 PROPIEDADES DE LA COVARIANZA…………………………………... PAG. 5 A 6 CORRECCIÓN DE YATES PARA TABLAS DE CONTINGENCIA DE 2X2...PAG. 7 DEPENDENCIA FUNCIONAL………………………………………………….. PAG. 8 DEPENDENCIA ESTADÍSTICA………………………………………………… PAG. 8
Página | 2
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
INTRODUCCION.
Página | 3
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
INDEPENDENCIA Cuando no se da ningún tipo de relación entre 2 variables o atributos, diremos que son independientes. Dos variables X e Y, son independientes entre si, cuando una de ellas no influye en la distribución de la otra condicionada por el valor que adopte la primera. Por el contrario existirá dependencia cuando los valores de una distribución condicionan a los de la otra. Dada dos variables estadísticas X e Y, la condición necesaria y suficiente para que sean independientes es: Propiedades: 1ª) Si X es independiente de Y, las distribuciones condicionadas de X/Yj son idénticas a la distribución marginal de X. 2ª) Si X es independiente de Y, Y es independiente de X. 3ª) Si X e Y son 2 variables estadísticamente independientes, su covarianza es cero. La recíproca de esta propiedad no es cierta, es decir, la covarianza de 2 variables puede tomar valor cero, y no ser independientes.
INDEPENDENCIA ESTADÍSTICA. Se dice que dos variables X e Y son independientes estadísticamente cuando la frecuencia relativa conjunta es igual al producto de las frecuencias relativas marginales en todos los casos, es decir:
Para todo i, j Si esto no se cumple para todos los valores se dice que hay dependencia estadística.
COVARIANZA. CASO DE INDEPENDENCIA. En el estudio conjunto de dos variables, lo que nos interesa principalmente es saber si existe algún tipo de relación entre ellas. Esto se ve gráficamente con el diagrama de dispersión. Veremos ahora una medida descriptiva que sirve para medir o cuantificar esta relación:
Página | 4
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA Si Sxy >0 hay dependencia directa (positiva), es decir a grandes valores de x corresponden grandes valores de y. Si Sxy = 0 las variables están incorreladas, es decir no hay relación lineal. Si Sxy < 0 hay dependencia inversa o negativa, es decir a grandes valores de x corresponden grandes valores de y.
PROPIEDADES DE LA COVARIANZA: 1.- Si a todos los valores de la variable x, les sumamos una constante k y a todos los valores de la variable y les sumamos una constante k’, la covarianza no varía. 2.- Si a todos los valores de una variable x los multiplicamos por una constante k y a todos los valores de la variable y los multiplicamos por una constante k’, su covarianza queda multiplicada por el producto de las constantes. 3.- A partir de las anteriores: si tenemos dos variables x, y con la covarianza Sxy, y transformaciones lineales de las variables de la forma z=ax+b, y t=cy+d, la nueva covarianza se relaciona con la anterior de la forma: Szt=acSxy.
4.- Otra forma de calcular la Covarianza sería: que utilizaremos en la práctica.
. Será la
NOTA: El inconveniente de la covarianza, como medida de asociación es su dependencia de las unidades. Habrá que definir una nueva medida, que no está afectada por los cambios en las unidades de medida. Esta medida será el coeficiente de correlación lineal rxy, con la siguiente expresión:
Siendo Sx y Sy las desviaciones típicas de x e y. Este coeficiente es dimensional y siempre estará entre –1 y 1.
Si hay relación lineal positiva, rxy>0 y próximo a 1.
Si hay relación lineal negativa rxy<0 y próximo a –1.
Si no hay relación lineal rxy será próximo a 0.
Página | 5
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA Nota: Cuando las variables x e y son independientes, Sxy =0, y por tanto rxy=0. Es decir, si dos variables son independientes su covarianza vale cero. No podemos asegurar lo mismo en sentido contrario. Si dos variables tienen covarianza cero, no podemos decir que son independientes. Sabemos que linealmente no tienen relación, pero podrían tener otro tipo de relación y no ser independientes. Ejemplo: A partir de los siguientes datos, vamos a calcular la Covarianza y el coeficiente de correlación: Altura 175 180 162 157 180 173 171 168 165 165 Peso 80 82 57 63 78 65 66 67 62 58 Los cálculos que necesitamos:
Ahora se puede calcular el coeficiente de correlación lineal rxy y el de determinación lineal R2
Que nos indica que las variables están relacionadas.
EJEMPLO DE APLICACIÓN Para estudiar la dependencia entre la práctica de algún deporte y la depresión, se seleccionó una muestra aleatoria simple de 100 jóvenes, con los siguientes resultados: Sin depresión Con depresión Deportista
38
9
47
No deportista 31
22
53
69
31
100
L = (38 – 32,43)2/32,43 + (31 – 36,57)2/36,57 + (9 – 14,57)2/14,57 + (22 – 16,43)2/16,43 Página | 6
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA = 0,9567 + 0,8484 + 2,1293 + 1,8883 = 5,8227 El valor que alcanza el estadístico L es 5,8227. Buscando en la tabla teórica de Chi Cuadrado para 1 grado de libertad se aprecia Lt = 3,84146 < 5,8227 lo que permite rechazar la hipótesis de independencia de caracteres con un nivel de significación del 5%, admitiendo por tanto que la práctica deportiva disminuye el riesgo de depresión.
CORRECCIÓN DE YATES PARA TABLAS DE CONTINGENCIA DE 2X2 Un caso especial de pruebas de independencia es aquel que emplea una tabla de contingencia de 2x2. Si se utiliza una tabla cuádruple puede aplicarse una fórmula simplificada para calcular el Valor L, por χ2. Supóngase que las frecuencias observadas en una tabla de contingencia de 2x2 sean a, b, c y d de la siguiente forma: A
B
Total
X
a
b
a+b
Y
c
d
c+d
Total a + c b + d n El valor Xχ2 puede calcularse entonces con la fórmula siguiente:
que tiene (2 – 1)(2 – 1) = 1 grado de libertad Con frecuencia se aplica la Corrección de Continuidad de Yates, similar a la corrección de continuidad de la aproximación normal a la binomial, para mejorar la aproximación a la probabilidad exacta. El valor χ2 corregido se calcula a partir de la siguiente fórmula:
Página | 7
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
DEPENDENCIA FUNCIONAL (Existe una relación matemática exacta entre ambas variables) El carácter X depende del carácter Y, si a cada modalidad yj de Y corresponde una única modalidad posible de X. Por lo tanto cualquiera que sea j, la frecuencia absoluta ni vale cero salvo para un valor de i correspondiente a una columna j tal que ni = n.j Cada columna de la tabla de frecuencias tendrá, por consiguiente, un único término distinto de cero. Si a cada modalidad xi de X corresponde una única modalidad posible de Y, será Y dependiente de X. La dependencia de X respecto de Y no implica que Y dependa de X Para que la dependencia sea recíproca, los caracteres X e Y deben presentar el mismo número de modalidades (debe ser n=m) y en cada fila como en cada columna de la tabla debe haber uno y solo un término diferente de cero Sea X el salario de un empleado e Y la antigüedad del mismo en la empresa Dependencia funcional recíproca: X depende de Y e Y depende de X Y depende de X pero X no depende de Y.
DEPENDENCIA ESTADÍSTICA. (Existe una relación aproximada) Existen caracteres que ni son independientes, ni se da entre ellos una relación de dependencia funcional, pero si se percibe una cierta relación de dependencia entre ambos; se trata de una dependencia estadística Cuando los caracteres son de tipo cuantitativo, el estudio de la dependencia estadística se conoce como el problema de “regresión”, y el análisis del grado de dependencia que existe entre las variables se conoce como el problema de correlación.
BIBLIOGRAFIA Análisis estadístico con SPSS, de Magdalena Ferran Aranez, 2001, Editorial Osborne – McGraw-Hill Análisis Multivariante, de Hair – Anderson – Tatham – Black. 1999, Prentice- Hall
Página | 8
2.4 INDEPENDENCIA Y DEPENDENCIA ESTADISITICA
Página | 9