Asimetría estadística De Wikipedia, la enciclopedia libre Saltar a navegación navegación,, búsqueda
Ejemplo de datos experimentales con una asimetría positiva (respuesta gravitrópica de los coleóptilos del trigo trigo). ).
Contenido [ocultar ] 1 Definición 2 Medidas de asimetría 2.1 Coeficiente de asimetría de Fisher 2.2 Coeficiente de asimetría de Pearson 2.3 Coeficiente de asimetría de Bowley 3 Utilidad 4 Referencias 5 Enlaces externos •
•
○ ○ ○
•
•
•
[editar editar]] Definición Las medidas de asimetría son indicadores que permiten establecer el grado de simetría (o asimetría) que presenta una distribución de probabilidad de una variable aleatoria sin tener que hacer su representación gráfica. Como eje de simetría consideramos una recta paralela al eje de ordenadas que pasa por la media de la distribución. Si una distribución es simétrica, existe el mismo número de valores a la derecha que a la izquierda de la media, por tanto, el mismo número de
desviaciones con signo positivo que con signo negativo. Decimos que hay asimetría positiva (o a la derecha) si la "cola" a la derecha de la media es más larga que la de la izquierda, es decir, si hay valores más separados de la media a la derecha. Diremos que hay asimetría negativa (o a la izquierda) si la "cola" a la izquierda de la media es más larga que la de la derecha, es decir, si hay valores más separados de la media a la izquierda.
[editar] Medidas de asimetría [editar] Coeficiente de asimetría de Fisher
En teoría de la probabilidad y estadística, la medida de asimetría más utilizada parte del uso del tercer momento estándar . La razón de esto es que nos interesa mantener el signo de las desviaciones con respecto a la media, para obtener si son mayores las que ocurren a la derecha de la media que las de la izquierda. Sin embargo, no es buena idea tomar el momento estándar con respecto a la media de orden 1 (¡Ya que una simple suma de todas las desviaciones siempre es cero!). Por ello, lo más sencillo es tomar las desviaciones al cubo. El coeficiente de asimetría de Fisher , representado por γ1, se define como:
donde μ3 es el tercer momento en torno a la media y σ es la desviación estándar . Si γ1 = 0, la distribución es simétrica. Si γ1 > 0, la distribución es asimétrica positiva o a la derecha. Si γ1 < 0, la distribución es asimétrica negativa o a la izquierda. [editar] Coeficiente de asimetría de Pearson
Sólo se puede utilizar en distribuciones campaniformes, unimodales y moderadamente asimétricas. Se basa en que en distribuciones simétricas la media de la distribución es igual a la moda.
Si la distribución es simétrica, μ = moda y A p = 0. Si la distribución es asimétrica positiva la media se sitúa por encima de la moda y, por tanto, A p > 0. [editar] Coeficiente de asimetría de Bowley
Está basado en la posición de los cuartiles y la mediana, y utiliza la siguiente expresión:
En una distribución simétrica el tercer cuartil estará a la misma distancia de la mediana que el primer cuartil. Por tanto A B = 0. Si la distribución es positiva o a la derecha, A B > 0.
[editar] Utilidad
La asimetría resulta útil en muchos campos. Muchos modelos simplistas asumen una distribución normal, esto es, simétrica en torno a la media. La distribución normal tiene una asimetría cero. Pero en realidad, los valores no son nunca perfectamente simétricos y la asimetría de la distribución proporciona una idea sobre si las desviaciones de la media son positivas o negativas. Una asimetría positiva implica que hay más valores distintos a la derecha de la media. Las medidas de asimetría, sobre todo el coeficiente de asimetría de Fisher, junto con las medidas de apuntamiento o curtosis se utilizan para contrastar si se puede aceptar que una distribución estadística sigue la distribución normal. Esto es necesario para realizar numerosos contrastes estadísticos en la teoría de inferencia estadística.
Medidas de Distibución - Asimetría y Curtosis Las medidas de distribución nos permiten identificar la forma en que se separan o aglomeran los valores de acuerdo a su representación gráfica. Estas medidas describen la manera como los datos tienden a reunirse de acuerdo con la frecuencia con que se hallen dentro de la información. Su utilidad radica en la posibilidad de identificar las características de la distribución sin necesidad de generar el gráfico. Sus principales medidas son la Asimetría y la Curtosis.
1. ASIMETRÍA Esta medida nos permite identificar si los datos se distribuyen de forma uniforme alrededor del punto central (Media aritmética). La asimetría presenta tres estados diferentes [Fig.5-1], cada uno de los cuales define de forma concisa como están distribuidos los datos respecto al eje de asimetría. Se dice que la asimetría es positiva cuando la mayoría de los datos se encuentran por encima del valor de la media aritmética, la curva es Simétrica cuando se distribuyen aproximadamente la misma cantidad de valores en ambos lados de la media y se conoce como asimetría negativa cuando la mayor cantidad de datos se aglomeran en los valores menores que la media.
Figura 5-1
El Coeficiente de asimetría, se representa mediante la ecuación matemática,
Ecuación 5-9
Donde (g1) representa el coeficiente de asimetría de Fisher, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta ecuación se interpretan: •
•
•
(g1 = 0): Se acepta que la distribución es Simétrica, es decir, existe aproximadamente la misma cantidad de valores a los dos lados de la media. Este valor es difícil de conseguir por lo que se tiende a tomar los valores que son cercanos ya sean positivos o negativos (± 0.5). (g1 > 0): La curva es asimétricamente positiva por lo que los valores se tienden a reunir más en la parte izquierda que en la derecha de la media. (g1 < 0): La curva es asimétricamente negativa por lo que los valores se tienden a reunir más en la parte derecha de la media.
Desde luego entre mayor sea el número (Positivo o Negativo), mayor será la distancia que separa la aglomeración de los valores con respecto a la media.
2. CURTOSIS Esta medida determina el grado de concentración que presentan los valores en la región central de la distribución. Por medio del Coeficiente de Curtosis, podemos identificar si existe una gran concentración de valores (Leptocúrtica), una concentración normal (Mesocúrtica) ó una baja concentración (Platicúrtica).
Figura 5-2
Para calcular el coeficiente de Curtosis se utiliza la ecuación:
Ecuacion 5-10
Donde (g2) representa el coeficiente de Curtosis, (Xi) cada uno de los valores, ( ) la media de la muestra y (ni) la frecuencia de cada valor. Los resultados de esta fórmula se interpretan:
•
• •
(g2 = 0) la distribución es Mesocúrtica: Al igual que en la asimetría es bastante difícil encontrar un coeficiente de Curtosis de cero (0), por lo que se suelen aceptar los valores cercanos (± 0.5 aprox.). (g2 > 0) la distribución es Leptocúrtica (g2 < 0) la distribución es Platicúrtica
Cuando la distribución de los datos cuenta con un coeficiente de asimetría (g1 = ±0.5) y un coeficiente de Curtosis de (g2 = ±0.5), se le denomina Curva Normal. Este criterio es de suma importancia ya que para la mayoría de los procedimientos de la estadística de inferencia se requiere que los datos se distribuyan normalmente. La principal ventaja de la distribución normal radica en el supuesto que el 95% de los valores se encuentra dentro de una distancia de dos desviaciones estándar de la media aritmética (Fig.5-3); es decir, si tomamos la media y le sumamos dos veces la desviación y después le restamos a la media dos desviaciones, el 95% de los casos se encontraría dentro del rango que compongan estos valores.
Figura 5-3
Desde luego, los conceptos vistos hasta aquí, son sólo una pequeña introducción a las principales medidas de Estadística Descriptiva; es de gran importancia que los lectores profundicen en estos temas ya que la principal dificultad del paquete SPSS radica en el desconocimiento de los conceptos estadísticos. Las definiciones plasmadas en este capítulo han sido extraídas de los libros Estadística para administradores escrito por Alan Wester de la editorial McGraw-Hill y el libro Estadística y Muestreo escrito por Ciro Martínez editorial Ecoe editores (Octava edición). No necesariamente tienes que guiarte por estos libros ya que en las librerías encontraras una gran variedad de textos que pueden ser de bastante utilidad en la introducción a esta ciencia.
Atrás Medidas de Dispersión
Siguiente Escalas de Medida
SECCIONES
Nosotros Curso de SPSS Servicios Ayudas Download Contacto CURSO DE SPSS
Cap. 5 - Estadística
1. Tendencia Central 2. Medidas Dispersión 3. Medidas Distribución 4. Escalas de Medida
5. Análisis Descriptivo 6. Frecuencias: Opciones 7. Frecuencias: Graficos 8. Frecuencias: Formato 9. Variables Categoricas 10. Resultado Categorica 11. Variables de Escala 12. Resultados Escala 13. Drescriptivos SPSS 14. Descriptivos 2
Medidas de Simetría:
Las medidas de la asimetría, al igual que la curtosis, van a ser medidas de la forma de la distribución, es frecuente que los valores de una distribución tiendan a ser similares a ambos lados de las medidas de centralización. La simetría es importante para saber si los valores de la variable se concentran en una determinada zona del recorrido de la variable. As<0
As=0
As>0
Asimetría Negativa a la Izquierda
Simétrica
Asimetría Positiva a la Derecha.
Para medir la asimetría se puede realizar atendiendo básicamente a dos criterios: Comparando la Media y la Moda. Comparando los valores de la variable con la media. Comparando la Media y la Moda: •
•
Si la diferencia es positiva, diremos que hay asimetría positiva o a la derecha, en el caso de que sea negativa diremos que hay asimetría negativa o a la izquierda. No obstante, esta medida es poco operativa al no ser una medida relativa, ya que esta influida por la unidad en que se mida la variable, por lo que se define el coeficiente de Asimetría como:
Esta medida es muy fácil de calcular, pero menos precisa que el coeficiente de asimetría de Pearson. El coeficiente de asimetría de Pearson, se basa en la comparación con la media de todos los valores de la variable, así que es una medida que se basará en las diferencias , como vimos en el caso de la dispersión si medimos la media de esas desviaciones sería nulas, si las elevamos al cuadrado, serían siempre positivas por lo que tampoco servirían, por lo tanto precisamos elevar esas diferencias al cubo. Para evitar el problema de la unidad, y hacer que sea una medida escalar y por lo tanto relativa, dividimos por el cubo de su desviación típica. Con lo que resulta la siguiente expresión:
Coeficiente de correlación de Pearson De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente de correlación de Pearson es un índice que mide la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables. De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
[editar] Definición En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población estadística; el coeficiente de correlación de Pearson se simboliza con la letra ρ x, y, siendo la expresión que nos permite calcularlo:
Donde: σ XY es la covarianza de ( X ,Y ) σ X es la desviaciones típicas de la variable X σY es la desviaciones típicas de la variable Y De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como r xy a: •
•
•
[editar] Interpretación
El valor del índice de correlación varía en el intervalo [-1,1]: Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante. Si 0 < r < 1, existe una correlación positiva. Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables. Si -1 < r < 0, existe una correlación negativa. Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante. •
•
•
•
•
•
Coeficiente Asimetria De Pearson Principio del formulario
•
partner-pub-855
ISO-8859-1
•
Buscar
w w w .mitecnolo
w w w .mitecnolo
• •
• •
• •
•
•
•
•
Final del formulario
Medidas de Dispersión Las medidas de tendencia central tienen como objetivo el sintetizar los datos en un valor representativo, las medidas de dispersión nos dicen hasta que punto estas medidas de tendencia central son representativas como síntesis de la información. Las medidas de dispersión cuantifican la separación, la dispersión, la variabilidad de los valores de la distribución respecto al valor central. Distinguimos entre medidas de dispersión absolutas, que no son comparables entre diferentes muestras y las relativas que nos permitirán comparar varias muestras. MEDIDAS DE DISPERSIÓN ABSOLUTAS u VARIANZA ( s2 ): es el promedio del cuadrado de las distancias entre cada observación y la media aritmética del conjunto de observaciones. Haciendo operaciones en la fórmula anterior obtenemos otra fórmula para calcular la varianza: Si los datos están agrupados utilizamos las marcas de clase en lugar de Xi. u DESVIACIÓN TÍPICA (S): La varianza viene dada por las mismas unidades que la variable pero al cuadrado, para evitar este problema podemos usar como medida de dispersión la desviación típica que se define como la raíz cuadrada positiva de la varianza Para estimar la desviación típica de una población a partir de los datos de una muestra se utiliza la fórmula (cuasi desviación típica):
•
• •
•
• •
• •
•
•
•
•
• •
u RECORRIDO O RANGO MUESTRAL (Re). Es la diferencia entre el valor de las observaciones mayor y el menor. Re = xmax - xmin MEDIDAS DE DISPERSIÓN RELATIVAS u COEFICIENTE DE VARIACIÓN DE PEARSON: Cuando se quiere comparar el grado de dispersión de dos distribuciones que no vienen dadas en las mismas unidades o que las medias no son iguales se utiliza el coeficiente de variación de Pearson que se define como el cociente entre la desviación típica y el valor absoluto de la media aritmética CV representa el número de veces que la desviación típica contiene a la media aritmética y por lo tanto cuanto mayor es CV mayor es la dispersión y menor la representatividad de la media. Medidas de Forma Comparan la forma que tiene la representación gráfica, bien sea el histograma o el diagrama de barras de la distribución, con la distribución normal. MEDIDA DE ASIMETRÍA Diremos que una distribución es simétrica cuando su mediana, su moda y su media aritmética coinciden. Diremos que una distribución es asimétrica a la derecha si las frecuencias (absolutas o relativas) descienden más lentamente por la derecha que por la izquierda. Si las frecuencias descienden más lentamente por la izquierda que por la derecha diremos que la distribución es asimétrica a la izquierda. Existen varias medidas de la asimetría de una distribución de frecuencias. Una de ellas es el Coeficiente de Asimetría de Pearson: Su valor es cero cuando la distribución es simétrica, positivo cuando existe asimetría a la derecha y negativo cuando existe asimetría a la izquierda. MEDIDA DE APUNTAMIENTO O CURTOSIS Miden la mayor o menor cantidad de datos que se agrupan en torno a la moda. Se definen 3 tipos de distribuciones según su grado de curtosis:
•
• •
• •
•
• •
•
•
• • • •
Distribución mesocúrtica: presenta un grado de concentración medio alrededor de los valores centrales de la variable (el mismo que presenta una distribución normal). Distribución leptocúrtica: presenta un elevado grado de concentración alrededor de los valores centrales de la variable. Distribución platicúrtica: presenta un reducido grado de concentración alrededor de los valores centrales de la variable. EJEMPLO 1 El número de diás necesarios por 10 equipos de trabajadores para terminar 10 instalaciones de iguales características han sido: 21, 32, 15, 59, 60, 61, 64, 60, 71, y 80 días. Calcular la media, mediana, moda, varianza y desviación típica SOLUCIÓN: La media: suma de todos los valores de una variable dividida entre el número total de datos de los que se dispone: La mediana: es el valor que deja a la mitad de los datos por encima de dicho valor y a la otra mitad por debajo. Si ordenamos los datos de mayor a menor observamos la secuencia: 15, 21, 32, 59, 60, 60,61, 64, 71, 80. Como quiera que en este ejemplo el número de observaciones es par (10 individuos), los dos valores que se encuentran en el medio son 60 y 60. Si realizamos el cálculo de la media de estos dos valores nos dará a su vez 60, que es el valor de la mediana. La moda: el valor de la variable que presenta una mayor frecuencia es 60 La varianza S2: Es la media de los cuadrados de las diferencias entre cada valor de la variable y la media aritmética de la distribución. Sx2= La desviación típica S: es la raíz cuadrada de la varianza. S = √ 427,61 = 20.67 El rango: diferencia entre el valor de las observaciones mayor y el menor
• •
• • •
• • •
• •
•
•
80 - 15 = 65 días El coeficiente de variación: cociente entre la desviación típica y el valor absoluto de la media aritmética CV = 20,67/52,3 = 0,39 EJEMPLO 2 El precio de un interruptor magentotérmico en 10 comercios de electricidad de una ciudad son : 25, 25, 26, 24, 30, 25, 29, 28, 26, y 27 Euros. Hallar la media, moda, mediana, (abrir la calculadora estadística, más abajo) diagrama de barras y el diagrama de caja. SOLUCIÓN: Utilizar la calculadora de debajo) El diagrama de cajas: caja desde Q1 a Q3 (50% de los datos), bigotes el recorrido] COEFICIENTE DE ASIMETRÍA DE PEARSON El coeficiente de asimetría de Pearson mide la desviación respecto de la simetría expresando la diferencia entre la media y la mediana en relación con la desviación estándar del grupo de medidas. Las fórmulas son: En una distribución simétrica, el valor del coeficiente de asimetría será siempre de cero, porque la media y la mediana son iguales entre sí en valor En una distribución asimétrica positiva, la media siempre es mayor que la mediana; en consecuencia, el valor del coeficiente es positivo. En una distribución asimétrica negativa, la media siempre es menor que la mediana; por lo tanto, el valor del coeficiente es negativo. EJEMPLO En relación con los datos de ventas de equipos de aire acondicionado presentados en el ejemplo anterior, la media es 10.5 unidades, la mediana 11.0 unidades (con base en las secciones 2.2 y 2.4) y la desviación estándar 3.3 unidades. El coeficiente de asimetría es Así, la distribución de cantidades de ventas es en cierto modo asimétrica negativa, o sesgada a la izquierda.