Distribución de frecuencias En estadística, se le llama distribución de frecuencias a la agrupación de datos en categorías mutuamente excluyentes que indican el número de observaciones en cada categoría.1 Esto proporciona un valor añadido a la agrupación de datos. La distribución de frecuencias presenta las observaciones clasificadas de modo que se pueda ver el número existente en cada clase. Índice [ocultar]
1Tipos de frecuencias o
1.1Frecuencia absoluta
o
1.2Frecuencia relativa
o
1.3Frecuencia acumulada
o
1.4Frecuencia relativa acumulada
o
1.5Distribución de frecuencias agrupadas 2Referencias
Tipos de frecuencias[editar] Véase también: Frecuencia estadística
Frecuencia absoluta[editar] La frecuencia absoluta es el número de veces que aparece un determinado valor en un estudio estadístico. Se representa por fi. La suma de las frecuencias absolutas es igual al número total de datos, que se representa por N. Para indicar resumidamente estas sumas se utiliza la letra griega Σ (sigma mayúscula) que se lee suma o sumatoria.
Frecuencia relativa[editar] Se dice que La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos. Se puede expresar en tantos por ciento y se representa por fi. La suma de las frecuencias relativas es igual a 1, siempre y cuando no sea igual que 7 o por debajo de los 7 primeros números sucesivos. Frecuencia relativa (fi), es el cociente entre la frecuencia absoluta y el tamaño de la muestra (N). Es decir:
siendo el fi para todo el conjunto i. Se presenta en una tabla o nube de puntos en una distribución de frecuencias.
Si multiplicamos la frecuencia relativa por 100 obtendremos el porcentaje o tanto por ciento (pi)
Frecuencia acumulada[editar] La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valor considerado. La frecuencia acumulada es la frecuencia estadística F(XXr) con que el valor de un variable aleatoria (X) es menor que o igual a un valor de referencia (Xr). La frecuencia acumulada relativa se deja escribir como Fc(X≤Xr), o en breveFc(Xr), y se calcula de: Fc (Hr)
= HXr / N
donde MXr es el número de datos X con un valor menor que o igual a Xr, y N es número total de los datos. En breve se escribe: Fc = M / N
Cuando Xr=Xmin, donde Xmin es el valor mínimo observado, se ve que Fc=1/N, porque M=1. Por otro lado, cuando Xr=Xmax, donde Xmax es el valor máximo observado, se ve que Fc=1, porque M=N. En porcentaje la ecuación es: Fc(%) = 100 M / N
Frecuencia relativa acumulada[editar] La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el número total de datos. Se puede expresar en tantos por ciento. Ejemplo: Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas máximas: 32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27
Distribución de frecuencias agrupadas[editar] La distribución de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman un número grande de valores o la variable es continua. Se agrupan los valores en intervalos que tengan la misma amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Límites de la clase. Cada clase está delimitada por el límite inferior de la clase y el límite superior de la clase. La amplitud de la clase es la diferencia entre el límite superior e inferior de la clase. La marca de clase es el punto medio de cada intervalo y es el valor que representa a todo el intervalo para el cálculo de algunos parámetros. Construcción de una tabla de datos agrupados: 3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47, 39, 37, 34, 32, 35, 28, 38, 41, 48, 15, 32, 13.
1. Se localizan los valores menor y mayor de la distribución. En este caso son 3 y 48. 2. Se restan y se busca un número entero un poco mayor que la diferencia y que sea divisible por el número de intervalos que queramos establecer. Es conveniente que el número de intervalos oscile entre 6 y 15. En este caso, 48 - 3 = 45, incrementamos el número hasta 50 : 5 = 10 intervalos. Se forman los intervalos teniendo presente que el límite inferior de una clase pertenece al intervalo, pero el límite superior no pertenece al intervalo, se cuenta en el siguiente intervalo. Intervalo
ci
ni
Ni
fi
Fi
[0, 5)
2.5
1
1
0.025
0.025
[5, 10)
7.5
1
2
0.025
0.050
[10, 15)
12.5
3
5
0.075
0.125
[15, 20)
17.5
3
8
0.075
0.200
[20, 25)
22.5
3
11
0.075
0.2775
[25, 30)
27.5
6
17
0.150
0.425
[30, 35)
32.5
7
24
0.175
0.600
[35, 40)
37.5
10
34
0.250
0.850
[40, 45)
42.5
4
38
0.100
0.950
[45, 50)
47.5
2
40
0.050
1
Total:
40
Distribución de probabilidad
1
La distribución Normal suele conocerse como la "campana de Gauss".
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad de que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todos los sucesos, cada uno de los sucesos es el rango de valores de la variable aleatoria. La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x. Índice [ocultar]
1Definición de función de distribución o
1.1Propiedades 2Distribuciones de variable discreta
o
2.1Tipos de distribuciones de variable discreta 3Distribuciones de variable continua
o
3.1Tipos de distribuciones de variable continua
4Véase también
5Enlaces externos
Definición de función de distribución[editar] Artículo principal: Función de distribución
Dada una variable aleatoria
, su función de distribución,
, es
Por simplicidad, cuando no hay lugar a confusión, suele omitirse el subíndice simplemente, . Donde en la fórmula anterior:
y se escribe,
, es la probabilidad definida sobre un espacio de probabilidad y una medida unitaria sobre el espacio muestral. es la medida sobre la σ-álgebra de conjuntos asociada al espacio de probabilidad. es el espacio muestral, o conjunto de todos los posibles sucesos aleatorios, sobre el que se define el espacio de probabilidad en cuestión. es la variable aleatoria en cuestión, es decir, una función definida sobre el espacio muestral a los números reales.
Propiedades[editar] Como consecuencia casi inmediata de la definición, la función de distribución:
Es una función continua por la derecha.
Es una función monótona no decreciente.
Además, cumple
Para dos números reales cualesquiera sucesos
y
unión es el suceso
y
tal que
, los
son mutuamente excluyentes y su , por lo que tenemos entonces que:
y finalmente
Por lo tanto una vez conocida la función de distribución para todos los valores de la variable aleatoria conoceremos completamente la distribución de probabilidad de la variable. Para realizar cálculos es más cómodo conocer la distribución de probabilidad, y sin embargo para ver una representación gráfica de la probabilidad es más práctico el uso de la función de densidad.
Distribuciones de variable discreta[editar]
Gráfica de distribución binomial.
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma valores positivos en un conjunto de valores de finito o infinito numerable. A dicha función se le llama función de masa de probabilidad. En este caso la distribución de probabilidad es la suma de la función de masa, por lo que tenemos entonces que:
Y, tal como corresponde a la definición de distribución de probabilidad, esta expresión representa la suma de todas las probabilidades desde hasta el valor .
Tipos de distribuciones de variable discreta[editar] Definidas sobre un dominio finito
La distribución de Bernoulli, que toma valores "1", con probabilidad p, o "0", con probabilidad q = 1 − p.
La distribución de Rademacher, que toma valores "1" o "1" con probabilidad 1/2 cada uno.
La distribución binomial, que describe el número de aciertos en una serie de n experimentos independientes con posibles resultados "sí" o "no" (ensayo de Bernoulli, todos ellos con probabilidad de acierto p y probabilidad de fallo q = 1 − p.
La distribución beta-binomial, que describe el número de aciertos en una serie de n experimentos independientes con posibles resultados "sí" o "no", cada uno de ellos con una probabilidad de acierto variable definida por una beta.
La distribución degenerada en x0, en la que X toma el valor x0 con probabilidad 1. A pesar de que no parece una variable aleatoria, la distribución satisface todos los requisitos para ser considerada como tal.
La distribución uniforme discreta, en el que todos los resultados posibles forman de un conjunto finito en el que todos son igualmente probables. Esta distribución describe el comportamiento aleatorio de una moneda, un dado o una ruleta de casino equilibrados (sin sesgo).
La distribución hipergeométrica, que mide la probabilidad de obtener x (0 ≤ x ≤ d) elementos de una determinada clase formada por d elementos pertenecientes a una población de N elementos, tomando una muestra de n elementos de la población sin reemplazo.
distribución hipergeométrica no central de Fisher.
distribución hipergeométrica no central de Wallenius.
La ley de Benford, que describe la frecuencia del primer dígito de un conjunto de números en notación decimal.
Definidas sobre un dominio infinito
La distribución binomial negativa o distribución de Pascal, que describe el número de ensayos de Bernoulli independientes necesarios para conseguir n aciertos, dada una probabilidad individual de éxito p constante.
La distribución geométrica, que describe el número de intentos necesarios hasta conseguir el primer acierto.
La distribución beta-binomial negativa, que describe el número de experimentos del tipo "si/no" necesarios para conseguir n aciertos, cuando la probabilidad de éxito de cada uno de los intentos está distribuida de acuerdo con una beta.
La distribución binomial negativa extendida.
La distribución de Boltzmann, importante en mecánica estadística, que describe la ocupación de los niveles de energía discretos en un sistema en equilibrio térmico. Varios casos especiales son:
La distribución de Gibbs.
La distribución de Maxwell–Boltzmann.
La distribución elíptica asimétrica.
La distribución fractal parabolica.
La distribución hipergeométrica extendida.
La distribución logarítmica.
La distribución logarítmica generalizada.
La distribución de Poisson, que describe el número de eventos individuales que ocurren en un periodo de tiempo. Existen diversas variantes como la Poisson desplazada, la hiper-Poisson, la binomial de Poisson y la Conway–Maxwell–Poisson entre otras.
La distribución de Polya-Eggenberger.
La distribución Skellam, que describe la diferencia de dos variables aleatorias independientes con distribuciones de Poisson de distinto valor esperado.
La distribución de Yule–Simon.
La distribución zeta, que utiliza la función zeta de Riemman para asignar una probabilidad a cada número natural.
La ley de Zipf, que describe la frecuencia de utilización de las palabras de una lengua.
La ley de Zipf–Mandelbrot es una versión más precisa de la anterior.
Distribuciones de variable continua[editar]
Distribución normal.
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores existentes dentro de un
intervalo. En el caso de variable continua la distribución de probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
Tipos de distribuciones de variable continua[editar] Distribuciones definidas en un intervalo acotado
La distribución arcoseno, definida en el intervalo [a,b].
La distribución beta, definida en el intervalo [0, 1], que es útil a la hora de estimar probabilidades.
La distribución del coseno alzado, sobre el intervalo [\mu-s,\mu+s].
La distribución degenerada en x0, en la que X toma el valor x0 con probabilidad 1. Puede ser considerada tanto una distribución discreta como continua.
La distribución de Irwin-Hall o distribución de la suma uniforme, es la distribución correspondiente a la suma de n variables aleatorias i.i.d. ~ U(0, 1).
La distribución de Kent, definida sobre la superficie de una esfera unitaria.
La distribución de Kumaraswamy, tan versátil como la beta, pero con FDC y FDP más simples.
La distribución logarítmica continua.
La distribución logit-normal en (0, 1).
La distribución normal truncada, sobre el intervalo [a, b].
La distribución reciproca, un tipo de distribución inversa.
La distribución triangular, definida en [a, b], de la cual un caso particular es la distribución de la suma de dos variables independientes uniformemente distribuidas (la convolución de dos distribuciones uniformes).
La distribución uniforme continua definida en el intervalo cerrado [a, b], en el que la densidad de probabilidad es constante.
La distribución rectangular es el caso particular en el intervalo [-1/2, 1/2].
La distribución U-cuadrática, definida en [a, b], utilizada para modelar procesos bimodales simétricos.
La distribución von Mises, también llamada distribución normal circular o distribución Tikhonov, definida sobre el círculo unitario.
La distribución von Mises-Fisher, generalización de la anterior a una esfera N-dimensional.
La distribución semicircular de Wigner, importante en el estudio de las matrices aleatorias.
Definidas en un intervalo semi-infinito, usualmente [0,∞)
La distribución beta prima.
La distribución de Birnbaum–Saunders, también llamada distribución de resistencia a la fatiga de materiales, utilizada para modelar tiempos de fallo.
La distribución chi.
La distribución chi no central.
La distribución χ² o distribución de Pearson, que es la suma de cuadrados de n variables aleatorias independientes gaussianas. Es un caso especial de la gamma, utilizada en problemas de bondad de ajuste.
La distribución chi-cuadrada inversa.
La distribución chi-cuadrada inversa escalada.
La distribución chi-cuadrada no central.
La distribución de Dagum.
La distribución exponencial, que describe el tiempo entre dos eventos consecutivos en un proceso sin memoria.
La distribución F, que es la razón entre dos variables y independientes. Se utiliza, entre otros usos, para realizar análisis de varianza por medio del test F.
La distribución F no central.
La distribución de Fréchet.
La distribución gamma, que describe el tiempo necesario para que sucedan n repeticiones de un evento en un proceso sin memoria.
La distribución de Erlang, caso especial de la gamma con un parámetro k entero, desarrollada para predecir tiempos de espera en sistemas de líneas de espera.
La distribución gamma inversa.
La distribución gamma-Gompertz, que se utiliza en modelos para estimar la esperanza de vida.
La distribución de Gompertz.
La distribución de Gompertz desplazada.
La distribución de Gumbel tipo-2.
La distribución de Lévy.
Distribuciones en las que el logaritmo de una variable aleatoria está distribuido conforme a una distribución estándar:
La distribución log-Cauchy.
La distribución log-gamma.
La distribución log-Laplace.
La distribución log-logistic.
La distribución log-normal.
La distribución de Mittag–Leffler.
La distribución de Nakagami.
Variantes de la distribución normal o de Gauss:
La distribución normal pleglada.
La distribución semi normal.
La distribución de Gauss inversa, también conocida como distribución de Wald.
La distribución de Pareto y la distribución de Pareto generalizada.
La distribución tipo III de Pearson.
La distribución por fases bi-exponencial, comúnmente usada en farmacocinética.
La distribución por fases bi-Weibull.
La distribución de Rayleigh.
La distribución de mezcla de Rayleigh.
La distribución de Rice.
La distribución T² de Hotelling.
La distribución de Weibull o distribución de RosinRammler, para describir la distribución de tamaños de determinadas partículas.
La distribución Z de Fisher.
Definidas en la recta real completa
La distribución de Behrens–Fisher, que surge en el problema de Behrens–Fisher.
La distribución de Cauchy, un ejemplo de distribución que no tiene expectativa ni varianza. En física se le llama función de Lorentz, y se asocia a varios procesos.
La distribución de Chernoff.
La distribución estable o distribución asimétrica alfaestable de Lévy, es una familia de distribuciones usadas e multitud de campos. Las distribuciones normal, de Cauchy, de Holtsmark, de Landau y de Lévy pertenecen a esta familia.
La distribución estable geométrica.
La distribución de Fisher–Tippett o distribución del valor extremo generalizada.
La distribución de Gumbel o log-Weibull, caso especial de la Fisher–Tippett.
La distribución de Gumbel tipo-1.
La distribución de Holtsmark, ejemplo de una distribución con expectativa finita pero varianza infinita.
La distribución hiperbólica.
La distribución secante hiperbólica.
La distribución SU de Johnson.
La distribución de Landau.
La distribución de Laplace.
La distribución de Linnik.
La distribución logística, descrita por la función logística.
La distribución logística generalizada.
La distribución map-Airy.
La distribución normal, también llamada distribución gaussiana o campana de Gauss. Está muy presente en multitud de fenómenos naturales debido al teorema del límite central: toda variable aleatoria que se pueda modelar como la suma de varias variables independientes e idénticamente distribuidas con expectativa y varianza finita, es aproximadamente normal.
La distribución normal generalizada.
La distribución normal asimétrica.
La distribución gaussiana exponencialmente modificada, la convolución de una normal con una exponencial.
La distribución normal-exponencial-gamma.
La distribución gaussiana menos exponencial es la convolución de una distribución normal con una distribución exponencial (negativa).
La distribución de Voigt, o perfil de Voigt, es la convolución de una distribución normal y una Cauchy. Se utiliza principalmente en espectroscopía.
La distribución tipo IV de Pearson.
La distribución t de Student, útil para estimar medias desconocidas de una población gaussiana.
La distribución t no central.
Definidas en un dominio variable
La distribución de Fisher–Tippett o distribución del valor extremo generalizada, puede estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus parámetros.
La distribución de Pareto generalizada está definida en un dominio que puede estar acotado inferiormente o acotado por ambos extremos.
La distribución lambda de Tukey, puede estar definida en la recta real completa o en un intervalo acotado, dependiendo de sus parámetros.
La distribución de Wakeby.
Distribuciones mixtas discreta/continua
La distribución gaussiana rectificada, es una distribución normal en la que los valores negativos son sustituidos por un valor discreto en cero.
Distribuciones multivariable
La distribución de Dirichlet, generalización de la distribución beta.
La fórmula de muestreo de Ewens o distribución multivariante de Ewens, es la distribución de probabilidad del conjunto de todas las particiones de un entero n, utilizada en el análisis genético de poblaciones.
El modelo de Balding–Nichols, utilizado en el análisis genético de poblaciones.
La distribución multinomial, generalización de la distribución binomial.
La distribución normal multivariante, generalización de la distribución normal.
La distribución multinomial negativa, generalización de la distribución binomial negativa.
La distribución log-gamma generalizada multivariante.
Distribuciones matriciales
La distribución de Wishart.
La distribución de Wishart inversa.
La distribución normal matricial.
La distribución t matricial.
Distribuciones no numéricas
La distribución categórica.
Distribuciones misceláneas
Distribución de Cantor.
Distribuciones logísticas generalizadas.
Distribuciones de Pearson.
Distribución de tipo fase.
Función de densidad de probabilidad
Diagrama de Caja y función de densidad de probabilidad de una distribución normal N(0, σ2).
En la teoría de la probabilidad, la función de densidad de probabilidad, función de densidad, o, simplemente, densidad de una variable aleatoria continua describe la probabilidad relativa según la cual dicha variable aleatoria tomará determinado valor. La probabilidad de que la variable aleatoria caiga en una región específica del espacio de posibilidades estará dada por laintegral de la densidad de esta variable entre uno y otro límite de dicha región. La función de densidad de probabilidad (FDP o PDF en inglés) es no-negativa a lo largo de todo su dominio y su integral sobre todo el espacio es de valor unitario.
Función de densidad de probabilidad para la distribución normal.
Índice [ocultar]
1Definición o
1.1Descripción Intuitiva-Práctica
o
1.2Funciones de Distribución de Probabilidad
2Propiedades
3Enlaces externos
4Véase también
Definición[editar] Una función de densidad de probabilidad caracteriza el comportamiento probable de una población en tanto especifica la posibilidad relativa de que una variable aleatoria continua X tome un valor cercano a x. Una variable aleatoria X tiene densidad f, siendo f una función no-negativa integrable de Lebesgue, si:
Por lo tanto, si F es la función de distribución acumulativa de X, entonces:
y (si f es continua en x)
Intuitivamente, puede considerarse f(x) dx como la probabilidad de X de caer en el intervalo infinitesimal [x, x + dx].
Se define como el cociente entre la probabilidad de X de tomar un valor en el intervalo [x, x + dx] y dx, siendo dx un infinitésimo. La mayoría de las funciones de densidad de probabilidad requieren uno o más parámetros para especificarlas totalmente. Recíprocamente respecto de la definición ya desarrollada, pueden hacerse las siguientes consideraciones. La probabilidad de que una variable aleatoria continua X quede ubicada entre los valores a y b está dada por el desenvolvimiento en el intervalo de la FDP; de los valores comprendidos en el rango entre a y b.
La FDP es la derivada (cuando existe) de la función de distribución:
Así, si F es la función de distribución acumulativa de X, entonces:
y (si f es continua en x)
Descripción Intuitiva-Práctica[editar] En situaciones prácticas, la FDP utilizada se elige entre un número relativamente pequeño de FDP comunes, y la labor estadística principal consiste en estimar sus parámetros.
Por lo tanto, a los efectos del registro, es necesario saber qué FDP se ha utilizado e indicarlo en la documentación de evaluación de la incertidumbre. La definición formal de la función de densidad requiere de conceptos de la teoría de la medida. Si una variable aleatoria X sigue una función de probabilidad X*P su densidad con respecto a una medida de referencia μ es la derivada de Radon–Nikodym
Una variable aleatoria continua X con valores en un espacio de medida (habitualmente Rn con conjuntos Borel como subconjuntos mesurables), tiene como distribución de probabilidad, la medida X∗P en : la densidad de X con respecto a la medida de referencia μ sobre Nikodym.
es la derivada de Radon–
Siendo f/; toda función medible con la siguiente propiedad:
para todo conjunto medible
.
Es decir, ƒ es una función con la propiedad de que...
...para cada conjunto medible A. Funciones de Distribución de Probabilidad[editar] A diferencia de la probabilidad, una fdp puede tomar valores mayores que
uno. Por ejemplo, la distribución uniforme continua en el intervalo [0, ½] tiene una densidad de probabilidadf(x) = 2 para 0 ≤ x ≤ ½ y f(x) = 0 fuera de tal intervalo. Hay que advertir que la función de densidad no es propiamente única: dos funciones distintas pueden representar la misma distribución de probabilidad si sólo difieren en un conjunto de medida nulo. Además, puede haber distribuciones de probabilidad que carezcan de función de densidad. Esto ocurre cuando, sin ser discretas, no le asignan probabilidad positiva a algunos puntos individuales presentan conjuntos de medida nula. Esto sucede con la distribución de Cantor cuando se toma la de Lebesgue como medida de referencia. Cuando, como ocurre normalmente en las aplicaciones, X es una variable aleatoria real y μ es la medida de Lebesgue, la función de densidad es una función tal que
De modo que si F es la función de distribución de X, entonces
y
Intuitivamente, se puede pensar que ƒ(x) dx es la probabilidad de que X asuma valores en
el intervalo infinitesimal [x, x + d x].
Propiedades[editar] De las propiedades de la función de densidad se siguen las siguientes propiedades de la fdp (a veces visto como pdf del inglés):
para toda
.
El área total encerrada bajo la curva es igual a 1:
La probabilidad de que tome un valor en el intervalo es el área bajo la curva de la función de densidad en ese intervalo o lo que es lo mismo, la integral definida en dicho intervalo. La gráfica f(x) se conoce a veces como curva de densidad.
Algunas FDP están declaradas en rangos de a , como la de la distribución normal.
Área de un polígono regular
n es el número de lados
Ejemplos Ca lc ula r e l ár ea y e l per ím etr o de un pent á go no r egula r de 6 cm de lado .
P = 5 · 6 = 30 cm