Capítulo 4: Probabilidad
Espacio muestral: Es el conjunto de todos los resultados posibles de un experimento
estadístico y se representa con el símbolo S.
Evento: un subconjunto del espacio muestral. Relaciones y operaciones con eventos: Complemento: de un evento A con respecto a S. Es el subconjunto de S que no están en A, y se denota por A’. Implicación: El evento A implica el evento B si siempre que ocurre A también ocurre B,
⊆
se denota A B . Ejemplo: A = (3,7,9); B = (números impares). Igualdad de evento evento s: Si A y B se implican mutuamente: A
⊆ B y B ⊆ A. Ejemplo: A =
Intersección: Eventos en común entre A y B. se denota A
⋂ B. Ejemplo:
(1,2,3); B = (1,2,3). Tienen que tener el mismo espacio muestral.
⋂
C = A B. Siendo A = (1,2,3,4) y B = (7,6,5,4). Entonces C = (4).
Unión: Evento que contiene todos los elementos que pertenecen a A o a B o a ambos. Se
⋃
denota A B. Ejemplo A = (1,2,3,4). y B = (7,6,5,4). Entonces C = (1,2,3,4,5,6,7). La diferencia de dos eventos A y B es el evento C que se verifica cuando se cumple A, pero no se cumple B. C = A – B = A B’. Ejemplo: A = {2, 4, 6}; B = {3, 6}; A – B = {2, 4}
⋂
Sucesos independientes: sucesos o eventos que no tienen relación entre sí; la
ocurrencia de uno no afecta la ocurrencia del otro
Sucesos dependientes: sucesos o eventos que sí tienen relación entre sí; la ocurrencia
de uno sí afecta la ocurrencia del otro.
Cálculo de probabilidades: Permutaciones: Donde el orden de los eventos sí importa, lo que quiere decir, que cada
permutación es un resultado posible de la operación, aunque tenga los mismos objetos. o bjetos.
() = ( ! )!
Siendo “n” los elementos y “r” siendo el subconjunto que se está buscando
Ejemplo: ¿De cuántas maneras pueden quedar asignados los títulos de CAMPEÓN y SUBCAMPEÓN entre los equipos A, B, C, D? El resultado puede ser AB, AC, AD, BA, BC, BD, CA, CB, CD, DA, DB, DC. Es decir, 12 resultados posibles. Es una permutación porque que salga campeón A y subcampeón B, no es lo mismo que salga campeón B y subcampeón A. Las combinaciones AB y BA no son lo mismo, por lo tanto, el orden de los eventos sí importa.
! = .3..= 12 (42) = (−)! . Combinaciones: Donde el orden de los mismos no importa. Interesa únicamente la
presencia de los eventos, pero no la posición (como sí sucede con las permutaciones)
() = !(!)! Ejemplo: ¿Cuántos son los posibles partidos que se pueden dar en una final entre los equipos A, B, C, D? El resultado puede ser: AB (Que va a ser el mismo partido que si fuera BA), AC, AD, BC, BD y CD = 6.
! = .3..= 6 (42) = !(−)! ... Permut aciones de varias clases: número de permutaciones distintas de n cosas de las que n1 son de una clase, n2 de una segunda c lase, …, nk de una k -ésima clase es
! 1!2!…! Ejemplo: ¿De cuantas formas diferentes se pueden acomodar 3 focos rojos, 4 amarillos y 9! 2 azules en una serie de lucas navideña con 9 portalámparas? 3!!!
= 1260
La idea de probabilidad es una generalización de la medida de frecuencia relativa. La frecuencia relativa describe puntualmente la cantidad de ocurrencias de un evento determinado (A) en un experimento con espacio muestral S, mientras que, la probabilidad describe la generalización, es decir, la población Probabilidad de un evento (con límites): A medida que va aumentando la cantidad de
muestras tomadas de un experimento, el resultado final de su probabilidad va a terminar siendo el más acercado posible a la realidad, es decir, se va a estabilizar según vayamos aumentando el número de pruebas. Ejemplo: Si tiro 5 veces una moneda y en las 5 veces me sale cruz, voy a tener (estadísticamente) una probabilidad del 100% la cual induce que la próxima vez que lance la moneda salga cruz, pero si repetimos este experimento infinitas veces su probabilidad se va a ir acercando a la realidad (50% de posibilidades). Una forma más sencilla de calcular dicha probabilidad es con la regla de Laplace
Regla de Laplace: Si queremos calcular la probabilidad de un evento A en un espacio
muestral S, su fórmula va a ser. Probabilidad de que ocurra A =
ú ú
Capítulo 4: Probabili dad condici onal
Frecuencia relativa describe puntualmente la cantidad de ocurrencias de un evento determinado (A) en un experimento con espacio muestral S. Mientras que, la probabilidad describe una generalización, es decir, la población. Propiedades de la probabilidad P(A’) = 1 – P(A)
Sea A y B, dos eventos cualesquiera, entonces: P(A
⋃ B) = P(A) + P(B) - P(A ⋂ B)
Si A y B, son mutuamente excluyentes (no tienen sucesos en común), entonces:
⋃
P(A B) = P(A) + P(B) Si A,B,C,D,E son eventos excluyentes entonces se cumple que
⋃ ⋃ ⋃ ⋃
P(A B C D E) = P(A) + P(B) + P(C) + P(D) + P(E) Probabilidad condicional: la probabilidad de que un evento B ocurra cuando se sabe que ya ocurrió algún evento A. Con este concepto tratamos de registrar el cambio que experimenta la probabilidad de un suceso si aumenta la información que disponemos sobre el resultado del experimento.
⋂ ) (|) = (() Eventos independientes Si dos eventos no tienen impacto entre si (no tienen relación) se va a dar que:
(|) = () (|) = () Despejando las ecuaciones de probabilidad condicional (dependientes e independientes) obtenemos las reglas multiplicativas que dicen: Si son dependientes:
( ⋂ ) = () (|) ( ⋂ ) = () (|) * ⋂ y ⋂ representan el mismo conjunto*
Si son independientes:
( ⋂ ) = ()() Teorema de probabilidad total Se utiliza para calcular la probabilidad de un evento B teniendo únicamente eventos donde B está involucrado
() = () (|) () (|) () (|) Y así con todos los eventos en los que participa B
El evento B es el de probabilidad total, es decir, que no tiene ninguna condición añadida, ya que se expresa en función de las intersecciones con los eventos de A. Regla de Bayes Este teorema se usa para calcular una probabilidad condicionada de una forma indirecta.
⋂ ) = ()(|) = ()(|) (|) = (() () .
Capítul o 4: Variables aleator ias
Una variable aleatoria es una función que asocia un número real con cada elemento del espacio muestral. Cuando la variable aleatoria sólo toma una cantidad finita o infinita numerable de valores se denota como variable aleatoria discreta. Distribuciones discretas de probabilidad: Una función de probabilidad o distribución de probabilidad definida sobre una variable aleatoria es una función que asigna a cada valor posible de esta variable aleatoria una probabilidad.
Distribución Acumulada: Es una abstracción del concepto de frecuencia relativa acumulada. La distribución acumulada de F (x) se define:
() = ( ) = ( ) ≤
Ejemplo: F(3) = P( X ≤ 3) = P(0) + P(1) + P(2) + P(3) Distribuciones continuas de probabilidad: las que se resuelven con integrales Distribución de probabilidad conjunta: Una función de probabilidad conjunta o distribución de probabilidad conjunta definida sobre las variables aleatorias discretas X e Y es una función que asigna a cada valor posible de estas variables aleatorias una probabilidad.
Si se desea calcular la probabilidad de que la variable aleatoria X caiga entre a y b cuando se sabe que la variable Y=y, evaluamos:
Media de la distribución de probabilidad conjunta: La media o valor esperado de una variable aleatoria X es de especial importancia en la estadística porque describe el lugar donde se centra la distribución de probabilidad. Sabemos que se puede calcular la media de un conjunto de datos mediante el conocimiento de los distintos valores que ocurren. También podemos realizar el cálculo utilizando las frecuencias relativas sin el conocimiento del número total de observaciones. Media de variable aleatoria x:
= ( ) = ()
Media de una función como variable aleatoria:
(+) = ( 4) = ( 4)*() Media de variables aleatorias x e y con distribución de probabilidad conjunta:
() = ( ) = *() () = () = *ℎ() Varianza de la distribución de probabilidad conjunta: podemos definir las varianzas que necesitamos para caracterizar la variabilidad en la distribución. Varianza de variable aleatoria x:
= ( ) = ()( ) Varianza de una función como variable aleatoria
( +) = (( 4)) = ( 4) () () Varianza de variables aleatorias x e y con distribución de probabilidad conjunta:
= ( ) = () () = () = ℎ() () Desviaciones estándar: es la raíz cuadrada de la varianza obtenida. Covarianza: La covarianza entre dos variables aleatorias es una medida de la naturaleza de la asociación entre las dos. Si valores grandes de X a menudo tienen como resultado valores grandes de Y o valores pequeños de X tienen como resultado valores pequeños de Y. De la misma forma, si – (x) es positiva a menudo tendrá como resultado Y – μ(y) positiva y viceversa. De esta forma el producto de ambos tenderá a ser positivo.
- Si a valores grandes de X tienen como resultado valores pequeños de Y, entonces el producto tenderá a ser negativo. Así el signo de la covarianza indica si la relación entre las dos variables es positiva o negativa. Cuando X e Y son independientes se puede demostrar que la covarianza es cero. Lo opuesto, sin embargo, no es cierto. Dos variables pueden tener covarianza cero y no ser independientes. La covarianza se define:
= ( ) ( )*() Siendo E[XY] = ∑∑ **(,)
Teorema de Chebyshev: La probabilidad de que una variable aleatoria tome un valor dentro de cierto intervalo alrededor de la media, es mayor que para una variable aleatoria similar con una desviación estándar mayor. Si pensamos en la probabilidad como un área, esperaríamos que la mayor área de la curva de distribución continua con desviación estándar pequeña tenga la mayor parte de su área cercana a , mientras que con una desviación estándar grande, el área estaría mas extendida. En otras palabras:
“Una varianza pequeña indica que las desviaciones grandes alrededor de la media son improbables”
Como el área bajo una curva de distribución de probabilidad o en un histograma de probabilidad suma 1, entonces el área entre dos puntos cuales quiera es la probabilidad de que la variable aleatoria tome un valor comprendido entre esos dos puntos. El teorema de Chebyshev da una estimación conservadora de la probabilidad de que una variable aleatoria tome un valor dentro de k desviaciones estándar de su media para cualquier número real k. La probabilidad de que cualquier variable aleatoria X tome un valor dentro de k desviaciones estándar de la media es al menos − / . Es decir :
( − < < + ) ≥ − / Distribución uniforme:
Como su nombre lo indica, la probabilidad de ocurrencia de cada uno de sus resultados es uniforme y está determinada por la cantidad de valores que pueda tomar su variable aleatoria. Ejemplo: lanzamiento de un dado, su probabilidad es uniforme. Distribución binomial (Éxito o fracaso): Cuando el experimento consiste en repetidas pruebas con dos posibles resultados como éxito o fracaso recurrimos a la distribución binomial. Observe del ejemplo de extracción de cartas de una baraja, que las probabilidades de éxito para cada extracción cambia si las cartas no se reemplazan. Es decir, la probabilidad de extraer una carta de corazónes en la primer extracción es de ¼, pero en la segunda es una probabilidad condicional que tiene un valor de 13/51 o 12/51 dependiendo de si la primera fue éxito o fracaso. Si cambiamos el experimento ligeramente, definimos que luego de cada extracción la carta vuelve a la baraja y se vuelve a barajar, entonces cada prueba del experimento será independiente de la anterior y la probabilidad de éxito permanece constante. A este experimento cambiado se lo denomina Proceso de Bernoulli. Proceso de Bernoulli: • El experimento consiste de N pruebas que se repiten. • Cada prueba produce un resultado binario, es decir, que se puede clasificar en éxito o fracaso. • La probabilidad de éxito permanece constante en cada prueba. (Denotada por “p”) • Las pruebas que se repiten son independientes.
Donde
= Y =
Distribución multinomial: El experimento binomial se convierte en un experimento multinomial si cada prueba tiene más de dos resultados posibles.
Distribución hipergeometrica: El experimento binomial requiere de la independencia entre las pruebas. Por tanto, si por ejemplo la prueba consiste en retirar una carta de una baraja, deberemos reemplazar la misma para restaurar la condición de independencia entre las pruebas. Otra opción es utilizar la distribución hipergeométrica que no requiere de independencia entre pruebas. En la misma, siguiendo el ejemplo, la carta retirada de la baraja no debe ser reemplazada.
Distribución de Poisson Un experimento de Poisson otorga valores numéricos de la variable aleatoria X sobre un intervalo determinado, que puede ser tiempo, longitud, etc. a partir del conocimiento de la tasa de ocurrencia de los resultados en un intervalo prefijado (usualmente la tasa de ocurrencia promedio). Un experimento de Poisson se deriva del proceso de Poisson y posee las siguientes propiedades:
El número de resultados que ocurren en un intervalo o región específica es independiente del número que ocurre en cualquier otro intervalo o región del espacio disjunto. La probabilidad de que ocurra un solo resultado durante un intervalo muy corto o en una región pequeña es proporcional a la longitud del intervalo o al tamaño de la región y no depende del número de resultados que ocurren fuera de este intervalo o región. La probabilidad de que ocurra más de un resultado en tal intervalo corto o que caiga en tal región pequeña es insignificante.
λ es el número promedio
de resultados por unidad de tiempo o región, también llamado tasa de
ocurrencia de resultados t es el tiempo o región específica de interés (1 ms, 1 hora, 1día, 1 semana, etc ) e = 2.71828 X es la variable aleatoria de Poisson que toma valores x. Tanto la media como la varianza tienen el mismo valor λt