Introducción Este documento presenta brevemente los principios de la teoría de la probabilidad. Dicha teoría representa una de las herramientas matemáticas más importantes para la física, en especial para la teoría de la Mecánica Cuántica, así como en los desarrollos de la Física Estadística. La teoría de la probabilidad se presenta en forma de apuntes esquemáticos y sin demostraciones.
3.1. Interpretación de la probabilidad Probabilidad clásica (a priori):
si!na una probabilidad a un suceso antes de que este ocurra, basándose en el principio de simetría "casos favorables entre casos totales#. Probabilidad frecuencial:
La probabilidad de un suceso es la frecuencia con la que se observa. Probabilidad subjetiva:
$e asi!na la probabilidad a partir de la informaci%n previa. Probabilidad como lógica:
&asada en ra'onamientos l%!icos. Probabilidad geométrica:
&asada en una medida de los sucesos "medida de los sucesos favorables entre medida total#.
3.. Probabilidad Probabilidad a!iomática "efinición 3..1. "Espacio muestral, E# Conjunto de resultados posibles, mutuamente excluyentes, de un una variable aleatoria. "efinición 3... "(l!ebra de sucesos, # Conjunto de todos los sucesos (subconjuntos) que se pueden formar a partir de E. Si sus elementos son finitos se llama llama álgebra de sucesos de oole, si son infinitos pero numerables, se le llama !álgebra.
La definici%n a)iomática de la probabilidad es* "efinición 3..3. "Medida de la probabilidad# " una funci#n
se le llama medida de la probabilidad si cumple las siguientes siguientes condiciones$
+. $i
, entonces entonces e)iste un valor
, al que llamaremos llamaremos probabilidad probabilidad de $.
. La probabilidad probabilidad del suceso se!uro "espacio "espacio muestral# muestral# es
.
-. Dada una sucesi%n numerable de sucesos disuntos "mutuamente e)cluyentes dos a dos# , entonces*
partir de estos a)iomas, se pueden demostrar las si!uientes propiedades de la probabilidad. #eorema 3..$. "/robabilidad del suceso imposible# %a probabilidad del suceso imposible (conjunto vac&o), es
#eorema 3..%. "$uma finita# 'ara toda colecci#n finita de sucesos disjuntos cumple$
#eorema 3..&. "/robabilidad de la uni%n# 'ara todo par de sucesos
En general, para una colecci#n finita de sucesos
y
, se cumple$
, se tiene$
#eorema 3..'. "0rdenaci%n# 'ara todo par de sucesos que cumplen cumple$
#eorema 3... "Cota# 'ara todo suceso
, se
, su probabilidad cumple
3.3. Probabilidad condicionada
, entonces, se
La probabilidad de que se verifique un suceso probabilidad de
condicionada a
"efinición 3.3.1. "/robabilidad
sabiendo que ha ocurrido un suceso
de llama
, que se define de la si!uiente manera.
condicionada# %a probabilidad de
condicionado a
, si
se define$
Las principales propiedades de la probabilidad condicionada son* #eorema 3.3.. "/robabilidad condicionada# %a probabilidad condicionada, definida de esta manera, cumple los axiomas de probabilidad, y es una medida de la probabilidad del espacio
muestral reducido
.
#eorema 3.3.3. "1e!la de la multiplicaci%n# ada una sucesi#n finita de sucesos se cumple$
#eorema 3.3.$. "/robabilidad total# ados un suceso
y una colecci#n finita de sucesos
tal que cumplen$
+. Mutuamente disuntos, . 1ecubren el espacio muestral -. 2ienen partes comunes con
,
Entonces, se verifica
El teorema de la probabilidad total proporciona una manera de calcular la contribuci%n de cada una de las causas "
# a la probabilidad de la consecuencia "
#.
,
#eorema 3.3.%. "de &ayes o de las hipotesis# Sea una colecci#n de sucesos que cumplen las condiciones para que el teorema de la probabilidad total se verifique. Entonces,
onde
es la probabilidad a posteriori o ip#tesis* y
es la verosimilitud.
3.$. Independencia de sucesos "efinición 3.$.1. "Dos sucesos independientes# os sucesos solo si se cumple
y
son independientes si y
Esta definici%n no es suficiente si tenemos un mayor n3mero de sucesos. "efinición 3.$.. "$ucesos mutuamente independientes# %os sucesos de una colecci#n finita
son mutuamente independientes si cumplen
3.%. ariable aleatoria o estocástica discreta Estudiaremos una variable aleatoria que puede tomar un conunto de valores numerable "finito o infinito#. "efinición 3.%.1. "Distribuci%n de probabilidad discreta# %a funci#n de distribuci#n de probabilidad de una variable discreta
, asigna a cada valor
de la variable la probabilidad
del suceso que consiste que la variable tome dico valor
%a funci#n de distribuci#n de probabilidad discreta debe verificar$
$
+. Cota* . 4ormali'aci%n l!unas definiciones de utilidad* "efinición 3.%.. "5alor esperado define mediante la expresi#n$
o media# El valor esperado, o media, de una distribuci#n se
"efinición 3.%.3. "Momentos de la distribuci%n# El momento de orden define como el valor esperado de $
de una distribuci#n se
"efinición 3.%.$. "5arian'a y desviaci%n típica# %a varian+a de una distribuci#n se define$
%a desviaci#n t&pica se define como la ra&+ cuadrada de la varian+a$
l!unas propiedades del operador valor esperado vienen dados por el si!uiente #eorema 3.%.%. "/ropiedades valor esperado cumple$
de
# 'ara una distribuci#n bien definida, el operador de
+. Escala* . dici%n* -. 6ndependencia* 7. Composici%n*
si
e
son independientes.
8. 4o desviado* /or 3ltimo, veamos al!unas propiedades de la varian'a* #eorema 3.%.&. "/ropiedades de la varian'a# 'ara una distribuci#n bien definida, la varian+a cumple$
+. 0ri!en* . dici%n*
si
e
son independientes.
-. Escala*
3.&. ariables aleatorias continuas /ara una variable aleatoria que puede tomar cualquier valor dentro de un ran!o "que puede ser infinito#, se definen las funciones de densidad de probabilidad y 9de distribuci%n acumulada. "efinición 3.&.1. "Funci%n de densidad de probabilidad# 'ara una variable aleatoria continua , el valor
identifica la probabilidad del suceso que se verifica cuando el valor de
está en el intervalo
, es decir$
%a funci#n de densidad de probabilidad
+. 4o ne!atividad* . 4ormali'aci%n*
-. /robabilidad*
debe cumplir$
"efinición 3.&.. "Funci%n de distribuci%n acumulada# %a funci#n de distribuci#n acumulada
se define como la probabilidad de que la variable En concreto$
tenga un valor inferior o igual a
%a funci#n de distribuci#n acumulada debe cumplir$
+. Límite inferior* . Límite superior* -. Monotonía*
es creciente.
7. /robabilidad de un ran!o* 6!ual que para las distribuciones discretas, podemos definir los momentos de una distribuci%n* "efinición 3.&.3. "Momentos de una distribuci%n continua# El momento de orden n de una distribuci#n continua se define$
El valor esperado se define como el momento de orden
.
La varian'a y la desviaci%n tienen la misma definici%n que en el caso discreto. 0tra definici%n de inter:s resulta la funci%n característica de la distribuci%n* "efinición 3.&.$. "Funci%n característica# %a funci#n caracter&stica de una distribuci#n se define mediante$
.
El desarrollo de -aylor de la exponencial muestra que los momentos de cada orden son los coeficientes de la expansi#n$
'or la definici#n de valor esperado, podemos ver que la funci#n caracter&stica es la transformada de ourier de la funci#n de densidad de probabilidad, por tanto, esta /ltima se puede calcular de la primera mediante$
3.'. *jemplos de distribuciones 3.'.1. "istribuciones discretas 3.'.1.1. Pruebas de +ernoulli
E)perimento con dos resultados posibles "+ y ;, con probabilidades respectivas y #. La probabilidad de obtener n veces el valor + en un orden concreto de 4 tiradas viene dado por*
3.'.1.. "istribución binomial
La distribuci%n normal tiene por valor esperado
, su momento de orden es
y su varian'a es 3.'.1.3. "istribución geométrica
La distribuci%n !eom:trica representa la probabilidad de que, en una serie de pruebas de &ernoulli, el primer :)ito "+# se obten!a en la n=:sima tirada. La funci%n de distribuci%n es*
$u valor esperado es
y su desviaci%n típica
3.'.1.$. "istribución de Poisson
donde
si!ue la distribuci%n de /oisson si la funci%n de distribuci%n
es el valor esperado y la varian'a de la distribuci%n.
3.'.. "istribuciones continuas. "istribución ,aussiana normal La versi%n discreta de la distribuci%n normal es*
La variante continua de la distribuci%n >aussiana, con parámetros y "valor esperado y desviaci%n típica#, viene definida por la funci%n de densidad >aussiana*
/or cambios de variables, se puede reducir a la distribuci%n normal, un caso especial donde y
. Los momentos de la distribuci%n normal vienen dados por*