Alumno: Rodrigo Alonso Ledesma y Hernández Control Estadístico del Proceso Tarea: Teorema de Bayes
Posgrado: MASPYC Materia: Profesor: Fernando Radillo Ruiz
Teorema de Bayes
El teorema de Bayes, enunciado por Thomas Bayes, Bayes, en la teoría de la probabilidad, probabilidad, es el resultado que da la distribución de probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. Sea Sea {A1,A3,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades probabilidades condicionales condicionales P(B | Ai). Entonces, la probabilidad P(Ai | B) viene dada por la expresión:
donde: son las probabilidades a priori. P ( B | Ai) es la probabilidad de B en la hipótesis Ai. P ( Ai | B) son las probabilidades a posteriori. Esto se cumple •
P ( Ai)
• •
Además, unido a la definición de Probabilidad condicionada, condicionada, obtenemos la Fórmula de Bayes, también conocida como la Regla de Bayes:
Aplicaciones El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embarg embargo, o, hay una controv controvers ersia ia sobre sobre el tipo tipo de probabi probabilid lidade adess que emplea emplea.. En esenci esencia, a, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repeti repetibles bles y que tengan tengan una confir confirmac mación ión empír empírica ica mient mientras ras que los llama llamados dos estadí estadísti sticos cos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar modificar nuestras nuestras probabilidad probabilidades es subjetivas subjetivas cuando recibimos recibimos información información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimient conocimiento. o. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementaciones de filtros de correo basura o spam, spam, que se adaptan con el uso.
Como observación, se tiene
y su demostración resulta trivial.
Ejemplo El 60% de los tornillos producidos por una fábrica proceden de la máquina A y el 40% de la Máquina B. La proporción de defectuosos en A es 0.1 y en B es 0.5. ¿Cuál es la probabilidad de que un tornillo de dicha fábrica sea defectuoso? ¿Cuál es la probabilidad de que, sabiendo que un tornillo es defectuoso, proceda de la máquina A? En este ejemplo, tenemos un experimento en dos etapas; en la primera, los sucesos son: A: tornillo fabricado por la máquina A B: tornillo fabricado por la máquina B Los valores de las probabilidades de estos sucesos son conocidos: p(A) = 0.6 y p(B) = 0.4. Los resultados de la segunda etapa son: D: tornillo defectuoso D : tornillo no defectuoso
Las probabilidades de estos sucesos dependen del resultado de la primera etapa: p(D/A) = 0.1 y p(D/B) = 0.5 A partir de estos valores podemos determinar también: p(D/A)
=
1 - P(D/A)
=
p( D/B)
=
1 - 0.1
=
0.9
1 - P( D/B)
=
1 - 0.5
=
0.5
El suceso D se puede poner como: D = DA + DB, sucesos mutuamente excluyentes; luego utilizando el teorema de las probabilidades totales: p(D) = p(D/A)p(A) + p(D/B)p(B) = (0.1)(0.6) + (0.5)(0.4) = 0.26 La otra probabilidad es p(A/D), probabilidad de un resultado de la primera etapa condicionada a un resultado de la segunda; podemos aplicar el teorema de Bayes para resolverlo: p(A/D)
=
p(D/A)p(A) p(D/A)p(A)
+
p(D/B)p(B)
=
(0,1)(0,6) (0,1)(0,6)
+
(0,5)(0,4)
=
3 13