Historia de la probabilidad El estudio científico de la probabilidad es un desarrollo moderno. Los juegos de azar muestran que ha habido un interés en cuantificar las ideas ide as de la pro probab babil ilid idad ad dur durant ante e mil mileni enios, os, per pero o las des descri cripci pcione ones s matemáticas exactas de utilidad en estos problemas sólo surgieron mucho después. Según Richard Jeffrey, "Antes de la mitad del siglo XVII, el término 'probable' (en latín probable probable)) significaba aprobable aprobable,, y se aplicaba en ese sentido, unívocamente, a la opinión y a la acción. Una acción u opinión probable era una que las personas sensatas emprenderían o mantendrían, en las circunstancias."[1] Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en el siglo XVI, la doctrina de las probabilidades data de la correspon corr espondenci dencia a de Pi Pier erre re de Fe Ferm rmat at y Bl Blais aise e Pa Pasca scall (1654). Christiaan Huygens (1657) le dio el tratamiento científico conocido más temprano al concepto. Ars concepto. Ars Conjectandi (póstumo, 1713) de Jakob de Jakob Bernoulli y Do Doctr ctrine ine of Cha Chance nces s (1 (171 718) 8) de Ab Abra raha ham m de Mo Moiv ivre re trat tr atar aron on el te tema ma co como mo un una a ra rama ma de la las s ma mate temá máti tica cas. s. Vé Véas ase e El surgimiento de la probabilidad (The Emergence of Probability ) de Ian Hacking par para a un una a his histor toria ia de lo los s ini inicio cios s del des desarr arroll ollo o del pr propi opio o concepto de probabilidad matemática. La teoría de errores puede trazarse atrás en el tiempo hasta Opera Miscellanea (pó (póstu stumo, mo, 172 1722) 2) de Rog Roger er Cot Cotes es,, pe pero ro un una a me memo mori ria a preparada por Thomas por Thomas Simpson en 1755 (impresa en 1756) aplicó por primera vez la teoría para la discusión de errores de observación. La reimpresión (1757) de esta memoria expone los axiomas de que los errores positivos y negativos son igualmente probables, y que hay ciertos límites asignables dentro de los cuales se supone que caen todos los errores; se discuten los errores continuos y se da una curva de la probabili probabilidad. dad. Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para la combinación de observaciones a partir de los principios de la teo eorría de las probab abiilidades es.. Representó la ley de la probabilidad de error con una curva y curva y = = φ( x x ), ), siendo x siendo x cualquier cualquier error e y y su su probabilidad, y expuso tres propiedades de esta curva: 1. es simétrica al eje y eje y ; 2. el eje eje x x es es una asíntota asíntota,, siendo la probabilid probabilidad ad del error
igual
a 0; 3. la superfi superficie cie cerr cerrada ada es 1, haciendo haciendo cierta cierta la existenc existencia ia de un error. Dedujo una fórmula para la media de tres observaciones. También obtu ob tuvo vo (1 (178 781) 1) un una a fó fórm rmul ula a pa para ra la le ley y de fa faci cili lida dad d de er erro rorr (u (un n
término debido a Lagrange, 1774), pero una que llevaba a ecuaciones inmanejables. Dani Daniel el Bern Bernoull oullii (1 (177 778) 8) in intr trod oduj ujo o el pr prin inci cipi pio o de dell máximo máx imo pro produc ducto to de la las s pr proba obabil bilida idades des de un si siste stema ma de err error ores es concurrentes. El método de mínimos cuadrados se debe a Adrien-Marie Legendre (1805), que lo introdujo en su No Nouv uvel elle les s mé méth thod odes es po pour ur la déterm dét ermin inati ation on des or orbit bites es des com comète ètes s (Nue Nuevos vos mét método odos s pa para ra la dete de terrmi min nac aciión de las órbi bittas de los co come mettas as)). Ign gnor oran ando do la contribución de Legendre, un escritor irlandés estadounidense, Robert Adrain,, editor de "The Analyst" (1808), dedujo por primera vez la ley Adrain de facilidad de error,
siendo c y h co cons nsta tant ntes es qu que e de depe pend nden en de la pr prec ecis isió ión n de la obse ob serv rvac ació ión. n. Ex Expu puso so do dos s de demo most stra raci cion ones es,, si sien endo do la se segu gund nda a esencialmente la misma de John Herschel (1850). Gauss expuso la prim pr imer era a de demo most stra raci ción ón qu que e pa pare rece ce qu que e se co cono noci ció ó en Eu Euro ropa pa (l (la a terrce te cerra de desp spué ués s de la de Ad Adrrai ain) n) en 18 180 09. Dem emos ostr trac aciion ones es adicionales se expusieron por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters (1856) para r , el error probable de una única observación, es bien conocida.
Definición: La probabilidad mide la frecuencia con la que se obtiene un resultado (o conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen todos los resultados posibles, bajo condiciones suficientemente es esta tabl bles es.. La te teor oría ía de la pr prob obab abil ilid idad ad se usa extensamente en áreas como la estadística estadística,, la física física,, la matemática matemática,, la ciencia y la filosofía para sacar conclusiones sobre la probabilidad de su suce ceso sos s po pote tenc ncia iale les s y la me mecá cáni nica ca su suby byac acen ente te de si sist stem emas as complejos.
Teoría de la probabilidad. La probabilidad constituye un importante parámetro en la determinación de las diversas casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico. Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la teoría de la relatividad numérica, numérica, esta última con un alto grado de aceptación si se toma en cuenta que disminuye considerablemente las posibilidades posibilidades hasta un nivel mínimo ya que somete a todas las antiguas reglas a una simple ley de relatividad.
Interpretación se puede interpretar como, tomando los mundos en los que B se cumple, la fracción en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, sería la probabili probabilidad dad de tener dolor de cabeza cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene gripe y dolor de cabeza . En este caso , es
decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sería la proporción de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El área verde dividida por el área de B. Como el área verde representa y el área de B representa a P(B), formalmente se tiene que:
“TEORIA DE CONJUNTOS” Historia El primer estudio formal sobre el tema fue realizado por el matemático alemán Georg Cantor, Cantor, Gottlob Frege y Julius Wilhelm Richard Dedekind en el Siglo XIX y más tarde reformulada por Zermelo. Zermelo. se puede hablar de un conjunto de personas, ciudades, gafas, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto.
Definición: La teoría de conjuntos es una división de las matemáticas que estudia los conjuntos. conjuntos . El concepto de conjunto es intuitivo y se podría definir como una "colección de objetos" o tambien se entiende por conjunto a la agrupación en un todo de objetos bien diferenciados de nuestra intuición o nuestra mente. Se puede hablar de un conjunto de personas, ciudades, gafas, lapiceros o del conjunto de objetos que hay en un momento dado encima de una mesa. Un conjunto está bien definido si se sabe si un determinado elemento pertenece o no al conjunto.
Notación
Usualmente los conjuntos se representan con una letra mayúscula: A mayúscula: A,, B, K ,... ,... Llamaremos elemento, elemento, a cada uno de los objetos que forman parte de un conjunto, estos elementos tienen carácter individual, tienen cualidades que nos permiten diferenciarlos, y cada uno de ellos es único, no habiendo elementos duplicados o repetidos. Los representaremos con una letra minúscula: a, b, k ,... ,... De esta manera, si es un conjunto, y elementos, es común escribir:
todos sus
para definir a tal conjunto . Esta notación empleada para definir al conjunto se llama notación por extensión Para representar que un elemento pertenece a un conjunto A conjunto A,, escribimos (léase " x en x en A A", ", " x pertenece x pertenece a A a A"" o bien " x es x es un elemento de A de A"). "). La negación de se escribe (léase no pertenece a ).
Igualdad de conjuntos Dos conjuntos y se dicen iguales, iguales, lo que se escribe si constan de los mismos elementos. Es decir, si y solo si todo elemento de A está también contenido en B en B y todo elemento de B está contenido en A. A. En símbolos:
Subconjuntos y Superconjuntos Superconjuntos
Diagrama de Venn que muestra
Un conjunto se dice que es subconjunto de otro , si cada elemento de es también elemento de , es decir, cuando se verifique: , sea cual sea el elemento . En tal caso, se escribe
.
Cabe señalar que, por definición, no se excluye la posibilidad de que si , se cumpla . Si tiene por lo menos un elemento que no pertenezca al conjunto , pero si todo elemento de es elemento de , entonces decimos que es un subconjunto propio de , lo que se representa por . En otras palabras, si y sólo si ,y . Así, el conjunto vacío es subconjunto propio de todo conjunto (excepto de sí mismo), y todo conjunto A es subconjunto impropio de sí mismo. Si es un subconjunto de , decimos también que es un superconjunto de , lo que se escribe . Así pues , y también que: , significando
que
es superconjunto propio de
.
Por el principio de identidad, es siempre cierto , para todo elemento , por lo que todo conjunto conjunto es subconjunto (y también superconjunto) de sí mismo. Vemos que es una relación de orden sobre un conjunto de conjuntos, pues (
es reflexiva) reflexiva)
( es antisimétrica) antisimétrica ) (
Operaciones con conjuntos
es transitiva) transitiva )
Sean
y
dos conjuntos.
Unión u
Diagrama de Venn que ilustra Para cada par de conjuntos A conjuntos A y B existe un conjunto Unión de los dos, que se denota como el cual contiene todos los elementos de A de A y de B. De manera más general, para cada conjunto S existe otro conjunto denotado como de manera que sus elementos son todos los tales que . De esta manera es el caso especial donde .Es claro que el hecho de que un elemento x elemento x pertenezca pertenezca a es condición necesaria y suficiente para afirmar que x es x es un elemento de A de A o al menos de B. Es decir
Ejemplos: si tenemos los conjuntos
Entonces:
“Diagrama de venn” Historia: Los diagramas de Venn reciben el nombre de su creador, John Venn, Venn, matemático y filósofo británico.. Estudiante y más tarde profesor en británico Caiu Ca ius s Co Coll lleg ege e de la Un Univ iver ersi sida dad d de Cambridge,, desa Cambridge desarr rrol olló ló toda toda su prod produc ucci ción ón intelectual entre esas cuatro paredes.
el
Venn introdujo el sistema de representación que hoy conocemos en julio de 1880 con la publ public icac ació ión n de su trab trabaj ajo o titu titula lado do « De la representación mecánica y diagramática de proposi proposicion ciones es y razonami razonamientos entos»1 2 3 en el Philosophical Magazine and Journal of Science, Science, provocando un cierto revuelo en el mundo de la lógica formal. Aunque la primera form forma a de repr repres esen enta taci ción ón geom geomét étri rica ca de silogismos lógicos se atribuye comúnmente a Gottfried Leibniz, Leibniz, y fue luego ampliada por George Boole y Augustus De Morgan, Morgan, el método de Venn superaba en claridad y sencillez a los sistemas de representación anteriores, hasta el punto de convertirse con con el tiempo empo en un nuevo uevo están stánd dar. ar. Venn enn fue fue el prim rimero ero en
formalizar su uso y en ofrecer un mecanismo de generalización para los mismos. Los diagramas de Venn se emplean hoy día para enseñar matemáticas elementales y para reducir la lógica y la Teoría de conjuntos al cálculo simbólico puro. Se suelen usar también en el aula diagramas de Venn de dos o tres conjuntos como herramienta de síntesis, para ayudar a los estudiantes a comparar y contrastar dos o tres de elementos; en este uso, se incluyen dentro de cada elemento las características exclusivas, y en las intersecciones, las comunes con los otros.
Definición: Los diagramas de Venn son ilustraciones usadas en la rama de la matemática conocida conocida como teor teoría ía de conj conjunto untos s. Esto Estos s diagramas se usan para mostrar gráficamente la agrupación de cosas elementos en conjuntos conjuntos,, repr repres esen enta tand ndo o cada cada conj conjun unto to medi median ante te un círc círcul ulo o o un óvalo. La posición relativa en el plano de tales círculos muestra la rela relaci ción ón entr entre e los los conj conjun unto tos. s. Por Por ejem ejempl plo, o, si los los círc círcul ulos os de los los conjuntos A y B se solapan, se muestra un área común a ambos conjuntos que contiene todos los elementos contenidos a la vez en A y en B. Si el círculo del conjunto A aparece dentro del círculo de otro B, es que todos los elementos de A también están contenidos en B.
Tipos de diagramas de Venn: Diagrama de dos conjuntos
Conjuntos A Conjuntos A y B
Considérese el ejemplo a la derecha: supóngase que el conjunto A conjunto A (el círculo naranja) representa, por ejemplo, a todas las criaturas vivas con solo dos piernas motrices y que el conjunto B (el círculo azul) contiene a todas las criaturas que pueden volar. El área donde ambos círculos se superponen (que recibe el nombre de intersección entre A
y B, B, o intersección A - B) B) contendría por tanto todas las criaturas que, al mismo tiempo, pueden volar y tienen sólo dos piernas motrices. Imaginemos ahora que cada tipo distinto de criatura viva está representado con un punto situado en alguna parte del diagrama. Los humanos y los pingüinos estarían dentro del círculo naranja (el conjunto A conjunto A)) en la parte en la que no se superpone con el círculo azul (el conjunto B), ya que ambos son bípedos y no pueden volar. Los mosquitos,, que tienen seis piernas motrices y pueden volar, estarían mosquitos representados con un punto dentro del círculo azul fuera de la intersección A intersección A - B. B. Los loros loros,, que tienen dos piernas motrices y pueden volar, estarían representados por un punto dentro de la intersección A intersección A - B. B. Cualquier tipo de criatura que ni tuviera dos piernas ni pudiera volar (como por ejemplo las ballenas o las serpientes), serpientes ), estaría representado mediante puntos fuera de ambos círculos. El diagrama de Venn representado en el ejemplo 1 puede describirse como la relación entre el conjunto A y el conjunto B. El área combinada de ambos conjuntos recibe el nombre de unión de los conjuntos A y B. La unión en este caso contiene todos los tipos de criaturas que tienen dos piernas, pueden volar, o ambas cosas a la vez. El área donde los conjuntos A conjuntos A y B se solapan se define como la intersección de A y B. B. Contiene todos los tipos de criaturas que pertenecen a la vez a A a A y a B, es decir, que tienen dos piernas y pueden volar.
Diagrama de Venn mostrando todas las intersecciones posibles entre tres conjuntos A conjuntos A,, B y C.
Un diagrama de Venn de dos conjuntos define 4 áreas diferentes (la cuarta es la exterior), que pueden unirse en 6 posibles combinaciones: • • • • • •
A (dos patas) A y B (dos patas y vuelan) A y no B (dos patas y no vuelan) no A no A y B (más o menos de dos patas, y vuelan) no A no A y no B (ni tienen dos patas ni vuelan) B (vuelan)
A veces se incluye un rectángulo alrededor del diagrama de Venn, que recibe el nombre de universo de discurso (antes se creía en la existencia de un conjunto universal pero Bertrand Russell descubrió que con tal concepto el sistema es inconsistente véase paradoja de Russell). Russell ). Se usa para representar el conjunto de todas las cosas posibles. La definición del universo, al igual que la de los conjuntos, depende del diagrama sobre el que se representa. La idea de conjunto universal, aunque fue apuntada por el propio Venn, se atribuye habitualmente a Charles Dodgson, más conocido como Lewis Carroll.. Carroll
Diagramas de tres conjuntos Los diagramas de tres conjuntos fueron los más corrientes elaborados por Venn en su presentación inicial. Las distintas intersecciones de los tres conjuntos A conjuntos A,, B y C definen SIETE áreas diferentes, cuyas posibles uniones suponen 256 combinaciones distintas de los tres conjuntos iniciales.
Más de tres conjuntos La dificultad de representar más de tres conjuntos mediante diagramas de Venn (o cualquier otra representación gráfica) es evidente. Venn sentía afición a la búsqueda de diagramas para más de tres conjuntos, a los que definía como "figuras simétricas, elegantes en sí mismas". A lo largo de su vida diseñó varias de estas representaciones usando elipses, así como indicaciones para la creación de diagramas con cualquier cantidad de curvas, partiendo del diagrama de tres círculos.
Diagramas de Venn de Edwards A. W. F. Edwards diseñó representaciones para diagramas de Venn de más de tres conjuntos, proyectando el diagrama sobre una esfera esfera.. Se pueden representar fácilmente tres conjuntos tomando tres hemisferios en ángulos rectos ( x x =0, y =0, y =0 =0 y z y z =0). =0). Un cuarto conjunto se puede representar tomando una curva similar a la juntura de una pelota de tenis que suba y baje alrededor del ecuador. Los conjuntos resultantes pueden proyectarse de nuevo sobre el plano para mostrar diagramas de engranaje, engranaje, con cantidades cada vez mayores de dientes. Edwards ideó estos diagramas mientras diseñaba la ventana acristalada en memoria de Venn que hoy adorna el comedor de su colegio.
Diagrama para tres conjuntos
Diagrama para cuatro conjuntos
Diagrama para cinco conjuntos
Diagrama para seis conjuntos
Otros diagramas Los diagramas de Edwards son topológicamente equivalentes a los diagramas diseñados por Branko Grünbaum, Grünbaum, que se basaban en polígonos intersecados, con cantidades crecientes de lados. Phillip Smith ideó diagramas similares de n conjuntos usando curvas i senoidales en ecuaciones como y como y =sin(2 =sin(2 x )/2 )/2i, 0 ≤i ≤n ≤n-2. Por su parte, Lewis Carroll diseñó un diagrama de cinco conjuntos.
Diagramas de Euler
Diagrama de Euler
Los diagramas de Euler son similares a los de Venn, pero no necesitan todas las posibles relaciones. Los diagramas de Euler permiten representar inclusión inclusión de una clase en otra. Por ejemplo, en el representado a la derecha un conjunto (el A (el A)) está totalmente incluido en otro (el B), mientras que otro (el C) no tiene ninguna relación con los dos anteriores. Los diagramas de Euler anteceden a los diagramas de Venn,7 pero son distintos. Fueron introducidos por Euler para ayudar en la comprensión. John comprensión. John Venn intenta rectificar algunas deficiencias a través de los Diagramas de Venn. Supongamos que el conjunto A conjunto A representa todos los tipos de queso que pueden encontrarse en el mundo, y el B representa a todos los comestibles existentes en el mundo. Según el diagrama, se ve claramente que todos los quesos son comestibles, pero no todos los
comestibles son quesos. Si definimos el conjunto C como el de las cosas hechas de metal, el diagrama nos permite representar de forma evidente dos afirmaciones adicionales: los comestibles no están hechos de metal, y las cosas hechas de metal no son comestibles.
Diagrama de Johnston
Diagrama de Johnston para la expresión ni A ni B son ciertas
Los diagramas de Johnston se usan para ilustrar afirmaciones lógicas como ni A ni B son ciertas, ciertas, y son una forma visual de ilustrar tablas de verdad.. Pueden ser idénticos en apariencia a diagramas de Venn, verdad pero no representan conjuntos de elementos.
Diagrama de Peirce Los diagramas de Peirce, Peirce, creados por Charles Peirce, Peirce, son extensiones de los diagramas de Venn que incluyen información sobre afirmaciones existenciales, disyuntivas, de probabilidades y otras relaciones.8
Teoría del binomio la teoría del binomio proporciona la expansión de las potencias de una suma. (1) Donde De manera que sustituyendo se obtiene: Como ejemplo, para n=2, n=3, n=4: (2) Para obtener la expansión de las potencias de una resta, basta con tomar -y en lugar de y en el caso anterior. La expresión (2) queda de la siguiente forma: Teorema generalizado generalizado del binomio binomio (Newton) (Newton) [editar]Isaac Newton generalizó la fórmula para tomar otros exponentes, considerando una serie infinita: (3) Donde r puede ser cualquier número complejo (en particular, r puede ser cualquier número real, no necesariamente positivo ni entero), y los coeficientes están dados por: (el k = 0 es un producto vacío y por lo tanto, igual a 1; en el caso de k = 1 es igual a r, ya que los otros factores (r − 1), etc., no aparecen en ese caso). Una forma útil pero no obvia para la potencia recíproca: La suma en (3) converge y la igualdad es verdadera siempre que los números reales o complejos x e y sean suficientemente cercanos, en el sentido de que el valor absoluto | x/y | sea menor a uno.
Diagrama de árbol Definición: Un diagrama de árbol es una representación gráfica que muestra los resultados posibles de una serie de experimentos y sus respectivas probabilidades. Un diagrama de árbol es una representación gráfica de un experimento que consta de r pasos, donde cada uno de los pasos tiene un número finito de maneras de ser llevado a cabo.
Ejemplos: 1. Un médico médico general general clasifica clasifica a sus pacientes pacientes de acuerdo acuerdo a: su sexo (masculino o femenino), tipo de sangre (A, B, AB u O) y en cuanto a la presión sanguínea (Normal, Alta o Baja). Mediante un diagrama de árbol diga en cuantas clasificaciones pueden estar los pacientes de este médico? N Solución: A A B N B A B M AB N A O B A F
B
N A B
AB O
B A B
Si contamos todas las ramas terminales, nos damos cuenta que el número número de clasificaciones clasificaciones son 2 x 4 x 3 = 24 mismas que podemos enumerar; MAN, MAA, MAB, MBN, MBA, MBB, etc, etc.
Técnicas de conteo Definición: Las Las técn técnic icas as de cont conteo eo son son aq aque uella llas s qu que e son son usad usadas as pa para ra enumerar eventos difíciles de cuantificar. Se les denomi denomina na técni técnicas cas de conteo conteo a: las combin combinaci acione ones, s, permutaciones y diagrama de árbol, las que a continuación se explicarán y hay que destacar que éstas nos proporcionan la informaci información ón de todas todas las maneras maneras posibles en que ocurre ocurre un evento determinado. Las bases para entender el uso de las técnicas de conteo son el principio multiplicativo y el aditivo, los que a continuación se definen y se hace uso de ellos.
Ejemplos: Ejemplos en los que definitivamente haremos uso de las técnicas de conteo serían: -¿Cuán -¿Cuántas tas comis comision iones es pro limpieza limpieza del institu instituto to se pue pueden den formar formar si hay 150 alumnos que desean ayudar en esta tarea y se desea formar comisiones de ocho alumnos? -¿Cuántas representaciones de alumnos pueden ser formadas a) si se desea que estas consten solo de alumnos de Ingeniería Química?, b) se desea que el presidente sea un químico?, c) se desea que el presidente y tesorero sean químicos? Para todos los casos, se desea que las representaciones representaciones consten de once alumnos. -¿Cuántas maneras tiene una persona de seleccionar una lavadora, una batidora y dos licuadoras, si encuentra en una tienda 8 modelos diferentes de lavadoras, 5 modelos diferentes de batidoras y 7 modelos diferentes de licuadoras?
Probabilidad para eventos Definición: Para calcular la probabilidad de eventos es necesario que éstos se comporten de una manera más o menos estable. Precisamente, se echa mano de la regularidad estadística, que es la propiedad de los fenómenos aleatorios, y que consiste en que al aumentar el número de repeticiones de un experimento en condiciones prácticamente constantes, la frecuencia relativa de ocurrencia para cada evento tiende a un valor fijo. Sin embargo, al momento de definir la probabilidad de un evento podemos tomar en cuenta los siguientes criterios: 1. La probabilidad subjetiva de un evento se la asigna la persona que hace el estudio, y depende del conocimiento que esta persona tenga sobre el tema. Precisamente por su carácter de subjetividad no se considera con validez científica, aunque en la vida diaria es de las más comunes que se utilizan al no apoyarse más que en el sentido común y los conocimientos conocimientos previos, y no en resultados estadísticos. 2. La probabilidad frecuencial de un evento es el valor fijo al que tienden las frecuencias relativas de ocurrencia del evento de acuerdo a la regularidad estadística. Esta definición sería la más real, pero proporciona probabilidades aproximadas, es decir, proporciona estimaciones y no valores reales. Además, los resultados son a posteriori, posteriori, pues se necesita realizar el experimento para poder obtenerlo. 3. La probabilidad clásica de un evento E, que denotaremos por P (E), se define como el número de eventos elementales que componen al evento E, entre el número de eventos elementales que componen el espacio muestra:
Es la definición más utilizada porque supone de antemano, y se necesita como requisito indispensable, que todos los eventos elementales tienen la misma probabilidad probabilidad de ocurrir.
Eventos complementarios complementarios Dos eventos se denominan complementarios cuando su unión da el espacio muestral y su intersección es vacía. La suma de las probabilidades probabilidades de dos eventos complementarios es igual a 1. Se denomina Ac al evento complementario del evento A. Entonces A y B son eventos complementarios. EJEMPLO: Lanzar un dado. Omega = {1, 2, 3, 4, 5, 6} Sale par: E1 = {2, 4 ,6} Sale impar. E2 = {1, 3, 5} Sale menor que 3. E3 = {1,2} Sale 3 o más.
E4 = {3, 4, 5,6} E1 y E2 son eventos complementarios y E3 y E4 son también eventos complementarios. Sale 5 El = {5} No sale 5 E2 = ( 1, 2, 3,4,6} Por tanto El y E2 serán también eventos complementarios. complementarios.
Principios de la suma y multiplicación Principio de la multiplicación: Si una primera operación puede realizarse de m maneras y una segunda operación puede realizarse de n maneras, entonces ambas operaciones pueden efectuarse juntas de mn maneras. Principio de la suma: Si una primera operación puede realizarse de m maneras y una segunda operación puede realizarse de n maneras, entonces una operación o la otra pueden efectuarse de m + n maneras.
El principio de multiplicación multiplicación requiere que dos eventos A y B sean independientes. Dos eventos A y B son independientes si la ocurrencia de una no afecta la probabilidad de ocurrencia del otro. La regla especial se escribe: P(A y B) = P(A) * P(B). Ejemplo Chris posee dos inventarios independientes uno de otro. La probabilidad de que el inventario A aumente su valor el próximo año es .5. La probabilidad probabilidad de que el B aumente el suyo es .7. ¿Cuál es la probabilidad de que ambos aumenten su valor el próximo año?
P(A y B) = (.5)(.7) = .35. ¿Cuál es la probabilidad de que al menos uno aumente su valor el próximo año (esto implica que cualquiera de los dos o ambos aumenten)? Así, P(al menos uno) = (.5)(.3) + (.5)(.7) + (.7)(.5) = .85.
Permutación Una permutación es una combinación en donde el orden es importante. La notación para permutaciones es P(n,r) que es la cantidad de permutaciones de “n” elementos si solamente se seleccionan “r”. Ejemplo: Si nueve estudiantes toman un examen y todos obtienen diferente calificación, cualquier alumno podría alcanzar la calificación más alta. La segunda calificación calificación más alta podría ser obtenida por uno de los 8 restantes. La tercera calificación podría ser obtenida por uno de los 7 restantes. La cantidad de permutaciones posibles sería: P(9,3) = 9*8*7 = 504 combinaciones posibles de las tres calificaciones más altas.
Combinación Una combinación es un arreglo donde el orden NO es importante. La notación para las combinaciones es C(n,r) que es la cantidad de combinaciones de “n” elementos seleccionados, “r” a la vez. Es igual a la cantidad de permutaciones de “n” elementos tomados “r” a la vez dividido por “r” factorial. Esto sería P(n, r)/r! en notación matemática. Ejemplo: Si se seleccionan cinco cartas de un grupo de nueve, ¿cuantas combinaciones de cinco cartas habría?
La cantidad de combinaciones posibles sería: P(9,5)/5! = (9*8*7*6*5)/ (5*4*3*2*1) = 126 combinaciones posibles.
Probabilidad condicionada Probabilidad condicionada es la probabilidad de que ocurra un evento Probabilidad A,, sabiendo que también sucede otro evento B. La probabilidad A condicional se escribe P( A| A|B), y se lee «la probabilidad de A de A dado B. No tiene por qué haber una relación causal o temporal entre A entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabili probabilidad. dad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes. Bayes. Dado un espacio de probabili probabilidad dad (Ω, (Ω,F F ,P) y dos eventos (o sucesos) con P(B) > 0, la probabilidad condicional de A de A dado B esta definida como:
Eventos Independientes Cuando A y B son dos eventos e ventos con probabilidades positivas, positivas, hemos visto que en general la probabilidad condicional del evento B dado el evento A es diferente de la probabili probabilidad dad del evento B. Sin embargo, cuando se tiene la igualdad: P(B/A) = P(B) es de especial importancia porque esto quiere decir que el evento B no depende o es independiente del evento A. Es decir, no importa si ocurrió o no el evento A puesto que la ocurrencia o no de A no afecta al evento B. Si B es independiente de A, entonces A es independiente de B. Demostración: De la definición de probabili probabilidad dad condicional se tiene
y Despejando
[3.3]
Como B es independiente de A, se tiene: P(B/A) = P(B) y sustituyendo en [3.3] nos conduce a la expresión Por lo tanto, , de donde indica que A es independiente de B.
, lo que nos
Teorema de Bayes El teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado que da la distribución de probabilidad condicional de un evento aleatorio A dado B en términos de la distribució distribución n de probabil probabilidad idad condicional del evento B dado dado A A y la distribución de probabilidad marginal de sólo A sólo A..
Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B | A ). Entonces, la i probabilidad probabilid ad P(A i | B) viene dada por la expresión:
Donde: P( A Ai) son las probabilidades a priori. P(B | Ai) es la probabilidad de B en la hipótesis A hipótesis Ai. P( A Ai | B) son las probabilidades a posteriori. Esto se cumple El teorema de Bayes es válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades probabilid ades que emplea. e mplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados estadísticos bayesianos permiten probabilidades probabilid ades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en función de la evidencia empírica es lo que está abriendo nuevas formas de hacer conocimiento. Una aplicación de esto son los clasificadores bayesianos que son frecuentemente usados en implementacion implementaciones es de filtros de correo basura o spam spam,, que se adaptan con el uso.
Como observación, se tiene resulta trivial.
y su demostració demostración n