´Indice general
A los lectores
V
1. La Defini Definici ci´ ´ on on Cl´ asica asica de Prob Probabi abilid lidad ad y Prime Primeros ros Ejem Ejemplo ploss
1
1.1. Definic Definici´ i´ on on Cl´asica . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.2. Principios Fundamentales . . . . . . . . . . . . . . . . . . . .
4
1.2.1. Probabilidades Totales . . . . . . . . . . . . . . . . . .
4
1.2.2 2.2. Probab obabiilidade ades Com omp puestas . . . . . . . . . . . . . . .
5
1.3. Probabilidad y combinato atoria . . . . . . . . . . . . . . . . . . .
6
1.4. Probabilidad y Frecuencia . . . . . . . . . . . . . . . . . . . .
9
1.5. 1.5. La Prob Probab abil ilid idad ad Subje Subjeti tiv va o el Grad Grado o de de Cre Creen enci ciaa . . . . . .
10
1.6. La Proba obabilidad en Torn orneos . . . . . . . . . . . . . . . . . . .
11
2. Definici´ Definici´ on on Axiom´ atica atica de Probalididad y Primeras Consecuencias 13
2.1. 2.1. Ax Axio ioma mass de la Teor eor´ıa de las las Prob Probab abil ilid idad ades es . . . . . . . . . .
13
2.2. Consecuencias de los Axiomas . . . . . . . . . . . . . . . . . .
18
2.3. La Definic Definici´ i´ on on Cl´asica . . . . . . . . . . . . . . . . . . . . . . .
19
2.4. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . .
20
2.5. Ejemplos
22
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . i
´INDICE GENERAL
ii
3. Varia riables Aleatorias, Funciones de Probabilidad
33
3.1. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . .
33
3.2. Esperan Esperanza za Mate Matem´ m´ atica . . . . . . . . . . . . . . . . . . . . . .
37
3.3. 3.3. Mo Mom mento entoss de una Varia ariabl blee Alea Aleato torria . . . . . . . . . . . . . .
38
3.4 3.4. La Desigua gualdad de Tchebycheff . . . . . . . . . . . . . . . . .
40
3.5 3.5. Suma de Vari ariables Aleatori orias . . . . . . . . . . . . . . . . . .
41
3.6. 3.6. Prod Produ ucto cto de Varia ariab bles les Alea Aleato torrias ias . . . . . . . . . . . . . . . .
44
3.7. Correl Correlaci aci´´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.8. Funci´ unci´ on Generatr atriz de Mom omeentos . . . . . . . . . . . . . . . .
47
3.9. Funci´ unci´ on Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . .
50
3.10. Regresi´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4. Distribuc Distribuci´ i´ on Binomial, Ley de los Grandes N´ on umeros
53
4.1. Distri Distribuc buci´ i´ on Binomial . . . . . . . . . . . . . . . . . . . . . .
53
4.2. Esperan Esperanza za Mate Matem´ m´ atica atica y Varianz arianza a de una Variabl ariablee Bino Binomia miall
56
4.3. Teorema de Bernoulli . . . . . . . . . . . . . . . . . . . . . . .
57
4.4. Leyes Leyes de los los Grand Grandes es N´ umeros . . . . . . . . . . . . . . . . .
60
5. Distribuc Distribuci´ i´ on de Poisson
63
5.1. Funci´ unci´ on de Probabilidad de Poisson . . . . . . . . . . . . . .
63
5.2. Distri Distribuc buci´ i´ on Uniforme de Puntos Sobre una Recta o de Suon cesos en el Tiempo . . . . . . . . . . . . . . . . . . . . . . . .
68
5.3 5.3. El Problema de la las Filas de Es Esper pera . . . . . . . . . . . . . . .
71
6. Distribuc Distribuci´ i´ on o n Norm Normal al.. Varia ariabl bles es Alea Aleato tori rias as Con Contin tinuas uas
6.1. Aproximac Aproximaci´ i´ on on de la Distribuci´on o n Bino Binomi mial al por por la No Norm rmal al . .
77
77
´INDICE GENERAL
iii
6.2. Vari ariables Aleatorias Continuas . . . . . . . . . . . . . . . . .
79
6.3. Funci´ unci´ on de Densidad de Probabilidad y Funci´on on on de Distribuci´on Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81
6.4. 6.4. Teor eorem emaa Cen Central tral del del L´ımit ımitee . . . . . . . . . . . . . . . . . . .
87
6.5. Otra tras Funciones de Densidad . . . . . . . . . . . . . . . . . .
91
7. La F´ F´ ormula de Bayes
93
7.1. Inferencia Est Estad´ ad´ıstica . . . . . . . . . . . . . . . . . . . . . . .
93
7.2. 7.2. F´ ormula de Bayes
94
. . . . . . . . . . . . . . . . . . . . . . . .
8. Estimaci Estimaci´ ´ on p or Punto
8.1. Muestras
97
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
97
8.2. Media y Varianz anza de una Muestra . . . . . . . . . . . . . . .
98
9. Estimaci Estimaci´ ´ on por Intervalos de Confianza. Verificaci´ on on on de Hip´ otesis 101
9.1. La Dist Distrib ribuci uci´on χ ´on χ 2 (“ji” cuadrado) . . . . . . . . . . . . . . . 101 9.2. La Dist Distrib ribuci uci´on t ´on t de Student . . . . . . . . . . . . . . . . . . 104 9.3. Estima Estimaci´ ci´ on o n por por Inte Interrvalos alos de Confi Confian anza za . . . . . . . . . . . . 106 106 9.4. Verificaci´ erificaci´ on on de Hip´o t e s i s . . . . . . . . . . . . . . . . . . . . . 1 0 8 9.5. Compar Comparaci aci´ on o´n de Distribucio Distribuciones nes Experimenta Experimentales les y Te´oricas: oricas: 2 Test del χ del χ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Apendice I – Combinatoria
117
9.6. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 117 9.7. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 118 9.8. Combinacio Combinaciones nes con con Repetici´ Repetici´ o n . . . . . . . . . . . . . . . . . 1 19 9.9. Particiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
´INDICE GENERAL
iv
9.10. F´ o rmula de Stirling . . . . . . . . . . . . . . . . . . . . . . . . 120 ormula 9.11. El Binomio de Newton . . . . . . . . . . . . . . . . . . . . . . 120 Apendice I – Algunas F´ ormulas de C´ alculo
9.12. El N´ umero e umero e
121
. . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1 21
9.13. Integrales de la Funci´on o n de Dens Densid idad ad No Norrma mall . . . . . . . . . 121 121 9.14. La Funci´ on Gamma . . . . . . . . . . . . . . . . . . . . . . . 124 Ap´ endice I II
125
A los lectores El programa de monograf´ monograf´ıas cient´ cient´ıficas es una faceta de la vasta labor lab or de la organizaci´on on de los Estados Americanos, a cargo del Departamento de Asuntos Cient´ Cient´ıficos de la secretar secreta r´ıa General de dicha Organizaci´ Organiz aci´on, on, a cuyo financiamiento contribuye en forma importante el Programa Regional de Desarrollo Desarro llo Cient´ Cient´ıfico y Tecnol´ogico. ogico. Concebido por los Jefes de Estado Americanos en su Reuni´on on celebrada celebrada en Punta del Este, Uruguay, en 1967, y cristalizado en las deliberaciones y mandatos de la Quinta Reuni´on on del Consejo Consejo Interame Interamericano ricano Cultural, llevada a cabo en Maracay, Venezuela, en 1968, el Programa Regional de Desarro Des arrollo llo Cient´ıfico ıfic o y Tecnol´ Tecno l´ogico ogico es la expresi´on on de las aspiraciones aspiraciones preconizadas por los Jefes de Estado Americanos en el sentido de poner la ciencia y la tecnolog´ tecnolog´ıa al servicio de los pueblos latinoamericanos. latinoa mericanos. Demostrando gran visi´on, on, dichos dichos dignatarios dignatarios reconocieron reconocieron que la ciencia ciencia y la tecnolog tecnolog´´ıa estdn transformand transformandoo la estructura estructura econ´ omica o mica y social de muchas naciones y que, en esta hora, por ser instrumento indispensable de progreso en Am´erica erica Latina, Latina , necesitan un impulso sin precedentes. El Programa Pro grama Regional Region al de Desarrollo Desarro llo Cient Cie nt´´ıfico y Tecnol´ogico ogico es un complemento plemento de los esfuerzos esfuerzos nacionales nacionales de los pa´ pa´ıses latinoameric latinoamericanos anos y se orienta hacia la adopci´on on de medidas que permitan el fomento de la investigaci´ on, on, la ense˜ nanza nanza y la difusi´ difusi´ on on de la ciencia cie ncia y la tecnolog´ tec nolog´ıa; ıa; la l a formaci´ form aci´on on y perfeccionamiento de personal cient´ cient´ıfico; el intercambio de informaciones, y la transferencia y adaptaci´on on a los pa´ pa´ıses latinoamericanos del conocimiento y las tecnolog´ tecnolog´ıas generadas en otras regiones. En el cumplimiento de estas premisas fundamentales, el programa de monograf´ıas ıas representa una contribuci´ contribuci on o´n directa a la ense˜nanza nanza de las ciencias en niveles educativos que abarcan important´ important´ısimos sectores de la poblaci´on on y, al mismo tiempo, propugna la difusi´on on del saber sabe r cient´ cient´ıfico. La colecci´on on de monogr m onograf af´´ıas cient´ cient´ıficas consta de cuatro c uatro series, en espa˜nol nol v
A LOS LECTORES LECTORES
vi
y portu po rtugu´ gu´es, es, sobre sob re temas tem as de f´ısica, ısi ca, qu´ımica, ımi ca, biolog´ bio log´ıa ıa y matem´ mat em´atica. atica. Desde sus comienzos, estas obras se destinaron a profesores y alumnos de ciencias de ense˜ nanza secundaria y de los primeros a˜nos nanza nos de la universitaria; universita ria; de ´estos estos se tiene ya testimonio de su buena acogida. Este prefacio pref acio brinda bri nda al Programa Pro grama Regional Re gional de d e Desarrollo Desarro llo Cient´ıfico ıfico y Tecnol´ogico ogico de la Secretar´ Secretar´ıa General de la Organizaci´on on de los Estados Americanos la ocasi´on on de agradecer al doctor Luis A. Santal´o, o , autor de esta monograf´ monograf´ıa, y a quienes tengan el inter´ es es y buena voluntad de contribuir a su divulgaci´on. on. Septiembre de 1970
Cap´ıtulo 1
La Definici´ on Cl´ asica de Probabilidad y Primeros Ejemplos 1.1. 1.1.
Defin Definic ici´ i´ on on Cl´ Cl ´ asica si ca
Las teor´ teor´ıas matem´aticas, aticas, sobre sobre todo las que tienen tienen relaci relaci´´on o n con los fen´omenos omenos naturales, a los que tratan primero de entender para luego predecir, se construyen siempre a partir de conceptos intuitivos, suficientemente claros para que puedan ser aplicados aplicados en las primeras primeras etapas de la teor´ teor´ıa, pero no suficientemente rigurosos para que queden a salvo de objeciones cuando la misma alcanza cierto grado de desarrollo. Se hace necesario, entonces, revisar los fundamentos, precisando las definiciones y d´andoles, si ello es posible, una construcci´on on axiom´ atica, De esta manera, si alguna vez atica, aparecen resultados contradictorios o parad´ojicos, ojicos, se sabr´a bien que lo ´unico unico que deber´a ser revisado son los axiomas y a ellos habr´a que acudir acud ir tambi´ tamb i´en en siempre que se desee una extensi´on on o una limitaci´on on de la teor teo r´ıa. Sin embargo, para empezar a estudiar una teor´ teor´ıa, no siempre es el camino axiom´ atico atico el m´as as recomendable. Los axiomas son elaborados por quienes conocen muy bien la teor´ıa, ıa, y su verdadero sentido y necesidad se comprenden con claridad tan s´olo olo cuando se est´a ya familiarizado con los elementos y relaciones b´asicas asicas que ellos tratan de afirmar de manera manera abstracta abstracta y precisa. precisa. Es mejor empezar por definiciones tal vez no muy exactas y con ejemplos simples, pero substanciales, para poder comprender luego el verdadero sentido de los axiomas, y para que los mismos aparezcan de manera natural como expresi´on on sint´ etica etica y firme de conocimientos ya adquiridos. a dquiridos. 1
´ CLASICA ´ 2CAP ´ITULO 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPLO En el caso de la teor´ teor´ıa de las probabilidades vamos a seguir este camino, dando en este primer cap´ cap´ıtulo la definici´on on cl´asica asica y algunos ejemplos, para ver luego c´omo, omo, a partir de ellos como modelo, se puede construir una teor´ teor´ıa axiom´ atica. atica. La definici´ definici´ on o n cl´asica asica de probabilidad es la que figura por ejemplo en la famosa “Teor “Teor´´ıa Anal´ Anal´ıtica de las Probabilidad Probabilidades” es” (Libro (Libro II, cap. 1) de P. S. Laplace, obra hist´oricamente oricamente fundamental, publicada en 1812. Es la siguiente: Probabilidad de un suceso es la raz´on entre el Definici´ on o n 1. 1. Probabilidad de n´umero umero de casos favorables y el n´umero umero total de casos posibles, siempre que nada obligue a creer que alguno de estos casos debe tener lugar de preferencia a los dem´as, lo que hace que todos sean, para nosotros, nosotros, igualmente igualmente posibles. Por ejemplo, supuesto un dado ordinario, o sea, un cubo con las caras numeradas del uno al seis, al ser lanzado de manera arbitraria sobre un plano, la probabilidad de que salga el n´umero umero 2 ser´a 1/6. En efecto, efecto, si el dado est´a bien construido construido y el lanzamiento lanzamiento se hace completamen completamente te al azar, no hay nada que obligue a creer que una de las caras tenga que salir de preferencia a las dem´as; as; las seis caras son, por tanto, igualmente posibles. Existiendo un solo caso favorable y seis casos posibles, la probabilidad ser´a 1/6, como ya dijimos. En cambio, si en vez de un dado de forma c´ubica, ubica, suponemos que el mismo se alarga seg´un un una de sus dimensiones dimensiones hasta formar un prisma prisma recto de base cuadrada y altura mayor que los lados de la base, evidentemente las seis caras dejan de ser “igualmente posibles”. La probabilidad de que salga una determinada cara ya no es 1/6, pues si bien contin´ua ua habiendo un solo caso favorable y seis posibles, entre estos ´ultimos los hay que est´an an en mejores condiciones para salir que otros; es m´as as probable, en efecto, que salga una cara lateral que no una base y esta probabilidad aumenta al aumentar la altura del prisma. Como segundo ejemplo, supongamos un bolillero o urna con 20 bolillas blancas blancas y 8 rojas. ro jas. Sacando una bolilla al azar, ¿cu´al al es la probabilidad de que resulte resulte roja? Hay 28 casos posibles, de los cuales s´olo olo 8 son favorables; luego, la probabilidad ser´a 8/28 = 2/7. Este resultado supone que todas las bolillas son igualmente posibles; si hubiera algunas con mds probabilidad de salir que otras (por ejemplo, ejemplo, si las hubiera hubiera de diferente diferentess tama˜nos) nos) la probabilidad ser se r´ıa disti di stinta nta.. El inconveniente de la definici´on on anterior radica precisamente en la nece-
´ CLASICA ´ 1.1. DEFINI DEFINICI CI ON
3
sidad de fijar la atenci´on on en que todos los casos sean “igualmente posibles”. Hay veces, como en los ejemplos que acabamos de mencionar, en que el cumplimiento o no de esta condici´on on salta a la vista, mientras que otras veces tal hecho pasa inadvertido y se necesita mucha atenci´on on y “buen sentido” para ponerlo de manifiesto. Muchas veces, aun cuando los casos no sean igualmente posibles, se puede aplicar la definici´on on anterior, con tal de tener cuidado de contar cada caso tantas veces como posibilidades hay de que se verifique. Consideremos, siguiendo a Laplace, el ejemplo siguiente: Se lanza lanza al aire aire por dos vec veces conse onsecutivas cutivas una mone moneda cuyos cuyos lados lados opuestos llamaremos llamaremos cara y y cruz. cruz. Se pide la probabilidad de obtener cara por lo menos una vez. A primera vista podr´ıa ıa creerse que los casos posibles p osibles son: las dos veces cara, una vez cara y otra cruz, y las dos veces cruz. Contando de esta manera nos encontramos con dos casos favorables y tres casos posibles; por tanto la probabilidad ser´ ser´ıa 2/3. Sin embargo, un poco de atenci´on on pone de manifiesto que el caso en que sale una vez cara y otra vez cruz es m´as frecuente que los otros dos; en efecto, puede ocurrir que salga la primera vez cara y la segunda cruz o viceversa. El segundo caso tiene, pues, dos posibilidades y hay que contarlo dos veces, como si se tratara de dos casos diferentes. Representada la cara por C y la cruz por F, los verdaderos casos posibles son (C, C), (C, F), (F, C), (F, F), y por tanto hay tres casos favorables y cuatro posibles, de manera que la soluci´ on on del problema es 3/4. La definicidn definicidn de Laplace Laplace supone que el n´umero umero de casos favorables, y por tanto tambi´en en el de casos posibles, es finito. En este caso la probabilidad de un suceso es siempre un n´umero umero real comprendido entre 0 y 1. La probabilidad 0 significa que no hay ning´ un caso favorable, o sea, que el suceso es un imposible . La probabilidad 1 significa que el n´umero umero de casos favorables es igual al n´ umero de casos posibles, o sea, que el suceso es seguro. umero seguro. Si hay infinitos casos posibles, la definici´on on anterior debe modificarse, pero ello se hace f´acilmente acilmente sustituyendo el n´ umero de casos favorables o posibles, por la medida la medida de de los mismos. La teor´ teor´ıa de probabilidades aparece as´ as´ı intimamente ligada con la teoria de la medida de conjuntos. Supongamos el siguiente problema: Elegido al azar un punto dentro de un segmento A segmento A de de longitud a longitud a,, ¿cu´al al es la probabilidad de que pertenezca a otro segmento B de B de longitud b longitud b contenido contenido en el primero? Naturalmente, el n´ umero de casos posibles, que es el n´umero umero umero de pun-
´ CLASICA ´ 4CAP ´ITULO 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPLO tos del segmento A, lo mismo que el n´umero umero de casos favorables, que es el n´umero umero de puntos del segmento B , son ambos infinitos. Sin embargo, considerando los puntos como igualmente posibles, basta tomar la longitudde cada segmento (o, conmayor generalidad, su medida, si se tratara de con juntos de puntos que no llenaran todo el segmento), en vez del n´umero umero de puntos, para que la definici´on on sea aplicable, y la probabilidad resulta ser igual a b/a a b/a.. Obs´ ervese ervese en este ejemplo, que si en vez del segmento B consider´asemos asemos un conjunto finito de puntos del segmento A, la l a probabilidad probab ilidad resultar resulta r´ıa ser igual a 0, sin que ello signifique imposibilidad. An´alogamente, alogamente, si en vez de un segmento contenido en A tomamos un conjunto de puntos B que sea el mismo A, excepto un n´umero umero finito de puntos, como la medida de B es igual a la de A, resulta que la probabilidad es 1, sin que ello signifique certeza. O sea: el hecho de que la probabilidad 0 implique imposibilidad y la probabilidad 1 certeza no es v´alido alido si se trata de la probabilidad de conjuntos infinitos.
1.2. 1.2.1. 1.2.1.
Principios Principios Fundament undamentales ales Probab Probabilid ilidade adess Tota Totales les
Hemos visto que la probabilidad de que al lanzar un dadoal azar salga el n´ umero 2 es 1/6. Supongamos que se busca la probabilidad de que salga umero el 2 o el 5 . Tenemos en este caso dos casos favorables, el 2 y el 5, dentro de los mismos seis casos posibles. Por tanto, la probabilidad es 2/6 = 1/3. Supongamos, como segundo ejemplo, una urna con 20 bolillas blancas, 16 rojas y 5 azules; en total 41 bolillas. La probabilidad de que una bolilla sacada al azar sea blanca es P (blanca) P (blanca) = 20/41, puesto que hay 20 casos favorables y 41 posibles. An´alogamente alogamente la probabilidadde que la bolilla sacada al azar sea roja es P(roja) = 16/41. Supongamos que se quiera hallar la probabilidad de que la bolilla extraida sea blanca sea blanca o roja . Los casos favorables son 20 + 16 = 36, y los posibles posibles son los mismos 41 de antes. Por tanto tanto la probabilidad buscada ser´a P (b P (bla lanc ncaa o roja) = (20 (20 + 16)/ 16)/41 = 20/ 20/41+16 41+16//41 = P (blanca) P (blanca) + P (roja). P (roja). El hecho es general. Supongamos que el n´umero umero total de casos posibles de un determinado suceso es n, dentro de los cuales hay m casos en que se produce el suceso A y r casos en que se produce el suceso B . Ser´a P ( P (A) = m/n, m/n, P ( P (B ) = r/n. r/n . Si A Si A y B no pueden tener lugar simult´aneamente, aneamente, o sea los m los m casos casos correspondientes a A a A son son distintos de los r los r casos casos correspondientes
5
1.2. PRINCIPIOS PRINCIPIOS FUNDAMENT FUNDAMENTALES ALES
a B (se dice que A y B son son incompatibles ), ), entonces el n´ umero umero de casos en que puede tener lugar A o B ser´a m + r y por tanto
P ( P (A ´o B ) =
m+r m r = + = P ( P (A) + P ( P (B ). n n n
(1.1)
Este hecho constituye el cl´asico asico Principio de las Probabilidades Totales , que se enuncia: Si dos sucesos A y B son incompatibles, la probabilidad de que ocurra “ A ´ o B ” es igual a la suma de la probabilidad de A m´ as la probabilidad de B . La condici´ condici´ on on de que A que A y B sean incompatibles, es decir, que no puedan ocurrir simult´aneamente, aneamente, es indispensable. Consideremos, por ejemplo, el mismo caso de un dado numerado de 1 a 6 y supongamos que A representa el suceso de que salga el 2 y B el suceso de que salga un n´umero umero par. Se tien ti enee as´ı P ( P (A) = 1/6 y P ( P (B ) = 3/6 = 1/2 (puesto que entre 1 y 6 hay tres n´ umeros pares). La probabilidad de “A umeros “ A ´o B ”, o sea, la que salga el 2 o salga salga un n´ umero par no es, sin embargo, P ( umero P (A) + P ( P (B ) = 2/ 2 /3, puesto que si ocurre A, tambi´ tamb i´en en ocurre oc urre B , por ser 2 un n´umero umero par. Los sucesos no son incompatibles y por tanto la relaci´on on (1.1) no es v´alida. alida. La probabilidad en este caso es simplemente igual a la de B o sea 1/2. Obs´ervese ervese que el razonamiento razo namiento puede repeti re petirse rse con un n´umero de sucesos mayor que dos. Siempre que ellos se excluyan mutuamente, es decir, sean incompatible incompatibless entre entre s´ı, la probabilida probabilidad d de que ocurr o curraa uno u otro es igual a la suma de las probabilidades respectivas.
1.2.2. 1.2.2.
Probab Probabilid ilidade adess Comp Compues uestas tas
Consideremos el siguiente problema: Se lanzan simult´ aneamente dos dados, uno rojo y otro blanco, y se busca la probabilidad de que el rojo salga 2 y el blanco 5. Los casos posibles son ahora 6 6 = 36, pues en el dado rojo puede salir cualquier n´umero umero del 1 al 6 y, por cada caso, en el dado blanco puede tambi´ tambi´ en en salir cualquier valor valor entre entre 1 y 6. De entre entre estos 36 casos posibles, ´ Unicamente hay un caso favorable, y por tanto la probabilidad buscada es
·
´ CLASICA ´ 6CAP ´ITULO 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPLO 1/36. Se tiene as´ as´ı que, mientras mientras que la probabilidad probabilidad de que en el dado rojo salga salga 2 es 1/6 y la de que que en el dado dado blan blanco co salg salgaa 5 es tambi tambi´´en e n 1/6, 1/6, la probabilidad de que ocurran a la vez los dos sucesos es igual al producto (1/ (1/6) (1/ (1/6) = 1/ 1/36.
·
Este hecho es general. Supongamos que para un suceso A hay m1 casos favorables entre n entre n1 posibles y que para otro suceso B hay B hay m m2 casos favorables entre n entre n 2 casos posibles, Entonces se tiene P tiene P ((A) = m 1 /n1 , y P ( P (B ) = m 2 /n2 . Consideremos ahora el conjunto de pares de casos posibles y favorables. Es claro que habr´a n1 n2 , pares de casos posibles y, entre ellos, habr´a m1 m2 casos favorables (en que tienen lugar A y B simult´aneamente). aneamente). Por tanto P ( P (A y B ) = m 1 m2 /n1 n2 = P = P ((A) P ( P (B ).
·
Podemos, por tanto, enunciar el siguiente Principio siguiente Principio de las Probabilidades Compuestas : Si dos sucesos son independientes entre s´ı la probabilidad probabilidad de que ocurran A y B a la vez, es igual al praducto de la probabilidad de A por la probabilidad de B , o sea,
P ( P (A y B ) = P ( P (A) P ( P (B ).
·
(1.2)
La condici´on on de que A que A y y B B sean independientes es fundamental. En caso contrario, la igualdad (1.2) deja de ser v´alida. alida. Supongamos, por ejemplo, que se lanza un dado y se busca la probabilidad de que el n´umero resultante sea par sea par y menor que 4. 4 . Si A Si A indica el suceso par y B el suceso menor suceso menor que 4, 4, resulta P ( P (A) = 1/2 y P ( P (B ) = 3/6 = 1/2. El unico u ´ nico caso favorable es el 2 y por tanto P ( P (A y B ) = 1/6, mientras que P que P ((A) P ( P (B ) = 1/4. Esto nos dice que los sucesos par sucesos par y menor que 4 no son independientes: si se sabe ya que es par, es menos probable que sea menor que 4 que si no se supiera.
·
Muchas veces no es f´acil acil averiguar a priori si dos sucesos son o no independientes. Por esto, veremos en el cap´ cap´ıtulo siguiente que es mejor tomar to mar la condici´ on on (1.2) como definici´on on de independencia, es decir, se dice quedos sucesos A y B son independientes si se cumple (1.2), y no lo son en caso contrario.
1.3. 1.3.
Probab Probabili ilidad dad y com combinato binatoria ria
Mediante la definici´on on de Laplace y los principios fundamentales anteriores, y siempre que el n´umero umero de casos posibles sea finito (´estos estos se llaman
7
1.3. PROBABILI PROBABILIDAD DAD Y COMBINATORIA COMBINATORIA
probabilidades finitas ), ), se pueden resolver muchos problemas. En realidad son problemas de an´alisis alisis combinatorio, en los cuales la idea de probabilidad unicamente u ´ nicamente sirve para darles un enunciado atractivo, pero cuya mayor o menor dificultad dificultad s´olo olo estriba en los razonamien razonamientos tos y f´ormulas ormulas de tipo combinatorio que es necesario emplear. Por esto hemos reunido en el Ap´endice endice I las formulas necesarias. Vamos a ver algunos ejemplos. Problema 1. 1. Una urna contiene bolillas numeradas del 1 al 5. Se sacan
sucesivamente al azar las 5 bolillas (sin reposici´ on). Se busca la probabitidad de que juntando los n´ umeros de cada bolila seg´ un el orden de extracci´ on resulte el n´ umero 21345. Soluci´ on. on. Los casos posibles son las permutaciones que pueden formarse
con las 5 bolillas, o sea, P 5 = 5! = 120. Puesto que hay un solo caso favorable, el resultado es 1/ 1 /120. Problema 1.2. Una urna contiene 10 bolillas nmepadas del 0 al 9. Se sacan
sucesivam sucesivamente ente al azar 5 bolillas bolillas (sin reposici´ reposici´ on). Se busca la probabitidad de que juntando los n´ umeros de cada una en el orden de extracci´ on resulte el n´ umero 80314. umero de casos posibles es el n´umero umero umero de permutaciones o Soluci´ on. on. El n´ variaciones de 5 elementos el ementos elegidos elegido s entre 10 (v´ease ease Ap´endice endice I), o sea, se a, P 10, 10,6 = 10 9 8 7 6 = 30240. Luego la probabilidad buscada es 1/30240.
· · · ·
b bolillas negras. Al Problema 1.3. Una urna contiene a bolillas blancas y b sacar al azar r bolillas de una vez (suponiendo r probabilidad de que todas ellas sean blancas?
≤ a), ¿cu´ al es la
umero de casos posibles es igual al n´umero umero umero de combinaciones Soluci´ on. on. El n´ de r de r bolillas bolillas tomadas entre las a las a + b existentes, o sea, es igual a C a+b,r . El n´ umero de casos favorables es igual al n´umero umero umero de combinaciones de r bolillas tomadas entre las a blancas, o sea, C a,r a,r . Por tanto, la probabilidad buscada es: P =
C a,r a! (a + b r)! a,r = . C a+b,r (a r )! (a + b)!
−
−
Problema 1.4. Se tiene 5 pares de zapatos mezclados y cada par es distinto
de los dem´ as. Si se eligen 2 zapatos zapatos al azar, ¿qu´e prab prababitidad abitidad hay de que correspondan a un mismo par? umero de casos posibles es igual al de combinaciones de 2 umero Soluci´ on. on. El n´ objetos elegidos entre 10, o sea, C 10, 10,2 = 45. Los casos favorables son 5, igual en n´ umero al de los 5 pares existentes. Por tanto la probabilidad umero buscada es P es P = 5/45 = 1/ 1/9.
´ CLASICA ´ 8CAP ´ITULO 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPLO Problema 1.5. Se tiene una baraja de 40 cartas, donde hay 4 ases. Se
repa reparten rten ´estas estas entre entre 4 personas personas,, de manera manera que toquen toquen 10 cartas cartas a cada una. ¿Qu´ e probabilidad probabilidad hay de que a cada una toque un as? Soluci´ on. on. Los casos posibles son las particiones de 40 en conjuntos de 10,
o sea 40 P 10, 10,10, 10,10, 10,10 =
40! . 10! 10! 10! 10!
Para Para contar contar los casos casos favo favorab rables les,, observ observemo emoss que presci prescindi ndiend endoo de los ases, las 36 cartas cartas restant restantes es se pueden pueden distribu distribuir ir de P 936 ,9,9,9 = 4 (36!)/ (36!)/(9!) maneras y luego los 4 ases de 4! maneras. Por tanto, el n´umero umero de casos favorables es el producto de estos dos n´umeros y la probabilidad buscada resulta P resulta P = 0, 0 ,109. al es la Problema 1.6. Si n personas se sientan al azar en una fila, ¿cu´ probabilidad de que dos de ellas determinadas queden una al lado de la otra? umero de casos posibles es n! Para contar los favorables, umero Soluci´ on. on. El n´ se suponen las (n (n 2)! maneras en que pueden sentarse las restantes personas y se intercalan sucesivamente las dos que se quieren vecinas, desde el principio al final. Hay n 1 posibilidades, y alternando las dos personas quedan, en cada caso, dos posibilidades m´as. as. Por tanto el resultado es P es P = 2(n 2(n 1) (n 2)!/n 2)!/n!! = 2/n 2 /n..
−
−
−
−
umero de 6 cifras. Hallar la probabiliProblema 1.7. Se elige al aear un n´ dad de que todas las cifras sean diferentes. umeros de 6 cifras son los comprendidos entre 100.000 y umeros Soluci´ on. on. Los n´ 999.999, o sea, los casos posibles son 9 105 . Los casos favorables se calculan de la siguiente manera: la primera cifra puede ser cualquiera de las 1, 1, 2, . . . , 9 (o sea, hay 9 p osibilidade osibilidades); s); la segunda segunda cifra puede ser cualquiera de las 0, 0 , 1, 2, . . . , 9 menos la ya elegida (o sea, hay 9 posibilidades ); la tercera puede ser cualquiera de las 0, 0 , 1, 2, . . . , 9 menos las dos ya elegidas (o sea, hay 8 posibilidades). As´ As´ı sucesivamente, sucesivamente, se ve que los casos favorables son 9 9 8 7 6 5 = 152.880. La probabilidad buscada resulta igual a P a P = 0,151.
·
· · · · ·
Problema 1.8. En una urna hay 20 bolillas numeradas de 1 a 20. Si se
van sacando al azar una a una sin reposici´ on, ¿cu´ al es la probabilidad de que la bolilla n´ umero 8 salga precisamente en la octava extracci´ on? probabilidad de que la bolilla No. 8 no salga la primera primera vez es Soluci´ on. on. La probabilidad 19/20; la probabilidad de que tampoco salga la segunda vez es 18/19 y as´ as´ı sucesivamente. sucesivamente. La probabilidad de que s´ı salga la octava vez es
9
1.4. PROBABILI PROBABILIDAD DAD Y FRECUENCI FRECUENCIA A
1/13, puesto que quedan 13 bolillas. Luego, por el principio de las probabilidade probabilidadess compuestas, compuestas, la probabilidad probabilidad buscada es: P =
19 18 17 13 1 1 . . . = . 20 19 18 14 13 20
· ·
·
Obs´ ervese ervese que este resultado es independiente del n´umero umero 8; es decir, la probabilidad es la misma para cualquier bolilla y cualquier extracci´ on, on, lo que es evidente a priori , pues cualquier bolilla tiene la misma probabilidad de salir en cualquier extracci´on. on.
1.4. 1.4.
Probab Probabili ilidad dad y Frec Frecuen uencia cia
En los casos de lanzamiento de dados o extracci´on on de bolillas b olillas,, bajo ba jo ciertas condiciones hasta ahora no muy precisas de igual posibilidad , la probabilidad se puede calcular a priori. En realidad, como hemos visto, se trata de problemas de an´alisis alisis combinatorio, disfrazados con lenguaje probabilistico. Hay otro tipo de problemas enque la probabilidad aparece como resultado de muchos ensayos o pruebas, sin que se pueda pensar en calcularla de antemano, ya sea por desconocerse la manera de actuar de las causas que originan el fen´omeno, omeno, ya sea por ser ´estas estas demasiado numerosas o complicadas. Supongamos, por ejemplo, que en una determinada poblaci´on o n se ha observado que en los ´ultimos ultimos 100.000 nacimient nacimientos, os, 51.600 de los nacidos nacidos han sido varones. Se dice entonces que la “probabilidad” de que un nuevo nacimiento sea de var6n es igual a 51.600/100.000 = 0,516. Esta probabilidad se llama probabilidad llama probabilidad experimental , probabilida probabil idad d estad´ est ad´ıstica ıst ica o frecuencia . Se obtiene obtien e tambi´en en como cociente coci ente al dividir d ividir el e l n´umero umero de casos favorables por el n´umero umero de casos posibles. Se diferencia de los problemas del n´umero umero anterior en que all´ all´ı los casos favorables se calculaban a partir de ciertas hip´otesis, otesis, sin necesidad de ensayos, en tanto que ahora son resultados de la experiencia. Otro ejemplo cl´asico asico es el siguiente. Supongamos que se toma nota del n´umero umero de personas de una poblaci´on on que fallecen a los x a˜ nos. nos. Si dx es el n´umero umero de personas que fallecen a los x a˜ a nos n ˜ os de edad, dentro de un n´umero umero total lx de personas consideradas, se puede decir que la “probabilidad de vida” a los x a˜nos nos (o sea, la probabilidad de que una persona de x a˜nos nos llegue a cumplir x + 1 a˜nos) n os) es (l (lx d x )/lx . Estos datos figuran en las llamadas tablas de mortalidad, que var´ var´ıan con la poblaci´ p oblaci´ on on de que se trata y con el tiempo, y en ellas se basan los seguros de vida.
−
La importancia pr´actica actica fundamental del c´alculo alculo de probabilidades estriba en que la probabilidad experimental y la probabilidad te´orica, cuando ´esta esta se puede calcular y bajo condiciones condiciones muy amplias, amplias, tienden tienden a coincidir coincidir
´ CLASICA ´ 10 10CAP CAP ´ITULO 1. 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPL cuando el n´ umero umero de experimentos experimentos es grande. grande. Es decir, decir, si en un problema problema de lanzamient lanzamientoo de dados o de extracci´ on de bolillas se repite el experimento un on gran n´ umero de veces y se calcula la frecuencia de cierto suceso, ella tiende a umero coincidir (en el sentido que precisaremos m´as as adelante) con la probabilidad te´orica orica calculada de antemano.
1.5. 1.5.
La Prob Probabi abilid lidad ad Subjeti Subjetiv va o el el Grado Grado de de CreCreencia
Tanto las probabilidades que pueden ser calculadas de antemano, como las que resultan como frecuencia de cierto proceso experimental, son probabilidades babilidades objetiv ob jetivas, as, que pueden pueden expresarse expresarse en n´umeros umeros y ser sometidas al c´alculo alculo matem´ atico. atico. Son las unicas u ´ nicas de que trata el c´alculo alculo de probabilidades. Hay otros casos, sin embargo, en que lapalabra “probabilidad” se usa en un sentido menos preciso, casos en que, si bien es posible una evaluaci´on m´as as o menos grosera grosera de la misma, no se pueden dar reglas para su determinaci´ determinaci´on on precisa, y por tanto escapa al tratamiento matem´atico. atico. Se trata, m´as as bien, de un grado de “creencia” acerca de que tenga o no lugar un determinado hecho. Supongamos el siguiente caso: Dos paises A y B est´ an en guerra, ¿cu´ al es la probabilidad de que triunfe triunf e el pa´ pa´ıs A? Evidentemente, Evidentemente, no es l´ıcito ıcito decir: como hay dos casos posibles, p osibles, la derrota o la victoria, y uno solo favorable, la probabilidad es 1/2. En efecto, puede muy bien ser que los dos casos no sean igualmente posibles y hay que juzgar teniendo teniendo en cuenta cuenta la potencialidad potencialidad b´ elica, elica, las condiciones condiciones geogr´ aficas, aficas, la ciencia militar de los estados mayores, etc. para evaluar la mayor o menor posibilidad de cada caso. Se comprende que es una cuesti´on compleja y que no cabe pensar en una evaluaci´on on exacta de la probabilidad. Tampoco se puede acudir a la probabilidad experimental o estadistica, pues la guerra en cuesti´on o n es un caso ´unico unico que no se puede repetir sucesivamente, ni se dispone de un gran n´umero umero de casos an´alogos, alogos, como en la probabilidad de vida o muerte de una persona. Sin embargo, tampoco es exacto decir que no tiene sentido hablar de probabilidad en este caso, pues no hay duda de que es posible cierta evaluaci´on de la misma. Podr Po dr´´ıa, por ejemplo, preguntarse la opini´on on de 100 personas capacitadas capacitadas e imparciales imparciales de un pa´ pa´ıs neutral neutral y dividir dividir por 100 el n´umero umero de respuestas favorables a la victoria del pa´ pa´ıs A. Es muy probable que si
11
1.6. LA PROBABIL PROBABILIDA IDAD D EN TORNEOS
el result resultado ado arrojase un saldo saldo favora favorable ble del 90 %, o sea, sea, una probabil probabilida idad d P = 0, 0 ,9, este resultado no diferiera mucho del que se obtendr´ obtendr´ıa si en vez de 100 personas se consultaran a 1.000, igualmente capacitadas e imparciales. De todas maneras este tipo de problemas no puede considerarse incluido en la esfera de la probabilidad experimental, puesto que el resultado no proviene de una estad´ estad´ıstica de casos identicos o muy an´alogos, alogos, sino que se basa en opiniones subjetivas subjetivas de un caso unico, u ´ nico, opiniones que, aun suponiendo que hayan sido emitidas con conocimiento de las condiciones b´elicas elicas de los dos do s pa´ıses, ıs es, est´ est ´an an influenciadas por la apreciaci´on on subjetiva de las mismas (valent lent´ıa, capacidad capacidad directiv directiva, a, voluntad voluntad de lucha,. lucha,. . . ) que no puede “medirse” “medirse” ni graduarse en una escala imparcial y objetiva. Preguntas del mismo tipo son: ¿Cu´ son: ¿Cu´ al es la probabilidad de que haya vida en Marte? , ¿cu´ al la de que Napole´ on muriera envenenado? , ¿cu´ al la de que el equipo x gane el campeonato? Todos estos problemas quedan fuera de la teor´ teor´ıa de las probabilidad probabilidades es en el sentido usual, que es el que vamos a seguir en los cap´ cap´ıtulos siguientes, si bien se han hecho y se siguen haciendo interesantes tentativas para que ellos puedan tratarse trata rse tambi´en en por m´etodos eto dos matem´aticos. aticos.
1.6. 1.6.
La Probab Probabili ilidad dad en Torneos orneos
El triunfo en las competencias deportivas depende en gran medida de la influencia del azar, tal vez m´as as de lo que parece a primera vista. Consideremos dos ejemplos: 1. Sea un juego entre entre dos jugadore jugadoress o dos equipos, equipos, A y B. Supongam Supongamos os que la probabilidad de ganar A sea 0,6 y la de gane B sea 0,4. La probabilidad de empate se supone nula, puesto que, en el caso de empatar, la partida se repite hasta que gana uno de los jugadores. Si juegan una sola partida, la probabilidad de resultar campe´on on B, que es el que juega peor, es 0,4, que es bastante grande. Se puede disminuir esta probabilidad si se conviene en jugar 3 partidas y declarar campe´on al que gane por lo menos 2 de ellas. Entonces la probabilidad de que B resulte resulte campe´ on on es p es p 3 = 3(0, 3(0,4)2 0,6 + (0, (0,4)3 = 0,35, que es inferior a la probabilidad anterior. Si se juegan 5 partidas y se declara campe´on al que gane por lo menos 3 de ellas, la probabilidad de que el campe´on on 3 2 4 5 sea B es p es p 5 = 10 (0, (0,4) (0, (0,6) +5(0, +5(0, 4) (0, (0,6)+(0, 6)+(0,4) = 0, 0 ,317. Si se juegan 7 partidas y se declara campe´on o n al que gane por lo menos 4, la probabilidad de que resulte campe´on o n B es p7 = 0,290. Vemos que
·
·
·
·
´ CLASICA ´ 12 12CAP CAP ´ITULO 1. 1. LA DEFINICI DEFINICI ON DE PROBABILIDAD Y PRIMEROS EJEMPL la probabilidad va disminuyendo, pero con lentitud, de manera que aun en un n´ umero relativamente grande de partidas, la probabilidad umero de que resulte campe´on on el peor es bastante significativa (aunque por cierto siempre es inferior a 0,5). 2. Cuando se celebran celebran torneos eliminatorio eliminatorios, s, o sea sin que jueguen todos contra todos, la influencia del orden en las eliminatorias es mucha. Vamos a dar un ejemplo de tres jugadores A, B y C, tales que A juega mejor que B, B juega mejor que C y, sin embargo, C juega mejor que A. Al decir “A juega mejor que B” quiere decir que la probabilidad de que A gane a B es superior a la de que B gane a A, o sea que en un n´ umero grande de partidas entre estos jugadores, el n´umero umero umero de las partidas ganadas por A supera al de las ganadas por B. Supongamos que cada jugador dispone de un dado especial, cuyas caras est´ an an numeradas seg´ un indica la tabla siguiente: un A B C
1 1 1
2 1 1
2 2 2
3 2 3
3 6 5
3 6 5
El juego consiste en que cada jugador lanza su propio dado y gana el que saca el n´umero umero mayor. Si sale elmismo n´umero, umero, hay empate, y se repite el juego. Si se llama P ( P (X, Y ) Y ) a la probabilidad de que X X gane a Y Y (siendo X, Y = A,B, A,B, C ), ), por simple recuento de casos posibles y favorables, se encuentran las siguientes probabilidades: P ( P (A, B ) = 16/ 16 /30 30,, P ( P (B, A) = 14/ 14/30 30,, P ( P (C, B ) = 16/ 16/29 P ( P (A, C ) = 13/ 13 /29 29,, P ( P (B, C ) = 16/ 16/30 30,, P ( P (C, B ) = 14/ 14/30 de manera que P ( P (A, B ) > P ( P (B, A),
P ( P (B, C ) > P ( P (C, B )
y sin embargo P ( P (A, C ) < P ( P (C, A) lo cual parece parad´ojico. ojico.
Cap´ıtulo 2
Definici´ on Axi Axiom´ om´ atica de Probalididad y Primeras Consecuencias 2.1.
Axiomas de la Teor Teor´ ´ıa de las Probabilidades
En los problemas de probabilidad que hemos visto enel cap´ cap´ıtulo anterior a nterior se notan los siguientes elementos: a) el conjunto de los casos posibles; b) el conjunto de los casos favorables; c)la probabilidad de cada caso favorable, que es un n´umero umero real comprendido entre 0 y 1. Queremos ahora precisar las definiciones de estos conjuntos y dar forma axiom´atica atica a la teor´ıa ıa de la probabilidad. El conjunto de “casos posibles” puede ser cualquier conjunto abstracto, con la condici´on on de que sus elementos aparezcan como resultado de un experimento (lanzar un dado, sacar una bolilla de una urna, elegir un n´umero umero en una tabla,). En vez de “conjunto de casos posibles” se ha introducido el nombre de espacio de espacio muestral , cuya definici´on on es la siguiente: Definici´ on on 2.1. Se llama espacio muestral , asociado a un experimento, al conjunto de todos los resultados posibles de dicho experimento. En general representaremos por E por E a a los espacios muestrales. Los experimentos que dan lugar a espacios muestrales se llaman experimentos aleatorios . 13
´ AXIOM ATICA ´ 14 14CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE Para que un conjunto de elementos sea un espacio muestral debe haber, por tanto, un cierto proceso cuyos resultados sean, precisamente, los elementos del conjunto.
umeros 1, 2, 3, 4, 5, 6 constituyen el espacio muestral del umeros Ejemplo 1. Los n´ experimento aleatorio de “lanzar “ lanzar un dado” cuyas caras est´ en en numeradas del 1 al 6. Ejemplo 2. Las letras C y F constituyen el espacio muestral del experimen-
to aleatorio de “lanzar una moneda”, proceso cuyo resultado puede ser cara (C) o cruz (F). Ejemplo 3. Los pares (C, C), (C, F), (F, C), (F, F) constituyen el espa-
ciomuestral del proceso de “lanzar dos monedas simult´aneamente”. aneamente”. umeros umeros 3, 4, . . . , 18 consti constituy tuyen en el espacio espacio muestra muestrall del Ejemplo 4. Los n´ experimento aleatorio de “lanzar 3 dados y sumar los n´umeros umeros obtenidos”. N bolillas numeradas de 1 a N y Ejemplo 5. Si se tiene una urna con N se van sacando sucesivamente todas ellas, anotando ordenadamente los n´ umeros que van saliendo; entonces las N ! umeros N ! permutaciones que se pueden formar con los n´umeros umeros 1 a N a N constituyen constituyen el espacio muestral del experimento aleatorio de “sacar todas las bolillas de la urna”. Ejemplo 6. Supongamos un punto que se mueve sobre una circunferencia
y que puede detenerse en cualquier punto de la misma; los puntos de la circunfere circunferencia ncia constituyen constituyen un espacio espacio muestral muestral,, en este caso consticonstituido por p or infinitos infinitos elementos elementos..
Precisemos ahora la definici´on on de los conjuntos de casos favorables. Desde luego estos deben ser subconjuntos de E . Cuando E E es finito, no hay inconveniente en considerar como posibles conjuntos favorables a todos los subconjuntos subconjuntos de E . Pero cuando E es E es infinito, la consideraci´on on de “todos” los subconjuntos de E E puede presentar dificultades. Por otra parte, no es necesario necesario considerar considerar todos los subconjuntos subconjuntos del espacio muestral para poder construir construir la idea de probabilidad probabilidad de acuerdo acuerdo con los ejemplos ejemplos del cap´ cap´ıtulo anterior. Lo importante es que si A si A y y B B representan representan conjuntos de casos favorables de ciertas proposiciones, la uni´on A on A B debe deb e ser tambi´en en un conjunto conju nto de casos favorables, precisamente el correspondiente a la proposici´on “A o B ”. Tambi´en en el conjunto complementario complem entario A¯ = E = E A debe figurar en la clase de conjuntos de casos favorables, puesto que corresponde a la proposici´on “no se cumple A cumple A”. ”.
∪
−
2.1. AXI AXIOMA OMAS S DE LA TEOR TEOR ´IA DE LAS PROBABILIDADES
15
Dentro de la matem´atica atica hay precisamen precisamente te una estructura estructura especial para clases de subconjuntos de un conjunto, llamada σ llamada σ-´ -´ algebra (o ´ (o ´ algebra de Borel o tribu ) que cumple dichas condiciones. Su definici´on on es la siguiente:
Una σ-´ -´ algebra algebra en un conjunto E conjunto E es es una clase Definici´ on on 2.2. Una σ
B
de subconjuntos A, de E , tales que se cumplen las dos condiciones siguientes: . Si A Si A 1 , A
− 2, . . . ∈ B, entonces ∪Ai ∈ B, ¯ = E . Si A Si A ∈ B, entonces A = E − A ∈ B.
i ii
Como es bien sabido, significa la uni´ la uni´ on de de conjuntos, y de ´estos. est os. Adem´ Ade m´as as el conjunto conju nto vac´ vac´ıo se representar´ representa r´a por φ por φ..
∪
∩ la intersecci´on on
on on anterior se deduce: Consecuencias. De la definici´
∪ A¯ ∈ B; ¯ ∈ ∈ B; b) φ b) φ = E ¯2 ∈ B ⇒ A¯1 ∪A¯2 = A c) Si A Si A1 , A2 ∈ B ⇒ A¯1 , A = A 1 ∩ A2 ∈ B ⇒ A1 ∩ A2 ∈ B. En general, si A1 , A2 , . . . ∈ B entonces la intersecci´on on ∩Ai ∈ B. a) E a) E = = A
Obs´ ervese, ervese, pues, que no ha sido necesario postular p ostular que la intersecci´on on de conjuntos de una σ -´ algebra pertenece a la misma; ello es una consecuencia algebra de las propiedades i) y ii) de la definici´on. on. A partir de esta definici´on, on, los cl´asicos asicos casos favorables se incluyen dentro de los llamados “sucesos”, cuya definici´on on es la siguiente:
σ -´ algebra algebra Definici´ on on 2.3. Los elementos de una σ-´
B en un espacio
muestral E , se llaman sucesos . Los elementos de E E se llaman sucesos elementales .
. son incompaDefinici´ on on 2.4. Se dice que los sucesos A l , A2 , . . . son tibles si tibles si no existe ning´un un elemento de E que E que pertenezca a dos o m´ as as de ellos, es decir, si Ai A j = φ para todo par de ´ındices i = j. j .
∩
´ AXIOM ATICA ´ 16 16CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE Ejemplo 1. Al lanzar un dado hemos visto que el espacio mues-
tral es E = 1, 2, 3, 4, 5, 6 . Un suceso Un suceso puede ser el subconjunto 3, 4 y corresponde al hecho de salir “3 ´o 4”, o sea a la uni´on on de los sucesos elementales 3 y 4 . Otro suceso es 1, 2, 5 . Ambos sucesos son incompatibles. En cambio no lo son los sucesos 3, 4 y 1, 4, 6 pues ambos tienen en com´un un el elemento 4 .
{
{ }
} { } { }
{ } {
{
} { }
}
muestral E = = 3, 4, . . . , 18 corresponEjemplo 2. En el espacio muestral E
{
}
diente al proceso de lanzar 3 dados y sumar los puntos obtenidos, un suceso es 3, 5, 7, 11 11,, 13 13,, 17 , que corresponde corresponde a la proposici´on on “la suma es un n´ umero primo distinto de 2”. Otro suceso es el umero formado por los n´umeros umeros pares 4, 6, 8, 10 10,, 12 12,, 14 14,, 16 16,, 18 , y los dos sucesos sucesos son incompatible incompatibles. s.
{
}
{
}
Tenemos enemos ahora ahora todos los elemen elementos tos necesa necesario rioss para para poder dar forma forma axiom´ atica al conceptode probabilidad, tomando como modelo los ejemplos atica y definici´on on del cap´ cap´ıtulo anterior, pero d´andoles andoles forma abstracta, como corresponde rresp onde a una teor´ teor´ıa matem´atica. atica. Sea E Sea E un un espacio muestral y la definici´ definici´ on on siguiente.
una σ-´ -´algebra algebra en E en E . Entonces se establece B una σ
llama probabilidad de probabilidad de un suceso A Definici´ on on 2.5. Se llama n´ umero umero real P real P ((A), que cumple los siguientes axiomas: I. P I. P ((A)
∈ B a un
≥0
II. Si A Si A 1 , A2 , . . . son . son sucesos incompatibles, entonces P ( P ( Ai ) =
∪
P ( P (Ai )
i
III. P III. P ((E ) = 1. Obs´ ervese ervese que el axioma II no es m´as as que el principio de las probabilidades lidades totales del cap´ cap´ıtulo 1 (extendido (extendido a un n´ umero finito o infinito de umero sucesos), teniendo en cuenta que la uni´on on de varios conjuntos es el conjunto cuyos elementos pertenecen a uno o a otro de los conjuntos. Toda terna (E, (E, , P ) P ) que cumpla cumpla las condic condicion iones es anter anterior iores, es, se llama llama un espacio espacio de prob probabilida abilidad d . Si el espacio muestral es finito, el espacio de probabilidad se llama tambi´ en en finito. Si E Si E es es finito o infinito numerable, el espacio de probabilidad se llama discreto. discreto.
B
2.1. AXI AXIOMA OMAS S DE LA TEOR TEOR ´IA DE LAS PROBABILIDADES
17
on general de probabilidad, on Convenio. Hemos dado la definici´ v´ alida alida para espacios espacios muestrale muestraless E E cualesquiera. Sinembargo, en la presente monograf´ıa ıa supondremos siempre, por simplicidad, lo siguiente: a) Si E Si E es es finito o infinito numerable, la σ la σ-´ -´ algebra algebra el conjunto de todos los subconjuntos de E de E ..
B ser´a siempre
b) Si E es E es el conjunto de puntos de la recta (o del plano, o, en general, de n ) la σ -´algebra algebra ser´a la constituida por todos los conjuntos conjuntos medibles de E . En particular, en el caso de la recta, ser´a el conjunto de todos los intervalos abiertos, m´as as los con juntos formados por un solo punto y los conjuntos que puedan formarse por la uni´on on de un n´ umero finito o de una infinidad nuumero merable de estos conjuntos. No se considerar´an an otros conjuntos m´ as as generales.
B
B
De acuerdo con este convenio, en general en lo sucesivo no har´a falta mencionar mencionar la σ la σ -´ algebra algebra , sino tan s´olo E olo E y P . P .
B
Sea E = = a1 , a2 , . . . , a6 el espacio muestra1 corresEjemplo 1. Sea E
{
}
pondiente al lanzamiento de un dado. Los elementos al son los n´ umeros umeros 1, 2, . . . , 6. La σ La σ-´ -´algebra algebra de los sucesos est´a constituiconstituida por todos los subconjuntos de E . Podemos definir Podemos definir P ( P (ai ) = 1/6, para todo i todo i lo lo cual equivale a suponer que el dado es perfecto; si no fuera un cubo exacto o no estuviera construido de material homog´eneo, eneo, la probabilidad probab ilidad de cada c ada cara podr po dr´´ıa cambiar. Seg´ un un el axioma II, si i si i = j, j , ser´a P ( P ( ai a j ) = probabilidad probabilidad de que salga el n´ umero umero i o el j = P ( P (ai ) + P + P ((a j ) = 2/6 = 1/3. An´ alogamente, por el axioma III, si i, j , k son diferentes, es alogamente, P ( P ( ai a j ak ) = P ( P (a1 ) + P ( P (a j ) + P ( P (ak ) = 1/ 1 /2. Obs´ Ob s´erves er vesee que P que P (( a1 , a4 a1 , a4 , a6 ) no es la suma de las probabilidades de los sucesos a1 , a4 y a1 , a4 , a6 , puesto que no son incompatibles, por tener en com´un un el elemento a elemento a 3 .
B
{ }∪{ }
{ }∪{ }∪{ } { }∪{ } { } {
}
on on de medida Ejemplo 2. Para el lector familiarizado con lanoci´ de conjuntos sobre la recta real (lo que no har´a falta en lo sucesivo, pues nos limitaremos a conjuntos formados por la uni´on de segmentos disjuntos y entonces lamedida es la suma de las longitudes de los mismos), podemos decir que, dado el segmento (a, b), a < b y la σ -´ algebra de los subconjuntos medibles del algebra mismo, para cada uno de estos subconjuntos, por ejemplo α, α , se puede definir P ( P (α) = µ( µ (α)/(b a), donde µ(α) es la medida de
−
´ AXIOM ATICA ´ 18 18CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE α. Evidentemente, esta definici´on on de probabilidad es admisible, por cumplirse los axiomas I, II, III. Vemos as´ı la vinculaci´on on estrecha entre la noci´on on de probabilidad y la de medida. Como b a = µ(( µ ((a, a, b)), la probabilidad aparece como cociente de medidas. Para conjuntos de puntos del plano, del espacio o de n puede establecerse establecerse la misma definici´ on. on.
−
2.2. 2.2.
Conse Consecue cuenci ncias as de los Axiom Axiomas as
A partir de los axiomas que definen la probabilidad y mediante la aplicaci´on on de simples relaciones de la teorra de conjuntos, se pueden deducir las siguientes consecuencias: 1. P ( P (φ) = 0. En efecto, aplicando el axioma II a los conjuntos φ y E , resulta P resulta P ((φ E ) = P ( P (φ) + P ( P (E ). ). Pero φ Pero φ E = = E y P ( P (E ) = 1 (axioma III). Por tanto, queda 1 = P = P ((φ) + 1, de donde P donde P ((φ) = 0.
∪
∪
2. Llamando Llamando A¯ = E = E
A , es − A = suceso opuesto al A, ¯) = 1 − P ( P ( P (A P (A). (2.1) ¯) = En efecto, aplicando el axioma II a A a A ∪ A¯ = E = E ,, se tiene P tiene P ((A) + P ( P (A
P ( P (E ), ), y por el axioma axioma III, result resultaa (2.1). (2.1). 3. Si A Si A 1
entonces P ((A1 ) ≤ P ( P (A2 ). ⊂ A2, entonces P En efecto, es A2 = A1 ∪ (A2 ∩ A1 ), y por los axiomas II y I, resulta P ( P (A2 ) = P ( P (A1 ) + P ( P (A1 ∪ (A2 ∩ A1 )) ≤ P ( P (A1 ).
4. Cualquiera que sea A es P(A) 5 1. Consecuencia de serA c E y de la consecuencia anterior. 5. Si A Si A y B son sucesos compatibles, o sea A
= C φ , entonces ∩ B = C = φ, P ( P (A ∪ B ) = P ( P (A) + P ( P (B ) − P ( P (A ∩ B ). (2.2)
Demostraci´ on. on. Observemos las identidades
A = (A
∩ B) ∪ (A ∩ B¯ ),
B = (A
∩ B) ∪ (A ¯ ∪ B)
de las cuales, por el axioma II, se deduce ¯ ), P ( P (A) = P ( P (A B ) + P ( P (A B
∩
∩
¯ B ). (2.3) P ( P (B ) = P ( P (A B ) + P ( P (A
∩
Por otra parte, la identidad A
∪ B = (A ∩ B) ∪ (A ∩ B¯ ) ∪ (A ¯ ∩ B)
∪
´ CLASICA ´ 2.3. LA DEFI DEFINIC NICI I ON nos da P ( P (A
19
¯ ) + P ( ¯ ∩ B ) P (A ∩ B ) + P ( P (A ∩ B P (A ∪ B) = P (
(2.4)
y de (2.3) y (2.4) resulta inmediatamente la relaci´on on (2.2) (2. 2) que se quer´ q uer´ıa ıa demostrar. Esta relaci´on on se puede generalizar. Pongamos A = A 1 , B = A 2 Resulta P ( P (A1 A2 A3 ) = P ( P (A1 ) + P ( P (A2 A3 ) P ( P (A1 (A2 = P ( P (A1 ) + P ( P (A2 ) + P ( P (A3 ) P ( P (A1 A2 ) P ( P (A1 A3 ) P ( P (A2 A3 ) + P ( P (A1 A2 ) + P ( P (A3 )
−
∪ ∪ ∪
∪
−
∪
∪
− −
∪
∩
−
∪ A3.
∪ A3)) =
En general, por inducci´on, on, resulta la f´ormula ormula
P ( P (A1
P (Ai )− ∪ A2 ∪ . . . ∪ An) = P ( i − P ( P (Ai ∩ A j ) + P ( P (Ai ∩ A j ∩ Ak )− i,j i,j,k P (A1 ∩ A2 ∩ . . . ∩ An ) − . . . + (1)n−1P (
(2.5)
donde las sumas se extienden en cada caso a todas las combinaciones posibles posi bles entre los diferentes diferente s ´ındices ındices i, i, j , k, k , . . . .
2.3. 2.3.
La Defin Definic ici´ i´ on on Cl´ Cl ´ asi as ica
Veamos c´omo omo los axiomas I, II, III y sus consecuencias se relacionan con la definici´on on cl´asica asica de Laplace Laplace dada en el cap´ cap´ıtulo 1. Supongamos Supongamos que el espacio muestral se compone de un n´umero umero finito de sucesos sucesos A A 1 , A2 , . . . , An , o sea, E = A1 A2 . . . An , que sean incompatible incompatibless entre entre s´ı , o sea, Ai A j = φ para todo i todo i = j. j . Entonces, seg´ un un los axiomas II y III,
∩
∪ ∪
∪
P ( P (E ) = P ( P (A1 ) + P ( P (A2 ) + . . . + P ( P (An ) = 1. 1.
(2.6)
Si suponemos, adem´as, as, que todos los sucesos Ai tienen la misma probabilidad (que es lo que quiere decir la frase “igualmente posibles” de la definici´ on de Laplace), tenemos P ( on P (A1 ) = P ( P (A2 ) = . . . = P ( P (An ) y, por tanto, seg´ un un (2.6) ser´a P ( P (Ai ) = 1/n. /n. Sea ahora un suceso A formado por la uni´ on on de m de m sucesos A sucesos A i , o sea, A sea, A = = A A i Ai . . . Ai . La probabilidad de A ser´a 1
∪
2
∪ ∪
P ( P (A) = mP ( mP (Ai ) =
m
m . n
Se tiene as´ as´ı el resultado coincidente con la definici´on on cl´asica. asica.
´ AXIOM ATICA ´ 20 20CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE
2.4. 2.4.
Probab Probabili ilidad dad Condi Condicio cional nal
Querem Queremos os ahora ahora inclui incluirr en el esquem esquemaa axiom´ axiom´ atico atico el principio de las probabilidad probab ilidades es compuestas compues tas mencionadas mencion adas en el cap´ cap´ıtulo 1. All´ All´ı nos refer´ refer´ıamos a sucesos “independientes”, aunque quedaba un poco impreciso el significado de estas palabras, advirtiendo que la f´ormula ormula (1.2) perd´ perd´ıa su validez si los sucesos no eran independientes. Vamos a ver ahora c´omo se pueden tratar estas ideas dentro de la teor´ teor´ıa axiom´atica. atica. Sea (E, (E, , P ) P ) un espacio de probabilidad compuesto del espacio muestral E , la σ la σ-´ -´ algebra algebra y la probabilidad P probabilidad P .. Sea A Sea A un suceso tal que P que P ((A) = 0. 0.
B
B
∈B
Definici´ on on 2.5. Se llama probabilidad condicional de condicional de un suceso B ∈ B, dado el suceso A ∈ B, y se representa por P ( P (B |A), al cociente P ( P (B A) =
|
P ( P (A B ) . P ( P (A)
∩
(2.7)
Hay que demostrar que esta definici´on on es admisible, es decir, que la probabilidad condicional P condicional P A (B ) = P ( P (B A), definida para todo B todo B , una vez fijado A , cumple con los axiomas I, II y III de toda probabilidad. En otras palabras, hay que probar que (E, ( E, , P A ) es otro espacio de probabilidad.
|
∈ B
∈ B
B
El axioma I dice que debe ser P ( P (B A) 0, lo cual es inmediato por ser P ( P (B A) 0 y P ( P (A) 0. El axioma II se cumple por ser
∩ ≥
| ≥
≥
P ( P (A ( Bi )) P ( P ( (A Bi )) = = P ( P (A) P ( P (A) Bi ) = P ( P (Bi A) = P A(Bi ),
P A ( Bi ) =
∪
=
P (A i P (
∪
P ( P (A)
∩∪
i
∪ ∩
|
i
para toda sucesi´on B on B 1 , B2 , . . . de . de sucesos incompatibles. El axioma III se cumple por ser
P A (E ) =
P ( P (A E ) P ( P (A) = = 1. 1. P ( P (A) P ( P (A)
∪
Por tanto la definici´on on 2.5 es admisible. A partir de ella se puede escribir
21
2.4. PROBABILI PROBABILIDAD DAD CONDICION CONDICIONAL AL
P ( P (A
∩ B) = P ( P (A)P ( P (B |A).
An´ alogamente, fijado el suceso B alogamente, suceso B supuesto P supuesto P ((B ) = 0, se tiene la probabilidad condicional
P ( P (A B ) =
|
P ( P (B A) . P ( P (B )
∩
(2.8)
Obs´ervese erves e que qu e la ecuaci ecu aci´´on on (2.6) no se demuestra ni es ning´un un axioma: es una definici´ definici´ on, y se complementa con la siguiente definici´on. on, on. Definici´ on on 2.6. Se dice que dos sucesos son independientes si se verifica
que
P ( P (B A) = P ( P (B ).
|
(2.9)
Obs´ervese ervese que en este caso, seg´un un (2.7), es
P ( P (A
P (A) · P ( P (B ) ∩ B) = P (
(A y B inde indepe pend ndie ien ntes) tes)
(2.1 (2.10) 0)
y por tanto, comparando con (2.9), es tambi´ en en
P ( P (A B ) = P ( P (A).
|
(2.11)
Esto nos dice que la independencia indep endencia es una propiedad sim´etrica, etrica, que puede definir se por cualquiera de las igualdades (2.9) ´o (2.11). Puesto que el hecho de que un elemento pertenezca a la intersecci´on A on A B significa que a la vez pertenece a A “y” a B a B , la relaci´on on (2.10) equivale a la (1.2) (principio de las probabilidades compuestas). N´otese, otese, sin embargo, que si bien las definiciones 2.5 y 2.6 tienen su origen en la idea intuitiva de sucesos independien independientes, tes, al ser ahora establecidas establecidas como definiciones definiciones desaparece desaparece toda to da posible ambig¨ uedad, y adquieren un sentido bien preciso. uedad,
∩
La definici´on on de independencia se generaliza a m´as as de dos sucesos de la manera siguiente:
´ AXIOM ATICA ´ 22 22CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE Definici´ on on 2.7. Se dice que varios sucesos A 1 , A2 , , An son in-
·
dependientes (o completamente (o completamente independientes ) si se verifica P ( P (Ai
∩ Ai ∩ · · Ai ) = P ( P (Ai )P ( P (Ai ) · P ( P (Ai ) (2.12) para k = 2, 3, ·, n, donde (i (i1 , i2 , ·, ik ) es una combinaci´on on cualquiera de los n los n n´ n umeros u ´ meros 1, 1, 2, ·, n. 1
2
1
k
2
k
Por ejemplo, para que 3 sucesos A, B , C sean C sean independientes, se debe cumplir P ( P (A P ( P (A P ( P (B P ( P (A B
∩ B) ∩ C ) ∩ C ) ∩ ∩ C )
= = = =
P ( P (A) P ( P (B ), P ( P (A) P ( P (C ), P ( P (B ) P ( P (C ), P ( P (A) P ( P (B ) P ( P (C ).
Obs´ervese er vese que la ´ultima ultima relaci´on on no puede deducirse de las tres primeras, es decir, las cuatro condiciones son necesarias. Naturalmente, no hay que confundir la independencia con la incompatibilidad. seg´ un las definiciones 2.4 y 2.6 se tiene: Dos sucesos A y B son un independientes si si se verifica
P ( P (A y son son incompatibles si A si A
2.5. 2.5.
∩ B) = P ( P (A)P ( P (B )
(2.13)
= φ.. ∩ B = φ
Ejem Ejempl plos os
Vamos a resolver algunos problemas cl´asicos asicos que resultan de la aplicaci´on on directa de la definici´on on de probabilidad y de sus primeras propiedades. Son problemas del mismo tipo que los estudiados en el capitulo 1, pero ahora se pueden puntualizar m´as as las etapas de la soluci´ on. on. Son problemas m´as as biende inter´ int er´es es hist´ his t´orico, orico, pero que tienen importancia por ser representativos de un amplio campo de problemas an´alogos. alogos. Problema 2.1 Se tiran dos dados al azar y se quiere hallar la probabilidad
de que la swna de los puntos obtenidos sea igual a 10.
23
2.5. EJEMPL EJEMPLOS OS
( i, j ), Soluci´ on on El espacio muestral es el conjunto de los 36 pares ordenados (i, donde i puede tomar los valores 1, 1 , 2, . . . , 6 del primer dado y j los valores 1, 1, 2, . . . , 6 del segundo. siempre que s e trate de un problema con dados y no se indique lo contrario, se supone que el dado es correcto y por tanto la probabilidad de que salga cada cara es la misma. En consecuencia, la probabilidad de cada par (i, ( i, j ) ser´a tambi´ tamb i´en en la misma, mism a, cualquiera que sea el par, y seg´un un el No. 3, esta probabilidad ser´a 1/36, puesto que hay 36 casos posibles y la suma de las probabilidades debe ser 1. El problema consiste en hallar la probabilidad del suceso A = (i, j ); i + j + j = 10 , o sea, la probabilidad del suceso formado por los pares (4, (4, 6), (5, (5, 5), (6, (6, 4). Trat´andose andose de 3 pares, todos con la misma probabilidad, por el axioma II, ser´a P ( P (A) = 3/ 3 /36 = 1/ 1/12.
{
}
coincidencias.) Se tienen dos urnas con n Problema 2.2 (Problema de las coincidencias.) Se bolillas cada una, numeradas de 1 a n. n . Se va sacando simult´ aneamente 1 bolilla de cada urna, y se quiere hallar la probabilidad de que, al terminar La extracci´ on de todas todas las bolillas, bolillas, se haya extra extra´ıdo, por lo menos una vez, el mismo n´ umero de cada urna. muestral E est´ est´a formado por todas las matrices de la Soluci´ on on El espacio muestral E forma
i 1 i 2 . . . in j1 j2 . . . jn
(2.14)
donde i donde i 1 , i2 , . . . , in, son los n´umeros umeros entre 1 y n y n que que salen de la primera urna, y j y j 1 , j2 , . . . , jn , son los que salen de la segunda. El n´umero umero total 2 de elementos de E es (n!) (casos posibles) y la probabilidad de cada uno ser´a (n!)−2 . Sea A el conjunto de elementos de E en E en los cuales el n´ umero umero i de la primera fila coincide con el n´umero umero j = i de la segunda, independientemente del lugar en que ocurra la coincidencia. Por ejemplo, A ejemplo, A 3 es el conjunto de las matrices de la forma
... 3 ... ... 3 ...
.
Se trata de calcular P ( P (A1 A 2 . . . A n ). Para ello se aplica la f´ ormula (2.5), que reduce el problema al c´alculo ormula alculo de las probabilidades del segundo miembro. Vamos a buscar el valor de cada sumando:
∪ ∪ ∪
a) Probabilidad P Probabilidad P ((Ai ). El n´ umero de elementos (2.14) en que coinciden umero los n´ umeros umeros i, se calcula de la siguiente manera. Fijado el lugar en que ocurre la coincidencia, los restantes n 1 n´ umeros umeros de la primera y de la segunda filas pueden ser cualesquiera, y por tanto se tienen ((n ((n 1)!)2 casos. Como el lugar lug ar de la coincidencia puede ser tambi´ en en cualquiera, se tienen, en cada caso, n posibilidades m´as. as. Por tanto, A tanto, A,,
−
−
´ AXIOM ATICA ´ 24 24CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE
− 1)!)2 elementos (2.14), y en consecuencia n((n ((n − 1)!)2 1 n P ( P (Ai ) = = , P ( P (Ai ) = = 1.
est´ a compuesto de n de n(( ((n n
(n!)2
n
n
i
b) Probabilidad Probabilidad P ( P (Ai A j ). Fijado Fijadoss los lugares lugares enque enque ocurren ocurren las coincidencias de los n´umeros i umeros i y y j j , los n los n 2 n´umeros umeros restantes pueden 2 ser cualesquiera; por tanto quedan ((n (( n 2)!) casos. Como los lugares de las coincidencias pueden ser cualesquiera de los n, resultan, para cada caso, n caso, n((n 1) posibilidades m´as; as; en total, A total, A1 A j est´a compuesto 2 de ((n ((n 2)!) (n 1) casos y por tanto
∩
−
−
∩
−
P ( P (Ai
− −
∩ A j ) =
P ( P (Ai
i,j
n(n
∩ A j ) =
1)((n − 2)!)2 − 1)((n = (n!)2
n 2
1 n(n
− 1) ,
1 1 = . n(n 1) 2
−
c) An´alogamente, alogamente, 2
P ( P (Ai
((n − 3)!) n(n − 1)(n 1)(n − 2) 1 ∩ A j ∩ Ak ) = ((n = (n!)2 n(n − 1)(n 1)(n − 2)
y por tanto
P ( P (Ai
i,j,k
∩ A j ∩ Ak ) =
n 3
n(n
−
1 1)(n 1)(n
− 2)
=
1 . 3!
Se tiene t iene as´ı como resultado final fina l (procediendo (pro cediendo sucesivamente) que la probabilidad de por lo menos una coincidencia es P = 1
− 2!1 + 3!1 − 4!1 + . . . + (−1)n−1 n1! .
(2.15)
Para n , P = 1 e−1 = 0,6321 . . . (V´ease eas e el Ap´endice end ice II). II ). Es curioso que para valores relativamente peque˜nos nos de n se obtienen ya valores muy pr´oximos oxi mos a estevalor este valor l´ımite. ımit e. As´ As´ı, se tiene tie ne
→ ∞
−
P (1) P (1) = 1, 1, P (2) P (2) = 0, 0,5, P (3) P (3) = 0, 0,666 . . . , P (4) = 0, 0,625 625,, P (5) P (5) = 0, 0, 6333 . . . , P (6) ( 6) = 0, 0,6319 . . . , P (7) ( 7) = 0, 0,6321 . . . y para valores mayores de 7, quedan invariables las cuatro primeras cifras decimales. Este problema se encuentra por primera vez en el libro de P. R. Montmort, titulado Essai d’Analyse sur les jeux de Hasard , publicado en 1708, y presenta muchas variantes. Por ejemplo:
25
2.5. EJEMPL EJEMPLOS OS
a) Dos a) Dos jugadores tienen una baraja de 40 cartas cada uno y van sacando simult´ aneamente las cartas una a una. ¿Cu´ al es la probabilidad de que, al terminar las cartas, los dos jugadores hayan sacado la misma carta por lo menos una vez? Evid Eviden ente teme ment nte, e, la prob probab abil ilid idad ad es la mism mismaa de ante antess P ( P (40) = 0,6321 . . .. Ello Ello quiere quiere decir que repiti repitiend endoo el experim experimen ento to un gran gran n´ umero umero de veces, veces , por p or t´ermino ermino medio habr´a coincidencia 6 veces de cada 10. En cuanto sea n sea n > 2, es m´as as probable de que haya coincidencia de que no la haya. b) Se b) Se tiene un cierto n´ unero de cartas y sus correspondientes sobres. Se mezclan unas y otros, y se va metiendo una carta cualquiera dentro de cada sobre. ¿Cu´ al es la probabilidad de que una carta por lo menos se haya metido en su correspondiente sobre? sobre? El resultado est´a dado siempre por la f´ormula ormula (2.15) y, como vimos, dasiempre pr´acticamente acticamente el mismo valor 0, 0 ,63 . . . en cuanto sea n sea n 5.
≥
nacimientos). En una reuni´ on de r r persoProblema 2.3 (Problema de los nacimientos). En nas, ¿cu´ al es la probabitidad probabitidad de que, por lo menos dos de el las, cumplan a˜ nos el mismo mism o d´ıa? Soluci´ on on Prescindimos de la posibilidad de que alguien haya nacido el 29
de febrero y por tanto suponemos que el a˜no no tiene 365 d´ıas. El espacio muestra1 se compone de los posibles conjuntos de r fechas y tiene por tanto 365r elementos, todos con la misma probabilidad 365−r . En vez del suceso cuya probabilidad se busca, consideremos el opuesto: el de que ning´ un un par de personas cumpla anos el mismo d´ d´ıa. El n´umero umero de elementos de este suceso se calcula asi: la primera persona tiene 365 posibilidades; la segunda, no habiendo nacido el mismo d´ıa que la primera, tiene 364 posibilidades; la tercera persona tiene 363 posibilidades y as a s´ı suces s ucesivament ivamente, e, la l a ultima u ´ ltima persona tiene 365 (r 1) posibilidades. En total, el suceso opuesto consta de 365 364 363 . . . (365 (r 1)) elementos elementos.. Su probabilidad probabilidad es igual a este n´umero umero dividido por 365r , y la probabilidad del suceso objeto del problema ser´a (suponiendo r (suponiendo r > 1)
·
P r = 1
− − ·
− −
. . . (365 − r + 1) − 365 · 364 · 363365 r
Este n´ umero no es facil de calcular directamente. Los siguientes valores umero dan una idea de su comportamiento: No. de personas r personas r= = 5 Probabilidad P = 0.027 r
10 0.117
20 0.411
23 0.507
30 0.706
40 0.89
60 0.99
Se ha se˜ nalado n alado el n´ umero umero r = 23, pues en tal caso la probabilidad es pr´acticamente acticamente 1/2. Obs´ ervese ervese que si las personas son 60 6 0 o m´as, as, la probab probabili ilidad dad es superio superiorr al 99 %, es decir decir hay casi casi certez certezaa de que por
´ AXIOM ATICA ´ 26 26CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE lo menos dos personas cumplan a˜nos nos el e l mismo mis mo d´ıa, ıa, resultado resulta do un u n tanto ta nto sorprendente a primera vista. Polya). Supongamos una urna con Problema 2.4 (Esquema de contagio de Polya). Supongamos n bolillas negras y r rojas. Se saca una bolilla y se devuelve a la urna junto con otras c c bolillas del mismo color. Se desea hallar la probabilidad de que en N = k 1 + k2 extracciones salgan k1 bolillas negras y k2 bolillas rojas. Soluci´ on on Consideremos primero la probabilidad de que las bolillas negras
salgan justo en las k las k 1 primeras extracciones. La probabilidad de bolilla negra en la primera extracci´on on es n/ es n/((n + r ) y la probabilidad de que sea negra en la segunda extracci´on, on, condicionada a que haya sido negra la primera, es (n ( n + c)/(n + r + c). Por tanto, seg´ un (2.7) la probabilidad un de dos negras sucesivas es n n+c . n + r n + r + c
·
Si las dos primeras han salido negras, en el momento de hacer la tercera extracci´ on on la urna contiene n + 2c bolillas negras y r rojas, luego la probabilidad probab ilidad de que la l a tercera tercer a sea tambi´ ta mbi´en en negra negr a es (n ( n+2 +2cc)/(n+ r +2 +2cc), y por tanto la probabilidad de que las tres primeras sean negras es n n+c n + 2c 2c . n + r n + r + c n + r + 2c 2c
·
·
Prosiguiendo este razonamiento se llega a la extracci´on k on k 1 -´esim es ima, a, con co n la probabilidad n n+c n + (k (k1 1)c 1)c . . . n + r n + r + c n + r + (k ( k1 1)c 1)c
−
·
−
de que todas las bolillas hayan salido negras. La probabilidad de que la siguiente sea roja es r/( r/ (n + r + k 1 c). Se a˜ naden naden luego c bolillas rojas, con lo cual la probabilidad de una nueva extraccidn roja es (r + c + c))/(n + r + r + + (kl ( kl + + 1)c 1) c). Procediendo sucesivamente resulta que la probabilidad de que las k las k 1 , primeras extracciones sean negras y las k 2 siguientes sean rojas es n(n + c) . . . (n + (k (k1 1)c 1)c)r (r + c) . . . (r + (k ( k2 (n + r)(n )(n + r + c) . . . (n + r + (N ( N 1)c 1)c)
−
− −
1)c − 1)c
donde N donde N = k 1 + k2 . Si se da otro orden cualquiera en que salgan k1 bolillas negras y k2 rojas, la probabilidad es siempre la misma (como se ve de inmediato por el mismo c´alculo alculo anterior). Por tanto, la probabilidad buscada de
27
2.5. EJEMPL EJEMPLOS OS
que salgan exactamente k1 bolillas negras y k2 rojas, independientemente del orden, ser´a igual a la probabilidad anterior multiplicada por el n´ umero de combinaciones de k umero de k 1 (o k (o k 2 ) objetos tomados entre N entre N de ellos. En definitiva, el resultado es P =
N k1
n(n + c) . . . (n + (k (k1 1)c 1)c)r(r + c) . . . (r + (k ( k2 (n + r)(n )(n + r + c) . . . (n + r + (N ( N 1)c 1)c)
−
− −
− 1)c 1)c
Problema 2.5 Se tiene un conjunto formado por m objetos de una misma
clase M M y por r objetos de una misma clase R. Se eligen al azar s objetos. Se busca la probabilidad de que entre ellos haya x de la cZase M y s x de la clase R.
−
E es el conSoluci´ on on Es un problema t´ıpico de combinatoria. El espacio E es junto de las combinaciones de s de s objetos objetos entre m entre m + r = n = n objetos objetos dados. n Su n´ umero umero es y cada uno de estos sucesos elementales tiene la s
1
−
n misma probabilidad . Se trata de hallar la probabilidad del s subconjunto A, cuyos elementos consten de x objetos de la clase M y s x de la clase R. Las posibles combinaciones de x objetos de la m clase M son y las posibles combinaciones de s x objetos de x
−
−
la clase R son m x
r
s
−x
r
s
x
−
por tanto, el n´ umero umero de elementos de A es
, y la probabilidad buscada
P =
− m x
r
s
n s
x
.
Por ejemplo, si de una clase de 30 alumnos, compuesta de 20 varones y 10 mujeres, se eligen 5 alumnos al azar, ¿cu´al al es la probabilidad de que entre ellos haya exactamente 2 mujeres? Aplicando la f´ormula ormula ultima u ´ ltima donde m = 20, r = 10, s = 5 y x = 3 resulta: P resulta: P = = 2850/ 2850/7917 = 0, 0,36 . . . Problema 2.6 Se desea hallar: a) La probabilidad de sacar por 20 menos
una vez en 6 al arrojar un dado 4 veces; b) La probabilidad de sacar dos 6 por lo menos una vez al lanzar dos dados 24 veces.
´ AXIOM ATICA ´ 28 28CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE Soluci´ on on a) La probabilidad de no sacar el 6 en una jugada es 5/6 y la de
no sacarlo vez alguna en 4 jugadas ser´a (5/ (5 /6)4 , puesto que cada jugada es independiente de las dem´as. as. Por tanto la probabilidad buscada es 4 P 1 = 1 (5/ (5/6) = 671/ 671/1296 = 0, 0,517 . . .
−
b) La probabilidad de no sacar el 6 dos veces en una jugada es 35/36, y la de no sacarlo vez alguna en 24 jugadas ser´a (35/ (35/36)24 . Luego la probabilidad de sacar el 6 dos veces por lo menos una vez ser´a P 2 = 1
(35/36)24 = 0, 0 ,49 . . . − (35/
El problema tiene inter´ es es hist´orico, orico, y se considera como uno de los que dieron origen al c´alculo alculo de probabilida probabilidades. des. Seg´un u n figura en las Oeuvres de Oeuvres de Fermat, p´agina agina 296 (Carta de B. Pascal a P. de Fermat, del 29 de julio de 1654), el problema fue propuesto a Pascal por un tal Caball Caballero ero de Mer´ Mer´e, e, quien quien no se explic explicaba aba que, que, en el caso caso a), la probabilidad fuera mayor que 1/2 y en el caso b) fuera menor que 1/2, siendo siendo as´ as´ı que 4 es a 6 (raz´ on o n del n´ umero umero de tiradas al n´umero umero de posibilidades en el primer caso) como 24 es a 36 (raz´on on del n´ umero umero de tiradas al n´ umero de posibilidades en el segundo caso). Lo curioso es umero que el Caballero de Mer´ e llegaba a esta conclusi´on, on, para par a ´el el parad´ par ad´ojica, ojica, por experiencia experiencia de jugador, jugador, a pesar de ser los resultados resultados muy pr´oximos oximos a 1/2. Esto prueba tanto la precisi´on on a que se puede llegar sin c´alculo, alculo, con un fino esp´ esp´ıritu de observaci´ observaci´on, on, como la extrema coincidencia de la probabilidad calculada a calculada a priori con con la frecuencia obtenida mediante repetidos ensayos. al es la probabilidad de que Problema 2.7 si se lanzan 3 dados al azar, ¿cu´ la suma de los n´ umeros obtenidos sea, respectivamente, 9, 10, 11 ´ o 12? ( i,j,k)) con 1 Soluci´ on on El espacio muestra1 est´a formado por las ternas (i,j,k
≤
esta i,j,k 6. Como todas ellas tienen igual probabilidad, resulta que ´esta 3 es (1/ (1/6) = 1/216. Consideremos el suceso A 9 formado por las ternas tales que i que i + j + j + k = 9. Las temas que lo constituyen son
≤
(1, (1, 2, 6), 6), (1, (1, 3, 5), 5), (1, (1, 4, 4), 4), (2, (2, 3, 4), 4),
(2, (2, 6, 1), 1), (3, (3, 5, 1), 1), (4, (4, 1, 4), 4), (3, (3, 4, 2), 2),
(6, (6, 1, 2), 2), (1, (1, 5, 3), 3), (4, (4, 4, 1), 1), (4, (4, 2, 3), 3),
(2, (2, 1, 6), 6), (5, (5, 1, 3), 3), (2, (2, 2, 5), 5), (2, (2, 4, 3), 3),
(1, (1, 6, 2), 2), (5, (5, 3, 1), 1), (2, (2, 5, 2), 2), (4, (4, 3, 2), 2),
(6, (6, 2, 1), 1), (3, (3, 1, 5), 5), (5, (5, 2, 2), 2), (3, (3, 2, 4), 4), (3, (3, 3, 3). 3).
Tenemos, en total, 25 ternas. Por tanto P ( P (A9 ) = 25/ 25/216 = 0, 0,1157 . . . De modo an´ alogo, formando directamente las ternas, cuya suma es 10, alogo,
29
2.5. EJEMPL EJEMPLOS OS 11 o´ 12 resulta P ( P (A10 ) = P ( P (A11 ) = P ( P (A12 ) = P ( P (A8 ) =
27 = 0,125 . . . , 216
25 = 0, 0 ,1157 . . . 216
Tambi´ en en este problema tiene inter6s histbrico. Figura en Le Opere di Galileo Galilei , vol. XIV, Firenze 1855, bajo el titulo Considerazione sopa il giuoco dei dadi , y fue propuesto a Galileo (1564–1642) por un jugador que se extra˜naba naba de que la probabilidad fuera distinta, siendo as´ as´ı que los cuatro n´umeros umeros 9, 10, 11 y 12 admiten el mismo n´umero umero de descomposiciones en tres sumandos, a saber: 9 = 1 + 2 +6 = 1 + 3 + 5 = 1 + 4+ 4 = 2 + 2+ 5 = 2 + 3 +4 = 3 + 3 + 3 10 = 1 + 3 + 6 = 1 + 4 + 5 = 2 + 2 + 6 = 2 + 3 + 5 = 2 + 4 + 4 = 3 + 3 + 4 11 = 1 + 4 + 6 = 1 + 5 + 5 = 2 + 3 + 6 = 2 + 4 + 5 = 3 + 3 + 5 = 3 + 4 + 4 12 = 1 + 5 + 6 = 2 + 4 + 6 = 2 + 5 + 5 = 3 + 3 + 6 = 3 + 4 + 5 = 4 + 4 + 4
La explicaci´on on est´a, a, como hemos visto, en que las descomposiciones no tienen la misma probabilidad, puesto que por permutaci´on o n de los sumandos pueden provenir de ternas diferentes. U na loter´ lot er´ıa ıa tiene tie ne N N n´ umeros y un solo premio. Un jugador Problema 2.8 Una compra n billetes de un solo sorteo y otro jugador compra un solo billete durante n sorteos n sorteos consecutivos, de manera que los dos jugadores apuestan la misma cantidad. ¿Cu´ al tiene mayor probabilidad de sacar el premio? a formado por los N n´umeros umeros de la loSoluci´ on on El espacio muestra1 est´ ter´ ter´ıa. Al decir que se trata de una loter´ loter´ıa, se sobrentiende que todos los n´ umeros umeros tienen la misma probabilidad probabilidad de ser premiados, premiados, y por tanto esta probabilidad es 1/N 1 /N . Elprimer Elprimer jugador, al comprar comprar n n n n´ umeros, u ´ meros, tendr´ a una probabilidad de ganar el premio igual a P 1 = n/N . n/N . En el caso del segundo jugador se razona de la siguiente manera. La probabilidad de no sacar el premio en el primer sorteo es ( N 1)/N 1)/N ; la probabilidad de no sacar el premio ni en el primero ni en el segundo sorteo ser´a ((N ((N 1)/N 1)/N )2 , y la probabilidad de no sacar ninguna vez el premio en n jugadas ser´a (N 1)/ 1)/N ) N )n . Por tanto, la probabilidad de sacar el premio por lo menos una vez ser´a
− −
− −
− −
P 2 = 1
1 N
− − 1
n
Obs´ ervese ervese ahora que para todo par de enteros N,m enteros N,m > 2, > 2, es m
m 1
m 1
m 1
− − − − − − · − − − 1
1 N
= 1
1 N
1
1 N
1 > 1 N
1 N
1 . N
´ AXIOM ATICA ´ 30 30CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE Escribiendo esta desigualdad para m = n, n miembro a miembro, resulta 1 N
n
− 1
> 1
− 1, . . . , 3, 2 y sumando
− N n
de lo cual se deduce P 2 < P 1 , es decir, el primer jugador tiene una probabilidad mayor de sacar el premio. El resultado es natural. En efecto, el primer jugador s´olo olo puede sacar el premio una sola vez, en tanto tanto que el segundo, segundo, exponiendo exponiendo el mismo dinero, dinero, tiene la posibilidad posibilidad de ganarlo varias veces. Es natural, por tanto, que la probabilidad de sacarlo “por lo menos una vez” sea menor para este ´ultimo ultimo que para el primero. p de dar en el blanco. Se le Problema 2.9 Un tirador tiene la probabilidad p ofrecen dos alternativas: a) Hacer un solo disparo; b) hacer 3 disparos con la condici´ on de dar por lo menos 2 veces en el blanco. ¿cu´ al alternativa es m´ as favorable al tirador? Soluci´ on on La probabilidad de dar 2 veces en el blanco en 3 disparos es
3 p2 (1 p), p), puesto que p que p 2 (1 p) p) es la probabilidad de dar en el blanco 2 veces especificadas y errar la tercera. La probabilidad de dar las 3 veces en el blanco es p3 . Por tanto, la probabilidad de dar por lo menos 2 veces en el blanco en 3 disparos es p3 + 3 p2 (1 p) p) . Para que la segund segundaa alterna alternativ tivaa sea m´ as ventajosa que la primera debe as 3 2 ser, por tanto, p tanto, p + 3 p 3 p (1 p) p) > p, o sea, 2 p 2 p2 3 p + p + 1 < 1 < 0, 0, de donde 1/2 < p < 1. Por tanto, si p si p > 1/ 1 /2, es ventajosa la segunda alternativa, pero si p si p < 1/ 1 /2 es preferible la primera. Si p = p = 1/2 las dos alternativas son equivalentes.
−
−
−
−
−
aneamente al azar 5 dados ¿Cu´ al es la Problema 2.10 Se lanzan simult´ probabilidad de que salgan los n´ umeros 1, 2, 3, 4, 5? a l de los dados debe dar el n´umero umero 1, cu´al al Soluci´ on on Si se especificara cu´al el n´ umero umero 2, etc´ etera, etera, la probabilidad ser´ ser´ıa el producto de las pro5 babilidades respectivas, o sea, (1/ (1 /6) = 1/7776. Pero como el dado que sale 1 puede ser cualquiera (5 posibilidades), el que sale 2 puede ser cualquiera de los 4 restantes (4 posibilidades), el que sale 3, cualquiera quiera de los 3 restantes restantes (3 posibilidades posibilidades), ), etc´ etc´etera, etera, resulta resulta que hay 5 4 3 2 = 120 posibilidades m´as as y por tanto la probabilidad buscada es 120/ 120/7776 = 5/ 5/324 = 0, 0,015.
· · ·
on otros ejemplos simples de proon Otros Problemas. Damos a continuaci´ blemas, de los que se indica ´unicamente unicamente la soluci´on. on. allese la probabilidad de que la diferencia entre el 1. Se lanzan 2 dados, h´
≥ ≥ 3.
mayor y el menor de los n´ umeros respectivos sea
31
2.5. EJEMPL EJEMPLOS OS omputo omputo directo resulta P resulta P = 12/ 12 /36 = 1/ 1/3. Soluci´ on on Por c´
allese la probabilidad de que la suma de los n´ umeros 2. Se lanzan 2 dados, h´ obtenidos sea 7 ´ o 10. 1/12. Por c´alculo alculo directo P (10) = 1/ Soluci´ on on En el problema 2.1 se vio que P (10) resulta an´alogamente alogamente P (7) P (7) = 6/ 6/36 = 1/ 1/6. Por tanto, la probabilidad pedida es P es P = 1/ 1 /12 + 1/ 1/6 = 1/ 1 /4. allese la probabilidad de que la suma de los n´ umeros 3. Se lanzan 2 dados, h´ que salgan sea igual a 7 y, al mimo tiempo, la diferencia entre el mayor y el menor sea igual a 1. Si A es es el suceso “sacar la suma 7” y B el B el suceso “diferencia igual Soluci´ on on Si A a 1” es P ( P (A) = 1/6 (problema anterior) y por c´alculo alculo directo resulta P ( P (B A) = 1/3. Por tanto, P ( P (A B ) = P ( P (A)P ( P (B A) = (1/ (1/6)(1/ 6)(1/3) = 1/18. Obs´ ervese ervese que el hecho de que P ( P (B A) = P ( P (B ) prueba que los sucesos A sucesos A y B no son independientes.
|
∩
|
|
allese la probabilidad de que el 4. Se lanza un dado rojo y otro blanco, h´ n´ umero del rojo sea mayor que el del blanco. Soluci´ on on Contando los sucesos elementales que cumplen con el enunciado
y el total de sucesos elementales resulta P = 15/ 15 /36. 5. Una urna contiene 4 bolillas blancas y 8 rojas y se sacan dos bolillas
sucesivamente, sin reposici´ on de la primera sacada. H´ allese: a) la probabilidad de que las dos bolillas sean blancas; b) la probabilidad de que una sea blanca y la otra roja. a) P a = 1/11; Soluci´ on on a) P
b) P b = 16 16//33.
n monedas, h´ allese la probabilidad de que por lo menos 6. Se lanzan al azar n n
− 1 de ellas salgan cara o salgan cruz.
que n salgan cara es (1/ (1 /2)n y la de que n que n Soluci´ on on La probabilidad de que n
−1 salgan cara es Luego la probabilidad de por lo menos n − 1 salgan cara es la suma (n (n + 1)/ 1) /2n . An´alogamente, alogamente, la probabilidad de por lo menos salgan n salgan n − 1 cruz es tambi´ tamb i´en en (n + 1)/ 1)/2n . La probabilida probabilidad d n(l/2) l/2)n .
buscada es, por tanto, la suma de las dos, o sea, (n ( n + 1)/ 1)/2n−1 . Esto supone n > 2. Paran n = 2 la probabilidad es evidentemente igual a 1.
7. Tres amigos han acordado, si las circunstancias se lo permiten, acudir a
una determinada cita. La probabilidad de cada uno de poder ir es p. ¿Cu´ al es la probabilidad de que acudan dos amigos y falte el tercero? Soluci´ on on P = 3 p2 (1
− p). p).
´ AXIOM ATICA ´ 32 32CAP CAP ´ITULO 2. DEFINICI ON DE PROBALIDIDAD Y PRIMERAS CONSE A contiene x x bolillas blancas e y y bolillas negras. La urna B B con8. La urna A tiene x bolillas blancas e y bolillas negras. Se saca una bolila de cada urna, ¿cu´ al es la probabilidad de que ambas bolillas sean del mismo color? ( xx + yy )/(x + y)(x )(x + y ). Soluci´ on on P = (xx C , las probabilidades respectivas 9. En un tribunal de tres personas A, B y C , de dar un fallo justo son pA , pB y pC . Se desea hallar la probabilidad de que el fall0 del tribunal sea justo, sabiendo que el mismo se toma por mayor´ıa ıa de votos. votos . + pA pC + p + pB pC Soluci´ on on P = p A pB + p
− 2 pA pB pC .
10. Una determinada travesla puede hacerse con aviones bimotores o con
cuadrimotores. Los bimotores pueden votar con un solo motor y los cuadrimotor cuadrimotores es s´ olo con dos. La probabilidad de que un motor falle durante duran te la traves trave s´ıa es p. ¿Cu´ ales aviones son los m´ as seguros? traves´ıa es p 2 y Soluci´ on on La probabilidad deque un bimotor no termine la traves´ la de que no termine la traves´ traves´ıa un cuadrimotor, p cuadrimotor, p 4 + 4 p3 (1 p) p) . Por tanto, suponiendo p suponiendo p < 1, los bimotores son m´as as seguros si p > 1/ 1 /3, y son m´as as seguros los cuadrimotores en caso contrario.
−
on trimotor puede volar con s´ olo el motor central o bien con los 11. Un avi´ dos motores motores laterales. laterales. En una determinada determinada traves traves´ ´ıa, la prob probabilida abilidad d de fallar el motor central es p0 , y la de fallar cada uno de los motores laterates es p1 . ¿Cu´ al es la probabilidad de que el avi´ on no pueda termin ter minar ar la traves trave s´ıa? Soluci´ on on P = p o p1 (2
− p1).
Cap´ıtulo 3
Variables Aleatorias, Funciones de Probabilidad 3.1. 3.1.
Variabl ariables es Aleato Aleatoria riass
Los elementos del espacio muestral E , que hemos llamado sucesos elementales, son elementos abstractos y, en consecuencia, co nsecuencia, tambi´en en lo son los sucesos sucesos o elementos elementos de la σ-´ σ -´ algebra algebra definida en E en E .. La probabilidad P probabilidad P ,, por otra parte, es una funci´on on cuyo dominio es el conjunto de los sucesos y cuyo codominio es el intervalo [0, [0, 1] de los n´ umeros reales. Para poder aplicar el umeros c´alculo alculo matem´ atico, es conveniente que el dominio de la funci´on P atico, P pertenezca tambi´ en en al conjunto de los n´ umeros umeros reales , a fin fin de que que P P sea una funci´ on o n de n´ umeros umeros reales en n´umeros umeros reales.
B
Supongamos, por ejemplo, el experimento aleatorio de lanzar dos monedas y ver si ´estas estas salen cara C o C o cruz F cruz F .. El espacio muestral E muestral E es es el conjunto de los 4 pares: (C, C ), (C, F ) F ), (F, C ), (F, F ) F ).
(3.1)
Si s´olo olo interesa el n´umero u mero de caras, de manera que los dos pares intermedios puedan considerarse equivalentes, podemos introducir la funci´on on X : E definida definida por X por X = n´ n umero u ´ mero de caras, o sea,
→ →
X (C, C ) = 2,
X (C, F ) F ) = X ( X (F, C ) = 1, 1,
Tenemos as´ as´ı un nuevo conjunto
X (F, F ) F ) = 0. 0.
{ 2, 1, 0}, ahora formado por n´umeros umeros 33
34 34CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD reales, a cada uno de los cuales corresponde una probabilidad. As´ As´ı P (2) P (2) = P = P ((C, C ) = 1/4, P (0) P (0) = P = P ((F, F ) F ) = 1/ 1 /4.
P (1) P (1) = P = P ((C, F ) F ) + P ( P (F, C ) = 1/ 1 /2,
Vemos, pues, que la funci´on X on X hace hace corresponder a cada elemento de E un n´ umero real y que, adem´as, umero as, el conjunto de elementos de E de E ,, cuya imagen es uno de estos n´umeros umeros reales, es un elemento de , o sea, es un suceso, y tiene, por tanto, una determinada probabilidad.
B
Las funciones X : E que cumplen cumplen estas estas condicio condiciones nes se llaman llaman variables aleatorias . La palabra variable variable indica que la funci´on on puede tomar diversos valores (en el ejemplo anterior 2, 1, 0) y la palabra aleatoria indica indica que estos valores provienen de un experimento aleatorio (en el ejemplo anterior lanzar dos monedas) y, por tanto, a cada uno de sus valores corresponde una determinada probabilidad. En realidad ser´ ser´ıa m´ as as apropiado llamarlas funciones aleatorias , pero el uso ha sancionado la primera denominaci´on. on.
→ →
En este cap´ıtulo ıtulo 3 vamos a limitarnos a variables variables aleatorias que pueden tomar unicamente u ´nicamente un n´ umero finito de valores. Se llaman variables aleatorias umero finitas. Su definici´on on precisa es la siguiente:
( E, , P ), P ), Definici´ on o n 3. 1. Dado un espacio de probabilidad (E,
B se llama variable aleatoria finita a toda funci´on on X : E →
que pueda tomar unicamente ´unicamente un n´ umero umero finito de valores X = x1 , x2 , . . . , xn , con la condici´on on de que, para cualquiera de ellos, por ejemplo x ejemplo x i , el conjunto X conjunto X −1 (xi ) sea un elemento de .
B
Por cierto que si E es E es finito y aceptamos el convenio de la p´agina agina 17, seg´ un u n el cual B es el conjunto de todos los subconjuntos de E, la ´ultima ultima condici´on on puede suprimirse, y variable aleatoria finita es cualquier funci´on X : E .
→ →
Puesto que el conjunto X −1 (xi ) (elementos de E cuyaimagen E cuyaimagen por X es el n´ umero umero xi ) es un elemento de , tendr´a una cierta probabilidad, que se representa por
B
P ( P (X −1 (xi )) = P ( P (X = x i ) = f ( f (xi ) y se establece la siguiente definici´on. on.
(3.2)
35
3.1. VARIABLES ALEATORIAS ALEATORIAS on f on f definida definida por (3.2) se llama la funDefinici´ on on 3.2. La funci´ ci´ on de probabilidad de probabilidad de la variable aleatoria X . X .
Se dice, abreviadamente, que f que f ((xi ) es la probabilidad de que la variable aleatoria X aleatoria X tome tome el valor x valor x i . Sean x1 , x2 , . . . , xn los valores de X X y pongamos Ai = X −1 (xi ) = a E ; X (a) = x i . Seg´ un (3.2) y los axiomas de la definici´on un on de probabilidad, tendremos
{ ∈
}
n
n
i=1
f ( f (xi ) =
P ( P (Ai ) = P ( P (A1
i=1
∪ A2 ∪ . . . ∪ An) = P ( P (E ) = 1. 1.
Por otra parte, dado que los valores de f son f son probabilidades, es siempre f 0. Las dos relaciones
≥ ≥
n
f ( f (xi ) = 1, 1,
f ( f (xi )
i=1
≥0
(3.3)
se cumplen siempre para cualquier funci´on de probabilidad. Supongamos que los valores de X est´ X est´an an ordenados x1 < x2 < .. . < x n . Muchas veces interesa la probabilidad de que X tome X tome un valor igual valor igual o menor que x que x i . Su valor ser´a i
F ( F (xi ) = P ( P (X
≤ ≤ xi) =
f ( f (xh )
h=1
lo cual da lugar a la siguiente definici´on. on. funci´ on on F F definida por (3.4) se llama la Definici´ on o n 3.2. 3.2. La funci´ funci´ on de distribuci´ on de on de la variable aleatoria finita X finita X .. Obs´ Ob s´ervese erv ese que qu e F ( F (xn ) = 1. lan zan 3 monedas. Anal´ Anal´ıcese la variable varia ble ateaEjemplo 1. Se lanzan toria X = n´ umero de caras.
(3.4)
36 36CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD Soluci´ on. on. El espacio muestral consta de 8 elementos:
(C,C,C ), (C,C,F ), (C,F,C ), (F,C,C ) (C,F,F ), (F,C,F ), (F,F,C ), (F,F,F ) cada uno de los cuales tiene la misma probabilidad 1/8. Los n´umeros umeros posibles de caras son x1 = 0, x2 = 1, x3 = 2, x4 = 3. Los valores de la funci´on o n de probabilidad y de la funci´on o n de distribuci´ on on est´an an dados en la siguiente tabla: X f F
0 1/8 1/8
1 3/8 1/ 2
2 3/8 7/8
3 1/8 1
Obs´ervese, ervese, como detalle detall e que ser´a importante en el pr´oximo oximo cap´ıtulo, que los valores de f de f est´ est´an an dados por la f´ormula ormula f ( f (x) =
3 x
(1/ (1/2)3 ,
x = 0, 1, 2, 3.
Ejemplo 2. Una urna contiene 12 bolitlas numeradas de 1 a 12.
Se saca una bolilla y se quiere analizar la variable aleatoria X X = n´ umero de divisores del n´ umero obtenido. Soluci´ on. on. Se tiene:
No. sacado X
1 1
2 2
3 2
4 3
5 2
6 4
7 2
8 4
9 3
10 4
11 2
12 6
De aqu´ı se deduce dedu ce X −1 (1) = 1 , X −1 (2) = 2, 3, 5, 7, 11 , X −1 (4) = 6, 8, 10 , X −1 (6) = 12
{} {
}
{
{ }
}
X −1 (3) = 4, 9 ,
{ }
con lo cual se puede escribir la siguiente tabla: X f F
1 1/12 1/12
2 5/12 1/2
3 1/6 2/3
4 1/4 11/12
6 1/12 1
Esto nos dice, por ejemplo, que la probabilidad de que un n´umero elegido al azar entre 1 y 12 tenga 3 divisores es f(3) = 1/6, y la probabilidad de que tenga menos de 3 divisores es F(2) = 1/2.
´ 3.2. ESPERANZA ESPERANZA MA MATEM ATICA
37
umeros umeros rereEjempl Ejemplo o 3. Se lanzan 2 dados y sean i, j los n´ sultantes. sultantes. Est´ udiense las variables aleatorias X = i + j + j , Y = m. c. d. (i, j ) = m´ aximo com´ un divisor de i, j . Soluci´ on. on. La probabilidad de cada par ordenado es 1/36. Con-
tando directamente en cada caso el n´ umero de pares que corresumero ponden a cada valor de X de X o de Y de Y ,, resultan resultan las siguientes siguientes tablas: X f F X f F
2 1/36 1/36 9 1/9 15/18 Y f F
3 1/18 1/12 10 1/12 11/12
1 23/36 23/36
4 1/12 1/6 11 1/18 36/36
2 7/36 15/18
5 1/ 9 5/18 12 1/36 1
3 1/12 11/12
6 5/36 15/36
4 1/36 17/18
7 1/6 21/36
5 1/36 35/36
8 5/36 13/18
6 1/36 1
Estas tablas resuelven problemas del siguiente tipo: a) Lanzando dos dados al azar, la probabilidad de que la suma de los puntos sea 7 es f (7) f (7) = 1/ 1/6, y la de que la suma de los puntos sea 10, es F (10) F (10) = 11/ 11/12; b) Dados al azar dos n´umeros umeros entre 1 y 6, la probabilidad de que su m. c. d. sea menor que 5 vale F (4) F (4) = 17/ 17/18.
≤
3.2.
Esperanza Matem´ atica atica
Sea una variabl ariablee aleato aleatoria ria finita finita X X que puede puede tomar tomar los valores alores x1 , x2 , . . . , x , x n con las probabilidades f ( f (x1 ), f ( f (x2 ), . . . , f ( xn ). atica o valor medio Definici´ on on 3.3. Se llama esperanza matem´ de la variable aleatoria X aleatoria X ,, a la expresi´on on n
E (X ) =
xi f ( f (xi ).
(3.5)
i=1
Si f f = constante, puesto que f ( f (xi ) = 1, debe ser f ( f (xi ) = 1/n, /n, y la esperanza matem´atica atica resulta E resulta E ((X ) = (1/n (1/n)) xi , o sea, es igual a la media aritm´etica etica de los valores de X de X ..
38 38CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD M´ as as generalmen generalmente, te, se establece establece la siguiente siguiente definici´ on. on. atica o valor medio Definici´ on on 3.4. Se llama esperanza matem´ de una funci´ on G(X ) de la variable aleatoria X aleatoria X ,, a la expresi´on on E (G(X )) )) =
i = 1n G(xi )f ( f (xi ).
(3.6)
atica de la variable aleatoria atica Ejemplo Ejemplo 1. La esperanza matem´ X = n´umero umero que resulta al lanzar un dado, ser´a E (X ) = 1(1/ 1(1/6)+2(1/ 6)+2(1/6)+3(1/ 6)+3(1/6)+4(1/ 6)+4(1/6)+5(1/ 6)+5(1/6)+6(1/ 6)+6(1/6) = 3, 3,5. atica del n´ umero umero de divisores Ejemplo 3. La esperanza matem´atica de un n´umero umero elegido al azar entre 1 y 12, seg´un un el ejemplo 2 de la secci´on on 1, ser´a E (X ) = (1/ (1 /12)(1 + 2, 2,5 + 3, 3 ,2 + 4, 4 ,3 + 6, 6 ,1) = 2, 2,91 . . .
3.3. 3.3.
Momen Momentos tos de de una Vari Variabl able e Aleato Aleatoria ria
La esperanza matem´atica atica de una variable aleatoria es un dato muy importante de la misma, pero no dice nada acerca de la dispersi´on de sus valores alrededor de esta esperanza o valor medio. Por ejemplo, si X X representa el capital de una persona escogida al azar de un grupo de dos, tanto si la primera posee $99.000 y la segunda $1.000, como si cada una tiene $50.000, el valor medio o esperanza matem´atica atica tiene el mismo valor de $50.000. Igualmente, del hecho de saber que la talla media de un conjunto de personas es 1,67 m no se puede deducir si todas tienen una altura aproximada a este valor medio o si hay algunas muy altas y otras muy ba jas. Otro ejemplo t´ıpico ıpico es el caso en que X representa X representa el caudal de las aguas de un r´ıo durante las 52 semanas del a˜ no. no. Del conocimiento conocimiento de su valor medio medio no se puede deducir si se trata de un r´ r´ıo de caudal aproximadamente constante durante todo el a˜no, no, o bien de un r´ r´ıo muy caudaloso en invierno y casi seco en verano. Por este motivo se han introducido m´as as datos que, en cierta manera, permiten medir esta dispersi´on on de losvalores de X de X alrededor alrededor de su valor medio E (X ). ). Estos datos suelen ser la esperanza matem´atica atica de ciertas funciones G(X ). ). Por ejemplo, se puede tomar G(X ) = X E (X ) = valor absoluto de la diferencia X E (X ). ). Evidentemente esta esperanza nos dar´a una idea de la mayor o menor concentraci´on on de los valores de X X en torno de
− −
| − −
|
39
3.3. MOMENTOS MOMENTOS DE UNA VARIABL VARIABLE E ALEATORIA ALEATORIA
E (X ). ). Sin embargo, como los valores absolutos son de inc´omodo omodo manejo matem´ aticamente, se han preferido otras funciones. Las m´as importantes aticamente, son las potencias de X , que dan lugar a los llamados momentos, que pasamos a definir. Definici´ on on 3.5. 3.5. Se llama momento de orden k de la variable
aleatoria finita X a X a la esperanza matem´atica atica de X de X k , o sea, k
n
ak = E (X ) =
xki f ( f (xi ).
(3.7)
i=1
En particular α1 = E (X ). ). Los momentos centrados centrados se definen por la ecuaci´ on on
µk = E ((X ((X
k
− α1) ) =
n
(xi
i=1
f (xi ). − α1)k f (
(3.8)
Es particularmente importante elmomento centrado de segundo orden, que da lugar a la siguiente definici´on. on. variancia de una variable Definici´ on on 3.6. Se llama varianza o variancia de aleatoria X aleatoria X al al momento centrado de segundo orden. Se represen2 ta por σ por σ o por σ por σ 2 (X ), ), o sea 2
2
V ar( ar(X ) = σ = σ (X ) = E ((X ((X
2
− α1) ) =
n
i=1
(xi
− α1)2 f ( f (xi ). (3.9)
umero umero no negativo σ , ra´ ra´ız cuadrada cuadra da de la Definici´ on on 3.7. El n´ varianza, se llama desviaci´ on tipica o desviaci´ on “standard” de la variable aleatoria X aleatoria X .. Se comprende que σ que σ 2 mida en cierta manera la separaci´on on de los valores 2 de X X de su valor medio α1 . En efecto, como σ es una suma de t´erminos erminos 2 positivos, si σ es peque˜na, na, todos ellos deben ser peque˜nos nos y por tanto, o bien xi α1 es peque˜no no (para todo xi) o bien es peque˜na na la probabilidad 2 f ( f (xi). Al contrario, si σ si σ es grande, ello significa que hay valores de X muy separados de su valor medio. En resumen, la idea que se debe tener de σ 2 es que si tiene un valor peque˜no no se trata de una variable aleatoria X aleatoria X cuyos cuyos
−
40 40CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD valores difieren poco de su valor medio y, si tiene un valor grande, significa que hay valores de X de X alejados alejados de su valor medio. Las siguientes siguientes relaciones relaciones en las cuales a cuales a,, b son constantes son importantes y su demostraci´on, on, en cada caso, es una consecuencia inmediata de las definiciones anteriores, por lo que nos limitamos a enunciarlas:
E (aX + + b) = aE (X ) + b E (X
− α1)
= 0
(3.11)
σ 2 (X ) = E (X 2 )
− (E (X ))))2
σ 2 (aX + + b) = a2 σ 2 (X ).
3.4. 3.4.
(3.10) (3.12)
(3.13)
La Desigu Desiguald aldad ad de Tcheb Tchebyc ycheff heff
Sea H (X ) una funci´on on de la variable aleatoria X X que no tome valores negativos, o sea, H ( H (xi ) 0 para todos los valores xi de X . Sea K > 0 una constante dada, y sean xi (i = 1, 2, . . . , n) n) los valores de X , y xa aquellos valores para los cuales sea H ( H (xa ) K . Tenemos
≥
≥
n
E (H (X )) )) =
H (xi ) f ( f (xi )
i=1
≥
H (xa ) f ( f (xa )
a
≥ K
f ( f (xa )
a
Pero a f ( f (xa ) indica la probabilidad de que H (X ) sea igual o mayor que K que K .. Por tanto se tiene
P ( P (H (X )
≥ K ) ≤ E (H K (X )))) .
(3.14)
En particular, particular, tomando H (X ) = (X α 1 )2 y K = k 2 σ 2 , resulta la llamada desigualdad llamada desigualdad de Tchebycheff , a saber,
− −
1 | − α1| ≥ kσ) kσ ) ≤ 2 . k
P ( P ( X
(3.15)
(3.16)
Poniendo k Poniendo kσ σ = k = k1 , se puede escribir escribi r tambi´en en
P ( P ( X
| − α1| ≥ k1) ≤
σ2 . k12
41
3.5. SUMA DE VARIAB VARIABLES LES ALEATORIAS ALEATORIAS
La desigualdad de Tchebycheff es muy importante, y aunque la hemos demostrado para variables aleatorias finitas, ella es v´alida alida con an´ aloga aloga demostraci´ on para las variables aleatorias discretas y continuas, que se defion nir´ an an en el cap´ cap´ıtulo 6.
3.5. 3.5.
Suma Suma de de Vari Variabl ables es Aleato Aleatoria riass
Sean X e Y dos variabl ariables es aleator aleatorias ias y xi , f ( f (xi ) (i = 1, 2, . . . , n), n), y j , g(y j ) , ( j = 1, 2, . . . , m) m) los valores respectivos de X e Y , Y , junto con sus correspondientes probabilidades.
{
{
}
}
Definici´ on on 3.8. 3.8. Se llama variable aleatoria suma X + Y a la
variable aleatoria que toma los valores xi + y + y j (i = l, 2, . . . , n); n); ( j = 1, 2, . . . , m), m), con las probab probabili ilidad dades es P ( P (xi , y j ) = P ( P (X = xi , Y = y j ) = probabilidad de que X tome X tome el valor xi e Y Y tome el valor y valor y j .
Obs´ervense erven se las l as rela r elacio ciones nes m
n
P ( P (xi , y j = f ( f (xi ),
j=1 j =1
P ( P (xi , y j = g( g (y j )
(3.17)
i=1
puesto que la suma, respecto de j , de la probabilidad de que ocurra ( xi , y j ) es igual a la probabilidad de que ocurra xi , lo que da la primera igualdad. La segunda es an´aloga. aloga. Se tiene el siguiente teorema. Teorema 3. 1. Cualesquiera que sean las variables aleatorias X e Y se
verifica
E (X + + Y ) Y ) = E ( E (X ) + E (Y ) Y )
(3.18)
on y las igualdades (3.17). En Demostraci´ on. on. Basta aplicar la definici´on efecto
42 42CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD
E (X + + Y ) Y ) =
(xi + y j )P ( P (xi , y j ) =
i,j
=
xi
i
=
P ( P (xi , y j ) +
j
j
xi f ( f (xi ) +
i
y j
P ( P (xi , y j ) =
i
y j g(y j ) = E (X ) + E (Y ) Y ),
j
donde las sumas respecto de i van de 1 a n, y las sumas respecto de j van de 1 a m a m.. Con la misma demostraci´ demostraci´ on, on, teni´ endose endose en cuenta (3.10), resulta de manera general que si X 1 , X 2 , . . . , Xn son variables aleatorias cualesquiera y a1 , a2 , . . . , an son constantes, entonces
E (a1 X 1 + a2 X 2 + . . . + an X n ) = a 1 E (X 1 )+ a2 E (X 2 )+ . . . + an E (X n ). (3.19) En la demostraci6n se ha supuesto que X e Y Y son variables aleatorias finitas. Sustituyendo las sumas por series o por integrales, la misma demostraci´ on on prueba que el teorema teorema es v´alido alido tambi´en en para pa ra las la s variables variable s aleatoria ale atoriass discretas discretas y continu continuas as definidas definidas en el cap´ cap´ıtulo 6. La misma observ observaci´ on o n es v´alida alida para los teoremas 3.2, 3.3 y 3.4. El teorema anterior permite resolver algunos problemas de manera m´as f´acil acil que por c´alculo alculo directo. Por ejemplo: ejemplo: Problema 3.1. Dos urnas contienen, cada una, bolillas numeradas de
1 a 10. Se saca una bolilla de cada urna y se suman los n´ umeros obtenidos, ¿cu´ al es el valor medio de la suma? Y son las variables aleatorias que expresan el n´umero umero Soluci´ on. on. Si X e Y son sacado de cada urna, es E ( E (X ) = E ( E (Y ) Y ) = (1/ (1/10)(1 + 2 + . . . + 10) = 11/ 11 /2 y por tanto la soluci´on on es E es E ((X + + Y ) Y ) = 11. Problema 3.2. Una urna contiene 10 bolillas numeradas de 1 a 10. Si
se sacan a la vez dos bolillas ¿cu´ al es el valor medio de la suma? Aqu´ı las variables aleatorias aleato rias X e Y , Y , que expresan respectiSoluci´ on. on. Aqu´ vamente el n´ umero de la primera y segunda bolilla, no son independientes, umero pues no pueden tomar el mismo valor. Sin embargo, puesto que el teorema 3.1 vale igualmente, resulta que la soluci´on o n es la misma de antes, o sea, E (X + + Y ) Y ) = 11.
43
3.5. SUMA DE VARIAB VARIABLES LES ALEATORIAS ALEATORIAS
Antes de seguir necesitamos la siguiente definici´on, que est´a de acuerdo con (2.10). Dos variables aleatorias X e Y cuyas Y cuyas funciones de probabilidad respectivas son f son f y g, g , se dice que son independientes , si, y s´olo olo si, la probabilidad del par (X (X = x i , Y = y j ) es igual al producto de la probabilidad f ( f (xi ) por la probabilidad g probabilidad g (y j ). Es decir, si se cumple P ( P (X = x i , Y = y j ) = f ( f (xi )g(y j ) para todo par de valores x valores x i , y j de las variables. Y son dos variables aleatorias independientes, Teorema 3.2. Si X e Y entonces σ 2 (X + + Y ) Y ) = σ 2 (X ) + σ 2 (Y ) Y ).
(3.20)
Y independientes, se cumple la igualdad Demostraci´ on. on. Siendo X e Y u ultima ´ ltima y por tanto, poniendo E poniendo E ((X ) = α1 y E ( E (Y ) Y ) = β 1 , se tiene σ 2 (X + + Y ) Y ) =
(xi + y j
i,j
=
(xi
i,j
+
f (xi )g(y j ) + − α1)2f (
(xi
i
y como
j
− α1 − β 1)2f ( f (xi )g(y j ) =
g(y j ), E ), E ((X
f (xi ) − α1)f (
− − (yi
β 1 )2 f ( f (xi )g (y j )+
i,j
(y j
β 1 )g (y j )
j
− α1) = 0, E (Y − − β 1) = 0 , resulta (3.20).
En general, de (3.20) y (3.13) resulta, para variables aleatorias independientes :
σ 2 (a1 X 1 + a2 X 2 + . . . + an X n ) = α12 σ 2 (X 1 ) + α22 σ 2 (X 2 ) + . . . + αn2 σ 2 (X n ) (3.21) En particular, si α si α 1 = 1, α 1, α 2 = σ 2 (X
−1,
Y ) = σ 2 (X ) + σ 2 (Y ) Y ). − Y )
(3.22)
44 44CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD
3.6. 3.6.
Product Producto o de Variabl ariables es Alea Aleator torias ias
Y de las vaDefinici´ on on 3.9. 3.9. Se llama variable aleatoria producto X Y
· ·
riables aleatorias X aleatorias X ((x1 , f ( f (xi )), Y )), Y ((y j , g(y j )), a la variable aleatoria que toma los valores x valores x i y j con probabilidades P probabilidades P ((xi , y j ). X e Y son Y son variables aleatorias independientes, se tiene Teorema 3.3. Si X
E (X Y ) Y ) = E (X ) E (Y ) Y ).
·
·
(3.23)
Siendo X e Y e Y independientes, independientes, es P es P ((xi , y j ) = f ( f (xi )g (y j ), Demostraci´ on. on. Siendo X y por tanto E (X Y ) Y ) =
·
xi y j f ( f (xi )g(y j ) =
i,j
xi f ( f (xi )
i
y j g(y j ) = E (X ) E (Y ) Y ).
·
j
Si las variables aleatorias X aleatorias X e Y e Y no no son independientes, conviene adoptar la siguiente definici´on. on. covariancia de dos variables Definici´ on on 3.10. 3.10. Se llama covarianza o covariancia aleatorias X aleatorias X e Y a Y a la expresi´on on cov(X, cov(X, Y ) ((X Y ) = E ((X
)(Y − − α1)(Y − β 1)) =
(xi
i,j
)(y j − β 1 )P ( − α1)(y P (xi , y j ),
donde, como siempre, siempre, E E ((X ) = α1 , E ( E (Y ) Y ) = β 1 . Otra forma de la covarianza, que se obtiene desarrollando E ((X ((X α1 )(Y )(Y β 1 )) = E (X Y α1 Y β 1 X + + α1 β 1 ), es
− −
−
− −
cov(X, cov(X, Y ) Y ) = E (X Y ) Y )
Y ). · − E (X )E (Y )
−
(3.24)
De aqu´ı se deduce que, en el caso de variables aleatorias dependientes, la f´ ormula (3.23) debe ser sustituida por ormula E (X Y ) Y ) = E (X ) E (Y ) Y ) + cov(X, cov(X, Y ) Y ).
·
·
En particular, si X e Y Y son independientes, se verifica
(3.25)
´ 3.7. CORRELACI CORRELACI ON
45
cov(X, cov(X, Y ) Y ) = 0. 0.
(3.26)
Y , independientes o Teorema 3.4. Para dos variables aleatorias X e Y , no, vale σ 2 (X + + Y ) Y ) = σ 2 (X ) + σ 2 (Y ) Y ) + 2 cov( cov(X, Y ) Y )
(3.27)
Demostraci´ on. on. Se tiene
σ 2 (X + + Y ) Y ) =
(xi
P (xi , y j ) = − α1 + y j − β 1)2P (
(xi
− α1)2
i,j
=
i
+ 2
(xi
i,j
P ( P (xi , y j ) +
j
j
(y j
− β 1)2
P ( P (xi , y j )+
i
)(y j − β 1 )P ( P (xi , y j ) − α1)(y
y teniendo en cuenta (3.17) y la definici´on on de covarianza, resulta el enunciado. Problema Problema 3.3. Dos urnas contienen, cada una, 5 bolillas numeradas
de 1 a 5. Si se saca una bolilla de cada urna y se multiplican Los n´ umeros obtenidos, obtenidos, ¿cu´ al es el valor medio de este producto? ariables aleatorias aleatorias X e Y Y que represen representan tan los Soluci´ on. on. Como las variables n´ umeros umeros sacado sacadoss de cada cada urna, urna, son indepen independie dient ntes, es, y E (X ) = E (Y ) Y ) = (1/ (1/5)(1 + 2 + . . . + 5) = 3, resulta E ( E (X Y ) Y ) = 9.
·
Problema Problema 3.4. Una urna contiene 5 bolillas numeradas de 1 a 5. Se
saca dos bolillas al azar y se multiplican los n´ umeros obtenidos. ¿Cu´ al es el valor medio del producto? Y son dependientes y por tanto no Soluci´ on. on. Ahora las variables X e Y puede aplicarse la f´ormula ormula (3.23). Hay que hacer el c´alculo alculo directo. Los casos posibles son (1, (1, 2), 2), (1, (1, 3), 3), . . . , (4, (4, 5), y de cada uno de ellos la probabilidad es 1/10. Por tanto, E tanto, E ((X.Y ) X.Y ) = 8, 8 ,5, resultado resultado distinto distinto del anterior. anterior.
3.7. 3.7.
Corr Correl elac aci´ i´ on on
Puesto que cov(X, cov(X, Y ) Y ) = 0 en el caso en que X e Y Y son independientes, puede decirse que la cov(X, cov( X, Y ) Y ) mide, en cierta manera, el grado de
46 46CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD dependencia entre X entre X e Y . Y . Sin embargo, cov(X, cov(X, Y ) Y ) tiene el inconven inconvenien iente te de depender de las unidades de medida, es decir, si en vez de X e Y Y se toman las variables aX variables aX ,, bY (a, b constantes) es cov(aX,bY cov(aX,bY )) = abcov( ab cov(X, X, Y ), Y ), como resulta inmediatamente de la definici´on. on. Para evitar este inconveniente se ha recurrido al siguiente concepto: llama coeficiente de correlaci´ on entre entre dos variables Definici´ on on 3.11. Se llama coeficiente aleatorias, aleat orias, cuyas desviaci d esviaciones ones t´ıpicas σ (X ), σ ), σ (Y ) Y ) no sean nulas, al cociente
ρ =
cov(X, cov(X, Y ) Y ) . σ (X )σ (Y ) Y )
(3.28)
Este cociente no cambia si se multiplican las variables aleatorias por constantes positivas. Se va a demostrar que 1 ρ 1. Para ello, siendo λ, µ, dos constantes, consideremos
− ≤ ≤
E (λ(X
≥
− α1) + µ(Y − − β 1))2λ2σ2(X ) + µ2σ2(Y ) Y ) + 2λµ 2 λµcov( cov(X, X, Y ) Y ). (3.29)
Por ser la esperanza matem´atica atica un cuadrado, cuadrado, esta expresi´ expresi´ on on es siempre 0, y por tanto σ 2 (X ) σ 2 (Y ) Y )
·
(cov(X, Y )) Y ))2 ≥ 0 − (cov(X,
(3.30)
de donde: a) ρ a) ρ 2
≤ 1, y por tanto −1 ≤ ρ ≤ 1. b) Si ρ Si ρ = = ±1, existen valores λ valores λ = = λ λ 0 , µ = µ = µ µ 0 , (no ambos nulos), para los cuales (3.29) se anula, o sea E sea E ((λ0 (X − α1 ) + µ0 (Y − − β 1))1 = 0, lo que exige
que sea
λ0 (X
− α1) + µ0(Y − − β 1) = 0.0 .
(3.31)
Esta igualdad significa que los unicos ´unicos pares de valores xi , y j de las variables X riables X ,, Y que tienen probabilidad probabilidad distinta distinta de cero de ocurrir, ocurrir, son los que verifican λ0 (xl α1 ) + µ + µ0 (y β 1 ) = 0, es decir, los pares (x ( xi , y j ) son coordenadas de puntos pertenecientes a la recta (3.31). Esto implica que entre X e Y hay Y hay una correspondencia funcional lineal, o sea, se tiene el siguiente teorema.
−
−
´ GENERATRIZ DE MOMENTOS 3.8. FUN FUNCI CI ON
47
on es un n´ umero real ρ comTeorema 3.5. El coeficiente de correlaci´ prendido entre 1 y +1 y +1,, tal que ρ ρ = dependencia funcional lineal.
X e Y existe Y existe una ±1 implica que entre X
− −
Si X e Y Y son independien independientes, tes, hemos visto que ρ = 0. Sin Sin em emba barg rgo, o, esta condicidn necesaria no es suficiente para la independencia de las variables X e Y . Y . Consideremos el siguiente ejemplo. Sea U U la variable aleatoria que representa el n´umero u mero de un dado lanzado al azar, y sea V la variable an´aloga aloga para un segundo dado, independiente del primero. Consideremos las variables aleatorias X = U + V e Y = U V . V . Tendremos 2 2 2 2 E (X Y ) Y ) = E ( E (U V ) = E ( E (U ) E (V ) = 0. Por otra parte, tambi´ enes enes E (Y ) Y ) = E (U ) U ) E (V ) V ) = 0. Por consiguiente, seg´un un (3.25) es cov(X, cov(X, Y ) Y ) = 0, de donde ρ donde ρ = = 0. Sinembargo, X Sinembargo, X e e Y no Y no son independientes, pues ellas toman valores pares o impares a la vez.
· ·
3.8. 3.8.
−
−
− −
−
Fun unci ci´ o on ´n Generatriz de Momentos
on generatriz de momentos o, momentos o, simpleDefinici´ on on 3.12. Se llama funci´ mente, funci´ on generatriz generatriz de la variable aleatoria X , a la esperanza matem´ atica atica de la funci´on e on e Xt , o sea, a la funci´on on de t de t definida por
Ψ(t Ψ(t) = E (e
Xt
n
)=
ex t f ( f (xi ). i
(3.32)
i=1
El nombre proviene de que, conocida la funci´on on Ψ(t Ψ(t), sus derivadas sucesivas en el punto t = 0, son los momentos de X . X . En efecto, se tiene
Ψ(0) =
f ( f (xi ) = 1
i
Ψ (0) =
xi f ( f (xi ) = E (X ) = α 1
i
Ψ (0) =
xi2 f ( f (xi ) = E ( E (X 2 ) = α 2
i
y, en general, Ψ(r) (0)
i
xri f ( f (xi ) = E (X 2 ) = α r .
48 48CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD Ψ X (t), Ψ Y (t (t) son las funciones generatrices de las vaTeorema 3.6. Si Ψ riables aleatorias independientes X X e Y , Y , y Ψ Ψ X +Y (t (t) es la funci´ on generatriz de la variable aleatoria X + + Y , Y , se verifica
ΨX +Y (t (t) = ΨX (t) ΨY (t (t).
·
(3.33)
en en lo Demostraci´ on. on. En efecto, si X e Y son independientes, tambi´ ser´an e an e Xt y e ( Y t), y por tanto, seg´un un (3.22)
)t ΨX +Y (t (t) = E (e(X +Y )t ) = E ( E (e( X t)E ( Y t)) = E (eXt )E (eY t ) = Ψ X (t)ΨY (t (t). (3.34)
Repitiendo el razonamiento, resulta que si X 1 , X 2 , . . . , Xn , son variables aleatorias independientes, se tiene
ΨX +X +...+ ...+X (t) = Ψ X (t) . . . ΨX (t). 1
2
n
1
n
(3.35)
Por la definici´on on (3.32), la funci´ on de probabilidad determinala funci´on on on genera generatri trizz de mom momen entos tos.. Ahora Ahora se plantea plantea el proble problema ma inve inverso rso:: Dada Dada la funci´ on on generatriz Ψ(t Ψ(t), ¿queda un´ un´ıvocamente determinada la funci´ on o n de probabilidad f ? f ? Este es un teorema matem´atico atico dif´ dif´ıcil. Se trata de buscar una f´ ormula ormula de inversi´on on que permita despejar las f ( f (xi ) en (3.32). Se puede demostrar que bajo ciertas condiciones muy amplias, que se cumplen siempre en los casos usuales, la inversi´on on es posible, es decir, la funci´on on generatriz determina determi na un´ un´ıvocamente ıvocam ente la funci´on on de probabilidad. Nosotros admitiremos este resultado sin demostraci´ demostraci´ on. on. Aunque m´as as adelante ya veremos otras aplicaciones del ´ultimo ultimo teorema, vamos ahora a aplicarlo a la soluci´on on de un problema cl´asico asico de De Moivre (The doctrine of chances , 1718). n + 1 bolillas numeradas 1, 1 , 2, . . . , n+ n+ Problema 3.5. Una urna contiene n 1. Se saca r veces veces una bolilla y se devuel devuelve ve a la urna urna despu despu´ ´es es de anotar anotar su n´ umero. Se desea saber la probabilidad de que la suma de los n´ umeros as´ as´ı obtenidos sea igual a un valor dado s. olo si r Soluci´ on. on. La probabilidad es distinta de cero s´olo
≤ s ≤ r( r (n + 1);
supongam supongamos os que esta esta condic condici´ i´ on on se cumple cumple.. Consid Considere eremos mos las r variables aleatorias X 1 , X 3 , . . . , Xn correspondientes a los n´ umeros de cada extracci´on. umeros on. Cada una de estas variables puede tomar, independientemente una de otra,
´ GENERATRIZ DE MOMENTOS 3.8. FUN FUNCI CI ON
49
los valores 1, 1 , 2, . . . , n + n + 1, con probabilidad 1/ 1 /(n + 1) para cada uno. Por tanto, tanto, para cualquier cualquier X X i , es
Ψx (t) = i
1 +1)t (et + e2t + . . . + e(n+1)t ) n+1
y por consiguiente, seg´ un un (3.35),
ΨX +X +...+ ...+X (t) = 1
n
2
1 +1)t r (et + e2t + . . . + e(n+1)t ) . (n + 1)4
(3.36)
Por otra parte, seg´ un un la definici´on on de funci´on on generatriz, es
r(n+1)
ΨX +X +...+ ...+X (t) = 1
2
n
eht P h
(3.37)
h=r
donde P h es la probabilidad de que la suma de las r bolillas sea h. Por consiguiente, el coeficiente de est en la expresi´on on (3.36) es la probabilidad buscada. Elevando la potencia r -´ esima esima del segundo segundo miembro miembro de (3.36) y juntando t´erminos erminos semejantes se obtiene el resultado
P s =
1 (C s−1,r−1 (n + 1)r
− C r,1 r,1 C s−n−2,r−1 + C r,2 r,2 C s−2n−3,r−1 − . . .). (3.38)
donde C donde C i,j umeros umer os combina co mbinatori torios os (v´ ( v´ease eas e el Ap´ A p´endice end ice I) I ) y la l a suma su ma i,j indican los n´ alternada debe proseguirse mientras ninguno de los ´ındices ındices resulte negativo ni el segundo mayor que el primero. Ejemplo 1. Se 1. Se desea hallar la probabilidad de sacar la suma 9 arrojando 3 dados. Hay que hacer s = 9, r 9, r = 3, n = 5 en la f´ormula ormula general y resulta 3 P 9 = (1/ (1/6 )(C )(C 3,2 C 3,1 C 2,2 ) = 25/ 25/216 de acuerdo con el problema 2.7.
−
Ejemplo 2. Se desea saber cu´al al es la probabilidad de sacar la suma 15 arrojando 6 dados. Hay que tomar s = 15, r = 6, n = 5, y resulta P 15 15 = 6 (1/ (1/6 )(C )(C 14, C 6,1 C 8,5 ) = 833/ 833/23328. 14,5
−
50 50CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD
3.9. 3.9.
Fun unci ci´ on o ´n Cara Caract cter er´ ´ısti ıstica ca
La funci´on on generatriz puede definirse igualmente para variables aleatorias con una infinidad numerable de valores. Basta, para ello, sustituir la suma de (3.32) por una serie desde i = hasta i = . En este caso, sin embargo, i = 1 hasta i la funci´ on on generatriz s´olo olo tendr´a sentido si la serie resulta convergente. Si en Xt lugar de e de e , se toma e toma e iXt , donde i donde i es la unidad imaginaria, la convergencia es siempre m´as as segura. Por otra parte, en el caso de variables aleatorias continuas, que veremos mds adelante, la sustituci´on on de e de eXt por e por eiXt presenta todav´ todav´ıa otras ventaj ventajas as (poder (p oder aplicar, por p or ejemplo, la f´ ormula ormula de inversi´on on de Fourier). De aqu´ aqu´ı que en los tratados de probabilidades desde un punto de vista superior, en vez de la funci´on on generatriz generatriz demomentos, demomentos, se suele utilizar la llamada funci´ llamada funci´ on caracte carac terr´ısti ıs tica ca , definida por
∞
ψ (t) = Ψ(it Ψ( it)) = E (eiXt) eiXt). Como nosotros no vamos autiiizar esta funci´on on caracter caracte r´ıstica, ıstica , nos contentamos con la definici´on. on.
3.10 3.10..
Regr Regres esi´ i´ on on
Sean dos variables aleatorias X aleatorias X e Y Y y sea f sea f ij f (xi , y j ) la probabilidad ij = f ( del par X par X = x i e Y = y j . De manera an´aloga aloga a (2.8), se tiene ahora f ( f (xi , y j ) = h( h (xi )f ( f (y j xi ),
h(xi ) =
|
f ij ij
(3.39)
i
donde f ( f (y j xi ) representa la probabilidad de que sea Y = y j , condicionada condicionada a X = x i, y h(xi ) es la probabilidad de X = x i . Para cada valor de X , por ejemplo X ejemplo X = x i , la esperanza de Y es Y es un cierto valor
−
|
yi =
j
y j f ( f (y j xi ).
|
Se tiene as´ as´ı una funci´on y on y cuyo dominio es el conjunto de valores de X , X , que se llama la regresi´ on de Y de Y sobre X sobre X .. Se trata de aproximar esta funci´on on mediante una expresi´on on lineal y = a + bx. bx. Para ello se aplica ap lica el m´etodo etod o de los m´ınimos cuadrados, cuadra dos, que consiste consist e en determinar las constantes a constantes a y b de manera que la esperanza
´ 3.10.. REGRES 3.10 REGRESI I ON
E = =
51
i
2
y j f ( f (y j xi )
j
| − a − bxi
h(xi )
sea m´ınima. Para determinar los valores de a y b que hacen m´ınima E , deben ser nulas las derivadas parciales de esta expresi´on respecto de a de a y b y se tienen las ecuaciones (teniendo en cuenta (3.39) y que f ij ij = 1)
i,j
E (Y ) Y )
− a − bE (X ) = 0,0 ,
· − aE (X ) − bE (X 2) = 0
E (X Y ) Y )
donde, aplicando (3.12) y (3.24)
a = E = E ((Y ) Y )
cov(X, Y ) Y ) E (X ), − cov(X, σ 2 (X )
b =
cov(X, cov(X, Y ) Y ) . σ (X 2 )
Estos son los coeficientes de la llamada recta llamada recta de regresi´ on de Y de Y sobre X sobre X .. El coeficiente b coeficiente b se llama coeficiente llama coeficiente de regresi´ on .
52 52CAP CAP ´ITULO 3. VARIABLES ALEATORIAS, ALEATORIAS, FUNCIONES DE PROBABILIDAD
Cap´ıtulo 4
Distribuci´ on on Binomial, Ley de los Grandes N´ umeros umeros 4.1. 4.1.
Dist Distri ribu buci ci´ on o ´n Binomial
En 1713 se public´o un libro famoso y fundamental en la historia del c´alcualculo de probabilidades, titulado Ars titulado Ars Conjectandi , cuyo autor, Jacobo Bernoulli, hab´ hab´ıa fallecido fallec ido ocho a˜ nos antes. En este libro Bernoulli introduce el siguiennos te modelo mo delo probabil´ıstico, ıstico, llamado de las “pruebas repetidas” repetida s” o “pruebas de Bernoulli”. Supongamos una urna con n1 bolillas blancas y n2 bolillas negras. La probabilidad probabilidad de sacar una bolilla blanca es p es p = = n n 1 (n1 + n2 ) y la de sacar una bolilla negra es q es q = n = n 2 (n1 + n2 ). Se hacen n hacen n pruebas, pruebas, devolviendo cada vez la bolilla a la urna para que todas to das las pruebas est´en en en las mismas condiciones. Se desea hallar la probabilidad de que en el curso de tales pruebas salgan r bolillas blancas y n r bolillas negras (independientemente del orden en que salgan). salgan).
−
La soluci´on o n es f´acil. acil. Si se pidiera la probabilidad del mismo problema, pero dando el orden en que van saliendo las bolillas, como en cada extracci´on la probabilidad de blanca es p y la de negra es q q y se trata de sucesos independientes, seg´ un un la relaci´on on (2.12) aplicada sucesivamente, resulta que laprobabilid laprob abilidad ad buscada ser´ ser´ıa p ıa p r q n−r . Si el orden no interesa, hay que sumar n esta probabilidad para todas las ordenaciones posibles, que son , puesto r que las r las r bolillas bolillas blancas pueden distribuirse entre las n las n extracciones. Resulta as´ as´ı que qu e la probabilidad probab ilidad buscada es
53
´ BINOMIAL, LEY DE LOS GRANDES N UMEROS ´ 54 54CAP CAP ´ITULO 4. 4. DISTRIBUCI DISTRIBUCI ON
n pr q n−r . r
P r =
(4.1)
Esta funci´ on de probabilidad que, unavez dados n y p, tiene un valor on determinado para cada r cada r,, se llama la funci´ on on binomial, por ser sus valores iguales a los t´erminos erminos del desarrollo de ( p + q )n por la f´ormula ormula del binomio de Newton. Puesto que p + q + q = = 1, esto prueba, adem´as, as, que P r = 1 (la
r
suma extendida a i a i = = 0, 1, . . . , n), n), como debe ser seg´un un la primera primera condici´ on on (3.3). El modelo o esquema de Bernoulli tiene muchas aplicaciones. Para enunciarlo de manera general, dentro del sistema axiom´atico del cap´ cap´ıtulo 2, podemos establecer que todo esquema de Bernoulli consta de los siguientes elementos elementos : a) Un experimento experimento aleatorio del cual pueden resultar un ´ un ´exito A con probabilidad p probabilidad p o un fracaso un fracaso B con probabilidad q probabilidad q = = 1 p; p; b) unn´ umero umero n de pruebas que, anotando cada vez si tiene lugar A o A o B B,, da lugar al espacio espacio n muestral E muestral E formado formado por los 2 elementos siguientes
−
AAA...A, AA...AB, AA...BA, ..., BB...B cada uno de los cuales consta de n letras, elegidas entre A y B , de todas las maneras posibles, teniendo en cuenta el orden; c) el n´umero r de d e ´exit ex itos os A en cada prueba, lo que da origen a la variable aleatoria X , X , cuyos valores posibles son 0, 0, 1, 2, . . . , n con las probabilidades respectivas P 0 , P 1 , . . . , Pn dadas por (4.1). Todo proceso en las condiciones anteriores se dice que sigue la distribuci´ on binomial , o la ley binomial , con funci´on on de probabilidad (4.1). Es costumbre costumbre adoptar la notaci´ notacion o´n
b(r ; n, p) =
n pr q n−r , r
r = 0, 1, . . . , n
(4.2)
y tambi´en en es muchas veces util u ´ til la funci´on on de distribuci´on on binomial, a saber,
F ( F (x) =
r x
≤
n pr q n−r r
que da la probabilidad de que el n´umero ume ro de ´exitos exi tos A sea
(4.3)
≤ x.
´ BINOMIAL 4.1. DISTRIBUCI DISTRIBUCI ON BINOMIAL
55
Para ver c´omo omo var´ var´ıa la funci´on on b(r; n, p), dados p y n, formemos el cociente b(r ; n, p) (n = b(r 1; n, p)
−
− r + 1) p 1) p (n ( n + 1) p 1) p − r =1 + rq
rq
Distingamos dos casos: a) Existe un entero r = r = r 0 tal que (n (n + 1) p = p = r r 0 . En este caso, para este valor r 0 es b es b((r0 ; n, p) = b( b (r0 1; n, p) y para valores r > r 0 es b es b((r; n, p) < b(r 1; n, p) (o sea b sea b es es decreciente), en tanto que para valores r < r0 es b(r; n, p) > b(r 1; n, p) (o sea, b es tambi´ tamb i´en en decrecie decr eciente nte hacia la izquierda). En resumen, b(r ; n, p) tiene dos valores iguales, correspondientes a r a r 0 = (n + 1) p y p y a r 0 1, para los cuales toma el valor m´aximo. aximo. b) No existe un entero r0 que sea igual a (n ( n + 1) p 1) p.. En este caso, sea r0 el u unico ´ nico entero compredido entre (n (n + 1) p 1) p 1 y (n + 1) p 1) p.. Este ser´a el unico u ´ nico valor de para el cual b(r0 1; n, p) < b(r0 ; n, p) > b(r0 + 1; n, p), en tanto que para r < r0 , la funci´on on b(r ; n, p) crece y para r > r0 decrece. Es decir, b(r; n, p) tiene en este caso un solo valor r valor r 0 en el que toma su valor m´aximo. aximo. Como veremos m´as as adelante, este valor m´aximo aximo es aproximad aproximadamen amente te igual a 1/(2πnpq (2πnpq ). ). En las figuras 4.1 y 4.2 se dan ejemplos de ambos casos.
−
−
− −
−
−
0,4 0,3 0,2 0,1 0
1
2
3
4
5
6
7
8
r
Figura 4.1: b 4.1: b((r ; 9, 0,4) El c´alculo alculo de P r no es f´acil acil para valores un poco grandes de n y r. Se pueden aplicar tablas de los n´ umeros combinatorios o tablas de factoriales umeros (v´ease ease el Ap´endice endice III) II I) o la f´ormula ormula de Stirling (Ap´endice endice I). Sin embargo, en general, es m´as as pr´actico actico sustituir la ley binomial por otra ley aproximada, como la de Poisson o la normal, que veremos en el pr´oximo oxi mo cap´ıtulo. ıtu lo. Problema Problema 4.1. Se lanza una moneda 20 veces. Se busca: a) la pro-
babilidad de sacar 14 veces cara; b) el n´ umero m´ as probable de caras y la probabilidad de que salga este n´ umero.
´ BINOMIAL, LEY DE LOS GRANDES N UMEROS ´ 56 56CAP CAP ´ITULO 4. 4. DISTRIBUCI DISTRIBUCI ON
0,4 0,3 0,2 0,1 0
1
2
3
4
5
6
7
8
r
Figura 4.2: b 4.2: b((r ; 10 10,, 0,25) alculos pueden hacerse directamente para darse cuenta alculos Soluci´ on. on. Los c´ de lo engorrosos engorrosos que son, pero aqu´ aqu´ı han sido hechos mediante la tabla de factoriales. a) P a) P 1 4 =
20 14
1 2
20
=
20! 38760 = = 0, 0 ,036 . . . 6! 14! 220 1048576
b) La probabilidad m´axima axima corresponde a r a r = np = np = = 10, y es
P 10 10 =
4.2.
20 10
1 2
20
=
184756 = 0, 0 ,176 . . . . 1048576
Esperanza Matem´ atica atica y Varianza Varianza de una VaVariable Binomial
En un esquema de Bernoulli podemos siempre considerar lavariable aleatoria X B , llamada variable de Bernoulli , que solamente puede tomar dos valores: el x el x 1 = 1, con probabilidad p probabilidad p,, si el experimento aleatorio resulta un ´exito, exito, y el valor x2 = 0, con probabilidad q , si el mismo resulta un fracaso. Entonces la variable aleatoria binomial X es X es la suma de n variables de Bernoulli. La esperanza matem´atica atica de X de X B es E es E ((X B ) = 1 p + 0 q = p = p.. Por tanto, seg´ un un el teorema 3.1, es
·
·
57
4.3. TEOREMA TEOREMA DE BERNOULLI BERNOULLI
E (X ) = np.
(4.4)
2 ) p2 = p p2 = pq , Por otra parte, es σ es σ 2 (X B ) = E (( E ((X X B p) p)2 ) = E (X B y seg´ un un el teorema 3.2, trat´andose andose de variables aleatorias independientes (puesto que cada experimento es independiente de los anteriores), resulta
−
−
σ 2 X = npq.
−
(4.5)
Estas f´ ormulas ormulas (4.4) y (4.5) se pueden tambi´ en en obtener o btener directamente. En efecto, efecto , pru´ebese, ebese , como com o ejercicio ej ercicio,, que
∞
rb( rb(r; n, p) = np,
r=0
∞
r=0
(r
np)2 b(r; n, p) = npq. − np)
(4.6)
La funci´on on generatriz de la variable binomial X , X , seg´ un un la definici´on on 3.12, es
Ψ(t Ψ(t) =
∞ ert
r=0
n pr q n−r = (et p + q )n . r
(4.7)
De aqu´ı se deduce, ded uce, E (X ) = Ψ (0) = np = np = = α α 1 2 E (X ) = Ψ (0) = n = n((n 1) p2 + np = np = α α2
−
y por tanto, nuevamente σ 2 (X ) = E ( E (X 2 )
4.3. 4.3.
− (E (X ))))2 = npq.
Teorema eorema de Berno Bernoull ullii
Apliquemos la desigualdad de Tchebycheff (3.15) a una variable binomial. Siendo Siendo E ( E (X ) = α 1 = np = np,, σ 2 = npq , resulta
| − np| ≥ k√ npq ) ≤ k12
P ( P ( X
(4.8)
´ BINOMIAL, LEY DE LOS GRANDES N UMEROS ´ 58 58CAP CAP ´ITULO 4. 4. DISTRIBUCI DISTRIBUCI ON que puede escribirse
P
X p n
pq n
− ≥ ≤ k
1 k2
(4.9)
Dado un n´ umero positivo cualquiera , siempre se puede determinar k umero de manera que sea pq k > , n
k>
n pq
(4.10)
con lo cual (4.9) se puede escribir
P
X p > n
−
<
pq . 2 n
(4.11)
Recordemos que X que X denota denota el n´ umero umer o de ´exitos exit os enuna e nuna suces s ucesi´ i´on on de pruebas de Bernoulli, de manera que X/n es X/n es igual a la frecuencia relativa con que aparece aparec e el ´exito exito en n en n pruebas. Por consiguiente, observando que el segundo miembro en (4.11) tiende a 0 para n , queda demostrado el siguiente teorema fundamental.
→ ∞
on de pruebas de Bernoulli, dado Teorema de Bernoulli. En una sucesi´ un n´ umero positivo positivo arbitrario, la probabilidad de que la frecuencia relativa del ´exito exi to en n pruebas difiera de la probabilidad p en una cantidad mayor que , tiende a cero cuando n .
→∞
Conviene adoptar la siguiente definici´on. on. aleatoria Z n , dependiente de un entero n, n , Definici´ on on 4.1. Una variable aleatoria Z se dice que converge converge en probabilidad al l´ımite p ımite p,, si P si P (( Z n p > h) h ) tiende a cero, para n , cualquiera que sea h > 0.
→∞
| −|
Con esta definici´on, on, el teorema de Bernoulli se puede enunciar brevemente: En toda sucesi´ on de pruebas de Benoulli, la frecuencia relativa X/n X/n converge en probabilidad a p. Este teorema es uno de los m´as as importantes de la teor´ teor´ıa de las probabilidades. lidades. Por su intermedi intermedioo quedan vinculados vinculados los conceptos conceptos de probabilidad probabilidad experimental o frecuencia y el de probabilidad te´orica. orica. Por ejemplo, en el lanzamiento de una moneda, la probabilidad de salir cara es p = 1/2. Si se
59
4.3. TEOREMA TEOREMA DE BERNOULLI BERNOULLI
hace el experimento n veces y se divide el n´umero de veces que ha salido cara por n por n,, el teorema de Bernoulli dice que este cociente converge (en probabilidad) a 1/2. Decir “en probabilidad” significa que si bien nunca puede haber seguridad absoluta, ello ha de ocurrir con una probabilidad tan cerca de 1 como se quiera. En Vez de (4.11), es ´util util a veces la relaci´on on equivalente
P
X p < n
−
< 1
− pq . 2n
(4.12)
´ (4.12). En tal caso, A veces no se conoce p para poder aplicar (4.11) O 2 2 2 observemos que ( p ( p q ) 0, de donde p + g 2 pq , y por tanto p2 + g2 + 2 pq 4 pq ,sea ,sea ( p ( p + q )2 4 pg, pg , y como p como p + q = = 1, resulta que siempre se verifica la desigualdad
−
≥ ≥
≥ ≥
≥
pa
≤ 14
(4.13)
de manera que, tanto en (4.11) como en (4.12), en el segundo miembro se puede sustituir pq sustituir pq por por 1/ 1 /4. Veamos los siguientes ejemplos. Problema 4.2. Se lanza una moneda 1.000 veces. Se desea una acota-
ci´ on de la probabilidad de que salga cara un n´ umero de veces comprendido entre 450 y 550. 0 ,45 Soluci´ on. on. Se quiere que sea 0,
≤ X/n ≤ 0,55, o sea |X/ X/1000 1000 − 0,5| ≤
0,05; en (4.12) es es = 0,05, 05, n n = = 1000, p 1000, p = q = q = = 1/2, con lo cual se tiene
P
X 1000
≤ ≥
− 0,5
0,05
1
1 = 0, 0 ,9, − 4 · (0, (0,05)2 · 1000
o sea que hay hay una probabili probabilidad dad igual igual o superio superiorr al 90 % de que el n´umero umero de caras est´e comprendido entre 450 y 550. antas veces hay que lanzar un dado para que, con Problema Problema 4.3. ¿Cu´ probabilidad 0,9, la freouencia relativa con que salga el 1 difiera de 1/ 1 /6 en no m´ as de 0,01 01? ?
≥ ≥
Soluci´ on. on. Se quiere que sea X/n
|
− p| ≤ 0,01. Aplicando (4.12) en el
caso p caso p = = 1/6, q 6, q = = 5/6, 6, = 0,01, resulta que debe ser
´ BINOMIAL, LEY DE LOS GRANDES N UMEROS ´ 60 60CAP CAP ´ITULO 4. 4. DISTRIBUCI DISTRIBUCI ON
a
de donde, n donde, n
−
5 104 36 36n n(0, (0,01)2
·
≥ 0,9
≥ 13.888.
Problema 4.4. Se quiere saberla frecuencia de fumadores en una cierta
poblaci´on on (o sea, el cociente de dividir el n´umero umero de fumadores por el total de la poblaci p oblaci´ on). o´n). Para ello se eligen n eligen n personas personas al azar y se halla la frecuencia de las que qu e fuman. fuma n. Se desea saber s aber qu´e valor debe deb e tener n para n para que esta frecuencia no difiera de la real en m´as as de 0,005, con una probabilidad 0,95.
≥
Soluci´ on. on. En este caso no se conoce p, de manera que tomaremos la
acotaci´ on on (4.13). Siendo = 0,005 = 5 10−3 , se deduce de (4.12) que debe ser
·
6
1 de donde n donde n
95,, − 4 · 1025 · n ≥ 0,95
≥ 200.000.
Esta acotaci´ on on es excesiva. M´as as adelante, adelante, despu´ despu´es es de estudiar estudiar la distribuci´ on normal (problema 6.3) se ver´a que puede reducirse mucho. Las on desigualdade desigualdadess (4.11) ´o (4.12) no deben, casi nunca, aplicarse en este tipo de problemas, pues las acotaciones resultantes son siempre, en general, mucho peores que las que pueden obtenerse p or otros m´etodos. etodos. Sin embargo, desde el punto de vista te´orico orico estas desigualdades son fundamentales.
4.4. 4.4.
Ley Leyes de de los los Gra Grand ndes es N´ Numeros u ´meros
El teorema de Bernoulli pertenece a un tipo general de teoremas conocidos con el nombre de “leyes de los grandes n´umeros”. umeros”. Ellos difieren difieren entre entre s´ı en el grado gra do de generalidad, general idad, pero son siempre s iempre teoremas teorema s l´ımites ımites que relaciore lacionan frecuencias con probabilidades o con valores medios. Vamos a dar otro de ellos. Consideremos un dado. Si X Si X es es la variable aleatoria que indica los puntos de sus caras, es E ( E (X ) = 3, 3 ,5. Supongamos que se lanza el dado n veces y se halla la “media experimental” sn /n = /n = suma total de los puntos obtenidos dividida por n. ¿Cu´al al es la probabilidad de que esta media experimental difiera de la te´orica orica E (X ) = 3,5 en menos de un n´umero umero dado > 0?
´ 4.4. LEYES LEYES DE LOS GRAN GRANDES DES N UMEROS
61
Estamos ante una situaci´on on an´ aloga a la del teorema de Bernoulli, s´olo aloga olo que en vez de la probabilidad se trata del valor medio. Planteemos el problema en general. Sea X Sea X 1 , X 2 , . . . , Xn , . . . una . una sucesi´on on de variables aleatorias, dos a dos independientes, todas con la misma distribuci´on on de probabilidad de la variable aleatoria X . X . Sea E Sea E ((X 1 ) = E (X ) = α 1 , 2 2 2 σ (X i ) = σ (X ) = σ . Pongamos Z Pongamos Z n = X 1 + X 2 + . . . + X n . Tendremos
E (Z n ) = nα 1 ,
E
Z n n
= α 1
(4.14)
y por haber supuesto que las X i sonindepen sonind ependientes dientes dos a dos, d os, tambi´en en
2
2
σ (Z n ) = nσ ,
σ
2
Z n n
σ2 = . n
(4.15)
Aplicando la desigualdad de Tchebycheff a lavariable aleatoria Z/n, Z/n, tenemos
P
√
Z n n
− α1
σ n
≥ √ ≤ k
1 k2
o bien, poniendo k poniendo kσ/ σ/ n = = ,,
P
Z n n
− α1
σ2 , o bien P bien P n2
≥ ≤
Z n n
− α1
≥ =
2
1
− nσ 2 . (4.16)
Estas desigualdades desigualdades permiten enunciar enunciar el siguiente teorema teorema (que es otra “ley de los grandes n´umeros”): umeros”): on X X 1 , X 2 , . . . Teorema de Bernoulli Generalizado. Dada una sucesi´ de variables aleatorias, dos a dos independientes, con una misma distribuci´ on de probabilidad y con media α α 1 , y varianza σ 2 finitas, se verifica (para (para todo > 0) 0 )
l´ım P
n
→∞
Z n n
donde Z n = X = X 1 + X 2 + . . . + X n .
− α1
≥
= 0, 0,
(4.17)
´ BINOMIAL, LEY DE LOS GRANDES N UMEROS ´ 62 62CAP CAP ´ITULO 4. 4. DISTRIBUCI DISTRIBUCI ON En otras palabras: el l´ımite, en probabilidad, probabilidad, de la media experimental ex perimental Z n /n, /n, para n , es igual a la media te´ orica α1 .
→∞
En este teorema la condici´on on de que la varianza sea finita es excesiva, pero si se prescinde de ella, la demostraci´on es m´as as compleja comple ja (v´ease, ease, por ejemplo, Feller[1]) Todav´ odav´ıa el teorema puede generalizarse, suponiendo que las X i tienen diferentes medias E (X i ) = αi y diferentes varianzas σi2 . Entonces la suma Z m tendr´a cierta media E (Z n ) = mn y cierta varianza sn2 . Bajo ciertas condiciones muy amplias, se verifica entonces que, para todo > 0,
l´ım P
n
→∞
Z n
− mn n
> = 0. 0.
(4.18)
Cuando esta igualdad se cumple, se dice que la sucesi´on X n satisface la ley le y d´ebil eb il de de los grandes n´umeros. umeros. Si, todav´ todav´ıa de manera m´ as as precisa, para cada > 0, δ > 0 existe un entero N tal 0 , N tal que, con probabilidad > 1 δ , se cumplan, para todo r > 0, las desigualdades
−
Z n
− mn n
< ,
n = N = N,, N + + 1, . . . , N + r,
(4.19)
se dice que la sucesi´on X on X i satisface la ley fuerte de los grandes n´umeros. umeros. La b´ usqueda usqueda de las condiciones condiciones m´ınimas para que una sucesi´ sucesi´on on X 1 , X 2 , . . . de . de variables aleatorias cumpla la ley d´ebil ebil o la ley fuerte de los grandes n´ umeros umeros da lugar a cuestiones cuestiones dif´ dif´ıciles. ıciles. Muchos Muchos teoremas teoremas al respecto, respecto, junto con ejercicios y comentarios, pueden verse en los libros de Feller[1], Reny[2] y R´ıos[3] citados citado s en la bibliograf´ biblio graf´ıa. ıa.
Cap´ıtulo 5
Distribuci´ on on de Poisson 5.1. 5.1.
Fun unci ci´ o on ´n de Probabilidad de Poisson
Ya dijimos que la expresi´on b on b((r ; n, p) (4.2) de la funci´on on de probabilida probabilidad d binomial binomial es dif´ dif´ıcil de calcular calcular directamen directamente te para valores alores un poco grandes grandes de r de r y n. n . Se puede hacer mediante tablas apropiadas, pero muchas veces es preferible sustituir la expresi´on on b(r ; n, p) por otra de mejor manejo para el c´alculo alculo y suficientemente aproximada en las aplicaciones. Un primer caso en que esto es posible es para valores peque˜nos de p de p,, tales que el producto np sea relativamente peque˜no no aun para valores bastante grandes de n. Planteemos Planteemos el problema problema de buscar buscar el l´ımite de la funci´ on on de probabilidad binomial para el caso en que p tiende a cero, al mismo tiempo que n que n tiende tiende a infinito, de manera que el valor medio (4.4) se mantenga igual a una constante positiva λ positiva λ,, o sea,
np = np = λ. λ.
(5.1)
Desde luego que se trata de un caso l´ımite te´orico, orico, pues la probabilidad p en p en cualquier experimento tiene un valor fijo y, por tanto, el producto np crece con n con n.. Sin S in embargo el l´ımite ımite nos dar´a un valor aproximado de b de b((r ; n, p) para los valores de n y p tales que su producto no difiera mucho de λ. λ . Se tiene 63
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
64
b(r; n, p) =
=
=
n pr q n−r = r
r
n r
− − − − λ n
n r
1
λ n
=
− 1) . . . (n r + 1) λ r 1 λ n = r !(1 − λ/n) λ/n)r n n λr (1 − 1/n)(1 /n)(1 − 2/n) /n) . . . (1 − (r − 1)/n 1)/n)) λ − 1 r! (1 − λ/n) λ/n)r n
n(n
n
.
Para n (manteniendo fijo r), el numerador del segundo quebrado tiende a 1, puesto que es el producto de un n´umero umero finito de factores, cada uno de los cuales tiende a 1. El denominador denominador tambi´ tambi´en en tiende a 1. El ultimo u ´ltimo − λ factor tiende a e a e (v´ease ease el Ap´endice endi ce II). II ). Por tanto tant o queda que da
→ ∞
λr −λ l´ım b(r; n, p) = e n→∞ r!
(5.2)
donde se sobrentiende que n que n y p est´an an ligados por la relaci´on on (5.1). Se tiene as´ as´ı, siempre que λ > 0, una nueva funci´on on de probabilidad para una variable aleatoria X X que tome los valores 0, 0 , 1, 2, . . .. .. Esta funci´on o n de probabilidad λr −λ P r = e , r!
r = 0, 1, 2, . . .
(5.3)
se llama la funci´ on de probabilidad de Poisson . Una variable aleatoria que pueda tornar los valores r = 0, 1, 2, . . ., ., con la probabilidad P r se llama una variable de Poisson . De acuerdo con la definici´on o n 3.2, la funci´on o n de distribuci´ on on de Poisson ser´a r
F ( F (r ) =
P i .
(5.4)
i=1
Teniendo en cuenta c´omo omo ha sido obtenida, resulta que la funci´on P on P r nos da un valor aproximado de b(r ; n, p) para valores peque˜nos nos de p. Pr´acticaacticamente se considera que la aproximaci´on on es aceptable si p si p < 0, 0 ,1 y np y np < 5. Por esto se llama tambi´en en la funci´on o n o la ley la ley de las peque˜ nas probabilidades . La figura 5.1 representa la funci´on b on b((r ; 10 10,, 0,1) y la figura 5.2 la funci´on e on e −1 /r! /r! pudi´ pud i´endose end ose aprecia apre ciarr la analog´ ana log´ıa. ıa.
´ DE PROBABILIDAD DE POISSON 5.1. FUN FUNCI CI ON
65
b(r ; 10 10,, 0,1) 0,4 0,3 0,2 0,1 0
1
2
3
4
5
6
7
8
r
8
r
Figura 5.1: Binomial, Binomial, n n = 10, p 10, p = 0,1
e−1 /r 0,4 0,3 0,2 0,1 0
1
2
3
4
5
6
7
Figura Figura 5.2: Poisson Poisson λ λ = = 1
Obs´ Ob s´ervese erv ese que qu e P r sirve para variables aleatorias que pueden tomar una infinidad numerable de valores (r (r = 0, 1, 2, . . .). .). Para estas variables, las definiciones de esperanza matem´atica, atica, varianza y momentos son las mismas que las estudiadas estudiadas en el cap´ cap´ıtulo 3 pero, en vez de sumas finitas, hay que tomar series. Por ejemplo, se pueden comprobar, como ejercicio, las siguientes f´ormuormulas:
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
66
∞
P r =
r=0
∞ − ∞ − ∞ −
r λλ
e
r=0
E (X ) =
re
r=0
σ 2 (X )
=
= 1, 1,
r!
(r
λλ
r
= λ,
r!
r
λ λ) e−λ = λ. 2
r!
r=0
Sin embargo, es m´as as f´acil acil calcular la media y la varianea de una variable de Poisson de la siguiente manera. Puesto que la media de una variable binomial es np, np, que ahora es la constante λ, y la varianza de la variable binomial es npq = np( np (l p) p) = λ(1 λ (1λ/n λ/n)) λ, λ , resulta que la esperanza y la varianza de la variable aleatoria de Poisson de par´ametro λ ametro λ son
−
→
E (X ) = λ,
σ 2 (X ) = λ.
(5.5)
La funci´on on generatriz de momentos de la variable de Poisson es
∞
(et λ)r −λ Ψ(t Ψ(t) = e = exp exp [λ(et r! i=0
− 1)]
(5.6)
y de aqu´ aqu´ı se deduce, nuevamente, E (X ) = Ψ (0) = λ, = λ,
σ 2 (X ) = Ψ (0)
− λ2 = λ.
on anterior de Ψ(t Ψ( t) nos dice Aplicaci´ on. on. Por el teorema 3.6, la expresi´on que si X 1 , X 2 , . . . , Xn son variables aleatorias de Poisson, con par´ ametros λ1 , λ2 , . . . , λn , la variable aleatoria suma X X = X 1 + X 2 + . . . + X n es es tamb ta mbi´ i´en en una variable de Poisson con par´ ametro λ1 + λ2 + . . . + λn . Problema 5.1. Se tiran dos dados 50 veces. Se desea hallar la probabi-
lidad de que salgan dos 6 exactamente 5 veces. un un Soluci´ on. on. La probabilidad de que salgan dos 6 es 1/36. Por tanto, seg´ el esquema binomial, la probabilidad pedida es
P 5 = b = b(5;60 (5;60,, 1/36) =
50 5
1 36
5
35 36
45
.
(5.7)
´ DE PROBABILIDAD DE POISSON 5.1. FUN FUNCI CI ON
67
Este valor no es f´acil acil de calcular directamente. Se pueden utilizar tablas apropiadas o aplicar la f´ormula ormula de d e Stirling Stir ling (Ap´ ( Ap´endice endice II), pero es m´as as c´omodo omodo aplicar aplicar la f´ ormula ormula de Poisson para np para np = = 1,4 = λ (teniendo λ (teniendo en cuenta que p que p = = 0,028 028 < < 0 0,,1 y que np que np < 5). Utilizando la tabla de la funci´on on de probabilidad de Poisson Poi sson (Ap´endice endice III), II I), resulta P 5 = 0,011. Si la f´ormula ormula (5.7) se hubiera calculado directamente, el resultado exacto serla 0, 0 ,0099. Vemos, pues, que la aproximaci´ on on es buena. abrica produce ciertas piezas y se sabe que la proProblema 5.2. Una f´ babilidad de que una pieza sea defectuosa es p = 0,02 02.. Se desea hallar la probabilidad de que, en un lote de 100 piezas, no haya piezas defectuosas, y tumbi´en en la probabilidad probabilidad de que haya, a lo sumo, 3 piezas defectuosas. def ectuosas. on on de Poisson para λ = np = 2, r = 0, Soluci´ on. on. Aplicando la funci´ resulta
P 0 = e = e −2 = 0, 0 ,135
y la probabilidad de que haya a lo sumo 3 defectuosas ser´a:
F (3) F (3) = P = P ((r
≤ 3) = P 0 + P 1 + P 2 + P 3 = 193 e−2 = 0,0 ,857 . . .
Problema 5.3. Un artillero dispara a un blanco y sabe que la probabili-
dad de acertar es p = p = 1/100 100.. ¿Cu´ antos disparos tendr´ a que hacer para tener una probabilida probabilidad d mayor que 90 % de dar en el blanco blanco por lo menos una vez? on binomial, resulta que la on Soluci´ on. on. Aplicando directamente la funci´ probabilidad de dar en el blanco por lo menos una vez es la complementaria de no dar en el blanco vez alguna, o sea 1 (0, (0 ,99)n. Si se quiere que esta probabilidad cumpla la condici´on on 1 (0, (0 ,99)n > 0,9, resulta resulta − 1 n > (2 log 99) = 228.
−
−
−
Como p Como p es peque˜na, na, en vez del c´alculo alculo directo se puede aplicar la aproximaci´on on de Poisson. La probabilidad de no dar vez alguna en el blanco − es e λ , y la probabilidad de dar por lo menos una vez ser´a 1 e−λ . El 01n de donde problema impone que sea 1 e−λ > 0,9, o sea, 0, 0,1 > e−0,01n n > 100 100/ / log e = 230. Vemos, pues, que la aproximaci´on on de Poisson es muy buena.
−
−
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
68
5.2. 5.2.
Dist Distri ribu buci ci´ o on ´n Uniforme de Puntos Sobre una Recta o de Sucesos en el Tiempo
Un proceso proceso muy muy corrie corrient ntee enque enque aparece aparece la funci´ funci´ on o n de Poisson es el siguiente. Supongamos un segmento A segmento A de de longitud a longitud a y y otro segmento B segmento B de de longitud b contenido en A en A.. Supongamos, adem´ as, que la probabilidad de que un punto as, x, dado al azar en A en A,, pertenezca a B a B,, sea igual a b/a a b/a,, independientemente de la posici´on on de B de B dentro dentro de A de A.. Si se dan al azar n azar n puntos puntos en A en A,, la probabilidad de que r que r de ellos se hallen en B ser´a b( b (r; n, p). El cociente n/a cociente n/a es el n´ umero umero medio de puntos, dados al azar, por unidad de longitud. Sea n/a = λ, y supongamos supongamos que a que a crece hasta cubrir toda la recta, al mismo tiempo que n crece tambi´ en en de manera que el n´umeromedio umeromedio λ, de puntos por unidad de longitud permanezca constante. Ser´a
np = np = n n
b n = b = λb. = λb. a a
Por tanto se cumple la condici´on on (5.1), con el par´ametro λb ametro λb en vez de λ, λ , y para n resulta que la probabilidad de que r de los puntos dados al azar pertenezcan a B ser´a
→ ∞
(λb) λb)r −λb P r = e , r!
r = 0, 1, 2, . . .
(5.8)
Para r = 1 y b peque˜ no, no, sea b sea b = ∆x; utilizando el desarrollo en serie de eas e el e l Ap´ A p´endice end ice II) II ) y desprec des precian iando do los t´erminos ermi nos del orden ord en de (∆ ( ∆ x)2 , e−λ∆x (v´ease resulta que la probabilidad la probabilidad de que un intervalo de longitud ∆x ∆ x contenga uno de los puntos distribuidos al azar es
P = λ ∆x.
·
(5.9)
El hecho de haber supuesto p = b/a independiente de la posici´on o n del segmento B dentro del A significa que al extenderse A a toda la recta, la probabilidad de que uno de los puntos dados al azar caiga sobre B depende u unicamente ´ nicamente de la longitud de B de B , pero no de la posici´on on de B de B sobre la recta. Esta suposici´on, o n, en vista de la f´ormula ormula (5.8) a que se llega, se enuncia diciendo que los puntos est´an an distribuidos sobre la recta seg´un un un proceso de Poisson. Precisando, sentamos la siguiente definici´on on
´ UNIFORME DE PUNTOS SOBRE UNA RECTA O DE SUCESOS EN EL TIEMP 5.2. DISTRIBUCI ON an distribuidos sobre la Definici´ on on 5.1. Se dice que infinitos puntos est´an recta seg´ un un un proceso un proceso de Poisson , cuando la probabilidad de que un punto pertenezca pertenezca a un segmento segmento B B (de longitud b longitud b), ), condicionada a que pertenezca al segmento A segmento A (de longitud a longitud a), ), tal que B que B A, es b/a es b/a,, cualquiera que sea la posici´on on de A de A sobre la recta y la posici´on on de B de B dentro de A de A..
⊂
Seg´ un un esta definici´on, on, el resultado (5.8) se enuncia de acuerdo con el siguiente teorema Teorema 5.1. Supuestos dados sobre la recta infinitos puntos al azar
seg´ un un proceso de Poisson, con un promedio de λ puntos por unidad de longitud, la probabilidad de que r de ellos pertenezcan a un segmento dado de longitud b est´ a dada por (5.8). Consideremos ahora un punto cualquiera M M de la recta y busquemos la probabilidad de que el r -´esimo esimo punto, a partir de M , M , de un proceso de Poisson se encuentre a una distancia comprendida entre x y x + ∆x ∆x de M . M . Seg´ un (5.8), la probabilidad de que en el segmento de longitud x haya r un haya r 1 − λx r − 1 puntos es e es e (λx) λx) /(r 1)!, y la probabilidad de que en el segmento ∆ x haya un punto, es λ ∆x (seg´ un (5.9). La probabilidad buscada es igual al un producto de estas dos, o sea, f sea, f r (x)∆x )∆x, donde
−
−
·
f r (x) = e λx
λ r xr−1 . (r 1)!
−
(5.10)
De aqu´ aqu´ı se deduce, por p or ejemplo, que la distancia media entre media entre un punto cualquiera y el r-´ r -´esimo esimo punto del proceso que le sigue es
E (X ) =
∞ 0
xf r (x)dx = dx =
λr (r
− 1)!
∞ 0
eλx xr dx
(5.11)
Poniendo λx Poniendo λx = = t t,, λdx = λdx = dt dt,, y recordando la integral que define la funci´on Γ(x Γ(x) (v´ease ease el Ap´endice endi ce II), II ), resulta resu lta
E (X ) =
r . λ
(5.12)
Naturalmente que en todo lo anterior, la recta puede representar el tiempo t y cada punto de la misma ser un instante determinado. Entonces el esquema anterior se presta a muchas interpretaciones, como vamos a ver mediante algunos ejemplos.
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
70
oniProblema 5.4. Se sabe que durante ciertas horas las llamadas telef´ cas a una central est´ an distribuidas al azar seg´ un un proceso de Poisson, con un promedio de 3 llamadas por minuto. Se desea hallar la probabilidad: a) de que transcurran 4 minutos sin llamadas; b) de que en 1 minuto haya exactamente 3 llamadas; C) de que en 2 minutos haya 8 llamadas. Soluci´ on. on. Se aplica siempre (5.8). Resulta: a) λ = 3, b = 4, r = 0, por
tanto, P tanto, P = e −12 < 10 −4 ; b) λ b) λ = = 3, b 3, b = = 1, r 1, r = = 3; por tanto, P tanto, P = = (27/ (27/6)e 6)e−3 = 0,224; c) λ c) λ = = 3, b 3, b = = 2, r 2, r = 8; por tanto, P tanto, P = (6 8 /8!)e 8!)e−6 = 0,103. Problema Problema 5.5. Por un punto de una carretera pasa un promedio de
5 autom´ oviles por minuto. Suponiendo que el paso de los mismos sigue un proceso de Poisson, ¿cu´ al es la probabilidad de que en un minuto no pase autom´ ovil alguno? resulta P P = e −6 = 0, 0 ,0067. Soluci´ on. on. Aplicando (5.8), resulta Problema 5.6. Supongamos (lo cual se adapta bastante a la realidad)
que los momentos en que tienen lugar nacimientos se reparten al azar durante todas las l as horas del d´ıa. Supongamos tambi´en en que en una ciudad determinada tenga lugar por t´emino emino medio un nacimiento nacimiento cada cada 65 minutos. minutos. ¿Cu´ al es la probabilidad de que durante 2 horas no tenga lugar ning´ un nacimiento? Soluci´ on. on. Basta aplicar (5.8) para r = 0, λ = 1/65, b = 120. Resulta
P = e −1,83 = 0,160 . . .. umero de part´ part´ıculas emitidas por una Problema 5 7. Se sabe que el n´ substancia radiactiva, con el tiempo, obedece a una ley de Poisson. Supongamos que la emisi´ on ocurren raz´ on de 30 part´ part´ıculas por minuto. Se desea saber la probabilidad de que durante 7,5 segundos sean emitidas exactamente 3 part´ıcul ıc ulas as.. Soluci´ on. on. Se aplica (5.8) para λ = 0,5 (n´ umero umero de part´ part´ıculas emitidas emitid as 3 ( por segundo), b = 7,5, y resulta P = (3, (3,75) e 3,75)(1/ 75)(1/6). La tabla de la funci´on on de Poisson da entonces P = 0, 0 ,20. Caso del plano o del espacio. Si en vez de una recta se considera el plano o el espacio, el razonamiento que condujo a la f´ormula ormula (5.8) sigue siendo v´alido. alido. Supongamos, por ejemplo, el caso del espacio. Sea B un dominio de volumen b, contenido en un dominio A de volumen a. Repres´entese entese la probabilidad de que un punto dado al azar en A en A pertenezc pertenezcaa a B , por b/a por b/a (proceso (proceso de Poisson). Dados al azar n azar n,, puntos en A en A,, la probabilidad de que r que r de ellos est´ es t´en en en B, B , es b es b((r ; n, p), y suponiendo que A que A crece crece hasta llenar todo el espa-
5.3. EL PROBLE PROBLEMA MA DE LAS FILAS FILAS DE ESPERA ESPERA
71
cio, al mismo m ismo tiempo tiemp o que qu e tambi´ ta mbi´en n en n crece de manera que la densidad media n/a = n/a = λ se mantenga constante (λ (λ = n´umero umero medio de puntos por unidad de volumen), entonces, pasando al l´ımite, ımite, resulta que la probabilidad de que B contenga exactamente r exactamente r puntos puntos est´a dada por la misma f´ormula ormula (5.8). Por ejemplo, es t´ıpico el siguiente problema: on on Problema 5.8. Se sabe que un l´ıquido contiene ciertas bacterias a raz´ de 4 bacterias por cm 3 . Se desea saber la probabilidad de que una muestra de 1 cm3 no contenga bacteria alguna y tambi´ ta mbi´ en en la probabilidad de que en 3 1/2 cm haya por lo menos una bacteria. λ = 4, b 4, b = 1, r 1, r = 0; por Soluci´ on. on. En el caso de la primera pregunta es λ = tanto P = e−4 = 0,0183. En el de la segunda, puesto que la probabilidad de que no contenga alguna bacteria es e es e −2 , la probabilidad de que contenga por lo menos una bacteria ser´a P = 1 e−2 = 0, 0 ,864.
−
5.3. 5.3.
El Pro Probl blem ema a de las las Fil Filas as de de Esper Espera a
Un proceso aleatorio importante que tiene varias interpretaciones es el llamado de manera general “proceso de nacimiento y muerte” o “proceso de inmigraci´ on on y emigraci´on”. on”. Se trata de estudiar el comportamiento de un conjunto de elementos (part´ıculas, ıculas, personas, llamadas telef´ onic o nicas as,, . . . ) en el el cual, con el transcurso de tiempo, se incorporan nuevos elementos (seg´un un cierta probabilidad) y desaparecen otros (tambi´ en en con cierta probabilidad). Para fijar las ideas, aunque las f´ormulas ormulas son las mismas en cualquier interpretaci´ on, vamos a estudiar elproblemade las “colas” o filas de espera. on, Consideremos una sola ventanilla de atenci´on on de clientes, los cuales, a medida que llegan, se van colocando en la cola o fila de espera, hasta el momento de ser atendidos. Supongamos que la llegada de los clientes sigue un proceso de Poisson, de par´ametro λ ametro λ.. Esto quiere decir que la probabilidad de que lleguen r clientes en un intervalo de tiempo b est´a dada por (5.8), y la probabilidad de que llegue un cliente en el intervalo ∆ t es λ∆t (5.9), es decir, depende solo del intervalo ∆ t, pero no del momento en que este intervalo se considera (o sea, no se tiene en cuenta el caso de que en ciertas horas la afluencia de clientes puede ser mayor que en otras). Igualmente, se hace lahip´otesis otesis de que la probabilidad de que en el intervalo ∆ t un cliente termine de ser atendido y abandone la fila es igual a κ∆t, siendo κ otra constante. Ello equivale equivale a suponer que la salida de los clientes sigue tambi´ en en una ley de Poisson, de par´ametro ametro κ. Recordemos que λ significa el n´ umero umero medio de clientes que llegan por unidad de tiempo, y κ el n´ umero umero medio de clientes que son atendidos por unidad de tiempo.
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
72
Sea P Sea P n (t) la probablidad de que en el instante t la cola tenga n tenga n clientes. Puesto que la llegada y la salida se consideran independientes, tendremos (salvo (sa lvo t´erminos ermi nos en (∆t (∆t)2 que no tenemos en cuenta) P n (t) = P n−1 (t ∆t)λ∆t + P n+1(t ∆t)κ∆t+ + P n (t ∆t)(1 λ∆t κ∆t),
−
−
−
−
−
(5.13)
lo cual expresa que la probabilidad de que en el instante t haya n clientes es igual a la probabilidad de que en el instante t ∆t haya n 1 por la probabilidad de que llegue uno nuevo, m´as a s la probabilidad de que en el instante t instante t ∆t haya n haya n + 1, por la probabi probabilid lidad ad de que uno se retire, retire, m´as as la probabilidad de que en el instante t instante t ∆t haya n haya n clientes, clientes, por la probabilidad de que en el intervalo considerado no salga ni llegue ninguno. La probabilidad de que en el intervalo (t ( t ∆t, t) se produzca m´as as de un suceso (llegada o salida de clientes) clientes) es infinit´ infinit´esima esima de orden igual o superior superior a (∆t (∆t)2 y por tanto no se ha tenido encuenta en (5.13).
−
−
−
−
−
Para n Para n = 0, (5.13) se reduce a
P 0 (t) = P 1 (t
− ∆t)κ∆t + P 0(t − ∆t)(1 − λ∆t).
(5.14)
Pasando al primer miembro de (5.13) y (5.14) el t´ermino ermino que no contiene ∆t, dividiendo ambos miembros por ∆t ∆ t y pasando al l´ımite para ∆t 0, quedan las ecuaciones diferenciales
→
dP n (t) dt
= λP n−1 (t) + κP n+1(t)
dP 0 (t) dt
= κP 1 (t)
− (λ + κ)P n(t)
(5.15)
− λP 0(t).
Estas son las ecuaciones fundamentales del proceso. Supongamos t lo bastante grande para que desaparezca la influencia de los primeros momentos en que la cola se inicia. Es decir, supongamos un estado estacionario, con las P las P n independientes de t de t.. Entonces, en las ecuaciones (5.15), los primeros miembros son nulos y los segundos son independientes de t de t,, quedando
λP n−1 + κP n+1
− (λ + κ)P n = 0,
κP 1
− λP 0 = 0.
(5.16)
73
5.3. EL PROBLE PROBLEMA MA DE LAS FILAS FILAS DE ESPERA ESPERA Escribiendo estas ecuaciones para n = 1, 2, . . . , n κP n = λP = λP n , de donde P n = ρ = ρ n P 0 , donde ρ =
∞
Puesto que debe ser 1
− 1 y sumando, queda
λ . κ
(5.17)
P n = 1, resultan las condiciones ρ < 1 y P 0 =
0
− ρ, y se obtiene
P n = (1
− ρ)ρn.
(5.18)
Esta es la probabilidad de que la cola tenga n tenga n clientes. En particular, la probabilidad probabilidad de encontrar encontrar la ventanill ventanillaa desocupada desocupada es P es P 0 = 1 ρ.
−
El n El n´ umero ´ medio de medio de clientes ser´a n
E (n) =
nP n = (1
0
donde hemos utilizado que suma
∞ 0
∞
− ρ)ρ
nρn−1 = (1
0
ρn = (1
∞
nρn−1 =
0
ρ 1
−ρ
(5.19)
− ρ)−2, como resulta al derivar la
− ρ)−1.
En todas estas f´ormulas ormulas se supone ρ supone ρ < 1. Sea τ Sea τ el tiempo que transcurre transcurre desde que un cliente cliente llega hasta que sale, despu´ es es de haber sido atendido. Sea f ( f (τ )∆ τ )∆τ τ la probabilidad de que este tiemp tie mpo o est´e comprend comp rendido ido entre ent re τ τ y τ y τ +∆ +∆τ τ .. Si al llegar, la cola tiene n tiene n clientes, clientes, seg´ un u n la f´ormula ormula (5.10) la probabilidad de que en el tiempo transcurrido hasta el momento de salir (tiempo de atender a los n clientes n clientes de la cola, m´as as el tiempo de atender atender al que llega) est´e comprendid comprendidoo entre entre τ y τ + ∆τ ∆ τ ,, es f ( f (τ n)∆, donde
|
n κτ n+1 τ
f ( f (τ n) = e κ
|
n!
.
(5.20)
Obs´ervese, ervese, efectivamente, ef ectivamente, que q ue si la l a recta rect a considerada cons iderada en la f´ormula ormula (5.10) es el eje de los tiempos, la distancia x que all´ all´ı figura es ahora el tiempo τ , τ , dado n dado n.. Por tanto
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
74
f ( f (τ ) τ ) =
∞
f ( f (τ n)P n =
|
n=0
= κ(1
− ρ)e
κτ
∞ − e
κτ n+1 n ρ
=0 ∞ (nκτ ρ)n
n=0
n!
κ
τ
n (1
−ρ =
n!
(5.21)
= κ(1 κ (1 − ρ)e−(1−ρ)κτ .
O sea: la sea: la funci´ on de densidad de probabilidad del tiempo de espera (desde que el cliente llega hasta que sale) es la (5.21) para τ τ 0 y f f = 0 para τ τ < 0.
≥ ≥
El tiempo El tiempo medio de espera ser´ espera ser´a
E (τ ) τ ) =
∞ 0
τ f (τ ) τ )dτ =
1 κ(1
− ρ)
=
1
κ
− λ.
(5.22)
Si se desea el tiempo medio de espera “hasta llegar a la ventanilla”, teniendo en cuenta que el tiempo medio de atenci´on o n es 1/κ 1 /κ (puesto (puesto que κ es el n´ umero medio de clientes atendidos por unidad de tiempo), resulta umero
E (τ 1 ) = E ( E (τ ) τ )
− κ1 = κ(1 ρ− ρ) .
(5.23)
Este tiempo medio de espera “hasta llegar a la ventanilla” es ´util, por ejemplo, para muchas personas que s´olo olo se impacientan hasta el momento de llegar a la ventanilla, pero que luego no les importa el tiempo durante el cual son atendidos y no hacen nada para abreviarlo. Ejemplo 1. Una oficina debe atender un promedio de 200 clientes que
llegan al azar cada 4 horas, y se quiere que la longitud media de la cola no sea superior a 3 clientes. ¿Cu´ antos clientes por hora debe ser capaz de atender la oficina? λ = 50, E 50, E ((n) = 3. Por tanto (5.19) da κ da κ = = 67 clientes por Soluci´ on. on. Es λ = hora. atender a 40 clientes Ejemplo 2. Si cada ventanilla de una oficina puede atender por hora y se sabe que acuden en promedio 200 clientes por hora, ¿cu´ antas ventanillas deben habilitarse para que la longitud media de la cola no supere a los 3 clientes por ventanilla? umero de ventanillas, es λ = 200, κ = 40 umero 40vv , Soluci´ on. on. Llamando v al n´ E (n) = 3v 3 v , y por tanto, se tiene la ecuaci´on on 3v 2
− 15 15vv − 5 = 0, donde v donde v = 6.
5.3. EL PROBLE PROBLEMA MA DE LAS FILAS FILAS DE ESPERA ESPERA
75
Ejemplo Ejemplo 3. Un doctor sabe que el tiempo medio de que dispone para
atender a cada paciente es de 20 minutos. Suponiendo que los pacientes llegan al azar, ¿cu´ antos pacientes debe citar por hora para que el promedio de los que esperan no sea superior a dos? Soluci´ on. on. Dos pacientes por hora.
on de servicio llega un auto cada 6 minutos Ejemplo 4. En una estaci´ y tarda 4 minutos en ser atendido. Se pide alta probabilidad de que el auto que llega no tenga que esperar y b) el tiempo medio de espera desde que llega hasta el momento en que es atendido. Soluci´ on. on. a) P 0 = 1
− (2/ (2/3) = 1/ 1/3; b) E b) E ((τ 1 ) = 12 − 4 = 8 minutos.
on de una ventanilla es de 10 Ejemplo Ejemplo 5. El tiempo medio de atenci´ minutos y llega un cliente cada 11 minutos. H´ allese la longitud de la cola y en cu´ anto disminuye la misma si el tiempo de atenci´ on se reduce a 9 minutos. es E (n) = 10, y Soluci´ on. on. La longitud media de la cola en el primer caso es E en el segundo, E segundo, E ((n) = 5, o sea, se reduce a la mitad. Esto prueba la rapidez con que disminuye la cola al aumentar la eficiencia del servicio.
76
´ DE POISSON CAP ´ITULO 5. DISTRIBUCI DISTRIBUCI ON
Cap´ıtulo 6
Distribuci´ on on Normal. Variables Aleatorias Continuas 6.1. 6.1.
Apro Aproxi xima maci ci´ on o ´n de la Distribuci´ on on Binomial por la Normal
Hemos visto que suponiendo np = λ = constante, constante, la distribuci´on o n binornial tiende a la de Poisson. Consideremos ahora el caso en que p no sea demasiado peque˜ no no y que tanto n tanto n como como r r sean sean grandes. En tal caso se puede demostrar el siguiente teorema Teorema de De Moivre – Laplace. Si r
− √ r
entonces se verifica que
np npq
→
√ npq
n pr q n−r r
x<
→ ∞ y n → ∞ de manera
∞,
→ 21π e−x /2. 2
(6.1)
(6.2)
No se da la demostraci´on on de este teorema por exigir c´alculos un poco largos y delicados. Ella se puede hallar en los libros de Feller[1] o Reny.[2] En realidad, la condici´on on (6.1) se puede reemplazar por otra menos exigente. 77
´ NORMAL. VARIABLES 78 78CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS En efecto, se puede demostrar que la relaci´on asint´ otica otica (6.2) es v´alida alida con s´ olo olo suponer que n y r tienden a de manera tal que, siendo p constante, sea se a l´ım( ım (r np) np)3 /n2 = 0 (v´ease, eas e, Feller[1]) Feller[ 1])..
∞
−
La f´ormula ormula (6.2) permite calcular b calcular b((r ; n, p) por la f´ormula ormula aproximada
b(r ; n, p) =
n pr q n−r r
1 ∼ √ 2πnpq ex /2 2
(6.3)
donde
x =
r
np √ −npq
(6.4)
Esta aproximaci´ on on de b de b((r ; n, p) se llama la aproximaci´ la aproximaci´ on por la funci´ on normal , de la que nos ocuparemos a continuaci´on. on. Los intervalos de valores n, r, r , p, p , para los cuales la aproximaci´on on normal (6.3) es buena, y se pueden tomar ambos miembros como iguales, no son f´aciles aciles de establecer. En general, se suele considerar que la aproximaci´on (6.3) es buena para p > 0,1 y np > 5. Por ejemplo, es b(20; (20; 25, 25, 0,6) = 0, 0,029 y, usando la aproximaci´ on on dada por (6.3), resulta resulta b b(20;25 (20;25,, 0,6) = 0, 0,022. Igualmente es b es b(15 (15;; 100 100, 0,2) = 0, 0,048 y la aproximaci´on on (6.3) da b(15; (15; 100 100,, 0,2) = 0, 0,046. Es cl´asico asico un experimento de Galton para comprobar la f´ormula ormula (6.3) para el caso p = 1/2. Consisteen una tabla como se ilustra enla figura 6.1, colocada verticalmente oinclinada, por cuya parte superior se introducen numerosas merosas bolillas b olillas (perdigones), (perdigones), las cuales, cuales, al caer, se encuentr encuentran an con obst´ acuaculos que las obligan a desviarse hacia la derecha o hacia la izquierda, con probabilidad 1/2. En el caso de la figura, cada bolilla se encuentra con 6 obst´ aculos aculos (n (n = 6). Las bolillas que se han desviado r veces hacia la izquierda y 6 r hacia la derecha van a parar a la casilla r (r = 0, 1, 2, . . . , 6). La probabilidad de que una bolilla vaya a parar en la casilla r casilla r es
−
P r =
6 r
1 2
6
∼ √ 13π e−(r−3) 2/3. 2
(6.5)
Figura 6.1: Experimento de Galton Haciendo el experimento con N con N bolillas, bolillas, el n´ umero umero m´as as probable de bolillas que van a parar a la casilla casilla 7 es igual al valor medio N medio N P r . Efectivamente, Efectivamente,
79
6.2. VARIABLES ALEATORIAS ALEATORIAS CONTINUAS
la experiencia prueba que ellas van tomando la forma de campana expresada por la curva que indica el segundo miembro de (6.5), como muestra la figura 6.1. Esta curva de campana es la que vamos a estudiar en lo que sigue, pero antes conviene dar algunas definiciones sobre variables aleatorias continuas.
6.2.
Variables ariables Aleatorias Aleatorias Contin Continuas uas
Hasta ahora hemos considerado variables aleatorias que pueden tomar un n´umero umero finito de valores (variables aleatorias finitas) o bien, por extensi´on natural, variables aleatorias que pueden tomar una infinidad numerable de valores, como la variable de Poisson. Se dice que estas variables son discretas . En ambos casos, representando sobre el eje x los valores x1 , x2 , . . . , xn , de la variable aleatoria X aleatoria X y y tomando sobre cada x cada xi el valor f valor f ((xi ) de la probabilidad correspondiente, se tiene la gr´afica afica de la funci´on on de probabilidad de X , que es un conjunto discreto de puntos cuyas coordenadas son (x ( xi , f ( f (xi )), i = 1, 2, 3, . . .. .. As´ As´ı se hizo en las figuras 4.1, 4.2, 5.1 y 5.2. El resultado (6.3), donde x donde x puede tomar cualquier valor real, conduce a estudiar variables aleatorias eln´umero umero de cuyos valores no es finito ni numerable. Para simplificar, vamos a suponer que son variables que pueden tomar todos los valores reales, desde hasta + , atribuyendo la probabilidad 0 al conjunto de los valores que no puede tomar. Se llaman variables aleatorias continuas. Recordemos que para el caso finito, la definici´onde variable aleatoria va ligada a la definici´on on de funci´on on de probabilidad. En el caso general es mejor asociarla a la funci´on on de distribuci´on. on. Suponiendo un espacio de probabilidad probabilidad general (E, , P ), P ), se establece la siguiente definici´on. on.
−∞
∞
B
aleatoria definida en un espacio de Definici´ on on 6.1. 6.1. Se llama variable aleatoria definida probabilidad (E, (E, , P ) P ) a toda funci´on X on X : E de E de E en en el conjunto de los n´umeros umeros reales, tal que, para todo x , el conjunto conjunto de elemento elementoss a E para los cuales X cuales X ((a) x, pertenece a .
B
≤
→ →
∈ B
∈
La ultima u ´ ltima condici´ condici´ on nos dice que el conjunto de elementos a E on E para los cuales X (a) x, tiene asignada una probabilidad, que representaremos abreviadamente por
∈
≤
F ( F (x) = P ( P (X
≤ ≤ x),
(6.6)
y se llama la funci´ la funci´ on de distribuci´ on de on de la variable aleatoria X . X . Se dice que F ( F (x) es igual a la probabilidad de que X tome X tome un valor x.
≤
´ NORMAL. VARIABLES 80 80CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS Observemos que esta definici´on on de variable aleatori al eatoriaa es aplicable aplica ble tambi´ ta mbi´en en a variables aleatorias finitas. En efecto, en tal caso, suponiendo la ordenaci´on x1 < x2 < . . . < xn y llamando E i , al conjunto de elementos a de E E tales − 1 que X que X ((a) xi , resulta que el conjunto X conjunto X (xi ) es E es E i E i−1 , y por tanto si E i y E i−1 pertenecen a , tambi´en en pertenece perte nece a el conjunto X conjunto X −1 (xi ).
≤
B
B
∩
De (6.6) se deducen inmediatamente las siguientes propiedades de toda funci´ on on de distribuci´on: on: 1. F ( F (x) es mon´otona otona no decreciente; 2. F ( F ( )= 0 (probabilidad del conjunto vac´ vac´ıo) y F (+ F (+ ) = 1 (probabilidad de E ). ). Adem´as as
−∞
∞
P ( P (a < x
F (b) − F ( F (a). ≤ b) = F (
(6.7)
En el caso de una variable aleatoria discreta, la funci´on on de distribuci´on on F ( F (x) es una funci´on on escalonada, expresada por sumas de la forma (3.4). Vamos a considerar ahora el caso en que F ( F (x) es una funci´on on continua, en cuyo caso diremos que la correspondiente variable aleatoria es continua . F ( F (x) puede ser una funci´on on complicada, pero, para simplificar, vamos a considerar unicamente funciones u ´nicamente funciones de distribuci´ on que puedan expresarse mediante una integral de la forma
F ( F (x) =
∞
f ( f (x)dx,
(6.8)
−∞
donde f f es llamada funci´ on de densidad o de densidad de probabilidad de la variable aleatoria X . Tambi´ en en por simplicidad, supondremos que f es continua o, por lo menos, “continua por pedazos”, o sea, compuesta de un n´umero umero finito o de una infinidad numerable de pedazos continuos. De (6.7) y (6.8) se deduce b
P ( P (a < x
≤ b) =
a
f ( f (x)dx
(6.9)
y las mencionadas propiedades de F de F nos nos dicen que toda funci´on on de densidad densidad cumple las condiciones condiciones
f ( f (x)
≥ 0,
∞
f ( f (x)dx = dx = 1.
(6.10)
−∞
Obs´ervese ervese que la condici´ condici ´on on (6.9) excluye el caso de las probabilidades discretas. En efecto, en este caso seg´un un (6.9), la la probabilidad de que X X tome
´ DE DENSIDAD DE PROBABILIDAD Y FUNCI ON ´ DE DISTRIBUCI ON ´ NORMAL81 6.3. FUNCI ON NORMAL81 Figura 6.2: Densidad de una variablea aleatoria continua exactamente un valor dado x dado x 0 es siempre nula . Es el caso que ya observamos en el cap´ cap´ıtulo 1.1 donde la probabilidad nula no significa imposibilidad. Esto hace que sea lo mismo considerar la probabilidad P ( P (a x b) que la P ( P (a < x < b). b ).
≤ ≤
Veamos la interpretaci´on on geom´etrica etrica de estos e stos conceptos. concept os. Sea f f una funci´on on de densidad. Su gr´afica afica ser´a una curva como la de la figura 6.2 (que puede ser discontinua, como en el punto x0 ). El ´area area limitada entre la curva y eleje x es 1. La funci´on on de distribuci´on on F F nos da, para cada x cada x,, el ´area area comprendida entre el eje x eje x y la curva, desde hasta la ordenada correspondiente al punto x punto x (´ (´area area rayada en la figura). Esta ´area area F ( F (x) representa la probabilidad de que X tome X tome un valor x.
−∞
≤
Las definiciones de esperanza matem´atica, atica, varianza y momentos de una variable aleatoria continua son an´alogas alogas a las dadas para variables aleatorias discretas, s´oloque oloque se debe sustituir las sumas por integrales, es decir:
E (X ) =
∞
xf ( xf (x)dx,
2
σ (X ) =
−∞
∞
−∞
(x
f (x)dx, − E (X ))))2f (
(6.11)
y an´alogamente alogamente se definen los momentos de orden superior. La funci´on on generatriz de momentos se define tambi´en en como la esperanza Xt de la funci´on e on e , o sea:
Ψ(t Ψ(t) =
∞
ext f ( f (x)dx.
(6.12)
−∞
6.3. 6.3.
Fun unci ci´ o on ´n de Densidad de Probabilidad y Funci´ on on de Distribuci´ on on Normal
Consideremos una funci´on on de densidad de la forma 2
f ( f (x) = ae−b(x−c) con a,b con a,b > 0 > 0..
(6.13)
La primera condici´on on (6.10) se cumple, y la segunda conduce a la relaci´on on
´ NORMAL. VARIABLES 82 82CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS
a π/b = π/b = 1 (v´ease ease el Ap´ A p´endice endice II). La espera e speranza nza y la varianza de la variable aleatoria X aleatoria X con con la funci´on on de densidad de probabilidad f probabilidad f ((x) valen val en (Ap´ (A p´endic end icee II)
E (X ) = c = c = α, α,
σ 2 (X ) =
1 2b
(6.14)
de manera que poniendo de manifiesto estos valores, (6.13) se escribe
f ( f (x) =
1 √ e−(x−α) /2σ σ 2π 2
2
(6.15)
on de laforma (6.15) se llama una funci´ on una funci´ on de Definici´ on on 6.2. Toda funci´ densidad de probabilidad normal . Las variables aleatorias con una tal funci´on on de densidad de probabilidad se llaman normales llaman normales y y la correspondiente funci´on on de distribuci´on on se llama una funci´on on de distribuci´on normal on normal . Se dice que la funci´on on de densidad de probabilidad o la variable aleatoria o la funci´ on on de distribuci´on on de la definici´on on anterior son del tipo N ( N (α, σ 2 ). La funci´ funci´ on generatriz de momentos de la funci´on on on (6.15) es (v´ease ease el Ap´endi en dice ce II) II ) 1 Ψ(t Ψ(t) = exp αt + σ 2 t2 2
(6.16)
Una aplicaci´ on importante es la siguiente. Si X e Y on Y son variables alea2 , σ 2 , por torias normales independientes independientes de medias medias α X , α Y , y varianzas σX Y el teorema 3.6, la funci´on on generatriz de momentos de la variable X + + Y Y ser´a
1 2 2 2 ΨX +Y (t (t) = Ψ X (t)ΨY (t (t) = exp (αX + αY ) + (σX + σY )t )t . (6.17) 2
Comparando con (6.16) resulta Teorema 6.1. La variable aleatoria suma de dos variables aleatorias 2 ), N ( 2 ) es otra normales normales independien independientes tes de tipo tipo N ( N (αX , σX N (αY , σY otra variab variable le 2 2 aleatoria normal de tipo N ( N (αX + αY , σX + σY ). ).
Evidentemente, el teorema se generaliza de inmediato a la suma de n va n variables aleatorias normales independientes. M´as as generalmente, dadas n va-
´ DE DENSIDAD DE PROBABILIDAD Y FUNCI ON ´ DE DISTRIBUCI ON ´ NORMAL83 6.3. FUNCI ON NORMAL83 Figura 6.3: Densidad normal riables aleatorias normales independientes X independientes X i de tipos N tipos N ((αi , σi2), la combinaci´on o n line lineal al ai X i es es otra variabl able ale aleato atoria norm ormal de tipo N
ai αi ,
ai2 σi2 .
Particularmente interesante es el caso N (0 N (0,, 1), que corresponde a la funci´on on de densidad de probabilidad
φ(x) =
1 −x e 2π
2
/2
(6.18)
y a la funci´on on de distribuci´on on 1 x −x Φ(x Φ(x) = e 2π −∞
2
/2dx
.
(6.19)
Estas funciones φ funciones φ((x), Φ(x Φ(x) han sido tabuladas. Tablas m´as as o menos extensas se encuentran en todos los libros de c´alculo alculo de probabili pro babilidades. dades. En el Ap´endice endice III se da un ejemplo de estas tablas. La gr´afica afica de la funcidn φ funcidn φ((x) tiene la forma de campana de la figura 6.3. Φ(x Φ(x) representa el ´area area entre la curva y el eje x desde hasta el punto x. Obs´ervese ervese que, por po r simetr sime tr´´ıa, el ´area area rayada desde hasta x es igual al area ´area rayada desde x desde x hasta , y como el ´area area total es 1, resulta
−∞ −∞ −
∞
Φ( x) = 1
−
Φ(x). − Φ(x
(6.20)
Esta relaci´on on hace que sea suficiente tabular para valores positivos de x. Un detalle que conviene tener en cuenta para no proseguir con c´alculos innecesari innecesarios os es que Φ(x Φ(x) < 0 < 0,,001 para x para x < 3,1 Φ(x Φ(x) > 0 > 0,,999 para x para x > 3, 3 ,1
−
de manera que, pr´acticamente, acticamente, basta conocer los valores de Φ(x Φ( x) en el intervalo [0, [0, 3]. Para calcular la funci´on on de densidad de probabilidad o la funci´on o n de 2 distribuci´ on de una variable normal N on normal N ((α, σ ) mediante las correspondientes de N de N (0 (0,, 1) basta hacer el cambio de variable
´ NORMAL. VARIABLES 84 84CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS
X =
X
−α
σ
(6.21)
con lo cual la funci´on on de distribuci´on on F ( F (x) se transforma de la siguiente manera:
x
F ( F (x) =
(x α)/σ
f ( f (x)dx = dx =
−∞
−
x−α φ(x )dx = Φ .
σ
−∞
(6.22)
Por tanto, recordando (6.7), se tiene el importante teorema siguiente. Para una variabl variablee aleator aleatoria ia normal normal de esper esperanz anza a α y Teorema 6.2. Para varianza σ σ 2 , la probabilidad probabilidad de que est´ e contenida en el intervalo [ intervalo [a, a, b] viene expresada por
P ( P (a < X
≤ ≤ b) = Φ
b
α
a
α
− − − σ
Φ
σ
.
(6.23)
Como la funci´ on on est´a tabulada, esta f´ormula ormula permite calcular P ( P (a < X b) para toda variable aleatoria normal.
≤ ≤
En particular, particular, aplicando (6.21) resulta: resulta: La probabilidad de que la variable aleatoria normal X X de tipo N ( N (α, σ 2 ) est´e comprendida en el intervalo interv alo [α , a + ] se expresa por
−
P ( P (α
− ≤ X ≤ ≤ α + ) = 2Φ
σ
−
1.
(6.24)
Poniendo Poniendo = σ = σx x esta igualdad puede tambi´ ta mbi´ en en escribirse en la forma
P ( P (α
σx ) = 2Φ(x 2Φ(x) − 1. − σx ≤ X ≤ ≤ α + σx)
(6.25)
En general, son de inter´ inter´es es las probabilidades que tienen los valores 0, 0 ,90, 0,95, 0, 0,99, o´ 0,999. Como se deduce de las tablas, estos valores corresponden a x = x = l, l,65, 65, x x = = 1,516, 516, x x = = 2,58, 58, x x = = 3,29, de manera que, para toda variable 2 normal N normal N ((α, σ ), se cumple
´ DE DENSIDAD DE PROBABILIDAD Y FUNCI ON ´ DE DISTRIBUCI ON ´ NORMAL85 6.3. FUNCI ON NORMAL85 Figura 6.4: Histograma de la distribuci´on on binomial comparado con la aproximaci´on on normal
P ( P (α P ( P (α P ( P (α P ( P (α
− 1,65 ≤ α + 1,1,65 65σ σ < X ≤ 65σ σ) − 1,96 ≤ α + 1,1,96 96σ σ < X ≤ 96σ σ) 58σ σ < X ≤ 58σ σ) − 2,58 ≤ α + 2,2,58 − 3,29 ≤ α + 3,3,29 29σ σ < X ≤ 29σ σ)
= = = =
0,90 0,95 0,99 0,999
(6.26)
Recordemos que en todas estas f´ormulas ormulas el signo puede sustituirse por <, puesto que la probabilidad de que X tome X tome un determinado valor es nula.
≤
Volvamos ahora a la igualdad aproximada (6.3) que se deduce del teorema de De Moivre–Laplace. Siendo la esperanza de la funci´on on binomial igual a np y la varianza igual a npq , el ´ultimo ultimo t´ ermino ermino de (6.3) es de la forma (6.15) y, por tanto, resulta que la funci´onde onde probabilidad binomial, en el l´ımite, es una funci´on on de densidad normal. Se dice que la funci´on binomial es “asint´oticamente oticamente normal”. Por tanto, como ya observamos, tomando el l´ımite como valor aproximado, resulta que, para valores grandes de n de n y r, r , y no demasiado peque˜ nos nos de p de p,, se podr´a calcular calcular b b((r ; n, p) mediante las tablas de la funci´on φ on φ((x), despu´es es de hacer el cambio (6.21), que es el mismo (6.4). Sin embargo, m´as as importante que calcular el valor aproximado de b( b (r ; n, p), que para r y n grandes es siempre un valor peque˜no, n o, es el c´alculo alculo de la probabilidad de que la variable binomial X est´ X est´e comprendida compren dida entre ciertos cierto s limites dados. Consideremos, por ejemplo, el caso b caso b((r ; 10 10,, 0,4) de la figura 6.4, y supongamos que se quiere hallar la probabilidad de que 3 X 6. Ser´a
≤ ≤ ≤
P (3 P (3
≤ X ≤ ≤ 6)
= b(3;10, (3;10, 0,4) + b(4;10, (4;10, 0,4) + b(5; (5; 10, 10, 0,4)+ + b(6;10, (6;10, 0,4)
(6.27)
Esta suma es el ´area area de los rect´angulos angulos de la figura 6.4, puesto que cada sumando es la altura de un rect´angulo angulo de base unidad. Considerando la aproximaci´ on (6.3), se tiene la curva on
y =
√ 2π1√ 2,4 e(x−4) /4,8, 2
(6.28)
representada en la figura 6.4. Si en vez del ´area de los rect´angulos, angulos, tomamos el ´area area limitada por la curva y las rectas x = 3, x = 6, se tendr´a el valor aproximado de P de P (3 (3 X 6).
≤ ≤ ≤
´ NORMAL. VARIABLES 86 86CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS Figura 6.5: Histograma de la funci´on on binomial para n para n = = 100 comparado con la aproximaci´ on on normal En este caso la aproximaci´on on no es muy buena, como se observa en la figura, pero lo hemos expuesto para comprender el paso de la suma de valores de b de b((r; n, p) para distintos valores de r, r , al ´area area limitada por la correspondiente curva normal, la cual se calcula f´acilmente acilmente mediante una tabla de la funci´on o n Φ(x Φ(x). En el ejemplo anterior, el c´alculo alculo exacto del segundo miembro de (6.27), da P (3 P (3 X 6) = 0, 0,778, y el c´alculo alculo mediante la funci´on on Φ, aplicando (6.25), donde α = np = 4, σ = npq = 1,54, resulta Φ(1, Φ(1,95) + Φ(0, Φ(0,64) 1 = 0, 0 ,713.
≤
≤
√
−
Para valores grandes de n de n y y r r la la aproximaci´on on de la suma de rect´angulos angulos por el ´area area limitada por la curva normal correspondiente es suficiente en todas las aplicaciones. Por ejemplo, la figura 6.5 representa los valores de b(r;100,0,2) y los de la curva correspondiente
y =
1 √ e−(x−20) /32 , 4 2π 2
donde se ve que la coincidencia es casi total. Es decir, del teorema de De Moivre–Laplace, que hemos enunciado como una aproximaci´ on on puntual de la funci´on on de probabilidad binomial por la funci´on on de densid densidad ad normal normal,, se deduce deduce una aprox aproxima imaci´ ci´ on o n entre la suma de las ´areas areas de los rect´angulos angulos originados por la funci´on on de probabilidad binomial y el ´area area de la funci´on on normal correspondiente. Puesto que el ´area area de la funci´onde onde densidad normal, comprendida entre dos ordenadas, es igual a la diferencia entre los valores de la funci´on on de distribuci´on on Φ(x Φ(x), es posible enunciar: parte). Si X es X es la variable Teorema de De Moivre–Laplace (Segunda parte). Si aleatoria que representa el n´ umero ume ro de d e ´exitos exi tos en n pruebas de un proceso de Bernoulli de prob probabilida abilidad d p p, se verifica
−
np np ≤ ≤ b) ∼ Φ b√ npq − Φ a√ −npq
P ( P (a < X
.
(6.29)
Como Com o antes, a ntes, el s´ımbolo ımb olo representa “aproximadamente “aproximadamente igual”. El verdadero significado es que, para n para n,, a, a , b de manera tal que (b ( b np) np)/ npq y (a np) np )/ npq npq tiendan a valores alores finitos, finitos, entonces entonces el l´ımite del primer primer miembro de (6.29) es igual al l´ımite ımite del segundo.
∼
−
√
→∞
−
√
6.4. TEOREM TEOREMA A CENTRAL CENTRAL DEL DEL L´IMITE
87
La obtenci´ obtenci´ on de acotaciones precisas del error que se comete al tomar la on aproximaci´ on on (6.29) es unproblema sumamente dif´ dif´ıcil (v´ ease, ease, por ejemplo, Feller,[1] p´ag. ag. 140). Se suele admitir, de manera un poco ambigua, pues depende de la precisi´on on que se desee en cada caso, que para valores no muy peque˜ nos n os de p (por ejemplo, p < 0,1) y relativamente grandes de n (por ejemplo, n > 20), la aproximaci´on on es muy buena, sobre todo si elintervalo [a, b] no se aparta mucho del valor medio np. np . Seg´ un Cramer,[4] la aproximaun ci´ on on es satisfactoria para npq para npq > 10. > 10. Hemos visto dos aproximaciones posibles de la distribuci´on binomial: la de Poisson y la normal. Para valores grandes de np ambas np ambas tienden a coincidir. Por ejemplo, para b para b(15 (15 : 100, 100, 0,2) = 0, 0,048, la aproximaci´ on on normal da 0, 0,046 y la aproximaci´on on de Poisson da 0, 0 ,051. Nuevamente la ley de los grandes n´umeros. umeros. Consideremos (6.29) para b = np = np + , a = np = np . Resulta
−
P ( P (np
− < X ≤ ≤ np + ) ∼ 2Φ √ npq −1
(6.30)
y tambi´ tamb i´en, en, ponien po niendo do n n en vez de
P
X p n
n pq
− ∼ − 2Φ
1.
(6.31)
Esta igualdad aproximada significa que, para n , ambos miembros tienen el mismo l´ımite. Pero, para n el segundo miembro tiende a 1 (pues Φ( ) = 1), con lo cual queda demostrado nuevamente el teorema de Bernoulli (cap´ (cap´ıtulo 4.3), a saber: en una sucesi´ on de pruebas de Bernoulli con probabilidad probabilidad p, p , dado un n´ umero cualquiera > 0, 0 , la probabilidad de que el n´ umero de ´exitos exitos dividido por n por n difiera de p en menos de , tiende a la unidad para n .
→ ∞
∞
→∞
→∞
6.4.
Teorema Central Central del L´ L´ımite
El teorema teorema de De Moivre–Laplace Moivre–Laplace es uncaso uncaso particular particular del siguiente teorema, cuya demostraci´on on no se va a dar (puede verse en los libros de Feller,[1] Reny[2] o R´ıos[3] citados en la Bibliograf´ Bibliograf´ıa), pero cuyo enunciado conviene tener presente en muchas cuestiones de probabilidad. Teorema Central del L´ ımite. Si las variabtes aleatorias X 1 , X 2 , . . .
´ NORMAL. VARIABLES 88 88CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS son independientes y tienen todas la misma distribuci´ on, con esperanza ma2 2 tem´ atica α y α y varianza σ σ finitas y σ σ = 0, 0 , entonces la nueva variable aletoria
Z n =
X 1 + X 2 + . . . + X n σ n
√
− nα ,
(6.32)
es asint´ oticamente nomal, es decir, su funci´ on de distribuci´ distribuci´ on F F n (z ) cumple, para todo z , la relaci´ on l´ım F n (z ) = Φ(z Φ( z )
(6.33)
n
→∞
Aplicaci´ on on 1. Consideremos el caso particular en que las X n son varia-
bles de Bernoulli, o sea, variables que toman ´unicamente los valores 0 y 1, de manera que P ( P (X n = 1) = p, P ( P (X n = 0) = q = 1 p. p. En este caso es 2 2 2 α = 1 p+ p + 0 q = p = p,, σ = (l ( l p) p) p+ p + p q = pq = pq . La suma X suma X 1 + X 2 + . . . + X n es la variable aleatoria que indica el n´umero umero de ´exitos exitos en un proceso binomial de n pruebas. Poniendo X = X 1 + X + X 2 + . + . . . + X + X n , el teorema central del l´ımite nos dice que la nueva variable
·
·
− ·
−
·
Z n =
X
np √ −npq
es asint´oticamente oticamente normal. Esto es, precisamente, lo que afirma el teorema de De Moivre–Lapl Moivre–Laplace. ace. variables X n son variables de Poisson de par´ametro ametro Aplicaci´ on on 2. Si las variables X
γ , y por tanto E (X n ) = γ , γ , σ 2 (X n ) = γ (para γ (para todo n), la suma X = X 1 + X 2 + . + . . . + X + X n es otra variable de Poisson de par´ametro ametro nγ = λ (v´ (v´ease ea se la aplicaci´ on on del cap´ cap´ıtulo 5.1). 5.1 ). Entonces (6.32) y (6.33) permiten escribir
l´ım P
n
→∞
X
λ
√ −
= Φ(z Φ(z )
(6.34)
λr −λ e = Φ(z Φ(z ) √ r!
(6.35)
λ
o sea
l´ım
n
→∞
x<λ+ x<λ+z λ
Esta relaci´on o n nos dice que, para λ grande, la distribuci´ on de Poisson puede puede aproximar aproximarse se mediante mediante la distribuci´ distribuci´ on normal .
6.4. TEOREM TEOREMA A CENTRAL CENTRAL DEL DEL L´IMITE
89
Por este motivo, las tablas de la funci´on on de Poisson no suelen pasar de λ = 10. Para valores λ > 10, cada sumando de (6.35) es despreciable, y la suma debe calcularse por tablas de la funci´on on Φ(z Φ(z ). variable X tiene tiene distribuci´onde onde Poisson de par´ametro λ ametro λ = = Ejemplo. La variable X
√
900. Calc´ ulese P ulese P ((X < 950). Aplicando (6.35) tenemos λ tenemos λ+ +z λ = 900+30z 900+30z = 950, de donde z donde z = 1,666, y la probabilidad pedida es Φ(1, Φ(1,666) = 0, 0,95. umeros. Calcular la probabilidad de Problema 6.1. Una ruleta tiene 35 n´ que en 1.000 jugadas el n´ umero 12 salgaa un n´ umero de veces comprendido entre 25 y 30. Soluci´ on. o n. Se aplica la f´ormula ormula (6.20). Aunque p = 1/35 es peque˜no, no, siendo h siendo h = = 1000 grande, se puede aplicar la aproximaci´on (6.29), y se obtiene P (25 P (25 X 30) = Φ(0, Φ(0,585) Φ( 0,390) = Φ(0, Φ(0,585)+Φ(0, 585)+Φ(0,390) 1 = 0, 0 ,37.
≤ ≤ ≤
− −
−
Problema 6.2. Se lanza un dado 100 veces. Se desea saber la probabi-
lidad de que el nlmero 6 salga m´ as de 20 veces. para n = = 100, p 100, p = = 1/6, resulta P resulta P ((X > 20) = Soluci´ on. on. Aplicando (6.29) para n 1
− Φ(0 − 89) = 0,0,19. Problema 6.3. Tanto la desigualdad de Tchebycheff, en la forma (4.11)
del teorema de Bernoulli, como la f´ ormula (), permiten calcular el n´ umero n de pruebas necesarias para que la frecuencia experimental difiera de p en menos de un dado, con cierta probabilidad probabilidad tambi´ en en dada. Sin embargo, embargo, como ya se observ´ o al final del problema 4.4, la f´ ormula (4.11) da casi siempre acotaciones excesivas. Se recomienda aplicar siempre la f´ ormula (4.11). (4.11). Consideremos por ejemplo el mismo problema 4.4. Seg´ un un (4.11), queremos que se cumpla n 2Φ pq
−
n > 0, 0 ,975 975.. pq
1 > 0 > 0,,95 95,, o sea Φ
Las tablas de la funci´on on Φ dan
n > 1, 1 ,96 96,, pq
pq n > (1, (1 ,96)2 2 .
(6.36)
Seg´ un un el enunciado, es es = = 5 10−3 . El producto pq producto pq no no es conocido, pero seg´ un un (4.13) es siempre pq siempre pq < l/4. l/4. Por tanto, (6.36) se cumplir´a con seguridad 2 4 si n si n > (1, (1 ,96) 10 = 38 38,,420. Vemos que este n´ umero es muy inferioral 200.000 umero dado por la f´ ormula ormula (4.11).
·
´ NORMAL. VARIABLES 90 90CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS ıstico debe recibir 1.000 1 .000 personas, las cuaProblema 6.4. Un centro tur´ıstico les deber´ an distribuirse entre dos hoteles iguales. Suponiendo que cada persona elige uno u otro de los hoteles con la misma probabilidad 1/2, se desea saber la capacidad capacidad m´ınima de cada hotel hot el (n´ umero de personas que se pueden albergar) para que, con probabilidad superior a 0,95 95,, todas las personas encuentren alojamiento. npq = 250. Hay que calcular x de modo que Soluci´ on. on. Es np = 500, npq = P (500 P (500 x X 500+ x) > 0 > 0,,95. Puesto que n que n es es grande, podemos aplicar (6.29), resultando
− ≤ ≤ ≤
P (500 P (500
− x ≤ X ≤ ≤ 500 + x) = Φ
x 250
x 250
x 250
√ − √ − √ − Φ
=Φ
1.
Para que esta probabilidad sea > 0,95, usando las tablas de la funci´on on Φ, resulta que debe ser
Φ
x 15 15,,81
> 0, 0 ,075 075,,
x x > 1, 1 ,906 906,, 30 30.. 15,,81 15 >
Es decir, bastar´a que cada hotel tenga capacidad para 530 personas. on de una poblaci´ on numerosa, un candiProblema 6.5. En una votaci´ dato obtiene obtiene el 60 % de los votos. votos. Se dese desea saber saber la prob probabi abilida lidad d de que en una muestr muestra de 100 votante votantes, s, tomados tomados al azar, menos del 50 % voten voten por el candidato. on on (6.29) para b para b = = np np Soluci´ on. on. La ecuaci´ X P
− /n
√ − =Φ
a = −∞, se puede escribir − , a =
=1 npq
− Φ √ npq
.
√
En el caso actual es p = 0,6, n = 100, /n = 0,1, = 10, npq = 24 = 4, 4,9, y las tablas de la funci´on o n Φ dan Φ(2, Φ(2,04) = 0, 0,979. Por tanto, la probabilidad buscada es 0, 0,021.
√
En la pr´actica, actica, este problema se aplica a la inversa: sabiendo que una muestra muestra tomada al azar en una poblaci´ on (supuesta binomial) ha dado como on resultado el r por ciento de votos a favor de cierto candidato, averiguar la probabilidad de que dicho candidato obtenga el s por ciento o m´as a s en la elecci´ on on verdadera.
91
6.5. OTRAS FUNCION FUNCIONES ES DE DENSIDA DENSIDAD D
Problema 6.6. Un medicamento contra cierta enfermedad es eficaz en el
80 % de los casos. casos. Se ensaya una modific modificaci´ aci´ on del mismo, y se observa que en 100 enfermos tratados result´ o eficaz en 90 de ellos. ¿Cu´ al es la probabilidad de que este resuttado del tratamiento sea debido al azar? alogo al anterior. Conviene ahora escribir (6.29) Soluci´ on. on. Es un caso an´alogo para a = np = np + , b = b =
∞, y queda
P
X p n
− ≥ n
=1
− Φ √ npq
.
√
En el caso del problema, es p = 0,8, n = 100, /n = 0,1, npq = 4, Φ(2, Φ(2, 5) = 0, 0,994. Por tanto, si p = 0,8 la probabilidad de haber obtenido X/n 0,9 es 0, 0,006. Como esta esta probab probabili ilidad dad es muy muy peque˜ peque˜ na, n a, hay que inferir que la modificaci´on on ha mejorado el medicamento.
≥
Problema 6.7. Se ha observado que de 100.000 nacimientos, 51.400 de
los nacidos han aido varones y el resto mujeres. ¿Es consistente este hecho con la igualdad de las probabilidades de nacimiento de var´ on o mujer? caso p = 0,5, X/n 5, X/n = 0,514 y por tanto Soluci´ on. on. Apliquemos (6.31) al caso p = 0,014,
n/pq = = 632, 632,4. Resulta
P
X > 0, 0 ,014 = 2(1 n
Φ(8,85)). 85)). − Φ(8,
Como Φ(8, Φ(8,85), que no se halla en las tablas, es del orden 1 10 −9 , resulta que la probabilidad de que el nacimiento de 51.400 om´as varones seadebido al azar, si la probabilidad fuera 0, 0 ,5, es insignificante. Por tanto, debe rechazarse la hip´otesis otesis de que sea p = 0,5.
−
Este tipo de problemas, se estudian con m´as as detalle en el cap´ cap´ıtulo 8, al tratar de la “verificaci´on on de hip´otesis”. otesis”.
6.5. 6.5.
Otras Otras Funcion unciones es de Densid Densidad ad
Adem´ as as de la funci´on on de densidad normal, que es la m´as as importante, son tambi´ tamb i´en en de inter´ inte r´es es las siguient sigu ientes: es: a) Funci´ on de densidad uniforme. Depende de dos par´ametros a y b on (a < b) b ) y vale
´ NORMAL. VARIABLES 92 92CAP CAP ´ITULO 6. 6. DISTRIBUCI DISTRIBUCI ON VARIABLES ALEATORIAS ALEATORIAS CONTINUAS
f ( f (x) =
1
b
para x ∈ [a, b], − a para x
f ( f (x) = 0 para x / [a, b].
∈
De aqu´ı a+b E (X ) = , 2
2
σ (X ) =
(b
− a)2 . 12
b) Funci´on on de densidad exponencial. Depende de un par´ametro λ ametro λ > O y vale f ( f (x) = λ e−λx
para x > 0, 0 ,
f ( f (x) = 0 para x
≤ 0.
Para esta funci´on on es E (X ) =
1 , λ
σ 2 (X ) =
1 . λ2
C) Funci´on on de densidad de Cauchy. Depende de un par´ametro a ametro a y vale
f ( f (x) =
1 1 π 1 + (x (x
− a)2 para − ∞ < x < ∞.
La esperanza matem´atica atica y la varianza de esta funci´on on valen
∞.
Cap´ıtulo 7
La F´ ormula ormula de Bayes 7.1.
Inferencia Estad´ Estad´ıstica
El c´alculo alculo de probabilidades es un cap´ cap´ıtulo de la matem´ atica. atica. Como tal, se construye a partir de unas definiciones y unos axiomas, ´unicas unicas fuentes de que depende la validez de los resultados. Aunque los modelos y ejemplos del c´alculo alculo de probabilidades provienen de la experiencia (lanzamiento de monedas monedas o dados, extracci´ extracci´ on de bolillas de urnas, etc.), de ella se toma s´olo on olo el esquema, para llegar a las ideas, pero la validez de los teoremas a que se llega no depende nunca de resultados experimentales. M´as as bien bie n al a l rev´ re v´es, es, si el resultado resultado de un teorema no coincide coincide con el de la experiencia, experiencia, la discrepanci discrepanciaa se atribu atribuye ye a que ´esta esta ha sido sido mal realiz realizada ada,, o a que los elemen elementos tos de la misma misma (moneda, (moneda, dado, urna, urna, . . . ) no estaban estaban en buenas buenas condici condicione ones. s. La estad´ estad´ıstica, en cambio, es una ciencia experimental. exp erimental. Trata Trata de ordenar, o rdenar, estudiar y predecir el comportamiento de ciertas caracteristicas de los elementos de un conjunto, llamado poblaci´ on, colectivo o universo, universo, que existe de hecho en la naturaleza. Decimos que es una ciencia experimental porque, si bien utiliza a modo de herramienta el c´alculo alculo de probabilidades, probabilidades, su objeto es el estudio de conjuntos cuyo comportamiento no se puede cambiar, y el estad´ estad´ıstico debe deb e utilizar la parte de la matem´atica atica que m´as as le convenga para llegar a resultados acordes con la realidad. Dentro de la estad´ıstica, ıstica , el cap´ cap´ıtulo m´as as vinculado con la teor´ teor´ıa de las probabilidades es el llamado de la inferencia estadistica. Su objeto es en cierta cierta manera manera el inverso inverso del de los cap´ cap´ıtulos precedentes. precedentes. Hasta ahora hemos estudiado funciones de probabilidad probabilidad o de distribuci´ distribuci´ on, on, y de ellas hemos sacado consecuenci consecuencias as sobre las poblaciones poblaciones que se adaptaban a ellas. La fun93
´ CAP ´ITUL ITULO O 7. LA F ORMULA DE BAYES
94
ci´on on de probabilidad era un dato. El problemade la inferencia estadistica es el inverso: a partir ciertos datos de una poblaci´on, averiguar la funcian de probabilidad probabilidad que los rige. Los datos que se conocen de la poblaci´ on on proceden de ciertas muestras de la misma, o sea, de ciertos subconjuntos elegidos en ella, y de las propiedades de las muestras hay que “inferir” las de toda la poblaci´on. on. A veces, a partir de las muestras, hay que estimar los valores de ciertos par´ ametros ametros de la poblaci´on on (media, varianza), y otras veces hay que verificar hip´otesis otesis sobre los valores de estos par´ametros. ametros. Ya veremos ejemplos en los cap´ıtulos ıtu los que siguen. sigu en. En ´este, este, como puente entre las probabilidades y la inferencia estadistica, vamos a dar la llamada f´ ormula ormula de Bayes.
7.2.
Formula o ´rmula de Bayes
Sean A1 , . . . , A2 , . . . , An n sucesos que se excluyen mutuamente y cuya uni´on on es todo el espacio muestral E , o sea, A1 A2 . . . An = E . Sea B un suceso tal que P ( P (B ) = 0, y supongamos que se conocen tanto las probabilidades condicionales P condicionales P ((B Ai ) como las probabilidades P probabilidades P ((Ai ).
∪ ∪ ∪
|
El problema de Bayes consiste en calcular, con los datos anteriores, las probabilidades P probabilidades P ((Ai B ). Seg´ un un (2.7) tenemos
|
P ( P (B
∩ Ai) = P ( P (Ai )P ( P (B |Ai ) = P ( P (B )P ( P (Ai |B )
(7.1)
y seg´ un el axioma II de la definici´on un on 2.5 de probabilidad
P ( P (B ) = P ( P (B
∩ E )
= P ( P (B n
=
1
∩ (∪Ai)) = P ( P (∪(B ∩ Ai )) = P ( P (B ∩ Ai ).
(7.2)
De (7.1) y (7.2) se deduce
P ( P (Ai B ) =
|
P ( P (Ai n
1
∩ B) = P ( P (Ai ∩ B )
P ( P (Ai )P ( P (B Ai ) n
1
|
P ( P (Ai )P ( P (B Ai )
|
.
(7.3)
´ 7.2. 7.2. F ORMULA DE BAYES
95
Esta es la f´ormula ormula conocida con el nombre de f´ f ormula ´ de Bayes (publicada por J. Bayes en Philosophical Transactions , 1764), la cual expresa la llamada “probabilidadde las causas”, pues resuelve el siguiente problema: Suponiendo que un suceso B puede producirse como consecuencia de cualquiera de los sucesos Ai y sabiendo que B se ha producido, averiguar la probabilidad de que haya sido debido a la causa Ai . Se suponen conocidas las probabilidades P probabilidades P ((Ai ) y P ( P (B Ai ).
|
Problema 7.1. La urna A1 contiene 10 bolillas blancas y 15 negras. La
urna A A 2 contiene 25 bolillas blancas y 5 negras. Se ha extra ex tra´ ´ıdo una bolilla de una de las urnas y ha resultado ser blanca. Se supone que, a priori, las dos urnas eran igualmente probables. ¿Cu´ al es la probabilidad de que la bolilla haya sido extra´ extra´ıda de la urna A1 ? P (A1 ) = P ( P (A2 ) = 1/2, P ( P (B A1 ) = 1 0/ 0/2 5 = 2/ 2/5, Soluci´ on. on. Es P (
|
P ( P (B A2 ) = 25/ 25/30 = 5/ 5/6. Por tanto la f´ormula ormula de Bayes da P ( P (A1 B ) = 12 12/ /37.
|
|
abric abrica a tiene tiene tres tres m´ aquinas A1 , A2 , y A3 para Problema Problema 7.2. Una f´ producir ciertas piezas, tales que: A1 pro produce duce el 30 % de las piezas piezas con un porc porcentaje entaje del 2 % de piezas defectuosas defectuosas;; A2 pro produce duce el 25 % de las piezas piezas con el 1 % de defe defectuosas ctuosas y A3 pro produce duce el 45 % de las piezas piezas con con el 3 % de defectuosas. Se elige al azar una pieza que sale de la f´ abrica para la venta y resulta ser defectuosa, ¿ u´ al es la probabilidad de que provenga de la m´ aquina A1 , de la A2 o de la A3 ? P (A1 ) = 0,3, P ( P (A2 ) = 0,25, P ( P (A3 ) = 0,45, P ( P (B A1 ) = Soluci´ on. on. Es P (
|
0,02, 02, P P ((B A2 ) = 0,01, 01, P P ((B A3 ) = 0, 0 ,03. Con estos datos, las probabilidades P ( P (Ai B ) de que la pieza defectuosa (suceso B ) provenga de la m´aquina A aquina A i , resultan
|
|
|
P ( P (A1 B ) = 0, 0 ,274 274,,
|
P ( P (A2 B ) = 0, 0 ,114 114,,
|
P ( P (A3 B ) = 0, 0 ,614 614..
|
ormula de Bayes permite calcular la probabilidad “a ormula Problema 7.3. La f´ posteriori” despu´ es es de realizado un cierto experimento, de un suceso cuya probabilidad “a priori” se conoce. Supongamos, por ejemplo, una moneda desconocida a la que atribuimos una probabilidad p1, de tener dos caras. Se lanza la moneda n veces consecutivas y en todas ellas sale cara. ¿Cu´ al es la probabilidad, probabilidad, despu´ es es de estos lances, de que la moneda tenga dos caras? caras? Soluci´ on. on. Sea A Sea A 1 el suceso suceso “tener dos caras”, caras”, A A 2 el suceso opuesto (tener una sola cara) y B y B el el suceso “salir cara n cara n veces veces consecutivas”. Es P Es P ((A1 ) = p 1 , n P ( P (B A1 ) = 1, P ( P (B A2 ) = (1/ (1 /2) , P ( P (A2 ) = 1 p1 . Por tanto, la f6rmula de Bayes da para la probabilidad buscada
|
|
−
´ CAP ´ITUL ITULO O 7. LA F ORMULA DE BAYES
96
P ( P (A1 B ) =
|
p1 . p1 + (1 p1 )(1/ )(1/2)n
−
Por ejemplo, si p si p 1 = 10−7 , resulta P resulta P ((A1 B )
| ∼ 10−4.
ultimo problema se basa en la probabilidad a ultimo probabilidad a priori Observaci´ on. on. Este ´ p1 , que en cierto modo es un “grado de creencia” acerca de una determinada cuesti´ on. El ejemplo pone de manifiesto la relaci´on on. o n de la f´ormula ormula de Bayes con la inferencia estad´ıstica: ıstica: a partir de un valor estimado p estimado p 1 , mediante mediante una muestra (en el ejemplo anterior el lanzamiento n veces de la moneda) se consigue un mejor valor de la probabilidad estimada. Debido a la ambig¨ uedad de la probabilidad a priori, el uso de la f´ormula uedad ormula de Bayes en este tipo de problemas ha sido muy discutida. En general, se procura no usarla, si bien, modernamente, hay escuelas que procuran tomarla como base de toda la teor´ teor´ıa de la inferencia estad´ estad´ıstica (v´ ease ease el Libro de Lindley, Lindley, citado en la Bibliograf´ Bibliograf´ıa[6]).
Cap´ıtulo 8
Estimaci´ on on por Punto 8.1. 8.1.
Mues Muestr tras as
Sea X una X una variable aleatoria, discreta o continua, cuya funci´on on de probabilidad o de densidad sea f , f , y cuyo dominio sea una cierta poblaci´on o n (o espacio muestral) dada. Una muestra Una muestra de de tama˜ no n no n,, significa unconjunto x unconjunto x 1 , x2 , . . . , xn de valores de X . Para que una muestra sea ´util util hay que suponer que ha sido tomada “al azar” con la funci´on on de probabilidad o de densidad f . f . Esto significa que se cumplen las dos condiciones siguientes: a) Cada uno de los valores xi puede considerarse como un valor de una nueva variable aleatoria X aleatoria X i que tiene la misma funci´on on de probabilidad o de densidad f densidad f que X que X .. Por tanto E (X i ) = E (X ),
σ 2 (X i ) = σ 2 (X ),
i = 1, 2, . . . , n .
b) Las variables aleatorias X aleatorias X i son independientes. Vamos a suponer siempre que estas dos condiciones se cumplen, lo que facilita la realizaci´on on de inducciones a partir de la muestra. Supongamos, por ejemplo, que la poblaci´on on sea el conjunto conjunto de los habitantes habitantes de un pa´ pa´ıs cuya edad est´a comprendida entre 20 y 21 a˜nos, nos, y que X que X representa representa la talla de los mismos: Al hablar de una “muestra” de esta se sobrentiende que se han tomado toma do n habitantes independientes entre s´ı (no entre los de una misma ascendencia o entre los que practican un mismo deporte) y que, adem´as, es l´ıcito suponer que todos ellos tienen la misma probabilidad probabilidad de tener una 97
´ POR PUNTO CAP ´ITULO ITULO 8. ESTIMA ESTIMACI CI ON
98
talla entre ciertos limites (o sea, todos est´an an sujetos a la misma funci´on on de densidad de probabilidad). El problema de elegir bien las muestras, de manera que se cumplan las mencionadas condiciones a) y b), no es un problema f´acil. acil. Hay diversas diversas t´ecnicas ecnicas que se adaptan a cada caso particular. Para poblaciones finitas es u util ´ til el uso de las “tablas de n´umeros umeros aleatorios”, es decir, tablas de n´umeros umeros que pueden considerarse como elegidos al azar. Entonces, para tomar una muestra de tama˜ no no n, se numeran todos los elementos del conjunto y se toman n n´umeros umeros sucesivos de dichas tablas. Para poblaciones infinitas se pueden tambi´ en en utilizar las tablas de n´umeros umeros aleatorios, sustituyendo la poblaci´on on infinita por otra poblaci´ on on finita de an´aloga aloga composici´ composici´ on. on.
8.2. 8.2.
Medi Media a y Var Varia ianz nza a de una una Mues Muestr tra a
Supongamos una variable aleatoria X , y sean x1 , x2 , . . . , xn sus valores en una determinada muestra de tama˜no n no n.. La La media media de la muestra es
x¯ =
1 (x1 + x2 + . . . + xn ) n
(8.1)
y la varianza de la muestra es
1 s = n 2
n
1
(xi
−
1 x ¯) = n 2
n
1
xi2
− x¯2
(8.2)
Obs´ ervese ervese la diferencia entre estos valores y la esperanza o media E ( E (X ) 2 y la varianza σ varianza σ (X ). ). En estos ultimos u ´ ltimos intervienen intervienen todos los posibles valores valores de X de X ,, en tanto que en (8.1) y de (8.2) intervienen ´unicamente n unicamente n valores. De manera an´aloga, aloga, teniendo en cuenta las definiciones del cap´ cap´ıtulo 3, se definen el momento de orden r de la muestra
ar =
y el momento el momento centrado de orden r
1 n
n
1
xri
(8.3)
99
8.2. MEDIA Y VARIAN VARIANZA ZA DE UNA MUESTRA MUESTRA
1 mr = n
n
(xi
1
− x¯)r .
(8.4)
A veces interesa la llamada asim asimet etr´ r´ıa ıa g1 y el exceso g2 de la muestra, que se definen por g1 =
m3 s3
g2 =
m4 s4
− 3.
Considerando cada valor xi de la muestra como valor de una variable aleatoria X aleatoria X i , entonces x ¯ ser´a el valor de lavariable aleatoria ¯ = 1 (X 1 + X 2 + . . . + X n ). X n
(8.5)
Aplicando Aplicando los teoremas teoremas del cap´ cap´ıtulo 3 referente referentess a la esperanza esperanza y a la varianza de una suma de variables aleatorias, y teniendo en cuenta (8.1) y (8.5) resulta ¯ ) = E ( E (X E (X )
(8.6)
¯ ) = (1/n y tambi´en, en, puesto que las X i son independientes, σ 2 (X (1/n2 )σ 2 (X 1 + X 2 + . . . + X n ) = (1/n (1 /n))σ 2 (X ), ), o sea, 2 ¯ ) = σ (X ) . σ 2 (X n
(8.7)
100
´ POR PUNTO CAP ´ITULO ITULO 8. ESTIMA ESTIMACI CI ON
Cap´ıtulo 9
Estimaci´ on on por Intervalos de Confianza. Verificaci´ on on de Hip´ otesis otesis 9.1. 9.1.
La Dist Distri ribu buci ci´ on o ´n χ2 (“ji” cuadrado)
Antes de entrar en la estimaci´on on de parametros parametros por el m´ etodo etodo de intervalos de confianza son necesarias algunas distribuciones importantes que vamos a enunciar. Nos limitaremos a exponer sus principales propiedades sin entrar en su demostraci´on, on, la que, sin ser dificil, exige el c´alculo de ciertas integrales m´ ultiples que se quieren evitar. Las respectivas demostraciones ultiples pueden verse, por po r ejemplo, en el libro de R´ıos,[3] citado en la bibliograf´ bibliograf´ıa. Sean X 1 , X 2 , . . . , Xn va varia riable bless aleator aleatorias ias indepen independie dient ntes es normal normales es N (0 N (0,, 1), es decir, de media 0 y varianza l. Consideremos la nueva variable aleatoria χ2 = X 12 + X 22 + . . . + X n2 .
(9.1)
Se demuestra que la funci´on on de densidad de esta variable χ 2 es
kn (x) =
1 n/2 Γ 2n/2
n 2
n/2−1 −x/2 xn/2 e x/2 ,
x>0
(9.2)
donde Γ(n/ Γ(n/2) 2) es la funci´on on “gamma” que se define en el Ap´ endice endice II. La 101
´ POR INTERV ´ D 102CAP 102 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON correspondiente funci´ correspondiente funci´ on de distribuci´ on χ2 es
2
P ( P (χ
x
≤ x) =
−∞
kn (x)dx.
(9.3)
Tambien nos interesaremos por
2
P ( P (χ
> χ 20 )
=
x
2 0
χ
kn (x)dx,
χ20
≥ 0.
(9.4)
Esta Esta es una probab probabili ilidad dad,, cuyo cuyo valor depende depende de χ20 y de n. Represent´andola andola por p por p,, escribiremos P ( P (χ2 > χ 20 ) = p.
(9.5)
En general interesa, dados p y n, calcular χ20 para que (9.5) se cumpla. Para ello se han construido las tablas de χ de χ 2 (v´ease ease el Ap´endice endi ce III), II I), que dan 2 el correspondie correspondiente nte χ0 para distintos valores de p y de n. El n´ umero umero n se 2 llama el n´ umero umero de grados de grados de libertad de χ de χ . En resumen, prescindiendo de su procedencia, lo que interesa es saber que las tablas de χ2 resuelven el siguiente problema: “Dadas n variables aleatorias independientes normales N (0 N (0,, 1), sean X 1 , X 2 , . . . , Xn , y la pro2 babilidad p, calcular el valor χ0 tal que sea P ( P (χ2 > χ20 ) = p, siendo χ2 la suma (9.1). A partir de (9.2) y como ejercicio de cdlculo integral se pueden calcular los valores E (χ2 ) = n,
σ 2 (χ2 ) = 2n. 2 n.
(9.6)
Si las variables normales X i son de tipo N ( N (α, σ 2), basta reducirlas al tipo N tipo N (0 (0,, 1), es decir, se considera la suma n
1
X i
−α
σ
que tendr´ tendr´a entonces una distribuci´on χ on χ 2 . En particular, particular, escribiendo escribiendo
(9.7)
´ χ 9.1. LA DISTR DISTRIBU IBUCI CI ON χ 2 (“JI” CUADRADO)
S 02
1 = n
n
103
− α)2
(X i
1
(9.8)
resulta que la la variable aleatoria nS nS 02 /σ2 tiene la distribuci´ distribuci´ on χ χ 2 con n grados n grados de libertad . En cambio, si se considera la suma
1 S = n 2
n
− X ¯ )2
(X i
1
(9.9)
¯ = (1/n donde X (1 /n)( )(X X 1 + X 2 + . . . + X n ), los sumandos del segundo miembro ya n
no son independientes (puesto que
(X i
1
− X ¯ ) = 0) y el resultado anterior
deja de ser v´alido. alido. En este caso se demuestra que: si las variables aleatorias independientes X X i son normales de tipo N ( N (α, σ 2 ), la nueva variable aleatoria aleatoria 2 2 2 nS /σ tiene una distribuci´ on χ con n 1 grados de libertad.
−
Obs´ Ob s´ervese erv ese que qu e si χ 21 , χ22 , . . . , χk2 son variables independientes distribuidas como χ como χ 2 con n con n 1 , n2 , . . . , nk grados de libertad respectivamente, la suma χ 21 + χ22 + . + . . . + χ + χk2 ser´a una variable distribuida como χ 2 con n con n 1 + n + n2 + . + . . . + n + nk 2 grados de libertad, puesto que la suma de las χ i equivale auna sumade n sumade n 1 + n2 + . . . + nk variables normales N normales N (0 (0,, 1). En particular, si de una poblaci´on on 2 normal de varianza σ , se toman k muestras independientes de tama˜nos nos 2 n1 , n2 , . . . , nk y de cada una se forma la suma S i an´aloga a loga a la (9.9), la cantidad n1 S 12 + n2 S 22 + . . . + nk S k2 σ2 est´ a distribuida como una χ una χ 2 con n con n 1 + n2 + . . . + nk
(9.10)
− k grados de libertad.
on χ2 es que Observaci´ on. on. Una propiedad importante de la distribuci´on ´esta esta tiende a la distribuci´ distrib uci´on on normal cuando el n´ umero de grados de libertad umero tiende a . Es decir, teniendo encuenta los valores (9.6), resulta que la χ2 tiende a unanormal de tipo N ( N (n, 2n). Esto hace que las tablas de la 2 distribuci´ on on χ est´en, en, en general, g eneral, calculadas calcul adas hasta n = 30 s´olamente. olamente. Para m´as as grados de libertad se utilizan las tablas de la funci´on on de distribuci´on on normal Φ.
∞
´ POR INTERV ´ D 104CAP 104 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON Figura 9.1: Densidad de la t la t de Student
9.2. 9.2.
La Dist Distri ribu buci ci´ on o ´n t de Student
Sea X Sea X una una variable aleatoria cuya funci´on on de distribuci´ distribuci´ on on es la χ la χ 2 con n con n grados de libertad, y sea Y sea Y otra otra variable aleatoria, independiente de X , X , que sea normal N normal N (0 (0,, 1). Interesa muchas veces la variable aleatoria
T =
Y . X/n
(9.11)
Se demuestra (v´ease, ease, p or ejemplo, Cramer[4]) que la funci´on on de densidad de T de T es
sn =
1 nπ
√
Γ
n+1 2 n Γ 1
x 2 1+ n
(n+1)/ +1)/2
.
(9.12)
Esta funci´on on de densidad corresponde a la llamada distribuci´ on t de Student , debida al ingl´es es W. S . Gosset, quien la public´o con el pseud´onimo onimo de Student en 1908. El n´ umero n umero n es el n´umero umero de grados de libertad de t. t . La curva y curva y = = s s((x) es sim´etrica etrica respectod respe ctodee x = x = 0. La probabilidad de que sea T > t0 , la suma de las dos ´areas areas rayadas en la figura 9.1, y su valor, que dependa de t 0 , y de n de n,, es
| |
P ( P ( T > t 0 ) = 2
| |
∞ 0
sn (x)dx = dx = p. p.
(9.13)
An´ alogamente alogamente al caso de χ de χ 2 , se han tabulado los valores de t de t,, en funci´ on on de p de p y de n de n.. Las tablas de la funci´on t on t (v´ (v´ease eas e el Ap´endice endi ce III I II)) resue re suelven lven el sigu s iguient ientee problema: “Dadas las variables aleatorias X aleatorias X e Y en Y en las condiciones dichas, y una probabilidad p probabilidad p,, hallar el t el t 0 > 0 > 0 para el cual es P ( P ( T > t 0 ) = p”. p ”.
| |
La esperanza y la varianza de T T son (para n > 1 y n > 2, respectivamente)
´ T DE 9.2. LA DISTR DISTRIBU IBUCI CI ON T DE STUDENT
σ 2 (T ) T ) =
E (T ) T ) = 0, 0,
105 n
n
− 2.
(9.14)
Para n Para n , la distribuci´on t on t converge converge a la distribuci´on on normal reducida N (0 N (0,, 1), de manera que para n > 30, en vez de las tablas de t , se utilizan las tablas de la funci´on on Φ, ya que para n para n > 30 los valores de la distribuci´on on t casi no se modifican.
→∞
variables independien independientes tes normales normales Ejempl Ejemplo o 1. Sean X 1 , X 2 , . . . , Xn variables
N (0 N (0,, 1). Hemos visto que ns2 /σ 2 tiene una distribuci´on on χ2 con n 1 gra ¯ α)/(σ/ n) tiene distribuci´on dos de libertad. Por otra parte, ( X on normal 2 2 N (0 N (0,, 1) y se demuestra que es independiente de ns /σ . Por tanto
−
T =
−
√
¯ α X S/ n 1
√ − −
tiene una distribuci´on on de Student con n que en (9.15) no figura la varianza σ varianza σ 2 .
(9.15)
− 1 grados de libertad. libe rtad. Obs´ervese ervese
Ejempl Ejemplo o 2. Sean X i (i = 1, 2, . . . , nX ) e Y j ( j = 1, 2, . . . , nY ) mues-
tras independientes de las variables normales X e Y , Y , de medias respectivas E (X ) = αX , E (Y ) Y ) = αy y de la misma varianza σ 2 (X ) = σ 2 (Y ) Y ) = σ 2 . 2 y S 2 a las sumas (9.9), seg´ Llamando S Llamando S X un (9.10), la variable aleatoria un Y 2 + n S 2 nX S X Y Y 2 σ
(9.16)
tiene una distribuci´on χ on χ 2 con n con n X + nY
− 2 grados de libertad. Por otra parte
¯ Y ) ¯ ) (αX αY ) (X Y σ (1/n (1/nX + 1/n 1 /ny )1/2
− −
−
(9.17)
tiene una distribuci´onnormal onnormal N (0 N (0,, 1), como resulta de aplicar el teorema 6.1 y teniendo en cuenta que σ 2 (X ) = σ 2 /nX , σ 2 (Y ) Y ) = σ 2 /nY . Se puede demostrar que (9.16) y (9.17) son independientes. Por tanto, la variable
T =
¯ Y ) ¯ ) (αX αY ) (X Y 2 + n S 2 )/ [(n [(nX S X 2)]1/2 (1/n (1/nX + 1/n 1 /nY )1/2 Y Y )/(nX + nY
− −
−
−
(9.18)
tiene una distribuci´on on de Student con nX + nY 2 grados de libertad. Es importante observar que en esta f´ormula ormula no aparece la varianza σ 2 .
−
´ POR INTERV ´ D 106CAP 106 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON
9.3. 9.3.
Esti Estima maci ci´ ´ on por Intervalos de Confianza on
Volvamos ahora a la estimaci´on o n de par´ametros ametros de una distribuci´on o n de probabilidad. Consideremos una poblaci´on on descrita por la variable aleatoria cuya dist distri ribu buci ci´´on depen pende de un par´ametro ametro descon desconocid ocidoo θ. Si X , cuy x1 , x2 , . . . , Xn es una muestra de la poblaci´on, on, se desea encontrar dos funciones a ciones a((x1 , x2 , . . . , Xn ) y b( b (x1 , x2 , . . . , Xn ) tales que P ( P (a
≤ θ ≤ b) = 1 − η
(9.19)
donde η donde η es un valor dado, en general pr´oximo oximo a 0. El intervalo [a, [ a, b] se llama un intervalo un intervalo de confianza y 1 η es el coeficiente de confianza .
−
Aunque existen varios criterios generales para hallar intervalos de confianza, nos vamos a limitar a los ejemplos m´as as comunes de una poblaci´on on normal o “asint´ oticamente normal” (es decir, cuya distribuci´on oticamente on de probabilidad sea aproximadamente normal para muestras grandes). on on normal de varianza σ varianza σ 2 conocida. En este caso, Ejemplo 1. Distribuci´
¯ = (1/n aplicando (6.25) a la variable X (1 /n)( )(X X 1 + X 2 + . . . + X n ), tenemos P ( P (α
− xσ/√ n < X¯ < α + xσ/√ n) = 1 − η
(9.20)
√ + xσ/ n) = 1 − η − xσ/√ n < α < X ¯ +
(9.21)
o sea ¯ P ( P (X
donde, por comparaci´on on con (6.24), es η = 2(1 Φ(x Φ(x)). Dado η , las tablas de la funci´on on Φ permiten calcular x, y entonces tenemos, para la media α, ¯ xσ/ n, X + ¯ + xσ/ n) cuyo coeficiente de confianza es 1 η . el intervalo (X X
−
−
√
√
−
Por ejemplo, dado σ dado σ = 0,003, 003, η ¯ = 0,124, 124, n = 100, se encuentra η = 0,05, x n = x = 1,96, y el intervalo en que se encuentra la media desconocida α, α , con un coeficiente de confianza 1 η = 0,95, es (0, (0,1234 α 0,1246).
−
≤ ≤
on normal de varianza desconocida. a) Intervalo on Ejemplo 2. Distribuci´ de confianzapara la media. Si σ 2 no se conoce, no se puede aplicar (9.20), pero s´ı la variabl variablee aleatoria aleatoria (9.15), que no depende de σ 2 y tiene una distribuci´ on on de Student con n 1 grados de libertad. Dado el coeficiente de confianza confianza 1 η , las tablas de la distribuci´on t on t nos dan el valor t valor t((n 1; η ) tal que
−
−
−
´ POR INTERVALOS DE CONFIANZA 9.3. ESTIMA ESTIMACI CI ON
P
¯ α X S/ n 1
−t(n − 1; η) ≤ √ − − ≤ t(n − 1; η)
=1
107
−η
(9.22)
que tambi´en en se puede escribir
¯ P X
− t(n −
S 1; η ) n 1
√ − ≤ X ¯ + + t(n −
X 1; η ) n 1
S n 1
√ − √ −
=1
− η. (9.23)
Se tiene as´ as´ı un intervalo intervalo de confianza para α con el coeficiente 1 η . Por ejemplo, dados η = 0,05, n = 17, x ¯ = 4, s = 0,84, las tablas dan t(16;0, (16;0,05) = 2, 2,12 y resulta el intervalo de confianza 3, 3 ,565 α 4,445, cuyo coeficiente de confianza es 0, 0 ,95.
−
≤ ≤
b) Intervalo de confianza para la varianza. Sabemos que la variable aleatoria nS toria nS 2 /σ2 tiene distribuci´on χ on χ 2 con n con n 1 grados de libertad. Dado 1 η , hay que hallar a hallar a,, b tales que
−
P a
≤
nS 2 σ2
≤b
−
=1
− η.
(9.24)
Hay muchas maneras de elegir a, b que cumplan esta condici´on. on. Por comodidad de c´alculo alculo se suelen elegir de manera que sea
nS 2 P b < 2 σ
= η/ η /2
P a
≤
nS 2 σ2
=1
η/2. − η/2
(9.25)
Los valores de a y b resultan de las tablas de χ2 y entonces se cumple (9.24), que se puede escribir
nS 2 P b
≤ σ2 ≤
nS 2 a
=1
− η.
(9.26)
Por ejemplo, dados η = 0,10, n = 20, s2 =1.000, utilizando las tablas de χ2 (para n (para n 1 grados de libertad), para que se cumplan las condiciones (9.25) resulta a = 10 10,,117 y b = 30 30,,144, y por tanto se tiene el intervalo 2 663 σ 1.976, con el coeficiente de confianza 0, 0 ,90.
−
≤ ≤
´ POR INTERV ´ D 108CAP 108 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON
9.4. 9.4.
Verifi erifica caci ci´ on o ´n de Hip´ otesis otesis
Supongamos nuevamente una variable aleatoria X X con funci´on on de probabilidad babilidad o de densidad f densidad f ((x; θ) dependiente de unparametro θ unparametro θ.. Supongamos Supongamos conocida la forma de la funci´on on f , f , pero no el par´ametro ametro θ. Se hace una hip´ otesis, H otesis, H 0 , de que sea θ = θ 0 . Se trata entonces, mediante una muestra, de verificar el grado de certeza de esta hip´otesis. Por costumbre se dice que se trata de verificar verificar la “hip´otesis otesis nula”. A veces, junto con la H la H 0 se formulan otras hip´otesis H otesis H 1 , por ejemplo, θ ejemplo, θ = θ = θ 1 ´o θ < θ 0 , ´o θ > θ 0 . Se trata entonces ae verificar tambi´en en estas hip´otesis, otesis, llamadas “hip´otesis otesis alternativas”. Las l´ıneas generales genera les del m´etodo etod o a seguir son las siguientes: siguie ntes: Toda muestra x = (x1 , x2 , . . . , xn ), por ser un conjunto de n n´umeros umeros reales, se puede representar por un punto x del espacio euclidiano de n dimensiones. dimensiones. Elaborar un test para verificar la hip´otesis H otesis H 0 , significa significa buscar buscar una regi´on R on R de dicho espacio, tal que: a) Si la muestra x = x = (x1 , x2 , . . . , xn ) corresponde a un punto de R de R,, se rechaza la hip´otesis H otesis H 0 ; b) Si la muestra x corresponde a un punto exterior a R, R , se acepta la hip´otesis H otesis H 0 . Si s´olo olo hay dos alternativas H alternativas H 0 ´o H 1 , rechazar H rechazar H 0 equivale a aceptar H aceptar H 1 . Rechazar H 0 (θ = θ 0) cuando en verdad es θ = θ 0 , se llama error llama error de tipo I . La probabilidad del error de tipo I es
P ( P (x
= θ 0 ) = , ∈ R; θ = θ
(9.27)
que se llama nivel de significaci´on. on. Si s´olo olo hay la alternativa H alternativa H 1 (θ = θ = θ 1 ), no rechazar H rechazar H 0 cuando en realidad debiera hacerse, por ser θ = θ 1 , se llama error llama error de tipo II , y su probabilidad es P es P ((x / R; θ = θ 1 ) = η. η . En este caso (θ (θ = θ 1 , como unica u ´ nica alternativa) nos interesaremos interesare mos tambi´ t ambi´en en por p or la probabilidad probab ilidad
∈
P ( P (x
∈ R; θ = θ = θ 1 ) = 1 − η
(9.28)
que se llama potencia . potencia del test definido por la Definici´ on on 9.1. 9.1. Se llama funci6n de potencia del regi´on R on R con respecto al valor θ del par´ametro, ametro, a la probabilidad
P ( P (x
∈ R; θ).
(9.29)
´ DE DISTRIBUCIONES EXPERIMENTALES ´ 9.5. COMPARACI ON EXPERIMENTALES Y TE ORICAS: TEST DEL χ2 109 Todo el problema consiste en hallar la regi´on R on R,, dados dados ,, η. η . Consideremos el siguiente prablema ilustrativo. Sea una poblaci´on on normal N ( N (α, σ 2 ) con σ 2 conocida y α desconocida. Hacemos la hip´otesis otesis nula α nula α = = α α0 . Queremos preparar un test de esta hip´ote¯ = (1/n sis. Sea X (1/n)( )(X X 1 + X + X 2 + . + . . . + X + X n ). Considerando una probabilidad = 0,05 sabemos que ¯ ) ≤ X ¯ ≤ ¯ )) 96σ σ (X 96σ σ (X )) = 0, 0,95 − 1,96 ≤ α0 + 1,1,96 ¯ ) = σ/ √ n (σ que, poniend p oniendoo σ (X ( σ es dato), se puede escribir P ( P (α0
√ P (X √ 0 ,05 ¯ ≥ ≤ ≤ α0 − 1,96 ≥ α0 + 1,1,96 96σ/ σ/ n) + P ( 96σ/ σ/ n) = 0, 05..
¯ P ( P (X
(9.30)
(9.31)
Por tanto, un test de la hip´otesis otesis α = α0 al 5 % pued puedee ser: ser: “Se elige elige una muestra y se calcula su media x ¯ = (1/n (1/n)( )(x x1 + x + x2 + . + . . . + x + xn ). Si esta media cae fuera del intervalo [α [α0 1,96 96σ/ σ/ n, α0 + 1,96 96σ/ σ/ n] se rechaza la hip´ otesis α otesis α = α = α 0 .
−
√
√
La probabilidad de equivocarse, o sea, de rechazar la hip´otesis siendo cierta, es 0, 0 ,05. Obs´ ervese ervese que el test construido no es ´unico. unico. El mismo m´etodo eto do permite p ermite construir otros muchos. Por ejemplo, se cumple tambi´ en en
√ 65σ/ σ/ n) = 0,05 ≥ ≥ α0 + 1,1 ,65
¯ P ( P (X
y por tanto, tanto, otro test podr´ podr´ıa ser: “Si la media de la muestra muestra tiene un valor superior a α a α 0 + 1,65 65σ/ σ/ n, se rechaza la hip´otesis α otesis α = = α α0 ”. La probabilidad de error de tipo I es la misma 0 ,05 de antes.
√
La teor´ teor´ıa de verificaci´on on de hip´otesis otesis da reglas o criterios para elegir el m´as as conveniente, dentro de la naturaleza del problema, de los tests posibles.
9.5. 9.5.
Comp Compar arac aci´ i´ on de Distribuciones Experimentaon les y Te´ oricas: oricas: Test del χ2
Sea X Sea X una una variable aleatoria cuyo dominio es una cierta poblaci´on. on. Hasta ahora hemos supuesto conocida la funci´on on de probabilidad probabilidad o de densidad,
´ POR INTERV ´ D 110CAP 110 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON salvo un parametro de la misma. Supongamos ahora que desconocemos la distribuci´on on de probabilidad. En este caso se hace la hip6tesis de que esta distribuci´on on es una determinada y se trata de verificar, mediante una mues´ l el m´etodo tra, si esta hip´otesis otesis es correcta o no. Para ello es Util Uti eto do del χ del χ 2 , que pasamos a exponer. Supongam Supongamos os que la variabl ariablee aleator aleatoria ia X X puede puede tomar tomar los valo alore ress x1 , x2 , . . . , xr y que, de acuerdo con la hip´otesis hecha, las probabilidades respectivas sean p 1 , p2 , . . . , pr a las que llamaremos probabilidades te´oricas. oricas. Tomemos una muestra de tama˜ no n no n y y sean n sean n 1 , n2 , . . . , nr los n´ umeros umeros de veces que aparecen, respectivamente, los valores x1 , x2 , . . . , xr de manera que n1 + n2 + . . . + nr = n. n . Formemos Forme mos el estad´ est ad´ıstico ıst ico r
u =
1
(ni
− npi)2
(9.32)
npi
que, en cierto modo, ya se ve que mide la discrepancia, en valor absoluto, entre los valores medios te´oricos np oricos np,, y los obtenidos en la muestra. Un teorema muy importante de Pearson, cuya demostraci´on on no damos (v´ease, ease, por ejemplo, ejempl o, R´ıos[3]), ıos[3] ), dice que la distribuci´ on del estad´ est ad´ıstico ıst ico u, para n grande, 2 tiende a una distribuci´ on χ χ con r r 1 grados de libertad , cuando la hip´otesis otesis planteada es cierta.
−
Es decir, aunque no sea exacto (pues s´olo olo lo es para n ), se acos2 2 tumbra poner u = χ y entonces las tablas de χ , dados r y , permiten calcular χ calcular χ 20 tal que
→ ∞
P ( P (χ2 > χ 20 ) = .
(9.33)
Entonces, fijado el fijado el nivel de significaci´ on , si el valor (9.32) es superior 2 al χ al χ 0 obtenido, rechazamos la hip´otesis. otesis. otesis de que el nacimiento de Problema 9.1. Se quiere verificar la hip´ varones sigue la ley binomial con p = 1/2. Se tiene una muestra de 100.000 nacimientos, de tos cuales 51.400 de los nacidos han sido varones y el resto mujeres. Este resultado ¿confimna o niega la hip´ otesis hecha, al nivel de significaci´ on del 1 por 1.000? otesis otesis es cierta, es p 1 = p 2 = 1/2, y (9.32) nos da Soluci´ on. on. Si la hip´ (51.400 50.000)2 (48.600 50.000)2 u = + = 78 7 8 ,4 50.000 50.000
−
−
´ DE DISTRIBUCIONES EXPERIMENTALES ´ 9.5. COMPARACI ON EXPERIMENTALES Y TE ORICAS: TEST DEL χ2 111 Puesto que r = 2, buscamos χ2 con 1 grado de libertad. Las tablas nos dicen que P ( P (χ2 > 10 10,,83) = 0, 0,001. Por tanto, utilizamos la regi´ on on cr´ıtic ıt icaa (10, (10,83 83,, ). Como el valor obtenido para el estad´ estad´ıstico u(78, (78,4) pertenece a esta regi´on on cr´ cr´ıtica, ıtica , la hip´otesis otesis debe rechazarse. La probabilidad del nacimiento de un var´on on es superior a la del nacimiento de una mujer.
∞
El mismo problema fue tratado directamente en el problema 6.7, y se lleg´o al mismo resultado. El hecho es general en el sentido que: cuando la variable aleatoria puede tomar s´olo olo dos valores, r = 2, el metodo del χ2 coincide con el m´etodo etodo que consiste en utilizar la f´ f ´ormula ormula (6.31). En efecto, en este caso, (9.32) se puede escribir u =
(n1
np)2 (n ( n2 − nq ) (n1 /n − p) p)2 − np) + = np
nq
pq/n
y, por tanto, P tanto, P ((u > u 0 ) se puede calcular por la f´ormula ormula (6.31). Problema 9.2. Se lanza un dado 6.000 veces y resulta que las caras 1,
2, 3, 4, 5, 6 salen, respectivamente, los siguientes n´ umeros de veces 800,, 1.080 800 1.080,, 960 960,, 1.086 1.086,, 1.034 1.034,, 770 770.. ¿Es el dado perfecto? Es decir, son estos resultados compatibles con la hip´ otesis p p 1 = 1/6(i 6(i = 1, 2, 3, 4, 5, 6)? 6)? Se desea un nivel de significac significaci6n i6n igual a 0,001. Aplica ndo el m´etodo etod o del χ del χ 2 al caso p caso p = 1/6, resulta resulta Soluci´ on. on. Aplicando u =
1 (2002 + 802 + 402 + 862 + 3042 + 2302 ) = 200, 200,69 69.. 1.000
El n´ umero de grados de libertad es 5. Seg´un umero un las tablas de χ2, el valor 200 queda sin duda en la regi´on on cr´ cr´ıtica. Es decir, se concluye que, o bien el dado es defectuoso, o el experimento ha sido mal realizado. Problema 9.3. De un conjunto de 17 plantas, 9 de ellas fueron some-
tidas a un tratamiento qu´ımico ımico y el n´ umero de frutos fue, respectivamente, 17 17,, 27 27,, 18 18,, 25 25,, 27 27,, 29 29,, 27 27,, 23 23,, 17 mientras que las no sometidas al tratmiento, dieron los siguientes n´ umeros de frutos
´ POR INTERV ´ D 112CAP 112 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON
16 16,, 16 16,, 20 20,, 16 16,, 20 20,, 17 17,, 15 15,, 21 21.. ¿Puede considerarse que el tratamiento surti´ o efecto? on normal, podemos aplicar la dison Soluci´ on. on. Suponiendo una distribuci´ tribuci´ on de la variable aleatoria (9.18) para verificar la hip´otesis α on otesis α X = αY . 2 2 ¯ = 23 ¯ = 17 Tenemos X 23,,33, Y 17,,62, (S (S X nX + S + S Y nY )/ )/(nX + n + nY 2) = 14, 14,79, con lo cual resulta t = 3,05. El n´ umero de grados de libertad es 15. Por umero tanto, seg´ un las tablas de la funci´on t un on t de Student, el valor 3,05 queda fuera del intervalo de las t, para el nivel de significaci´on on 0,01. Por tanto a este nivel de significaci´on on las dos muestras no pueden considerarse procedentes de una misma o sea, debe considerarse que el tratamiento surti´o efecto.
−
Problema Problema 9.4. Un test de inteligencia entre 20 alumnos de una po-
blaci´ on X X da un puntaje medio de 90 y una varianza de 100. El mismo test aplicado a 30 alumnos de la poblaci´ on Y Y da un puntaje medio de 110 y una varianaa de 80. Se desea saber, al nivel de significaci´ on 0,01, si hay diferenciasignificativa entre los alumnos de las dos poblaciones. on normal, Soluci´ on. on. Suponiendo que el puntaje tiene una distribuci´on aplicamos el test de Student (9.18) para ver si la hip´otesis otesis αX = αY de ¯ ¯ igual promedio es aceptable. Es X X = 90, Y Y = 80, nY = 20, nX = 30, 2 2 sX = 100, s 100, s Y = 80. Por tanto, sustituyendo en (9.18) resulta t = t = 3,62. Como los grados de libertad son 48, las tablas de la funci´on on t al nivel 0, 0,01, dan t0 = 2,57. Luego, como 3,62 queda fuera de este intervalo, debemos rechazar la hip´otesis otesis de igual promedio de inteligencia. El rechazo est´a fundado en que, si el promedio fuera el mismo, la probabilidad de resultados con t > 2, 2 ,57 es 0,01 (uno por ciento).
| |
En los problemas 9.l y 9.2 se conocen las probabilidades te´oricas p oricas p,, para poder escribir el estad´ estad´ıstico u (9.32). Hay veces, sin embargo, en que estas probabilidad probabilidades es te´ oricas no se conocen y hay que estimarlas mediante la oricas misma muestra. En este caso, bajo condiciones muy amplias y, con ciertas precauciones precauc iones sobre las que q ue aqu aq u´ı no podemos po demos entrar, tambi´en en se puede aplicar aplica r 2 el criterio del χ del χ , sustituyendo las probabilidades te´oricas oricas por las estimadas y prestando atenci´on on al n´ umero de grados de libertad, que es igual al n´umero umero umero de par´ametros ametros independien independientes tes menos 1. El m´ etodo etodo resulta resulta de mucha mucha aplicaci´on on pr´actica, actica, si bien hay que tener cuidado en casos extremos. Vamos a dar tres ejemplos tipicos, que pueden servir de modelo paramuchos casos an´alogos. alogos. El primer problema que sigue est´ a tomado, con ligera variaci´on on en el enunciado, del cl´asico asico libro de Yule y Kendall titulado “Introduction to the Theory of Statistics”:
´ DE DISTRIBUCIONES EXPERIMENTALES ´ 9.5. COMPARACI ON EXPERIMENTALES Y TE ORICAS: TEST DEL χ2 113 pa´ıs est´ es t´ a dividido en 8 regiones y se desea saber si Problema 9.5. Un pa´ la proporci´ on de fumadores var´ var´ıa de una regi´ regi´ on a otra. Para ello se toma una muestra de cada una de estas regiones y los resultados se resumen en la siguiente tabla: Regi´on Fumadores No fumadores Totales
1 56 17 73
2 87 20 107
3 14 2 58 20 0
4 71 20 91
5 88 31 119
6 72 23 95
7 100 25 125
8 142 48 19 0
Total 758 24 2 1.000
¿Se puede puede inferi inferirr de estos estos resultad esultados os que la prop propor orci´ ci´ on de fumador fumadores es var´ıa ıa de una regi´ on a otra? otesis de que la proporci´on on no var´ var´ıa, la proSoluci´ on. on. Si se hace la hip´otesis babilidad experimental de que una persona sea fumador, calculada a partir de la muestra anterior, es p = 0,758, con lo cual resulta χ2 = + + + =
− 55)2/55 + (87 − 81)2/81 + (142 − 152)2/152 + (71 − 69)2/69+ − 90)2/90 + (72 − 72)2/72 + (100 − 95)2/95 + (142 − 144)2/144+ − 18)2/18 + (20 − 26)2/26 + (58 − 48)2/48 + (20 − 22)2/22+ − 29)2/29 + (23 − 23)2/23 + (25 − 30)2/30 + (48 − 46)2/46 =
( 56 ( 88 ( 17 ( 31 6,28 28..
El n´ umero de grados de libertad es 7, puesto que eln´umero de par´ameumero ametros independientes es 8. En efecto, sabiendo el tama˜no no de cada muestra, para conocer todo el experimento, basta conocer, por ejemplo, el n´umero umero de fumadores de cada regi´on. on. Tomando el nivel de significaci´on on 0,05 las tablas 2 dan χ dan χ 0 = 14 14,,06. Puesto que 6,28 queda fuera de la regi´on on cr´ cr´ıtica, se deduce 2 que el criterio del χ no permite deducir que haya diferencia alguna en la proporci´on on de fumadores de una regi´on on a otra. Problema Problema 9.6. Hay que examinar 240 alumnos , los cuales se distri-
buyen entre 3 examinador examinadores es A, B y C. Los resultados obtenidos son los siguientes: el examinador A aprueba 60 alumnos, el B aprueba 70 y el C aprueba 68. Se desea verificar la hip´ otesis de que los 3 examinadores sean igualmente exigentes Soluci´ on. on. Si los 3 examinadores son igualmente exigentes, la proba-
bilidad de aprobar, es timada experimentalmente de la muestra, es p = (60 + 70 + 68)/ 68)/240 = 0, 0,825. Por tanto se tiene: χ2 = (60 + (10
− 66)/ 66)/66 + (70 − 66)/ 66)/66 + (68 − 66)/ 66)/66 + (20 − 14)/ 14)/66 + 14 14)/14 + (12 − 14)/ 14)/14 = 4, 4 ,8 . − 14)/
´ POR INTERV ´ D 114CAP 114 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON El n´ umero de grados de libertad es 2 (puesto que hay 3 par´ametros indeumero pendientes, pendientes, que son el n´umero umero de alumnos aprobados por cada examinador). 2 La tabla de χ de χ , al nivel 0,05 da χ da χ 20 = 5,99. Siendo este valor superior a 4,8, la hip´otesis otesis es aceptable, o sea, los 3 examinadores pueden considerarse igualmente exigentes. Problema 9.7. Se quiere verificar la eficacia de una vacuna. Se consi-
deran 7.000 personas vacunadas y se observa que de ellas 60 han adquirido la enfemedad y no as´ as´ı las restantes 6.940. En cmbio, de 12.000 12. 000 personas no vacunadas se observa que 200 han adquirido La enfermedad y 11.800 no. ¿Qu´e puede deducirse de ello? el lo? otesis de que la vacuna sea ineficaz. En Soluci´ on. on. Vamos a verificar la hip´otesis tal caso la probabilidad de contraer la enfermedad, deducida de la muestra, es p es p = (60 + 200)/ 200)/19.000 = 0, 0,01 0136 36.. De aqu aq u´ı χ2 = (6.9 (6.940 40 6.904)/ 6.904)/6.904 + (11.800 11.836)/ 11.836)/11.836+ = +(60 96)/ 96)/96 + (200 164)/ 164)/164 = 21, 21,6.
− −
−
−
El n´ umero de grados de libertad es 1, puesto que los par´ametros indepenumero dientes pueden ser los n´umeros umeros de personas que adquieren la enfermedad. Por tanto, al nivel de significaci´on on 0,05 es χ20 = 3, 84. Por consiguiente, la hip´otesis otesis debe rechazarse, o sea, la vacuna es eficaz o bien, por lo menos, tal es la conclusi´on on a que llega el criterio del χ 2 . Problema 9.8. Se desea saber el porcentaje de televidentes que sintoni-
zan un determinado programa de televisi´ on, a partir de una muestra tomada al azar. Se admite un error de 0,05 05 y y un coeficiente de confianza de 0,95. Se pide el tama˜ no de la muestra a tomar, suponiendo muy grande el n´ umero de televidentes. televidentes.
± ±
on Soluci´ on. on. En este tipo de problemas cabe suponer que la distribuci´on de la muestra es la normal y que, por tanto, se puede aplicar (), teniendo en cuenta que, para una variable de Bernoulli, es σ = p(1 p (1 p); p); p p es la probabilidad de que un televidente sintonice el programa en cuesti´on. Resulta 1,96 96σ/ σ/ n 0,05 y por tanto n tanto n (1, (1,96 96//0,05)2 σ 2 . Si p Si p no no s e conoce hay que usar la desigualdad p(1 p) p) 1/4, y resulta que basta tomar una muestra de n de n (1, (1,96 96//0,05)2 (1/ (1/4) = 384 televiden televidentes. tes.
−
√ ≤ ≥
− ≤
≥
Si el error admisible fuera de 0,02, el tama˜ no de la muestra debiera no ser n ser n (1, (1,96 96//0,02)2 (1/ (1/4) = 2.401 televidentes. Si por experiencia con otros programas an´ alogos, se conociera el valor de p, el tama˜ alogos, no no de la muestra se puede disminuir y el verdadero valor de p se deduce de la expres expresi´ i´on on σ = p = p(1 (1 p). p).
±
≥
−
´ DE DISTRIBUCIONES EXPERIMENTALES ´ 9.5. COMPARACI ON EXPERIMENTALES Y TE ORICAS: TEST DEL χ2 115 Con respecto al tama˜no no de las muestras destinadas a averiguar una determinada caracter´ caracter´ıstica de una poblaci´on, on, supuesta numerosa, el ejemplo anterior est´a incluido en el siguiente teorema general: “Si una poblaci´on tiene una determinada caracter´ caracter´ıstica en la p, la proporci´on o n de la misma caracter caract er´´ıstica en las la s muestras muestra s de tama˜ tama no n n ˜ o n es una variable aleatoria aproximadamente madamente normal, de valor medio p medio p y varianza [ p [ p(1 (1 p) p)/n] /n]1/2 ”.
−
´ POR INTERV ´ D 116CAP 116 CAP ´ITULO 9. ESTIMACI ESTIMACI ON INTERVALOS DE CONFIANZA. VERIFICACI ON
Apendice I – Combinatoria Resumimos en este Ap´endice endice algunas definiciones y f´ormulas ormulas de an´alisis alisis combinatorio que son fundamentales para muchos problemas de probabilidades en conjuntos finitos.
9.6. 9.6.
Permuta ermutacio ciones nes
Una permutaci´ on de n elementos, es una disposici´on on de los mismos en un determinado determinado orden. Por ejemplo, con dos elementos a elementos a,, b se pueden formar las permutaciones
ab, ba y con tres elementos a, a , b, b , c las seis permutaciones siguientes
abc, bca, cab, bac, acb, cba. En general, dados n elementos, para formar una permutaci´on on se elige uno cualquiera de ellos (n ( n posibilidades), despu´ es es se elige uno cualquiera de los n los n 1 restantes (n (n 1 posibilidades) y as´ as´ı sucesivamente. sucesivamente. Resulta que el que el n´ umero de permutaciones con n elementos es
−
−
P n = n = n((n
− 1)(n 1)(n − 2) · · · 2 · 1 = n! n !
(9.34)
Este n´ umero umero se llama factorial de n y est´a definido para todo n´ umero umero natural. Por convenci´on, on, se define define 0! = 1. 117
118
APENDICE I – COMBINATORIA COMBINATORIA
A veces interesan las permutaciones de r r elementos elegidos entre n n elementos dados (n r ), llamadas tambi´ en en “variaciones”. Para formar una de ellas se elige primero un elemento de los n dados (n (n posibilidades), despu´es es un segundo elemento entre los n 1 restantes (n (n 1 posibilidades) y as´ as´ı sucesivamente sucesivamente hasta el r -´esimo esimo elemento, que ser´a elegido entre los n r + 1 elementos restantes. Resulta as´ as´ı que el que el n´ umero umero de pemtacion pemtaciones es que se pueden formar de r elementos elegidos entre los de un conjunto dado de n elementos ( n r ) es
≥
−
−
−
≥
P n,r n (n n,r = n(
9.7. 9.7.
n! − 1)(n 1)(n − 2) · · · (n − r + 1) = . (n − r )!
(9.35)
Com Combina binaci cion ones es
Una combinaci´ Una combinaci´ on de r de r elementos elementos de un conjunto de n de n elementos elementos (llamada combinaci´ on on de tipo (n (n, r)) r )) es todo subconjunto de r de r elementos elementos del conjunto de los n los n dados. Por ejemplo, si los n los n elementos elementos son las letras a letras a,, b, b, c, c, d, d, e las e las combinaciones de r de r = 3 elementos son las 10 siguientes
abc, abd, abe, bcd, bce, acd, ace, bde, ade, cde.
El n´ umero umero de combinacion combinaciones es de r de r elementos entre n entre n dados se representa por C por C n,r on cambian,r . Para encontrarlo, observemos que si en cada combinaci´ mos de todas las maneras posibles el orden de los elementos, tendremos r ! permutaciones de r de r elementos elegidos entre los n los n dados. dados. Por tanto debe ser C n,r umero de comn,r r! == P n,r n,r . Teniendo en cuenta (9.35) resulta que el n´ binaciones de r elementos elegidos entre los de un conjunto de n elementos es
C n,r n,r =
El s´ımb ımbolo ol o r a r .
n! = (n r )! r )! r!!
−
n r
.
(9.36)
n se llama el n el n´ umero ´ combinatorio de n objetos tomados r
´ 9.8. COMBINAC COMBINACIONES IONES CON REPETIC REPETICI I ON
9.8. 9.8.
119
Com Combinaci binacione oness con con Repetic Repetici´ i´ on on
Una combinaci´ on on con repetici´on o n de tipo (n, (n, r) es un conjunto de r elementos, distintos o repetidos, elegidos entre los de un conjunto dado de n elementos. Por ejemplo, con 3 elementos a, b, c se pueden formar las siguientes combinaciones con repetici´on on de 3 elementos aaa, aab, aac, abb, abc, acc, bbb, bbc, bcc, ccc.
de combinaciones con repetici´on Para calcular calcular el n´ umero C umero C n,r on de tipo (n, r) se puede proceder de la manera siguiente. Sup´ongase ongase que los n los n elementos son a1 , a2 , . . . , an. Cada combinaci´on on con repetici´on on se puede ordenar con los ´ındices en orden creciente y luego (para distinguir los ´ındices repetidos) a˜ nadir nadir a cada ´ındice el n´umero umero de orden que tiene menos uno. Por ejemplo, si n = 5, r = 4, la combinaci´on on a2 a3 a3 a4 , se escribi esc ribirr´ıa a2 a4 a5 a7 . Se tiene as´ as´ı siempre una combinaci´ combinaci ´on on sin repetici´on o n de tipo (n (n + r + r 1, r ). Rec Re c´ıpro ıp ro-camente, dada una combinaci´on on de este tipo, rebajando cada ´ındice, ındice, una vez ordenada, de un entero igual al n´umero umero de orden menos uno, tendremos una combinaci´ on on con repetici´on o n de tipo (n, (n, r). Por tanto: el n´umero umero de las combinaciones con repetici´on on de tipo (n, (n, r ) es igual al de las combinaciones sin repetici´ repetici´on on del tipo (n (n + r 1, r) , o sea
−
−
= C n+r−1,r = C n,r
9.9. 9.9.
n+r r
−1
=
(n + r 1)! . (n 1)!r 1)!r!
−
−
(9.37)
Par arti tici cion ones es
Interesa a veces el n´umero umero de maneras en que un conjunto de n de n elementos elementos se puede repartir en t subconjuntos de rh (h = 1, 2, . . . , i) i) elementos cada uno (t (t n; r1 + r2 + . . . + ri = n = n). ). El n´ umero de estas particiones se representa umero n por P r ,r ,...,r , y para obtenerlo basta observar que tomando una de las n! permutacion permutaciones es de los n los n elementos y permutando p ermutando entre s´ı los r 1 primeros (lo que da r1 ! casos), luego los r2 siguientes y as´ as´ı sucesivamente, sucesivamente, siempre se obtendr´ a una misma partici´on. on. En cambio, partiendo de otra permutaci´on, on, las mismas operaciones dan lugar a una partici´on on distinta. Por tanto
≤
1
2
i
P rn ,r 1
2 ,...,ri
=
n! . r1 !r2 ! . . . ri !
(9.38)
120
APENDICE I – COMBINATORIA COMBINATORIA
9.10.
Formula ´ ormula de Stirling
El c´alculo alculo del valo alorr exacto exacto de n! = n(n 1)(n 1)( n 2) 2 1, resulta resulta pesado cuando n es un tanto grande. Algunos valores se dan en la Tabla 1 del Ap´endice endice III. Para el c´alculo alculo con logaritmos es util u ´ til la siguiente f´ormula ormula aproximada aproximada de Stirling Stirling (1730)
−
n!
∼
− · · · ·
√
2πnn n e−n .
(9.39)
Decir que el segundo miembro es un valor aproximado del primero, cuando n do n es grande, quiere decir que el l´ımite del segundo miembro dividido por p or el primero tiende a la unidad para n , aunque los valores de ambos miembros de (9.39) pueden diferir en cantidades grandes.
→ ∞
9.11 9.11..
El Bino Binomi mio o de Newt Newton on
Los n´ umeros umeros combinatorios la del binomio de Newton. (a + b)n =
n 0
n 1
an +
n r
aparecen como coeficientes de la f´ormuormu-
an−1 b + . . . +
n r
an−r br + . . . +
En particular, para a = 1, b = 1 y para a = 1 y b = f´ormulas ormulas
n 0
+
n 1
+ ... +
n n
= 2 n,
n 0
−
n 1
n n
bn .
−1 resultan las
+ . . . + ( 1)n
−
n n
= 0. 0.
Apendice I – Algunas F´ ormul ormulas as de C´ alcu alculo lo 9.12.
El N´ umero umero e
El n´ umero e umero e = 2,71828 . . . se define por n
1 e = l´ım 1 + n→∞ n
.
(9.40)
(9.41)
M´as as generalmente, para cualquier x cualquier x se tiene n
x e = l´ım 1 + n→∞ n x
.
La f´ormula ormula de Mac Laurin da inmediatamente el siguiente desarrollo en serie
x
e =
∞
xn x 2 x n = 1+x+ +...+ + ... n ! 2! n ! n=0
(9.42)
En particular particular e = 2 +
9.13. 9.13.
1 1 + + . . . , 2! 3!
e−1 =
1 2!
− 3!1 + 4!1 + . . . .
Integ In tegral rales es de la Funci´ unci´ on de Densidad Normal on
Sea 121
´ ´ APENDICE APENDICE I – ALGUN ALGUNAS AS F ORMULAS DE C ALCULO
122
2
f ( f (x) = ae −b(x−c) ,
a, b > 0
∞
e−b(x−c) dx
Queremos calcular
I =
f ( f (x)dx = dx = a a
−∞
∞
2
(9.43)
−∞
o sea, por el cambio de variables x
I = a
= y − c = y
∞
2
e−by dy
(9.44)
−∞
Para ello se sigue el clasico artificio siguiente: 2
∞
I = a
2
e−by dy
−∞
∞
∞ ∞ −b(y − bz 2 a e dz = a e −∞ −∞ −∞
2
2
+z 2 )
dy dz
y pasando a coordenadas polares (y (y = rco = rcosθ, sθ, z = rsenθ = rsenθ), ), 2
I = a
2
2π
∞ 0
br2
e
r dr dθ = dθ = 2πa
−∞
2
2π
0
2
r ebr dr = dr = π πa a2 /b.
Por tanto
I = a
π . b
(9.45)
√
En particular, para a para a = 1/ 2π , b = b = 1/2, c 2, c = 0, resulta
∞ −x 1 e 2π −∞
√
2
/2
dx = dx = 1.
(9.46)
Si queremos que f que f ((x) sea una funci´on on de probabilidad, debe ser I ser I = 1 y por tanto
f ( f (x) =
− b e π
b(x c)2
− , b > 0. 0 .
(9.47)
´ DE DENSIDAD NORMAL 9.13.. INTEGR 9.13 INTEGRALE ALES S DE LA FUNCI ON
123
La esperanza matem´atica atica correspondiente a esta funci´on on ser´a
∞
b ∞ α = E = E ((X ) = xf (x) dx = dx = x e−b(x−c) dx = dx = c. c. π −∞ −∞
2
La varianza es 2
σ (X ) =
∞
−∞
(x
−
b ∞ c) f ( f (x) dx = dx = (x π −∞
2
2
− c)2 e−b(x−c)
dx,
que se calcula integrando por partes, y resulta σ 2 (X ) =
1 . 2b
Por tanto, poniendo de manifiesto la media α media α y la varianza σ 2 , se tiene f ( f (x) =
1 √ e−(x−α) /2σ . σ 2π 2
2
La funci´on on generatriz de momentos es
∞ tx −(x−α) 1 Ψ(t Ψ(t) = e e σ 2π −∞
√
2
/2σ 2
dx.
Para calcular esta integral se observa que el exponente se puede escribir α)2 − −1 [(x tx − = [(x − α − tσ 2 )2 − 2tασ 2 − t2 σ 4 ] 2 2 2σ 2σ (x ( x
y haciendo el cambio de variables x variables x α tσ 2 = zσ z σ y aplicando (9.46), resulta
− −
αt+σ Ψ(t Ψ(t) = e αt+
2 2
t /2
.
(9.48)
Los momentos centrados de (9.47) son
µ2k+1 = 0,
µ2k =
(2k (2k)! 2k σ . 2k (k !)
(9.49)
´ ´ APENDICE APENDICE I – ALGUN ALGUNAS AS F ORMULAS DE C ALCULO
124
9.14 9.14..
La Fun unci ci´ on o ´n Gamma
Se define por la integral
Γ(x Γ(x) =
∞ 0
tx−1 e−t dt.
Esta funci´ on on es positiva y tiende a para x para x 0 y para x para x . Presenta un m´ınimo ın imo para pa ra x x 0 = 1,4616, en el cual la funci´on on vale Γ(x Γ(x0 ) = 0,8856. Para valores naturales de x, sea x = n + n + 1, la funci´on on gamma da el factorial de n, o sea
∞
Γ(n Γ(n + 1) = n = n!! = n( n (n
→
− 1)(n 1)(n − 2) · · · 2 · 1.
→∞
(9.50)
Ap´ endice II I
125
´ AP ENDICE III
126
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n! 1 2 6 24 120 720 5040 40320 362880 3 6288 88000 39 9168 916800 00 479 479 0016 001600 00 6227 6227 0208 020800 00 8717 871788 2912 291200 00 1 3076 307674 74 3680 368000 00 20 9227 922789 89 8880 888000 00 355 355 687 687328 328 09600 0960000 6402 6402 37370 3737055 728 728000 000 12164 1216455 100 100408 408 83200 8320000 2 4329 432902 02 008 008176 176 64000 6400000
Cuadro 9.1: Tabla de Factoriales n Factoriales n!!
127
0 0 2 8 9 8 3 0 3 5 5 4 5 3 2 5 0 0 0 0 0 1 3 6 9 1 2 2 1 9 7 5 3 1 0 , 0 , 0 , 0 , 0 , 0 , 0 , 0 , 1 , 1 , 1 , 1 , 0 , 0 , 0 , 0 , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 6 2 2 1 8 9 9 0 1 1 5 6 4 7 3 0 0 2 5 9 2 4 4 3 0 7 4 2 1 0 0 7 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 0 , , , , , , , , , , , , , , , , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 7 4 4 0 5 5 6 4 5 6 8 8 3 1 0 3 8 4 7 7 4 0 6 3 1 0 0 0 5 0 0 0 1 1 1 1 1 0 0 0 0 0 0 , , , , , , , , , , , , , , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 3 6 5 5 6 4 9 0 3 5 2 1 1 7 4 9 9 5 0 5 3 1 0 0 0 4 0 0 1 1 1 1 1 0 0 0 0 0 0 , , , , , , , , , , , , , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 9 4 4 8 1 0 2 8 3 1 5 4 2 2 6 0 5 2 0 0 0 3 0 1 2 2 1 1 0 0 0 0 0 , , , , , , , , , , , 0 0 0 0 0 0 0 0 0 0 0 5 1 1 0 0 6 2 3 1 3 7 7 8 9 3 1 0 0 2 1 2 2 1 0 0 0 0 0 , , , , , , , , , 0 0 0 0 0 0 0 0 0 6 8 4 1 5 3 8 6 8 6 1 0 1 3 3 1 0 0 0 , , , , , , 0 0 0 0 0 0 9 9 4 8 8 1 8 5 4 3 0 0 , 4 0 4 , 3 , 1 , 0 , 0 , 0 , 0 0 0 0 0 0 9 9 9 0 3 6 2 9 2 0 , 4 0 5 . 3 , 0 , 0 , 0 , 0 0 0 0 0 0 8 4 7 1 4 6 5 0 0 , 7 0 6 , 2 , 0 , 0 , 0 , 0 0 0 0 0 9 4 6 1 2 6 1 0 , 1 0 8 , 1 , 0 , 0 , 0 0 0 0
λ 1 2 3 4 5 0 1 2 3 4 5 6 7 8 9 0 1 1 1 1 1 1
r
λ
−
e
r !
λ r
= r
P n o s s i o P e d d a d i l i b a b o r P e d n ´ o i c n u F a l e d s e r o l a V : 2 . 9 o r d a u C
´ AP ENDICE III
128
x 0 0 ,1 0 ,2 0 ,3 0 ,4 0 ,5 0 ,6 0 ,7 0 ,8 0 ,9 1 1 ,1 1 ,2 1 ,3 1 ,4 1 ,5 1 ,6 1 ,7 1 ,8 1 ,9
f ( f (x) 0,3989 0,3969 0,3910 0,3814 0,3683 0,3521 0,3332 0,3122 0,2897 0,2661 0,2420 0,2178 0,1942 0,1714 0,1497 0,1295 0,1109 0,0940 0,0789 0,0656
x 2 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9
f ( f (x) 0,0540 0,0440 0,0355 0,0283 0,0224 0,0175 0,0136 0,0104 0,0079 0,0059 0,0044 0,0033 0,0024 0,0017 0,0012 0,0009 0,0006 0,0004 0,0003 0,0002
Cuadro 9.3: Valores de la Funci´on on de Densidad de la Distribuci´on on Normal N (0 N (0,, 1)
129
x 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,6 1,7 1,7 1,8 1,8 1,9 1,9
Φ(x Φ(x) 0,5000 0,5398 0,5793 0,6179 0,6554 0,6915 0,7257 0,7580 0,7881 0,8159 0,8413 0,8643 0,8849 0,9032 0,9192 0,9332 0,94 0,9452 52 0,95 0,9554 54 0,96 0,9641 41 0,09 0,0913 13
x 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5
Φ(x Φ(x) 0,9772 0,9821 0,0861 0,9893 0,9918 0,9938 0,9953 0,9965 0,9974 0,9981 0,9987 0,9990 0,9993 0,9995 0,9997 0,9998
Cuadro 9.4: Tabla de la Funci´on on de Distribuci´on on Normal
´ AP ENDICE III
130
1 0 0 , 0
3 2 7 7 2 6 2 3 8 9 6 1 3 2 0 5 9 1 2 2 2 0 8 , 8 , 2 , 4 , 5 , 4 , 3 , 1 , 8 , 5 , 2 , 9 , 5 . 1 , 7 , 2 , 7 , 3 , 8 , 3 , 6 , 7 , 0 3 6 8 0 2 4 6 7 9 1 2 4 6 7 9 0 2 3 5 2 9 1 1 1 1 2 2 2 2 2 2 3 3 3 3 3 3 4 4 4 4 5 5
1 3 1 4 8 9 1 7 9 7 1 2 2 9 4 8 0 1 0 9 7 1 9 0 , 6 , 2 , 3 , 2 , 0 , 8 , 4 , 0 , 6 , 2 , 7 , 2 , 6 , 1 , 5 , 0 , 4 , 8 , 1 , 5 , 3 , 8 , 0 6 9 1 3 5 6 8 0 1 3 4 6 7 9 0 2 3 4 6 7 4 0 1 1 1 1 1 2 2 2 2 2 2 2 3 3 3 3 3 3 4 5 5 2 8 5 4 3 5 1 3 2 8 2 4 4 2 9 4 9 3 5 7 5 8 2 0 , 3 , 3 , 1 , 8 , 4 , 0 , 5 , 0 , 4 , 9 , 3 , 7 , 1 , 4 , 8 , 1 , 5 , 8 , 1 , 6 , 9 , 0 , 5 7 9 1 2 4 6 7 9 0 1 3 4 6 7 8 0 1 2 4 0 6 0 1 1 1 1 1 1 2 2 2 2 2 2 2 3 3 3 3 4 4
x d
) x (
n
k
∞ χ
2 0
= 2 0
5 4 9 1 9 7 9 7 1 2 1 7 3 6 8 0 0 9 7 4 1 5 7 0 , 8 , 9 , 8 , 4 , 0 , 5 , 0 , 5 , 9 , 3 , 6 , 0 , 3 , 6 , 0 , 3 , 5 , 8 , 1 , 4 , 6 , 7 , 0 3 5 7 9 1 2 4 5 6 8 9 1 2 3 5 6 7 8 0 1 7 3 1 1 1 1 1 1 1 2 2 2 2 2 2 2 3 3 3 4 0 1 1 5 8 4 4 2 6 8 9 7 5 1 6 1 4 7 9 0 1 8 6 1 , 7 , 6 , 2 , 7 , 2 , 6 , 0 , 3 , 6 , 9 , 2 , 5 , 8 , 0 , 3 , 5 , 7 , 9 , 2 , 4 , 3 , 2 , 0 2 4 6 7 9 0 2 3 4 5 7 8 9 1 2 3 4 5 7 8 4 0 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 3 4 0 2 1 8 6 1 0 3 9 7 7 8 0 4 9 5 1 8 6 5 4 7 0 9 , 0 , 2 , 5 , 0 , 6 , 2 , 8 , 4 , 1 , 8 , 5 , 3 , 0 , 7 , 5 , 3 , 0 , 8 , 6 , 4 , 4 , 6 , 0 0 0 0 1 1 2 2 3 4 4 5 6 7 7 8 9 0 0 1 2 6 0 1 1 1 1 1 2 5 0 0 5 1 5 4 7 3 3 4 7 3 9 7 6 6 7 9 2 5 1 9 9 , 0 , 1 , 3 , 7 , 1 , 6 , 1 , 7 , 3 , 9 , 5 , 2 , 8 , 5 , 2 , 9 . 6 , 3 , 1 , 8 , 6 , 4 , 0 0 0 0 0 1 1 2 2 3 3 4 5 5 6 7 7 8 9 0 0 4 8 1 1 1 1 9 0 2 2 0 5 7 4 5 9 6 5 7 1 6 3 1 1 1 3 6 2 5 9 , 0 , 0 , 1 , 3 , 5 , 8 , 2 , 6 , 0 , 5 , 0 , 5 , 1 , 6 , 2 , 8 , 4 , 0 , 6 , 2 , 5 , 9 , 0 0 0 0 0 0 0 1 1 2 2 3 3 4 4 5 5 6 7 7 8 1 4 1 1
p 1 2 3 4 5 6 7 8 9 0 5 0 1 2 3 4 5 6 7 8 9 0 1 1 1 1 1 1 1 1 1 1 2 2 3
n
χ >
2
χ P
( :
2
χ
e d n ´ o i c u b i r t s i D : 5 . 9 o r d a u C
131
7 1 4 2 7 9 5 0 9 6 5 2 7 7 1 8 8 1 5 7 0 1 5 5 2 4 0 3 0 9 5 5 6 0 5 1 7 4 2 9 7 6 4 8 5 0 6 9 , , , 8 , 6 , 0 , 7 , 4 , 3 , 2 , 1 , 1 , 0 , 0 , 9 , 9 , 9 , 8 , 8 , 8 , 8 , 7 , 7 , 0 3 9 5 4 4 3 3 3 3 3 3 3 3 2 2 2 2 2 2 2 2 2 6 1 1 7 5 3 8 6 1 4 8 1 0 4 2 3 7 2 9 8 5 7 2 2 5 6 4 4 6 4 9 9 2 6 1 8 5 2 0 8 6 5 3 2 8 5 0 8 , , 9 , 5 , 7 , 3 , 1 , 9 , 8 , 8 , 7 , 7 , 6 , 6 , 6 , 6 , 5 , 5 , 5 , 5 , 5 , 4 , 4 , 0 1 6 4 3 3 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 6 2 6 1 7 5 6 2 8 1 9 0 5 1 0 0 1 3 6 0 2 5 0 3 0 8 7 7 4 6 0 6 2 0 7 6 4 3 2 1 0 9 8 6 4 0 , 7 , 3 , 1 , 7 , 5 , 4 , 3 , 3 , 2 , 2 , 2 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 0 , 0 , 0 , 0 , 0 2 4 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 0 1 , 0
4 0 3 2 5 3 5 0 3 2 6 2 1 1 3 6 0 4 9 5 8 7 1 2 5 3 1 4 9 6 3 1 9 8 7 6 5 4 4 3 2 2 9 9 3 , 9 , 3 , 1 , 0 , 9 , 8 , 8 , 8 , 8 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 6 , 6 2 2 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
0 2 , 0
8 6 8 3 6 0 5 7 3 2 3 6 0 5 1 7 3 0 8 5 6 0 7 8 3 3 7 4 1 9 8 7 6 5 5 4 4 3 3 3 2 2 1 1 0 , 8 , 6 , 5 , 4 , 4 , 4 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
0 5 , 0
0 6 5 1 7 8 6 6 2 0 7 5 4 2 1 0 9 8 8 7 4 3 0 1 6 4 2 1 1 0 0 0 9 9 9 9 9 9 8 8 8 8 8 8 0 , 8 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 7 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 6 , 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 7 , 0
0 5 4 4 8 4 2 9 8 7 6 5 4 3 3 2 2 2 1 1 0 9 1 4 2 1 0 0 0 9 9 9 9 9 9 9 9 9 9 9 9 9 9 8 5 , 4 , 4 , 4 , 4 , 4 , 4 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 3 , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 9 , 0
8 2 7 4 2 1 0 0 9 9 9 8 8 8 8 8 8 7 7 7 7 7 5 4 3 3 3 3 3 3 2 2 2 2 2 2 2 2 2 2 2 2 2 2 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 1 , 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
p 1 2 3 4 5 6 7 8 9 0 5 0 1 2 3 4 5 6 7 8 9 0 1 1 1 1 1 1 1 1 1 1 2 2 3
n
x d
) x (
n
s
∞ t
0
2 = )
0 t >
| T | (
P : t n e d u t S e d
t
n ´ o i c u b i r t s i D : 6 . 9 o r d a u C
132
´ AP ENDICE III
Bibliograf´ıa []
La bibliograf´ bibliograf´ıa sobre probabilidades probabilidades y estad´ estad´ıstica ıstica es cuantiosa, cuantiosa, y por ese motivo nos limitaremos a se˜nalar nalar algunos textos fundamentales y otros que, por estar en idioma castellano y ser de car´acter elemental, pueden ser ´utiles utiles como textos de iniciaci´on. on.
[]
Textos fundamentales
[1] Feller, eller, W. An Introduction to Probability Theory and its Applications , Wiley, Nueva York, Vol. 1 (1950). [2] Reny Reny, A. Wahrsecheinlichkeitsrechnung mit einem Anhang ¨ uber Informationstheorie, Deutscher mationstheorie, Deutscher Verlag der Wissenschaften, Wissens chaften, Berl´ Berl´ın (1966) ( 1966).. [3] R´ıos, ıos , S. S . M´etodo et odoss Esta Es tad´ d´ısti ıs ticos cos , McGraw-Hill, Nueva York (1967). []
Textos intermedios
[4] Cramer, H. Elementos de la Teor´ eor´ıa de Probabilidades Probabilidades y Aplicaciones , Aguilar, Aguilar, Madrid (1963). [5] Freem Freeman, an, H. Introd Introduction uction to Statistic Statistical al Inferenc Inference e , Addison-Wesley Addison-Wesley,, Reading, Reading, Mass. (1963). [6] Lindley, D. V. Introduction to Probability and Statistics, from a Bayesian Viewpoint; Viewpoint; Part I. Prob Probability, ability, Part II. Inferenc Inference e , Cambridge University Press, Londres (1965). [7] Toranzos, oranzos, F. I. Es I. Esta tad´ d´ısti ıs tica ca , Kapelusz, Buenos Aires (1962). []
Textos elementales
[8] Mastrogiovani, Mastrogiovani, M. de. de . Estad´ıstica ıstica y Prob P robabili abilidad dad para Educadores , Estrada, Buenos Aires (1969). [9] N´ u˜ unez, n ˜ ez, J. A. y Lenzi, R. V. Introducci´ on al C´ alculo de Prob Probabilidaabilidades , Centro Argentino de Profesores de Ense˜nanza nanza Media, Buenos Aires (1968). 133