Inge In genie nierr´ıa Ma Mate tem´ m´ at ica atic a
Roberto Cortez Julio Backhoff V´ıctor ıc tor Riquel Riq uelme me
FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
Probabilidades Probabi lidades y Estad Es tad´ ´ıstica Oto˜no no 2010
Control # 2 Tiempo: 3 horas P1. Decimos
que la variable aleatoria X aleatoria X tiene tiene distribuci´ on de Pareto si su densidad est´a dada por f ( f (x) =
c(xm /x) /x)α+1 0
≥
x xm en otro caso,
donde x donde x m , α > 0 son par´ametros. ametros. a ) (1.5 ptos.) Muestre que c = α/x = α/x m . b ) (1.5 ptos.) ptos.) ¿Para ¿Para cu´ ales α ales α est´ est´a bien definida la esperanza de X de X ?? Calcule E Calcule E ((X ) para aquellos
α que tenga sentido. ptos.) ¿Para ¿Para cu´ ales α ales α est´ est´a bien definida la varianza de X ? X ? Calcule var(X var(X ) para aquellos c ) (1.5 ptos.) α que tenga sentido. d ) (1.5 ptos.) ¿Cu´ al al es la distribuci´on on de log(X/x log(X/xm )? P2.
a ) (3.0 ptos.) Se dispone de una urna con N bolitas, N bolitas, de las cuales m son blancas y el resto
son negras, y se extraen n bolitas al azar. Calcule la cantidad esperada de bolitas blancas extr ex tra´ a´ıdas ıd as.. Indicaci´ on: defina variables indicatrices adecuadas y utilice la linealidad de la esperanza. Sean X ,, Y Y variables aleatorias con densidad conjunta b ) (3.0 ptos.) Sean X f X,Y (x, y ) = X,Y (x,
2(x 2(x + y) 0 < x < 1, 1 , 0 < y < x 0 en otro caso.
Calcule las densidades marginales de X e Y . Y . ¿Son independientes? Explique. Indicaci´ on: dibuje la regi´on on en que la densidad conjunta es estrictamente positiva. que Y que Y es una variable chi-cuadrado con n n grados de libertad , anotado Y anotado Y χn2 , si puede escribirse de la forma Y = X 12 + + X n2 , donde las variables X i son (0, (0, 1) independientes. Se desea calcular la esperanza y varianza de Y , Y , para lo cual siga los siguientes pasos:
P3. Decimos
···
N
∼
Sea X variable variable aleatoria con densidad densidad f f X a ) (1.2 ptos.) Sea X X . Pruebe que la densidad de la variable aleatoria X aleatoria X 2 es
√
√ x) − √ (0, (0, ) (x). √ ≤ √ x. Indicaci´ on: dado x dado x ≥ 0, se tiene que X 2 ≤ x si y s´olo olo si − x ≤ X ≤ ∼ N (0, b ) (1.2 ptos.) Si X Si X ∼ (0, 1), muestre que la densidad de X 2 es x/2 e x/2 f X (x) = √ (0, (0, ) (x). 2πx (0, 1), pruebe que la funci´on on genera generadora dora de mom momen entos tos de X 2 es c ) (1.2 ptos.) Si X ∼ N (0, M X (t) = (1 − 2t) 1/2 ∀t < 1/ 1 /2. d ) (1.2 ptos.) Muestre que la funci´on on generadora de momentos de Y ∼ χn2 es M Y (t) = (1 − Y (t n/2 ∀t < 1/ 2t) n/2 1 /2. Indicaci´ on: utilice la independencia de las variables X i . 2 Dado Y ∼ χn , calcule E (Y ) Y ) y var(Y var(Y ). ). e ) (1.2 ptos.) Dado Y f X X ( x) + f X X ( f X (x) = 2 x 2
∞
−
2
2
−
−
∞
Ingenier´ Inge nier´ıa Mate Matem´ m´ atica atica
Roberto Cortez Julio Backhoff V´ıctor ıct or Riq R iquel uelme me
FACULTAD DE CIENCIAS ´ F´ISICAS Y MATEMATICAS UNIVERSIDAD DE CHILE
Probabilida Probab ilidades des y Estad´ Es tad´ ıstica ıstica Oto˜ no no 2010
Pauta Control # 2 P1.
a )
Para Para calcular la constante, constante, imponemos que la integral integral de la densidad densidad en todo 1=
∞
f ( f (x)dx = dx =
∞
xm
−∞
xm c x
pues como α como α > 0, al evaluar en b)
α+1
α+1 dx = dx = cx cx m
∞
xm
R sea
1, es decir:
−α ∞ cxm α+1 x x−α−1 dx = dx = cx cx m = , α xm α
−
∞ se obtiene 0. Despejando c Despejando c,, obtenemos c obtenemos c = α/x = α/x
m.
Calculemo Calculemoss la esperanza esperanza y veamos cu´ ando ando ´esta esta no queda q ueda bien definida: E (X ) =
∞
xf ( xf (x)dx = dx =
∞
xm
−∞
α x xm
xm x
α+1
α dx = dx = αx αx m
∞
x−α dx.
xm
∞ α Para α Para α = = 1 la primitiva es log(x log( x), con lo cual obtenemos que E que E ((X ) = αx m log(x log(x) xm , lo cual vale Para α Para α = 1, tenemos: tenemos:
|
α E (X ) = αx m
∞ −
∞ x−α+1 = α + 1 xm
−
si −α+1
α xm αxm −α+1
c )
1 > 0 0 − α + 1 > 1 < 0 0.. − α + 1 <
≤ 1, y est´a bien definida para α para α > 1, siendo
En resumen, la esperanza de X queda indefinida para α αxm /(α 1) su valor.
−
si
∞.
Calculemo Calculemoss la varianz varianzaa y veamos veamos cu´ ando ando hay problemas: 2
E (X ) =
∞
2
x f ( f (x)dx = dx =
∞
xm
−∞
−
α x xm 2
xm x
α+1
α dx = dx = αx αxm
∞
x−(α−1) dx.
xm
Poniendo β Poniendo β = = α α 1 y analizando la integral con el mismo razonamiento de la parte previa, se concluye 2 que E que E ((X ) queda indefinida cuando β cuando β 1, es decir, cuando α 2. Para α Para α > 2, tenemos:
≤ ≤
2
E (X )
≤
α = αx m
y entonces var(X var(X ) = E (X 2 ) d )
∞ 2 x−α+2 αxm = , α + 2 xm α 2
−
2 m
−
2 2 m
2 m
− E (X )2 = ααx− 2 − (αα−x1)2 = (α − 1)αx2(α − 2) .
Sea Y Sea Y = = log(X/x log(X/xm ). Veamos: P ( P (Y
y me )
P (log(X/x X/x ) ≤ y) = P ( P (X ≤ ≤ y) = P (log( ≤ x m
xm ey
=
f ( f (x)dx.
−∞
Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a y , obteniendo: α+1 xm y y y α f Y (y ( y ) = x e f ( f ( x e ) = x e = αe−αy . Y m m m y xm xm e Es decir, f Y (y ) = αe−αy [0,∞) (y), lo cual significa que Y Y = log(X/x log(X/xm ) es una variable exponencial Y (y de par´ametro α ametro α..
P2.
a )
Hay tres formas de resolver este problema, dos de las cuales utilizan la indicaci´on, on, mientras que la u ultima ´ltima utiliza la definici´ on de esperanza. Llamemos X on Llamemos X a a la variable aleatoria que representa el n´umero umero de bolitas boli tas blancas extra´ıdas. ıdas. 1
Ingenier´ Inge nier´ıa Mate Matem´ m´ atica atica
Roberto Cortez Julio Backhoff V´ıctor ıct or Riq R iquel uelme me
FACULTAD DE CIENCIAS ´ F´ISICAS Y MATEMATICAS UNIVERSIDAD DE CHILE
Probabilida Probab ilidades des y Estad´ Es tad´ ıstica ıstica Oto˜ no no 2010
Pauta Control # 2 P1.
a )
Para Para calcular la constante, constante, imponemos que la integral integral de la densidad densidad en todo 1=
∞
f ( f (x)dx = dx =
∞
xm
−∞
xm c x
pues como α como α > 0, al evaluar en b)
α+1
α+1 dx = dx = cx cx m
∞
xm
R sea
1, es decir:
−α ∞ cxm α+1 x x−α−1 dx = dx = cx cx m = , α xm α
−
∞ se obtiene 0. Despejando c Despejando c,, obtenemos c obtenemos c = α/x = α/x
m.
Calculemo Calculemoss la esperanza esperanza y veamos cu´ ando ando ´esta esta no queda q ueda bien definida: E (X ) =
∞
xf ( xf (x)dx = dx =
∞
xm
−∞
α x xm
xm x
α+1
α dx = dx = αx αx m
∞
x−α dx.
xm
∞ α Para α Para α = = 1 la primitiva es log(x log( x), con lo cual obtenemos que E que E ((X ) = αx m log(x log(x) xm , lo cual vale Para α Para α = 1, tenemos: tenemos:
|
α E (X ) = αx m
∞ −
∞ x−α+1 = α + 1 xm
−
si −α+1
α xm αxm −α+1
c )
1 > 0 0 − α + 1 > 1 < 0 0.. − α + 1 <
≤ 1, y est´a bien definida para α para α > 1, siendo
En resumen, la esperanza de X queda indefinida para α αxm /(α 1) su valor.
−
si
∞.
Calculemo Calculemoss la varianz varianzaa y veamos veamos cu´ ando ando hay problemas: 2
E (X ) =
∞
2
x f ( f (x)dx = dx =
∞
xm
−∞
−
α x xm 2
xm x
α+1
α dx = dx = αx αxm
∞
x−(α−1) dx.
xm
Poniendo β Poniendo β = = α α 1 y analizando la integral con el mismo razonamiento de la parte previa, se concluye 2 que E que E ((X ) queda indefinida cuando β cuando β 1, es decir, cuando α 2. Para α Para α > 2, tenemos:
≤ ≤
2
E (X )
≤
α = αx m
y entonces var(X var(X ) = E (X 2 ) d )
∞ 2 x−α+2 αxm = , α + 2 xm α 2
−
2 m
−
2 2 m
2 m
− E (X )2 = ααx− 2 − (αα−x1)2 = (α − 1)αx2(α − 2) .
Sea Y Sea Y = = log(X/x log(X/xm ). Veamos: P ( P (Y
y me )
P (log(X/x X/x ) ≤ y) = P ( P (X ≤ ≤ y) = P (log( ≤ x m
xm ey
=
f ( f (x)dx.
−∞
Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a y , obteniendo: α+1 xm y y y α f Y (y ( y ) = x e f ( f ( x e ) = x e = αe−αy . Y m m m y xm xm e Es decir, f Y (y ) = αe−αy [0,∞) (y), lo cual significa que Y Y = log(X/x log(X/xm ) es una variable exponencial Y (y de par´ametro α ametro α..
P2.
a )
Hay tres formas de resolver este problema, dos de las cuales utilizan la indicaci´on, on, mientras que la u ultima ´ltima utiliza la definici´ on de esperanza. Llamemos X on Llamemos X a a la variable aleatoria que representa el n´umero umero de bolitas boli tas blancas extra´ıdas. ıdas. 1
siguiendo la indicaci´ indicaci´ on, o n, por cada una de las n bolitas extra´ extra´ıdas definimos una Primera forma: siguiendo variable aleatoria indicatriz X indicatriz X i , dada por X i = Es claro que X = X 1 + esperanza es
1 si la i-´ i -´esima esim a bolita bol ita extra´ ext ra´ıda ıda fue blanca bla nca 0 en otro otro caso caso..
· · · + X . Adem´as, as, cada variable X es una Bernoulli, por lo cual su n
i
m , N donde la ultima u ´ ltima igualdad se debe a que la probabilidad de que la i-´ i-´esima esim a bolit bo litaa extra ext ra´´ıda sea blanca blan ca corresponde a los casos favorables (m ( m) dividido en casos posibles (N (N ). ). Aplicando linealidad de la esperanza: nm E (X ) = E (X 1 ) + + E (X n ) = . N on, on, por cada una de las m bolitas blancas definimos una variSegunda forma: siguiendo la indicaci´ able aleatoria indicatriz Y j , dada por E (X i ) = P ( P (X i = 1) =
···
Y j = Es claro que X = Y 1 + esperanza est´a dada por:
1 si la j -´esima esi ma bolit bo litaa blanca bla nca fue extra´ ext ra´ıda ıda 0 en otro otro caso caso..
· · · + Y
m.
Adem´ as, as, cada variable Y j es una Bernoulli, por lo cual su
E (Y j ) = P ( P (Y j = 1) =
N n−1 N n
=
n , N
donde la pen´ ultima igualdad se debe a que la probabilidad de extraer la j -´esima ultima esima bolita boli ta blanca corresponde a la cantidad de formas de extraer n bolitas n bolitas que incluyan a la j la j-´ -´esima esim a blanca bl anca,, divid di vidido ido por el total de formas de extraer las n las n bolitas. Aplicando linealidad de la esperanza, concluimos: E (X ) = E (Y 1 ) +
· · · + E (Y
m)
=
nm . N
es una variable variabl e hipergeom´ hip ergeom´etrica, etrica, cuya funci´ fun ci´on on distribuci´on on es conocida, dada por: Tercera forma: X es P ( P (X = k) k ) =
m k
N −m n−k N n
.
Aplicando la definici´on on de la esperanza, se tiene que: n
m k
n
E (X ) =
kP ( kP (X = k) k ) =
k =0
k
k=0
N −m n−k N n
,
donde se utiliza la convenci´on on de que los coeficientes binomiales con ´ındices fuera de rango son 0. b b−1 Usando que a que a a = b a−1 , obtenemos:
nm = N
− −
−
n
m
E (X ) =
k=0
m−1 N −m k −1 n−k N N −1 n n−1
n
m−1 N −m k −1 n−k N −1 n−1
k =0
nm = N
n−1
m−1 N −m j n−1−j N −1 n−1
j =0
donde la ultima u ´ ltima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable hipergeom´ hiper geom´etrica etrica con par´ametros N ametros N 1, n 1, n 1 y m 1. Por lo tanto, E tanto, E ((X ) = nm/N . nm/N . b)
−
Calculemo Calculemoss la densidad densidad marginal marginal de X de X .. Dado 0 < 0 < x < 1, tenemos: f X (x) =
∞
−∞
x
f X,Y (x, y )dy = dy = X,Y (x,
x
2(x 2(x + y )dy = dy = 2x
0
dy + dy +
0
2
x
0
2ydy = ydy = 2x2 + x2 ,
por lo tanto, dado que f X,Y (x, y) = 0 para x / (0, 1), obtenemos que f X (x) = 3x3 (0,1) (x). Ahora calculemos la densidad marginal de Y . Dado 0 < y < 1, para que f X,Y (x, y) sea no nulo se necesita que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto: ∞ 1 1 1 f Y (y) = f X,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y2 + 2y(1 y). −∞ y y y Luego, dado que f X,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es f Y (y) = (1 + 2y 3y2 ) (0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de las densidades. En este caso el producto de las densidades es
∈
−
−
∈
−
f X (x)f Y (y) = 3x2 (1 + 2y
− 3y2)
(0,1) (x) (0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes. P3.
a )
Dado x > 0, tenemos:
≤ x) = P (−√ x ≤ X ≤ √ x) = F (√ x) − F (√ x), y derivando con respecto a x, se obtiene: √ √ f (√ x) + f (−√ x) f ( x) −f (− x) √ − 2√ x = √ f (x) = . 2 x 2 x P (X 2
X
X
X2
X
X
X
X
La indicatriz aparece porque para x < 0 el evento X 2 < x es vac´ıo y por lo tanto la densidad es 0. b ) Reemplazando f X por la densidad de una (0, 1) en la f´ormula de la parte previa, obtenemos: √ 2 √ 2 1 e−( x) /2 e −(− x) /2 e−x/2 f X 2 (x) = + (0,∞) (x) = (0,∞) (x). 2 x 2π 2π 2πx
√
c )
N
√
√
√
Calculemos: ∞ e−x(1−2t)/2 e−x/2 M X 2 (t) = E (e ) = e dx = dx. 2πx 2πx 0 0 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 ∞
tX
≥
Cuando t obtenemos:
∞
M X 2 (t) =
tx
√
e−y/2 dy = 2πy/(1 2t) 1 2t
∞
0
−
−
1
√
√ 1 −
− 2t) y
∞ e−y/2 dy, 2πy 2t 0
√
y la integral vale 1 pues el integrando es la densidad de X 2 . d ) Como Y χ2n , Y se escribe como la suma de los X i2 , donde X i (0, 1) y son independientes. Por lo hecho anteriormente, se tiene que M Xi2 (t) = (1 2t)−1/2 . Adem´as, sabemos que la f.g.m. de la suma de variables independientes es el producto de las f.g.m., por lo cual (1 2t)−1/2 = (1 2t)−n/2 . M (t) = M 2 (t) M 2 (t) = (1 2t)−1/2
∼
Y
e )
∼ N
−
X1
···
−
Xn
··· −
−
Utilicemos la f.g.m. para calcular E (Y ) y var(Y ): dM Y (t) = dt Y derivando nuevamente: d2 M Y (t) n = n( dt2 2 Por lo tanto:
− n2 (1 − 2t)−
n/2−1
n/2−2
− − 1)(1 − 2t)−
E (Y ) E (Y 2 ) var(Y )
= =
dM Y (t) dt
−
n/2−1
− 2t)−
( 2) = n(n + 2)(1
.
n/2−2
− 2t)−
.
= n
t=0
d2 M Y (t) dt2
= E (Y 2 )
−
( 2) = n(1
= n(n + 2)
t=0
− E (Y )2 = n(n + 2) − n2 = 2n.
es posible obtener el resultado calculando la esperanza y varianza de X 2 , con X (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables independientes. Observaci´ on: tambi´ en
∼ N
3
Ingenier´ıa Matem´ atica FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-4 Probabilidades y Estad´ıstica, Primavera 2010
Roberto Cortez V´ıctor Carmi Dar´ıo Cepeda
Control # 2 25 de octubre de 2010 Tiempo: 3 horas P1.
a )
(3.0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si el ingreso per c´apita mensual de la familia de un estudiante es inferior a $50, se le asigna 100 % de beca; si el ingreso per c´apita est´a entre $50 y $80, se le asigna 50 % de beca; y si est´a entre $80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el valor esperado de la beca mensual asignada a un estudiante escogido al azar, suponiendo que el ingreso per c´apita mensual de la familia se distribuye uniformemente en el intervalo [$25, $175].
b)
(3.0 ptos.) Sean X e Y variables aleatorias independientes exponenciales de par´ametro λ = 1. Sean U = X/Y , V = X Y . Muestre que la funci´on de densidad conjunta de U y V es
− √ (u, v) = 0
f U,V
P2.
a )
e
√ u √
( u+ 1 ) v
2u
u > 0, v > 0 en otro caso.
Sea A ⊆ R2 como en la figura, y sea (X, Y ) un vector aleatorio uniformemente distribuido sobre A, es decir, f X,Y (x, y) = ´area(A)−1 A (x, y). 1) (1.5 ptos.) Muestre que f X (x) = 2−|3 x| [−1,1](x) . Calcule tambi´en la densidad marginal de Y . 2) (1.5 ptos.) Deduzca que E(X ) = 0 y muestre que cov(X, Y ) = 0. Indicaci´ on: utilice sin demostrar que E(XY )
=
R2
xyf X,Y (x, y)dxdy.
3) (1.0 pto.) ¿Son independientes X e Y ? Justifique. enticos con n cartas cada uno. La persona A extrae kA b ) (2.0 ptos.) Se tienen dos mazos id´ cartas al azar del primer mazo, y la persona B extrae, independiente de A, kB cartas al azar del segundo mazo (sin reposici´on en ambos casos). Muestre que el n´umero esperado de cartas que aparecen simult´aneamente entre las escogidas por A y por B, es (kA kB )/n. Indicaci´ on: defina variables indicatrices adecuadas y use la linealidad de la esperanza. P3.
Sea X una variable aleatoria con distribuci´on de Laplace de par´ametros µ ∈ su densidad est´a dada por 1 |x−µ| f X (x) = e− b ∀x ∈ R . 2b
R y
b > 0, es decir,
a )
(1.5 ptos.) Muestre que la funci´ on generadora de momentos de X es M X (t) = e µt /(1 − b2 t2 ) para |t| < 1/b.
b)
(1.5 ptos.) Calcule la esperanza y varianza de X .
c )
(1.5 ptos.) Suponiendo µ = 0, calcule la densidad de |X |. ¿Qu´e variable conocida es |X |?
d )
(1.5 ptos.) Sean Y 1 ∼ exp(λ1 ), Y 2 ∼ exp(λ2 ) variables independientes. Pruebe que λ1 Y 1 − λ2 Y 2 tiene distribuci´on de Laplace con par´ametros µ = 0 y b = 1. Indicaci´ on: calcule las densidades de λ1 Y 1 y −λ2 Y 2 , y calcule la densidad de su suma utilizando una propiedad adecuada.
Ingenier´ıa Matem´ atica
Roberto Cortez Julio Backhoff V´ıctor Riquelme
FACULTAD DE CIENCIAS ´ F´ISICAS Y MATEMATICAS UNIVERSIDAD DE CHILE
Probabilidades y Estad´ ıstica Oto˜ no 2010
Pauta Control # 2 P1.
a )
Para calcular la constante, imponemos que la integral de la densidad en todo 1=
∞
f (x)dx =
∞
xm
−∞
xm c x
pues como α > 0, al evaluar en b)
α+1
+1 dx = cx α m
∞
xm
R sea
1, es decir:
−α ∞ cxm +1 x x−α−1 dx = cx α = , m α xm α
−
∞ se obtiene 0. Despejando c, obtenemos c = α/x
m.
Calculemos la esperanza y veamos cu´ ando ´esta no queda bien definida: E (X ) =
∞
xf (x)dx =
∞
xm
−∞
α x xm
xm x
α+1
dx = αx α m
∞
x−α dx.
xm
∞ Para α = 1 la primitiva es log(x), con lo cual obtenemos que E (X ) = αx α m log(x) xm , lo cual vale Para α = 1, tenemos:
|
E (X ) = αx α m
∞ −
∞ x−α+1 = α + 1 xm
−
si −α+1
xm αxα m −α+1
c )
− α + 1 > 0 − α + 1 < 0.
≤ 1, y est´a bien definida para α > 1, siendo
En resumen, la esperanza de X queda indefinida para α αxm /(α 1) su valor.
−
si
∞.
Calculemos la varianza y veamos cu´ ando hay problemas: 2
E (X ) =
∞
2
x f (x)dx =
∞
xm
−∞
−
α x xm 2
xm x
α+1
dx = αxα m
∞
x−(α−1) dx.
xm
Poniendo β = α 1 y analizando la integral con el mismo razonamiento de la parte previa, se concluye que E (X 2 ) queda indefinida cuando β 1, es decir, cuando α 2. Para α > 2, tenemos:
≤
2
E (X )
≤
= αx α m
y entonces var(X ) = E (X 2 ) d )
∞ x−α+2 αx2m = , α + 2 xm α 2
−
2 m
−
2 2 m
2 m
− E (X )2 = ααx− 2 − (αα−x1)2 = (α − 1)αx2(α − 2) .
Sea Y = log(X/xm ). Veamos: P (Y
y me )
≤ y) = P (log(X/x ) ≤ y) = P (X ≤ x m
xm ey
=
f (x)dx.
−∞
Si y < 0, entonces xm ey < xm y la probabilidad anterior es 0. Para y > 0, derivamos con respecto a y, obteniendo: α+1 α xm f Y (y) = x m ey f (xm ey ) = x m ey = αe−αy . y xm xm e Es decir, f Y (y) = αe−αy [0,∞) (y), lo cual significa que Y = log(X/xm ) es una variable exponencial de par´ametro α.
P2.
a )
Hay tres formas de resolver este problema, dos de las cuales utilizan la indicaci´on, mientras que la u ´ltima utiliza la definici´ on de esperanza. Llamemos X a la variable aleatoria que representa el n´umero de bolitas blancas extra´ıdas. 1
o n, por cada una de las n bolitas extra´ıdas definimos una Primera forma: siguiendo la indicaci´ variable aleatoria indicatriz X i , dada por X i = Es claro que X = X 1 + esperanza es
1 si la i-´esima bolita extra´ıda fue blanca 0 en otro caso.
··· + X . Adem´as, cada variable X es una Bernoulli, por lo cual su n
i
m , N donde la u ´ltima igualdad se debe a que la probabilidad de que la i-´esima bolita extra´ıda sea blanca corresponde a los casos favorables (m) dividido en casos posibles (N ). Aplicando linealidad de la esperanza: nm E (X ) = E (X 1 ) + + E (X n ) = . N on, por cada una de las m bolitas blancas definimos una variSegunda forma: siguiendo la indicaci´ able aleatoria indicatriz Y j , dada por E (X i ) = P (X i = 1) =
···
Y j = Es claro que X = Y 1 + esperanza est´a dada por:
1 si la j -´esima bolita blanca fue extra´ıda 0 en otro caso.
··· + Y
m.
Adem´as, cada variable Y j es una Bernoulli, por lo cual su
E (Y j ) = P (Y j = 1) =
N n−1 N n
=
n , N
donde la pen´ ultima igualdad se debe a que la probabilidad de extraer la j-´esima bolita blanca corresponde a la cantidad de formas de extraer n bolitas que incluyan a la j-´esima blanca, dividido por el total de formas de extraer las n bolitas. Aplicando linealidad de la esperanza, concluimos: E (X ) = E (Y 1 ) +
··· + E (Y
m)
=
nm . N
on distribuci´on es conocida, dada por: Tercera forma: X es una variable hipergeom´etrica, cuya funci´ P (X = k) =
m k
N −m n−k N n
.
Aplicando la definici´on de la esperanza, se tiene que: n
m k
n
E (X ) =
kP (X = k) =
k =0
k
k=0
N −m n−k N n
,
donde se utiliza la convenci´on de que los coeficientes binomiales con ´ındices fuera de rango son 0. 1 Usando que a ab = b ab− −1 , obtenemos:
nm = N
−
−
n
m
E (X ) =
k=0
m−1 N −m k −1 n−k N N −1 n n−1
n
m−1 N −m k −1 n−k N −1 n−1
k =0
nm = N
n−1
m−1 N −m j n−1−j N −1 n−1
j =0
donde la u ´ ltima sumatoria es 1 pues corresponde a la suma de las probabilidades de una variable hipergeom´etrica con par´ametros N 1, n 1 y m 1. Por lo tanto, E (X ) = nm/N . b)
−
Calculemos la densidad marginal de X . Dado 0 < x < 1, tenemos: f X (x) =
∞
−∞
x
f X,Y (x, y)dy =
x
2(x + y)dy = 2x
0
dy +
0
2
x
0
2ydy = 2x2 + x2 ,
por lo tanto, dado que f X,Y (x, y) = 0 para x / (0, 1), obtenemos que f X (x) = 3x3 (0,1) (x). Ahora calculemos la densidad marginal de Y . Dado 0 < y < 1, para que f X,Y (x, y) sea no nulo se necesita que y < x < 1 (hacer dibujo para verlo claro). Por lo tanto: ∞ 1 1 1 f Y (y) = f X,Y (x, y)dx = 2(x + y)dx = 2xdx + 2y dx = 1 y2 + 2y(1 y). −∞ y y y Luego, dado que f X,Y (x, y) = 0 para y / (0, 1), se obtiene que la densidad de Y es f Y (y) = (1 + 2y 3y2 ) (0,1) (y). Cuando las variables son independientes, la densidad conjunta es el producto de las densidades. En este caso el producto de las densidades es
∈
−
−
∈
−
f X (x)f Y (y) = 3x2 (1 + 2y
− 3y2)
(0,1) (x) (0,1) (y),
lo cual no calza con la densidad conjunta de X e Y . Por lo tanto, ellas no son independientes. P3.
a )
Dado x > 0, tenemos:
≤ x) = P (−√ x ≤ X ≤ √ x) = F (√ x) − F (√ x), y derivando con respecto a x, se obtiene: √ √ f (√ x) + f (−√ x) f ( x) −f (− x) √ − 2√ x = √ f (x) = . 2 x 2 x P (X 2
X
X
X2
X
X
X
X
La indicatriz aparece porque para x < 0 el evento X 2 < x es vac´ıo y por lo tanto la densidad es 0. b ) Reemplazando f X por la densidad de una (0, 1) en la f´ormula de la parte previa, obtenemos: √ 2 √ 2 1 e−( x) /2 e −(− x) /2 e−x/2 f X 2 (x) = + (0,∞) (x) = (0,∞) (x). 2 x 2π 2π 2πx
√
c )
N
√
√
√
Calculemos: ∞ e−x(1−2t)/2 e−x/2 M X 2 (t) = E (e ) = e dx = dx. 2πx 2πx 0 0 1/2 esta integral vale . Para t < 1/2, hacemos el cambio de variable y = x(1 ∞
tX
≥
Cuando t obtenemos:
∞
M X 2 (t) =
tx
√
e−y/2 dy = 2πy/(1 2t) 1 2t
∞
0
−
−
1
√
√ 1 −
− 2t) y
∞ e−y/2 dy, 2πy 2t 0
√
y la integral vale 1 pues el integrando es la densidad de X 2 . d ) Como Y χ2n , Y se escribe como la suma de los X i2 , donde X i (0, 1) y son independientes. Por lo hecho anteriormente, se tiene que M Xi2 (t) = (1 2t)−1/2 . Adem´as, sabemos que la f.g.m. de la suma de variables independientes es el producto de las f.g.m., por lo cual (1 2t)−1/2 = (1 2t)−n/2 . M (t) = M 2 (t) M 2 (t) = (1 2t)−1/2
∼
Y
e )
∼ N
−
X1
···
−
Xn
··· −
−
Utilicemos la f.g.m. para calcular E (Y ) y var(Y ): dM Y (t) = dt Y derivando nuevamente: d2 M Y (t) n = n( dt2 2 Por lo tanto:
− n2 (1 − 2t)−
n/2−1
n/2−2
− − 1)(1 − 2t)−
E (Y ) E (Y 2 ) var(Y )
= =
dM Y (t) dt
−
n/2−1
− 2t)−
( 2) = n(n + 2)(1
.
n/2−2
− 2t)−
.
= n
t=0
d2 M Y (t) dt2
= E (Y 2 )
−
( 2) = n(1
= n(n + 2)
t=0
− E (Y )2 = n(n + 2) − n2 = 2n.
es posible obtener el resultado calculando la esperanza y varianza de X 2 , con X (0, 1), y luego aplicar linealidad de la esperanza y de la varianza en caso de variables independientes. Observaci´ on: tambi´ en
∼ N
3
Ingenier´ıa Matem´ atica
Roberto Cortez V´ıctor Carmi Alfredo Torrico
FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-5 Probabilidades y Estad´ıstica, Oto˜ no 2011
Control 2 23 de mayo de 2011 Tiempo: 3 horas P1.
Sea X variable aleatoria de Weibull con par´ametros λ > 0 y k > 0, es decir, su densidad est´a dada por k x f X (x) = λ λ
k−1
(x/λ)k
−
(x/λ)k ]
[0,∞) (x).
a )
(1,5 ptos.) Muestre que F X (x) = [1 − e
b)
(1,5 ptos.) Muestre que la f.g.m. de la variable ln( X ) es la funci´on λt Γ(1 + t/k). Recuerde que Γ(θ) = 0 e y y θ 1 dy.
−
∞
P2.
e
−
[0,∞) (x).
−
c )
(1,5 ptos.) Obtenga todos los momentos de X . Calcule su esperanza y varianza. Obtenga una expresi´on usando una serie de potencias para la f.g.m. de X . Indicaci´ on: examine qu´e repsesenta M ln(X ) (t).
d )
(1,5 ptos.) Calcule la densidad de la variable (X/λ)k . ¿Qu´e variable conocida es?
a )
(3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de 5cm del centro, se asignan 10 puntos; si est´a a m´as de 5cm y a menos de 15cm, se le asignan 5 puntos; y si est´a a m´as de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso, no se asignan puntos. Calcule la cantidad esperada de puntos, si se sabe que la distancia de la flecha al centro del blanco se distribuye uniformemente entre 0cm y 50cm.
b)
(3,0 ptos.) Sean X ∼ N (µ, σ 2 ), Y ∼ N (ν, τ 2 ) variables aleatorias independientes. Muestre que Z = X + Y ∼ N (µ + ν, σ 2 + τ 2 ). Indicaci´ on: calcule la densidad de Z mediante una propiedad conocida (sabiendo que una integral del tipo e A(y B) dy, con A y B constantes, no depende del valor de B), o bien utilice la f.g.m. y sus propiedades (recordando que si W es normal entonces su f.g.m. es e tE(W )+ t var(W ) ).
∞
−
−
2
−∞
1
2
2
P3.
a )
En un banco llegan clientes a tasa de 3 por minuto. El valor esperado del tiempo que un cliente tarda en una caja es de 2 minutos. Hay 4 cajas, que atienden de manera independiente. 1) (1,0 pto.) ¿Cu´al es la probabilidad de que en los pr´oximos 2 minutos lleguen exactamente 4 clientes? 2) (1,0 pto.) ¿Cu´al es la tasa de atenci´on conjunta de las cajas? 3) (1,0 pto.) Suponga que surge una falla en el sistema computacional del banco, por lo cual las cajas dejan de atender clientes. El tiempo que tarda el sistema en volver a funcionar es una variable exponencial de par´ametro λ = 0,2. ¿Cu´al es el valor esperado de la cantidad de clientes que llegan al banco durante la falla del sistema?
b)
Sean X e Y variables aleatorias con densidad conjunta dada por f X,Y (x, y) =
1 , x2 y2
x ≥ 1, y ≥ 1
0,
en otro caso
Se definen las variables aleatorias U = X Y , V = X/Y . 1) (1,5 ptos.) Muestre que la densidad conjunta de U y V es f U,V (u, v) = 1/(2u2 v) para 0 < 1/u ≤ v ≤ u, y 0 en otro caso. 2) (1,5 ptos.) Encuentre las densidades marginales de U y V .
Ingenier´ıa Matem´ atica
Roberto Cortez V´ıctor Carmi Alfredo Torrico
FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-5 Probabilidades y Estad´ıstica, Oto˜ no 2011
Pauta Control 2 P1.
a )
Calculemos: x
≤ x) =
F X (x) = P (X
k z λ λ
k −1
0
k k e−(z/λ) dz = −e−(z/λ) k
x
0
=1
k
− e−(x/λ) ,
donde hemos usado que la derivada de e−(z/λ) es exactamente el integrando. Lo anterior vale para x 0, mientras que para x < 0 se tiene que F X (x) = 0, lo cual hace aparecer la indicatriz buscada.
−
≥
b)
Utilizando la propiedad para calcular la esperanza de una funci´ on de una variable aleatoria, tenemos que: t ln(X )
M ln(X ) (t) = E(e
t
) = E(X ) =
∞
k x λ λ
k −1
xt
0
k
e−(x/λ) dx.
Hacemos el cambio de variable y = (x/λ)k , con lo cual dy = (k/λ) (x/λ)k−1 dx, obteniendo
·
M ln(X ) (t) = c )
∞
(λy
1/k t
) e−y dy = λt
0
∞
y (1+t/k)−1 e−y dy = λ t Γ(1 + t/k).
0
Por lo hecho en el punto previo, sabemos que M ln(X ) (t) = E(X t ). Por lo tanto para n N, tenemos que el momento n-´esimo de X corresponde a E(X n ) = M ln(X ) (n) = λ n Γ(1 + n/k). La esperanza de X es entonces E(X ) = λΓ(1 + 1/k), y la varianza es
∈
var(X ) = E (X 2 )
− E(X )2 = λ2Γ(1 + 2/k) − λ2Γ(1 + 1/k)2 = λ2[Γ(1 + 2/k) − Γ(1 + 1/k)2].
Encontremos una expresi´on para M X (t): expandiendo en serie de Taylor en torno a 0, y utilizando la propiedad fundamental de la funci´on generadora de momentos, se obtiene: M X (t) =
∞
n=0 d )
tn dn M X (0) = n! dtn
∞
n=0
tn n E(X ) = n!
∞
n=0
tn λn Γ(1 + n/k). n!
Sea Y = (X/λ)k . Calculemos su distribuci´on acumulada: F Y (y) = P((X/λ)k
≤ y) = P (X ≤ λy1/k) = F X (λy1/k) = 1 − e−([λy
1/k
lo cual vale para y 0. Derivando, obtenemos entonces f Y (y) = e−y (X/λ)k es una variable exponencial de par´ametro 1.
≥
P2.
a )
]/λ)k
=1
− e−y ,
[0,∞) (y),
es decir,
Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha al centro del blanco. X es discreta, con R X = 0, 3, 5, 10 , luego
{
E(X )
=
k∈RX
·
}
·
·
·
kpX (k) = 0 pX (0) + 3 pX (3) + 5 pX (5) + 10 pX (10).
La cantidad p X (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale a la probabilidad de que la flecha est´e a menos de 5cm del centro. Es decir, p X (10) = P(Y
∈
1
[0, 5]) = 5/50, donde hemos usado que Y posibles puntajes, se obtiene: E(X )
b)
∼ unif(0, 50). Aplicando lo mismo para los otros
· P(Y ∈ [25, 50]) + 3 · P(Y ∈ [15, 25]) + 5 · P(Y ∈ [5, 15]) + 10 · P(Y ∈ [0, 5]) 10 10 5 30 + 50 + 50 13 = 0 + 3 · + 5 · + 10 · = = . 50 50 50 50 5
=0
Hay dos formas de resolver este problema. La primera consiste en calcular expl´ıcitamente la densidad de Z , utilizando el hecho que la densidad de la suma de variables independientes es la convoluci´on de las densidades. Se tiene entonces que: f Z (z) = =
∞
−∞ ∞
−
−∞
= cte
− x)dx 2 − (x − µ)
f X (x)f Y (z cte exp
∞
exp
−∞
2σ 2
y2 2σ 2
− exp
(z
− x − ν )2 2τ 2
− y − µ − ν )2 − 2τ 2 (z
dx
dx,
−
donde la u ´ ltima igualdad se obtiene haciendo el cambio de variable y = x µ ( cte significa que no depende de z ni de la variable de integraci´on). Trabajemos con el exponente que aparece en el integrando, apartando la dependencia en z :
− 2σ12τ 2 (τ 2y2 + σ2(z − (µ + ν ) − y)2) 1 = − 2 2 ((σ 2 + τ 2 )y2 − 2yσ 2 (z − (µ + ν )) + σ 2 (z − (µ + ν ))2 ) 2σ τ σ 2 + τ 2 2 2yσ 2 (z − (µ + ν )) (z − (µ + ν ))2 =− − y − 2σ 2 τ 2 σ 2 + τ 2 2τ 2 2 4 2 2 σ 2 + τ 2 σ 2 (z − (µ + ν )) − σ (z − (µ + ν )) − (z − (µ + ν )) =− y−
Exponente =
2σ 2 τ 2
= =
−
σ 2 + τ 2 2σ 2 τ 2
−
σ 2 + τ 2 2σ 2 τ 2
− −
σ 2 + τ 2
y
σ 2 (z (µ + ν )) σ 2 + τ 2
y
σ 2 (z (µ + ν )) σ 2 + τ 2
− −
− 2
+
2
(σ 2 + τ 2 )2
σ 2 (z (µ + ν ))2 2τ 2 (σ 2 + τ 2 )
−
2τ 2
2
− (z − (µ2τ +2 ν ))
(z (µ + ν ))2 . 2(σ 2 + τ 2 )
−
Luego: f Z (z) = cte exp
−
(z (µ + ν ))2 2(σ 2 + τ 2 )
−
∞
−∞
−
exp( A(y
− B)2)dy,
donde A y B no dependen de la variable de integraci´on. Haciendo un simple cambio de variable w = y B, vemos que la integral no depende de B , lo que implica que no depende de z . Por lo tanto,
−
f Z (z) = cte exp
−
(z (µ + ν ))2 2(σ 2 + τ 2 )
−
.
Lo anterior es la densidad de una (µ + ν, σ 2 + τ 2 ), salvo por la constante. Pero como sabemos que esa expresi´on debe ser una funci´on densidad, la u ´ nica opci´on es que la constante sea tal que lo anterior integre 1, luego necesariamente cte = 1/ 2π(σ 2 + τ 2 ). Es decir, Z (µ + ν, σ 2 + τ 2 ).
N
∼ N
2
La segunda forma consiste en utilizar la funci´ on generadora de momentos y sus propiedades. Como X e Y son independientes, tenemos: M Z (t) = M X +Y (t) = M X (t) M Y (t) = e µt+
·
1 2
σ 2 t2
· eνt+
1 2
τ 2 t2
= e (µ+ν )t+
1 2
(σ 2 +τ 2 )t2
.
Es decir, M Z coincide con la f.g.m. de una (µ + ν, σ 2 + τ 2 ). Pero como la f.g.m. caracteriza la distribuci´on de la variable, necesariamente Z (µ + ν, σ 2 + τ 2 ).
N
P3.
a )
∼ N
1) Sabemos que la cantidad de clientes que llegan en 2 minutos es una variable de Poisson de par´ametro λ = 3 2 = 6. Luego, la probabilidad buscada es:
·
4
−6 6 = 54e−6 . P(Poiss(6) = 4) = e 4!
2) Sabemos que el tiempo promedio que tarda un cliente en ser atendido, lo cual corresponde a una variable exp(λ) para cierto λ, es de 2 minutos. Como el valor esperado de esta variable es 1/λ, se tiene que λ = 0,5, es decir, cada caja atiende a tasa de 0,5 clientes por minuto. Por lo visto en clases, la suma de procesos de Poisson independientes es un nuevo proceso de Poisson, cuya tasa es la suma de las tasas. En nuestro caso, son 4 cajas, por lo cual la tasa de atenci´on conjunta es 4λ = 2 clientes por minuto. 3) Sea X la cantidad de clientes que llegan durante la falla del sistema, y sea S el tiempo que dura la falla. Condicionando en el resultado de S , tenemos: E(X )
=
∞
|
E(X S = s)f S (s)ds =
−∞
{
∞
|
E(X S = s)
0
· 0,2 · e−0,2·sds.
}
Al condicionar en el evento S = s , la duraci´on de la falla est´a fija. Luego, dado que la llegada de clientes es un proceso de Poisson con tasa 3, en el evento S = s se tiene que X Poiss(3s). Por lo tanto, E(X S = s) = E (Poiss(3s)) = 3s. Obtenemos entonces:
∼
{
|
E(X )
=
∞
0
3 3s 0,2 e−0,2·s ds = 0,2
· ·
∞
0,2 (0,2 s) e−0,2·s ds =
·
0
· ·
}
3 = 15, 0,2
donde hemos usado que la integral vale 1 pues el integrando es la densidad de una variable gamma de par´ ametros λ = 0,2 y θ = 2. b)
1) Se tiene que (U, V ) = g(X, Y ), donde g es la funci´on g(x, y) = (xy,x/y). Notemos que
√
( UV ,
U/V ) = (
√
es decir, g −1 (u, v) = ( uv, Jg −1 (u, v) =
√
d uv du d u/v du
√
XY /(X/Y )) = (X, Y ),
u/v). Luego, el jacobiano de g −1 viene dado por:
√
d uv dv d u/v dv
√
Por lo tanto:
|
·
XY (X/Y ),
=
√ v 2 uv
2
1/v √ 2 u/v
− −
1 det Jg −1 (u, v) = 4v
|
√ u 2 uv u/v −√
2
√ u √ 2√ v − √ u , 2v v
· | det Jg−1(u, v)| = √
uv
3
=
√ v √ 2 u √ 1 2 uv
1 1 = . 4v 2v
Por el m´etodo del jacobiano, tenemos entonces que: f U,V (u, v) = f X,Y (g −1 (u, v))
u/v
1 2
u/v
2
· 2v1 = 2u12v ,
.
√ ≥
lo cual vale cuando uv 1 y u, v > 0). Obtenemos entonces:
≥ u/v
1, es decir, cuando v
1 , 2u2 v
f U,V (u, v) =
0,
≥ 1/u y u ≥ v (con
≤ ≤
0 < 1/u v u en otro caso.
2) Calculemos la marginal de U . Se tiene que el intervalo [1 /u,u] es no vac´ıo si y s´olo si u 1. Luego, para u < 1 se tiene que f U (u) vale 0, mientras que para u 1 obtenemos:
≥
≥
f U (u) =
∞
u
f U,V (u, v)dv =
−∞
1/u
dv 1 = [ln(u) 2u2 v 2u2
≤ ≤
Veamos V : la condici´on 1/u v u equivale a u m´ ax(v, 1/v). Para v > 0, tenemos entonces f V (v) =
∞
f U,V (u, v)du =
−∞
∞
m´ ax(v,1/v)
. − ln(1/u)] = ln(u) u2
≥ 1/v y u ≥ v, es decir, u ≥
du 1 1 = . 2u2 v 2v m´ax(v, 1/v)
En resumen:
f U (u) =
ln(u) , u2
0,
≥
u 1 en otro caso,
4
f V (v) =
1 , 2v 2 1 2,
0,
≥
v 1 0 < v < 1 en otro caso.
Ingenier´ıa Matem´ atica FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Primavera 2011
Roberto Cortez ´ Angel Pardo Alfredo Torrico
Control 2 12 de diciembre de 2011 Tiempo: 3 horas P1.
a ) (3,0 ptos.) Un estudiante debe llegar a su clase de las 8:30, para lo cual espera un autob´us
en el paradero. El autob´us que pasa a las 7:30 tarda 40 minutos en llegar a la facultad, pero el autob´ us de las 7:40 tarda 50 minutos. Si el estudiante no alcanza el autob´us de las 7:40, debe tomar el colectivo de las 7:45, que en 35 minutos lo deja en la facultad. Si la hora de llegada del estudiante al paradero se distribuye uniformemente entre las 7:25 y las 7:45, ¿cu´al es el valor esperado de la hora de llegada a su clase? b ) (3,0 ptos.) Se dispone de una urna con N bolitas numeradas de 1 a N . Se extraen bolitas con resposici´on de manera independiente hasta que haya salido cada bolita al menos una vez. Sea X la variable que denota la cantidad total de extracciones realizadas, y sea X k la cantidad de extracciones desde la vez k 1 que aparece una bolita que no hab´ıa salido antes (excluyendo esa extracci´on) hasta la siguiente vez que aparece una bolita que no ha salido antes (incluyendo esa extracci´on), para k = 1, . . . , N . Deduzca la distribuci´on de cada X k , y obtenga una expresi´on para E(X ).
−
P2.
∼ χ2n,
Sea X variable aleatoria con distribuci´on chi-cuadrado con n grados de libertad , anotado X es decir, su densidad est´a dada por f X (x) = donde Γ(θ) =
∞
0
e
z z θ−1 dz es
−
1 xn/2 n/2 2 Γ(n/2)
1
−
e
x/2
−
la funci´on Gamma.
a ) (1,5 ptos.) Muestre que la f.g.m. de X es M X (t) = (1 b ) (1,5 ptos.) Calcule
(0,∞) (x),
E(X )
− 2t)
n/2
−
para t < 1/2.
y var(X ). andar, muestre que Y 2 χ21 . Utilice el hecho que c ) (1,5 ptos.) Si Y es una variable normal est´ Γ(1/2) = π. andar independientes, entonces X 12 + d ) (1,5 ptos.) Concluya que si X 1 , . . . , Xn son normales est´ + X n2 tiene distribuci´on χ 2n . Indicaci´ on: utilice las propiedades de la f.g.m.
∼
√
···
P3.
andar. Definimos U = X y V = X/Y . a ) Sean X e Y independientes con distribuci´on normal est´ 1) (1,5 ptos.) Muestre que la funci´on de densidad conjunta de U y V es
|u|e f U,V (u, v) =
u2 (1+1/v 2 )/2
−
2πv 2
.
2) (1,5 ptos.) Muestre que V tiene distribuci´on de Cauchy, es decir, su densidad es f V (v) = 1/[π(1 + v 2 )]. onicas recibidas en una empresa durante t horas es una variable b ) La cantidad de llamadas telef´ Poisson(µt). Se produce una falla en el sistema telef´onico, durante la cual las llamadas recibidas no pueden ser atendidas. La duraci´on de la falla es una variable exponencial de par´ametro λ. Sea X la cantidad de llamadas no atendidas durante la falla. 1) (2,0 ptos.) Utilizando esperanzas condicionales, calcule E(X ). 2) (1,0 ptos.) Para k = 0, 1, . . ., calcule P(X = k). Concluya que X + 1 es una variable geom´etrica de par´ ametro p = λ/(λ + µ). Obtenga nuevamente E(X ). Indicaci´ on: utilice la regla de probabilidades totales; para calcular la integral, construya la densidad de una variable Gamma adecuada.
Ingenier´ıa Matem´ atica
Roberto Cortez ´ Angel Pardo Alfredo Torrico
FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Primavera 2011
Pauta Control 2 P1.
a )
Sea X la hora de llegada a la clase, medida en minutos pasadas las 8:00, y sea Y la hora de llegada al paradero. Claramente X es una variable discreta que toma el valor 10 cuando alcanza el autob´ us de las 7:30, o bien 30 cuando alcanza el autob´us de las 7:40, o bien 20 cuando toma el colectivo. Luego:
(X ) = k (X = k) = 10 ·
E
P
P(X =
10) + 30
k∈RX
· P(X = 30) + 20 · P(X = 20).
Sabemos que X = 10 cuando alcanza el autob´ us de las 7:30, es decir, cuando la hora de llegada al paradero es menor que 7:30, o sea, cuando Y < 7:30. An´alogamente, X = 30 cuando 7:30 Y < 7:40, y tambi´en X = 20 cuando 7:40 Y . Teniendo en cuenta que Y es uniforme en el intervalo entre las 7:25 y las 7:45, se obtiene:
≤
E(X )
≤
= 10
· P(Y < 7:30) + 30 · P(7:30 ≤ Y < 7:40) + 20 · P(7:40 ≤ Y ) 5 10 5 1 = 10 · + 30 · + 20 · = (50 + 300 + 100) = 450/20 = 22,5, 20 20 20 20
es decir, la hora esperada de llegada es a las 8:22 con 30 segundos. b)
Cuando han salido exactamente k 1 bolitas distintas (es decir, cuando estamos en las extracciones correspondientes a X k ), la probabilidad de que en una extracci´on aparezca una bolita que no ha salido antes corresponde a la proporci´on de bolitas no vistas, es decir, (N (k 1))/N . Por lo tanto, se tiene que X k es una variable geom´etrica de par´ametro pk = (N k + 1)/N . Como X k geom( pk ), se tiene que E(X k ) = 1/pk = N/(N k + 1). Adem´ as, claramente se tiene que X = X 1 + + X N , pues deben acumularse las extracciones necesarias para que cada bolita salga al menos una vez. Por linealidad de la esperanza, tenemos entonces que
−
− − − ∼
−
···
N
N
(X ) =
E
(X ) =
E
k=1
P2.
a )
k
k=1
N = N N k + 1
−
N
1. k=1
k
Dado t < 1/2, calculemos: M X (t) = E (e
∞
1 )= e f X (x)dx = n/2 2 Γ(n/2) −∞ 1 = n/2 2 Γ(n/2)
tX
tx
∞ − − e x e ∞ − − tx n/2 1
x/2
dx
0
e
x(1 2t)/2 n/2−1
x
dx.
0
Hacemos el cambio de variable y = x(1
− 2t)/2, obteniendo: ∞ −y 1 M X (t) = n/2 e [2y(1 − 2t)−1 ]n/2−1 2(1 − 2t)−1 dy 2 Γ(n/2) 0 2n/2 (1 − 2t)−n/2 ∞ −y n/2−1 (1 − 2t)−n/2 = e y dy = Γ(n/2) = (1 − 2t)−n/2 . 2n/2 Γ(n/2)
b)
Γ(n/2)
0
Derivemos la f.g.m.: dM X (t) = dt d2 M X (t) = dt2
d n (1 2t)−n/2 = (1 dt 2 d n(1 2t)−n/2−1 = n dt
− −
−
− 2t)−n/2−1(−2) = n(1 − 2t)−n/2−1, − n − 1 (1 − 2t)−n/2−2(−2) = n(n + 2)(1 − 2t)−n/2−2. 2
Por lo tanto, usando la propiedad fundamental de la f.g.m., obtenemos: dM X (0) = n(1 dt
− 0)−n/2−1 = n, d2 M X var(X ) = E (X 2 ) − E(X )2 = (0) − n2 = n(n + 2)(1 − 0)−n/2−2 − n2 = 2n. 2 dt E(X )
c )
=
Calculemos la densidad de Y 2 , para lo cual partimos por su distribuci´on acumulada. Para y > 0, tenemos: F Y
2
√ y √ √ √ 1 (y) = P (Y 2 ≤ y) = P (− y ≤ Y ≤ y) =
2π
−√ y
e −z
2
/2
2 2π
dz =
√
√
y
e−z
2
/2
dz,
0
donde hemos usado la simetr´ıa del integrando. Derivando lo anterior con respecto a y, utilizando el TFC y la regla de la cadena, obtenemos la densidad de Y 2 : f Y (y) = 2
2 e−z 2π
√
2
/2
1
√ 12π e−y/2y−1/2.
√ √ = z= y 2 y
Lo anterior vale para y > 0, mientras que para y 0 la distribuci´on acumulada vale 0 (pues Y 2 0), y por lo tanto la densidad tambi´ en es 0. Usando que Γ(1/2) = π, obtenemos entonces:
≤
≥
1 e−y/2 y1/2−1 1/2 2 Γ(1/2)
f Y (y) = 2
es decir, Y 2 d )
√
(0,∞) (y),
∼ χ21.
Por el ´ıtem anterior, cada X k2 posee distribuci´on χ21 , luego M X (t) = (1 2t)−1/2 . Como la f.g.m. de la suma de variables independientes corresponde al producto de las f.g.m., se tiene entonces que la f.g.m. de W = X 12 + + X n2 es
−
2
k
···
n
n
M (t) = M W
X k2
k=1
(t) = (1 − 2t)−
1/2
= (1
k=1
− 2t)−n/2.
Y recordando que la f.g.m. caracteriza la distribuci´on de la variable, se concluye que necesariamente W se distribuye como una χ 2n , como dese´abamos. P3.
a )
1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de variables nos dice que f U,V (u, v) = f X,Y (g −1 (u, v)) det(Dg −1 (u, v) .
|
|
En nuestro caso es directo ver que g es su propia inversa, por lo cual g −1 (u, v) = (u, u/v) y 1 0 Dg −1 (u, v) = 1/v u/v 2
−
y luego det(Dg −1 (u, v) = u /v 2 . Como X e Y son normales est´andar independientes, su densidad conjunta es el producto de las densidades marginales, es decir, (1/2π)e−(x +y )/2 . Reemplazando todo esto en la f´ormula que entrega el teorema, obtenemos: u e−(u +(u/v) )/2 u e−u (1+1/v )/2 f U,V (u, v) = 2 = . v 2π 2πv 2 2) Calculemos la densidad marginal de V :
|
|
2
||
2
2
| |
f V (v) =
∞
−∞
f U,V (u, v)du =
∞ |u|e− −∞
2
2
u2 (1+1/v 2 )/2
2πv 2
| |
2
1 du = 2 2πv 2
2
∞ 0
2
ue−u
(1+1/v 2 )/2
du,
donde la u ´ ltima igualdad se debe a la simetr´ıa en u. Hacemos el cambio de variable w = u 1 + 1/v 2 y de lo anterior se obtiene
1 f V (v) = πv 2
∞ 0
2
we−w /2 1 + 1/v2
dw 1 = π(1 + v 2 ) 1 + 1/v 2
donde la integral vale 1, pues corresponde a una variable con distribuci´on de Cauchy. b)
∞
we−w
2
/2
dw =
0
1 , π(1 + v 2 )
2
−e−w /2 evaluado en 0 e ∞. Luego, V es
1) Sea T la duraci´on de la falla. Condicionando en los resultados de T , tenemos: E(X )
=
∞
E(X T = t)f T (t)dt =
|
−∞
∞
E(X T = t)λe
|
0
−λt dt,
donde hemos usado que T exp(λ). En el evento T = t, sabemos que X es una variable de Poisson de par´ametro µt, por lo cual su esperanza es exactamente µt. Integrando por partes, tenemos entonces:
∼
E(X )
=
∞
µtλe−λt dt = µ
0
∞ e− dt = µ(0 + 1/λ) = µ/λ.
∞ −te−λt + 0
λt
0
2) Por la regla de probabilidades totales (versi´ on continua), condicionando en los resultados de T tenemos: P(X = k)
=
∞
P(X = k
−∞
∞
|T = t)f T (t)dt =
P(X = k
0
|T = t)λe−λtdt.
Utilizando nuevamente que X
∼ Poisson(µt) cuando se condiciona en T = t, sigue que:
P(X = k)
=
k µt (µt)
∞ − e
k!
0
µk λ = (λ + µ)k+1
λe−λt dt
∞ (λ + µ)e−
(µ+λ)t [(λ +
µ)t](k+1)−1
Γ(k + 1)
0
dt,
donde hemos utilizado que Γ(k + 1) = k!. La integral anterior vale 1 pues el integrando corresponde a la densidad de una variable Gamma(k + 1, λ + µ), por lo tanto: P(X = k)
=
µ λ+µ
Luego, P(X + 1 = k) = P(X = k X + 1 geom( p). En particular,
∼
E(X )
k
λ = λ+µ
1
−
λ λ+µ
k
λ λ+µ
.
− 1) = (1 − p)k−1 p, donde p = λ/(λ + µ); es decir,
= E(X + 1)
− 1 = p1 − 1 = λ +λ µ − 1 = µ/λ.
3
Ingenier´ıa Matem´ atica
Roberto Cortez Francisco Castro Alfredo Torrico
FACULTAD DE CIENCIAS ´ F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Oto˜ no 2012
Control 2 7 de mayo de 2012 Tiempo: 3 horas P1.
(a) (3,0 ptos.) El arancel mensual de una determinada carrera universitaria asciende a $60. Si el ingreso per c´apita mensual de la familia de un estudiante es inferior a $50, se le asigna 100 % de beca; si el ingreso per c´ apita est´a entre $50 y $80, se le asigna 50 % de beca; y si est´a entre $80 y $100, se asigna un 25 %. En otro caso, no se asigna beca. Calcule el valor esperado de la beca mensual asignada a un estudiante escogido al azar, suponiendo que el ingreso per c´apita mensual de la familia se distribuye uniformemente en el intervalo [$25, $175]. (b) (3,0 ptos.) Se tienen dos mazos id´enticos con n cartas cada uno. La persona A extrae kA cartas al azar del primer mazo, y la persona B extrae, independiente de A, kB cartas al azar del segundo mazo (sin reposici´on en ambos casos). Muestre que el n´umero esperado de cartas que aparecen simult´aneamente entre las escogidas por A y por B es (kA kB )/n. Indicaci´ on: defina variables indicatrices adecuadas y use linealidad de la esperanza.
P2.
∼
(a) (3,0 ptos.) Sean X unif(0, 1), Y V = X Y . Muestre que f U,V (u, v) =
∼ exp(1) variables independientes. Sean U = X + Y ,
ue−u/(v+1) (v+1)2
si 0 < u
0
en otro caso.
≤ 1 + 1/v y 0 < v
(b) (3,0 ptos.) Se lanza n veces de manera independiente una moneda con probabilidad p de cara, donde p es el resultado de la realizaci´on de otra variable aleatoria U con distribuci´on unif(0, 1), independiente de los lanzamientos. Sea X la cantidad de caras que se obtienen. 1 Demuestre que para todo i = 0, . . . , n se tiene que p X (i) = n+1 . Indicaci´ on: utilizando una propiedad conocida, calcule P(X = i) condicionando en los posibles resultados de U ; utilice sin demostrar el hecho que 1
0
pi (1
− p)n
i
−
dp =
−
i!(n i)! . (n + 1)!
dice que la variable aleatoria X tiene distribuci´ on log-normal con par´ametros µ y σ 2 si Y = ln(X ) tiene distribuci´on (µ, σ 2 ).
P3. Se
N
(a) (1,2 ptos.) Pruebe que la densidad de X es 1 f X (x) = e x 2πσ
√
−
(ln(x)−µ)2 2σ2
(0,∞) (x). 2 2
(b) (1,2 ptos.) Pruebe que para todo s R, E(X s ) = eµs+σ s /2 . Obtenga la esperanza y varianza de X . Indicaci´ on: utilice la funci´ on generadora de momentos de una variable 2 (µ, σ ).
∈
N
(c) (1,2 ptos.) Pruebe que la f.g.m. M X (t) no est´a definida para t > 0. (d) (1,2 ptos.) Sea U (µ, σ 2 ), y sean α R, β = 0. Pruebe que V = α+βU tiene distribuci´on (α + βµ,β 2 σ 2 ). Utilice esto para obtener la distribuci´on de aX b , donde a > 0 y b = 0.
N
∼ N
∈
(e) (1,2 ptos.) Sean X 1 , X 2 variables aleatorias independientes con distribuci´on log-normal de par´ ametros µ 1 , σ 12 y µ 2 , σ 22 , respectivamente. ¿Cu´al es la distribuci´on de Z = X 1 X 2 ?
Ingenier´ıa Matem´ atica
Roberto Cortez Francisco Castro Alfredo Torrico
FACULTAD DE C IENCIAS ´ F´ ISICAS Y MATEMATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Oto˜ no 2012
Pauta Control 2 P1.
´ (a) Sea X la variable aleatoria del monto de beca asignado. Esta s´o lo toma los valores 60, 30, 15 y 0, correspondientes al 100 %, 50 %, 25 % y 0 % de $60, respectivamente. Luego, X es una variable discreta, por lo cual su esperanza se calcula como E(X )
=
k P(X = k)
k∈RX
= 60P(X = 60) + 30P(X = 30) + 15P(X = 15) + 0 P(X = 0) = 60P(25
≤ Y < 50) + 30P(50 ≤ Y < 80) + 15P(80 ≤ Y < 100)
donde Y es la variable aleatoria de ingreso per c´apita de la familia, la cual sabemos que se distribuye uniformemente en el intervalo [25 , 175]. Por lo tanto: E(X )
= 60
− 25 +30 · 80 − 50 +15 · 100 − 80 = 1 (1500+ 900 + 300) = 18. · 50150 150 150 150
Luego, el valor esperado de la beca asignada es de $18. (b) Podemos suponer que las cartas de cada mazo est´ an numeradas de 1 a n. Para cada i = 1, . . . , n, sea E i el evento en que la carta i es escogida por A y B. Si X denota la cantidad de cartas que fueron escogidas por ambas personas, es directo que X = E 1 + + E n ,
···
y entonces, por linealidad de la esperanza, se tiene que E(X )
= E(
E 1 ) +
··· + E(
E n )
= P (E 1 ) +
··· + P(E n),
donde E( E i ) = P(E i ) porque E i es una variable de Bernoulli. Adem´as, E i ocurre cuando la persona A extrae la carta i (lo cual tiene probabilidad k A /n) y la persona B tambi´en (probabilidad kB /n), es decir, P(E i ) = k A kB /n2 para todo i. Obtenemos entonces: E(X )
P2.
=
kA kB + n2
··· + k Ank2B = kAnkB .
(a) Podemos escribir (U, V ) = g(X, Y ), con g(x, y) = (x + y, x/y). Por el m´etodo del jacobiano, la densidad conjunta de U y V viene dada por la f´ormula f U,V (u, v) = f X,Y (g −1 (u, v)) det Jg −1 (u, v) .
|
|
Notemos que U y V son variables mayores que 0, pues X e Y lo son. Resolviendo el sistema (u, v) = (x + y,x/y) para x e y , se llega a (x, y) = (
uv u , ) = g −1 (u, v). v + 1 v + 1 1
Calculemos el jacobiano de esta funci´on: ∂ ∂u ∂ ∂u
Jg −1 (u, v) =
uv v+1 u v+1
∂ uv ∂v v+1 ∂ u ∂v v+1
=
v v+1 1 v+1
u (v+1)2 −u (v+1)2
,
y entonces
|
−
uv det Jg −1 (u, v) = (v + 1) 3
|
−
u u = . 3 (v + 1) (v + 1) 2
Adem´as, como X e Y son independientes, la densidad conjunta es el producto de sus densidades marginales: f X,Y (x, y) = f X (x)f Y (y) =
[0,1] (x)e
−y
[0,∞) (y).
Utilizando todo lo anterior, tenemos que: u
ue− v+1 = (v + 1) 2
f U,V
[0,1] (
uv ) v + 1
[0,∞) (
u ). v + 1
La segunda indicatriz vale 1 para cualquier par de valores ( u, v) mayores que 0. uv Para que la primera indicatriz valga 1 debe cumplirse que 0 1, lo cual v+1 ocurre (para u, v > 0) si y s´ olo si u 1 + 1/v. Por lo tanto:
≤
≤
f U,V (u, v) =
ue−u/(v+1) (v+1)2
si 0 < u
0
en otro caso.
≤
≤ 1 + 1/v y 0 < v
(b) Siguiendo la indicaci´on, condicionemos en los posibles resultados de U utilizando la regla de probabilidades totales en su versi´on continua: 1
∞
pX (i) = P (X = i) =
P(X = i
−∞
| U = p)f U ( p)dp =
P(X = i
0
| U = p)dp,
donde hemos utilizado el hecho que f U ( p) = [0,1] ( p). Notemos que cuando U = p, la variable X tiene distribuci´on bin(n, p), con lo cual se tiene P(X = i U = p) = ni pi (1 p)n−i . Obtenemos:
pX (i) =
|
−
1
n i
0
pi (1
− p)n
−i
dp =
como dese´abamos. P3.
i!(n − i)! 1 × = , − (n + 1)! n+1
n! i!(n i)!
(a) Para calcular f X (x), partimos por F X (x) y despu´es derivamos: ln(x)
(y−µ)2 2σ2
1 √ 2πσ e dy, donde hemos utilizado que Y = ln(X ) tiene distribuci´on N (µ, σ 2 ). Derivando lo
≤ x) = P (Y ≤ ln(x)) =
F X (x) = P (X
−∞
anterior con respecto a x y aplicando el TFC y la regla de la cadena, obtenemos: f X (x) =
1 √ 2πσ e
(ln(x)−µ)2 2σ2
1 . x
≤
≤
Lo anterior vale para x > 0, mientras que para x 0 se tiene que P (X x) = 0, pues X = eY es una variable positiva; luego f X (x) = 0 para x 0. Juntando todo esto, tenemos: (ln(x)−µ)2 1 − 2σ2 f X (x) = e x 2πσ
√
2
(0,∞) (x).
≤
(b) Recordemos que como Y = ln(X ) tiene distribuci´ on 2 t2 /2 µt+σ M Y (t) = e . Utilizando esto, se tiene que: s E(X )
N (µ, σ2), su f.g.m. es
s
= E(eln(X ) ) = E (esY ) = M Y (s) = e µs+σ
2 s2 /2
.
Con esto, evaluando en s = 1 obtenemos directamente la esperanza de X : E(X )
= E (X 1 ) = e µ+σ
2 /2
.
Para obtener la varianza de X , utilizamos s = 2 y el valor de la esperanza: var(X ) = E(X 2 )
2 2
2
2
2
− E(X )2 = e2µ+2 σ /2 − (eµ+σ /2)2 = (eσ − 1)e2µ+σ .
(c) Calculemos M X (t) para t > 0: ∞
M X (t) = E (e
tX
)=
∞
tx
e f X (x)dx =
−∞
etx
0
1 √ e x 2πσ
−
(ln(x)−µ)2 2σ2
dx.
Hacemos el cambio de variable y = ln(x), de modo que dy = dx/x. Obtenemos: M X (x) =
1 2πσ
√
∞
e
tey
e
−
(y−µ)2 2σ2
dy.
−∞
Notemos que el exponente del integrando es te y (y µ)2 /2σ 2 , el cual diverge a cuando y (si t > 0). Por lo tanto, la integral no converge en , lo que hace que M X (t) no est´e definido para t > 0.
∞
− −
→ ∞
∞
(d) Calculemos la acumulada de V = α + βU y posteriormente derivemos. Supongamos primero que β > 0:
− α) = F V (v) = P (α + βU ≤ v) = P (U ≤ β v
v−α β
−∞
1 √ 2πσ e
−
(u−µ)2 2σ2
du.
Derivando con respecto a v y aplicando el TFC y la regla de la cadena, obtenemos: ( v−α −µ)2 (v−[α+βµ])2 β 1 1 1 − − 2 2β 2 σ2 2σ f V (v) = e = e , β 2πσ 2πβσ
√
√
lo cual corresponde justamente a la densidad de una variable El caso β < 0 es similar:
− α) = F V (v) = P (α + βU ≤ v) = P(U ≥ β v
∞
v−α β
N (α + βµ,β 2σ2).
(u−µ)2 1 − e 2σ2 du, 2πσ
√
y al derivar se obtiene: ( 1 − e 2πσ
1 = β
2
(v−[α+βµ]) 1 − 2β 2 σ2 e , 2π( β )σ
√ − lo cual nuevamente coincide con la densidad de una N (α+βµ,β 2 σ 2 ). Utilicemos f V (v) =
− √
v−α −µ)2 β 2σ2
este hecho para obtener la distribuci´on de Z = aX b : notemos que W = ln(Z ) = ln(a) + b ln(X ) = ln(a) + bY . Aplicando lo anterior con α = ln(a) y β = b, se concluye que W = ln(Z ) tiene distribuci´ on (ln(a) + bµ,b2 σ 2 ). Por definici´on, esto significa que Z tiene distribuci´on log-normal con par´ ametros ln(a) + bµ y 2 2 b σ .
N
3
(e) Si anotamos Y 1 = ln(X 1 ), Y 2 = ln(X 2 ), por definici´on de distribuci´o n lognormal sabemos que Y 1 (µ1 , σ12 ) y que Y 2 (µ2 , σ22 ); adem´as Y 1 e Y 2 son independientes pues X 1 y X 2 lo son. Adem´as, notemos que W = ln(Z ) = ln(X 1 X 2 ) = ln(X 1 ) + ln(X 2 ) = Y 1 + Y 2 , es decir, W es suma de dos normales independientes. Por teorema visto en clases, se tiene entonces que W = ln(Z ) (µ1 + µ 2 , σ12 + σ22 ). Es decir, Z tiene distribuci´on log-normal de par´ ametros 2 2 µ1 + µ2 y σ 1 + σ2 .
∼ N
∼ N
∼
N
4
Ingenier´ıa Matem´ atica ´ FACULTAD DE CIENCIAS F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Primavera 2012
Roberto Cortez Francisco Castro Alfredo Torrico
Control 2 8 de octubre de 2012 Tiempo: 3 horas P1.
(a) (3,0 ptos.) Una persona dispara con arco y flecha a un blanco. Si la flecha llega a menos de 5cm del centro, se asignan 10 puntos; si est´ a a m´as de 5cm y a menos de 15cm, se le asignan 5 puntos; y si est´a a m´as de 15cm y menos de 25cm, se le asignan 3 puntos. En otro caso, no se asignan puntos. Calcule la cantidad esperada de puntos que obtiene la persona, si se sabe que la distancia de la flecha al centro del blanco se distribuye uniformemente entre 0cm y 50cm. (b) Sean X e Y variables independientes con distribuci´on normal est´ andar. Sean U = X y V = X/Y . 1) (1,5 ptos.) Muestre que 2 2 |u|e−u (1+1/v )/2 f U,V (u, v) = . 2πv 2 2) (1,5 ptos.) Muestre que V = X/Y tiene distribuci´on de Cauchy, es decir, su densidad es 1 f V (v) = . π(1 + v 2 )
P2. Decimos
que X es una variable aleatoria Gumbel de par´ametros µ ∈ X ∼ Gumbel(µ, β ), si se tiene F X (x) = e −e
−(x−µ)/β
, ∀x ∈
R
y β > 0, anotado
R.
(a) (1,5 ptos.) Muestre que M X (t) = e µt Γ(1 − βt), donde la funci´on Γ est´a dada por ∞
Γ(θ) =
e−z z θ−1 dz, ∀θ > 0.
0
(b) (1,5 ptos.) Muestre que E(X ) = µ − β Γ (1) y var(X ) = β 2 [Γ (1) − Γ (1)2 ]. (c) (1,5 ptos.) Dados ν ∈ R y α > 0, sea Y = αX + ν . Mueste que Y ∼ Gumbel(αµ + ν,αβ ). (d) (1,5 ptos.) Sea Y = e −(X −µ)/β . Calcule f Y . ¿Qu´e variable aleatoria conocida es Y ? P3.
Usted trabaja atendiendo un almac´en. Los clientes llegan siguiendo un proceso de Poisson con tasa λ de 0,5 clientes por minuto. (a) (2,0 ptos.) ¿Cu´al es la probabilidad de que en los pr´oximos 4 minutos lleguen a lo m´as 2 clientes? (b) (2,0 ptos.) Sea T el instante en que llega el primer cliente, y S el tiempo que transcurre desde T hasta que llega el siguiente cliente. Para 0 ≤ t ≤ s, muestre que P(T ≤ t,s < T + S ) = λte−λs. Indicaci´ on: usando una propiedad conocida, condicione en los posibles resultados de T ; argumente por qu´e T y S son independientes y utilice este hecho. Suponga que en el instante 0 usted se ausenta del almac´en y vuelve despu´es de s minutos. Al volver observa que ha llegado exactamente 1 cliente. Queremos probar que, dado que lleg´o un solo cliente en [0, s], la variable T se distribuye uniformemente en dicho intervalo. (c) (2,0 ptos.) Argumente que el evento en que llega un solo cliente en [0 , s] corresponde al evento {T ≤ s < T + S }. Para 0 ≤ t ≤ s, calcule P(T ≤ t | llega un solo cliente en [0, s]) y concluya. Indicaci´ on: utilice la parte anterior.
Ingenier´ıa Matem´ atica ´ FACULTAD DE CIENCIAS F´ ISICAS Y MATEM ATICAS UNIVERSIDAD DE CHILE
MA3403-3 Probabilidades y Estad´ıstica, Primavera 2012
Roberto Cortez Francisco Castro Alfredo Torrico
Pauta Control 2 P1.
(a) Sea X la variable aleatoria que denota los puntos obtenidos, e Y la distancia de la flecha al centro del blanco. X es discreta, con R X = { 0, 3, 5, 10}, luego E(X )
= kp
X (k)
= 0 · pX (0) + 3 · pX (3) + 5 · pX (5) + 10 · pX (10).
k∈RX
La cantidad p X (10) corresponde a la probabilidad de que el puntaje sea 10, lo que equivale a la probabilidad de que la flecha est´e a menos de 5cm del centro. Es decir, p X (10) = P(Y ∈ [0, 5]) = 5/50, donde hemos usado que Y ∼ unif(0, 50). Aplicando lo mismo para los otros posibles puntajes, se obtiene: E(X )
= 0 · P(Y ∈ [25, 50]) + 3 · P(Y ∈ [15, 25]) + 5 · P(Y ∈ [5, 15]) + 10 · P(Y ∈ [0, 5]) 10 10 5 = 0 + 3 · + 5 · + 10 · 50 50 50 30 + 50 + 50 = 50 13 = . 5
(b) 1) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de variables (m´etodo del jacobiano) nos dice que f U,V (u, v) = f X,Y (g −1 (u, v))|det(Jg −1 (u, v))|. En nuestro caso es directo ver que g es su propia inversa, por lo cual g −1 (u, v) = (u, u/v) y entonces 1 0 Jg −1 (u, v) = 1/v −u/v 2
y luego |det(Jg −1 (u, v))| = |u|/v2 . Como X e Y son normales est´andar independientes, su densidad conjunta es el producto de las densidades marginales, es decir, 2 2 f X,Y (x, y) = (1/2π)e−(x +y )/2 . Reemplazando todo esto en la f´ormula que entrega el teorema, obtenemos: 2
2
|u|e−(u +u /v f U,V (u, v) = 2πv 2
2 )/2
2
|u|e−u (1+1/v = 2πv 2
2) Calculemos la densidad marginal de V : ∞
f (v) = V
f U,V (u, v)du
−∞
2
2
|u|e−u (1+1/v )/2 = du 2πv 2 −∞ ∞ 1 2 2 −u (1+1/v )/2 = 2 ue du, 2πv 2 0 ∞
2 )/2
.
donde la u ´ ltima igualdad se debe a la simetr´ıa en u. Hacemos el cambio de variable w = u 1 + 1/v2 y de lo anterior se obtiene
1 f V (v) = πv 2
∞
we−w
2 /2
1 + 1/v 1 +dw1/v 2
0
1 = π(1 + v 2 ) 1 = , π(1 + v 2 )
∞
we−w
2 /2
dw
0
donde la u ´ ltima integral vale 1, pues corresponde a − e−w V es una variable con distribuci´on de Cauchy. P2.
2
2 /2
evaluado en 0 e ∞ . Luego,
(a) La densidad de X se obtiene derivando F X , es decir, f X (x) =
1 −(x−µ)/β −e−(x−µ)/β e e , ∀x ∈ R . β
Ahora calculemos M X (t) utilizando lo anterior y el cambio de variable y = (x − µ)/β : ∞
M (t) = e f (x)dx 1 = e e e β 1 = e e e β = e [e ] e e −1 tx
X
X
−∞
∞
tx
−(x−µ)/β
−e
−(x−µ)/β
dx
−∞ ∞
t(µ+βy)
−y
−e
−y
βdy
−∞
∞
µt
−y −βt
−y
−e
−y
dy
−∞
= e
0
µt
∞
z −βt ze −z
z
dz,
donde en el ´ultimo paso hemos utilizado el cambio de variable z = e −y . Finalmente, obtenemos lo buscado: ∞
M X (t) = e (b) Derivemos M X :
µt
z [1−βt]−1 e−z dz = e µt Γ(1 − βt).
0
dM X (t) = µe µt Γ(1 − βt) − βe µt Γ (1 − βt). dt
Derivando nuevamente: d2 M X (t) = µ 2 eµt Γ(1 − βt) − βµe µt Γ (1 − βt) − βµe µt Γ (1 − βt) + β 2 eµt Γ (1 − βt). 2 dt Recordemos que Γ(n) = (n − 1)! para n ∈ N \ {0}, en particular Γ(1) = 1 (tambi´ en puede obtenerse evaluando la intergral que define Γ). Evaluando en t = 0 las derivadas anteriores, obtenemos los momentos de X de orden 1 y 2: dM X (0) = µΓ(1) − β Γ (1) = µ − β Γ (1), dt 2 d M X 2 E(X ) = (0) = µ 2 Γ(1) − 2βµΓ (1) + β 2 Γ (1) = µ 2 − 2βµΓ (1) + β 2 Γ (1). 2 dt E(X )
=
2
Finalmente, obtenemos la varianza: var(X ) = E(X 2 ) − E(X )2 = µ 2 − 2βµΓ (1) + β 2 Γ (1) − [µ − β Γ (1)]2 = µ 2 − 2βµΓ (1) + β 2 Γ (1) − [µ2 − 2µβ Γ (1) + β 2 Γ (1)2 ] = β 2 [Γ (1) − Γ (1)2 ]. (c) Calculemos F Y : F Y (y) = P (αX + ν ≤ y) = P (X ≤ (y − ν )/α) = F X ((y − ν )/α) = e
−e
= e −e
y−ν −( α −µ)/β −(y−[αµ+ν])/(αβ)
,
lo cual corresponde a la distribuci´on acumulada de una variable Gumbel de par´ametros αµ + ν y αβ , como des´abamos probar. Una forma alternativa de obtener lo buscado es calculando M Y : M Y (t) = E (et(αX +ν ) ) = e νt E(e(αt)X ) = e νt M X (αt) = e νt eµαt Γ(1 − βαt), es decir, M Y (t) = e(αµ+ν )t Γ(1 − αβ t), lo cual corresponde a la funci´on generadora de momentos de una variable Gumbel de par´ametros αµ + ν y αβ , por la parte P2.(a). Como la funci´on generadora de momentos caracteriza la distribuci´on de la variable, necesariamente Y tiene la distribuci´on deseada. (d) Calculemos F Y . Para y > 0 tenemos: F Y (y) = P(e−(X −µ)/β ≤ y) = P(X ≥ µ − β log y) = 1 − F X (µ − β log y) = 1 − e−e
−([µ−β log y]−µ)/β
= 1 − e−y . Derivando, obtenemos f Y (y) = e −y para y > 0. Como la variable Y es positiva, para y ≤ 0 se tiene F Y (y) = 0. Luego, f Y (y) = e −y 1[0,∞) (y). Es decir, Y es una variable exponencial de par´ametro λ = 1. P3.
(a) Llamemos N t al proceso de Poisson que representa la llegada de los clientes, es decir, N t es la cantidad de clientes que han llegado al almac´en hasta el tiempo t. La probabilidad buscada corresponde a P(N 4 ∈ {0, 1, 2}). Sabemos que N t ∼ Poisson(λt), luego N 4 es una variable Poisson de par´ametro 0,5 × 4 = 2. Entonces: P(N 4 ∈
{0, 1, 2}) = P (N 4 = 0) + P(N 4 = 1) + P(N 4 = 2) 20 21 22 −2 −2 = e +e +e 0! 1! 2! −2 = e [1 + 2 + 2] −2
= 5e−2 .
3
(b) Siguiendo la indicaci´on, tenemos: ∞
P
(T ≤ t,s < T + S ) =
P(T ≤ t,s
< T + S | T = x)f T (x)dx
−∞ ∞
P(x ≤ t,s
=
< x + S | T = x)λe−λx dx,
0
donde en el u ´ ltimo paso hemos utilizado que T ∼ exp(λ). Notemos que S y T son independientes, pues corresponden a los tiempos que transcurren entre dos eventos consecutivos en un proceso de Poisson (los cuales son independientes por definici´on). Luego, la probabilidad dentro de la integral no depende de la condici´on T = x. Adem´as, dicha probabilidad vale 0 si x > t, y vale P(s − x < S ) si x ≤ t. Usando que S tambi´en es una variable exponencial de par´ametro λ, obtenemos lo buscado: t
(T ≤ t,s < T + S ) =
P(s
P
− x < S )λe−λx dx
0
t
=
e−λ(s−x) λe−λx dx
0
= λe
−λs
t
dx
0
= λte −λs . (c) Que llegue un solo cliente en [0, s] significa que el primer cliente lleg´o en el tiempo s ´o antes, (lo cual corresponde al evento T ≤ s), y que el segundo cliente lleg´o despu´es del tiempo s (correspondiente al evento s < T + S , pues T + S es el instante en que llega el segundo cliente). Tenemos entonces: P(T ≤ t | llega
un solo cliente en [0, s]) = P(T ≤ t | T ≤ s < T + S ) P(T ≤ t, T ≤ s < T + S ) = P(T ≤ s < T + S ) P(T ≤ t,s < T + S ) = , P(T ≤ s < T + S )
donde en el ´ultimo paso hemos eliminado la desigualdad T ≤ s, la cual es redundante con la desigualdad T ≤ t, pues t ≤ s. Utilizando la parte anterior, obtenemos: P(T ≤ t | llega
un solo cliente en [0, s]) =
λte−λs t = . λse−λs s
Como funci´on de t (s est´a fijo), lo anterior corresponde exactamente a la funci´on de distribuci´ on acumulada de una variable uniforme en el intervalo [0, s]. Luego, condicional en que llegue un solo cliente en [0, s], la variable T tiene distribuci´on uniforme en [0, s].
4
2,0 V =
X ∼
(0, 1) Y ∼
(1)
U = X + Y
X Y
f U,V (u, v) =
ue−u/(v+1) (v+1)2
0 < u ≤ 1 + 1/v
0
0 < v
. µ=3
1,0 1,0 2,0 λ = 0,2 X
α > 0 f X (x) =
α x s s
1,5 F X (x) = e 1/α m = s log(2) m 1,5 k<α k s Γ(1 − k/α) α > 2, θ 1 θ Γ(θ) = 0 z e dz ∀θ > 0
(α+1)
−
(x/s)−α
−
−
∞
1,5 1,5
−
e
s > 0
(x/s)−α
−
X ∼
(α, s)
1[0,∞) (x).
1[0,∞) (x)
P(X ≥
X
m) = P (X ≤ m) = 1/2 k
X X
−
U ∼
(0, 1)
Y = s(− log(U ))
1/α ∼
(α, s)
−
U U ∼
(α, s)
V ∼
(α, t)
V Z =
m´ ax(U, V ) 2,0
n
2,0 Y Z = X + Y 2,0
X Y 0 < x < 1 0 < y < x X Y
X X ∼
(θ, λ)
Y ∼
(σ, λ) θ
σ
f X,Y (x, y) = 2(x + y) f X,Y (x, y) = 0
(U, V ) = g(X, Y ) U V
g(x, y) = (x + y,x/y)
f U,V (u, v) = f X,Y (g U V (u, v) = (x + y, x/y)
(u, v))| det Jg
1
−
(u, v)|.
X Y x
y (x, y) = (
Jg
1
−
(u, v) =
| det Jg X
1
−
1
−
∂ ∂u ∂ ∂u
uv u , ) = g v + 1 v + 1
uv v+1 u v+1
∂ uv ∂v v+1 ∂ u ∂v v+1
1
−
=
(u, v).
v v+1 1 v+1
,
u u −uv (u, v)| = = . − (v + 1) 3 (v + 1) 3 (v + 1) 2
Y
f X,Y (x, y) = f X (x)f Y (y) = 1[0,1] (x)e
y
−
−
f U,V
u (v+1)2 −u (v+1)2
u
ue v+1 uv = )1 1[0,1] ( (v + 1) 2 v + 1 [0,
)(
∞
1 1
0 ≤
u ≤ 1 + 1/v f U,V (u, v) =
ue−u/(v+1) (v+1)2
1[0,∞) (y).
u ). v + 1
(u, v) ≤ 1
uv v+1
u, v > 0
0 < u ≤ 1 + 1/v
0
0 < v
.
µ · 2 = 6 P(
exp(ν ) 1/ν
(6) = 4) = e
66
4
−
4!
= 54e
ν ν = 0,5
6
−
.
0,5
4ν = 2
S
S
∞
E(X )
=
∞
E(X |S = s)f S (s)ds =
E(X |S = s)λe
λs
−
ds.
0
−∞
{S = s } µ X ∼
E(X |S = s)
(µs)
∞
E(X )
=
λs
µsλe
−
0
λ e
(x/s)−α
−
x
−∞
f X (y)dy
F X (x)
µ ds = λ
=
{S = s}
E(
(µs)) = µs
∞
λ(λs)e
λs
(α+1)
(x/s)−α
−
ds =
0
µ = 15, λ
θ = 2 α x s s −α −(x/s) = e
−
e
F X (x) =
−
1[0,∞) (x)
1/2 = P (X ≤ m) = F X (m) = e
(m/s)−α
−
.
m m = s[− log(1/2)]
1/α
−
= s log(2)
1/α
−
.
k E(X )
∞
k
E(X
)=
x f X (x)dx =
−∞
α x s s
(α+1)
∞
k
xk
0
−
α
y = (x/s)
(x/s)−α
−
dx. α−1 dx
dy = −(α/s)(x/s)
−
x = sy
e
−
1/α
−
k
E(X
0
) = −
[sy
] ye
y
−
dy = s
k
y1
k/α
−
e
y
−
dy = s k Γ(1 − kα).
0
∞
E(X )
∞
1/α k
−
= sΓ(1 − 1/α) (X ) = E(X 2 ) − E(X )2 = s 2 [Γ(1 − 2/α) − Γ(1 − 1/α)2 ].
y > 0 F Y (y) = P (Y ≤ y) = P (s(− log(U ))
1/α
−
≤ y) = P (U ≤ e P(U
(y/s)−α
−
≤ u) = u
F Y Y ∼
) = e
(y/s)−α
−
u ∈ [0, 1] X
(α, s) m´ın(a, b) ≤ c
a ≤ c
b ≤ c
z > 0
F Z (z) = P (m´ ax(U, V ) ≤ z) = P (U ≤ z, V ≤ z) = P(U ≤ z)P(V ≤ z), U F Z (z) = e Z
(z/s)−α
−
e
(z/t)−α
−
= e α
V
(z/[sα +tα ]1/α )−α
−
[sα + tα ]1/α
.
,
X
{1, . . . , n}
i
E i X = 1E 1 + · · · + 1E n i (n − 1)!
i
P(E i )
=
(n − 1)! 1 = . n! n
i E
E(1E )
= P (E )
= E (1E 1 ) + · · · + E(1E n ) = P (E 1 ) + · · · + P(E n ) =
E(X )
Z = X + Y
1 1 + · · · + = 1. n n
X Y
M Z (t) = M X (t)M Y (t) =
θ
σ
λ λ − t
λ λ − t
λ λ − t
=
θ+σ
M Z (t)
. θ +σ
Z ∼ θ σ θ X + Y
X λ
x ∈ (0, 1) x
∞
f X (x) =
f X,Y (x, y)dy =
−∞
x∈ / (0, 1) f X (x) = 3x2 1(0,1) (x)
−∞
f X,Y (x, y)dx =
2(x + y)dy = 2x2 + x2 = 3x2 ,
0
f X,Y (x, y) = 0, ∀y Y 1
∞
3y2 ]
Y
θ + σ (θ + σ, λ) X
f Y (y) =
λ (θ + σ, λ)
f X (x) = 0 y ∈ (0, 1)
2(x + y)dx = (1 − y 2 ) + 2y(1 − y) = 1 + 2y − 3y 2 .
y
y∈ / (0, 1) X Y 1(0,1) (y) 2 3x [1+2y −3y2 ] x, y ∈ (0, 1)
f Y (y) = [1+ 2y −
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3403 Probabilidades y Estadística Primavera 2013
Roberto Cortez Mauricio Duarte Joaquín Fontbona
Control 2 28 de octubre de 2013 Tiempo: 3 horas P1.
Sea X una variable Normal estándar, es decir, de media 0 y varianza 1. Considere una variable de Bernoulli I , con parámetro 12 , es decir P(I = 0) = 12 = P (I = 1). Definamos otra variable Y mediante Y =
I
X si I = 1, −X si I = 0.
En palabras, es tan probable que Y sea igual a X como a −X . (a) (1,5 ptos.) ¿Son X e Y variables aleatorias independientes? Justifique rigurosamente su respuesta. (b) (1,5 ptos.) ¿Son I e Y variables aleatorias independientes? Justifique rigurosamente su respuesta. (c) (1,5 ptos.) Calcule F Y (y) y deduzca que Y ∼ N (0, 1). (d) (1,5 ptos.) Muestre que Cov(X, Y ) = 0. P2.
Sea X una variable aleatoria con distribución de Laplace de parámetros µ ∈ densidad está dada por |x−µ| 1 f X (x) = e− b ∀x ∈ R. 2b
R
y b > 0, es decir, su
(a) (1,5 ptos.) Muestre que la función generadora de momentos de X es M X (t) = eµt /(1 − b2 t2 ) para |t| < 1/b. (b) (1,5 ptos.) Calcule la esperanza y varianza de X . (c) (1,5 ptos.) Suponiendo µ = 0, calcule la densidad de | X |. ¿Qué variable conocida es | X |? (d) (1,5 ptos.) Sean Y 1 ∼ exp(λ1 ), Y 2 ∼ exp(λ2 ) variables independientes. Pruebe que λ1 Y 1 − λ2 Y 2 tiene distribución de Laplace con parámetros µ = 0 y b = 1. Indicación: obtenga primero las distribuciones de λ1 Y 1 y −λ2 Y 2 , y calcule la distribución de su suma utilizando una propiedad adecuada. P3.
(a) Sean X e Y variables independientes con distribución normal estándar. Sean U = X y V = X/Y . 1) (1,5 ptos.) Muestre que 2
2
|u|e−u (1+1/v )/2 f U,V (u, v) = . 2π v2 2) (1,5 ptos.) Muestre que V = X/Y tiene distribución de Cauchy, es decir, su densidad es f V (v) =
1 . π (1 + v 2 )
(b) Imagine que buses del Transantiago arriban a cierto paradero de acuerdo a un proceso de Poisson de intensidad 10 [buses/hora]. Suponga que usted llega a esperar su bus a las 2pm. 1) (1,0 pto.) ¿Cuál es la cantidad esperada de buses que pasan en las próximas 2 horas? 2) (1,0 pto.) Si usted espera bus hasta las 3pm, ¿cuál es la probabilidad que aún deba esperar media hora más antes de que un bus pase? 3) (1,0 pto.) Cada bus que pasa viene fuera de servicio con probabilidad p = 0,2, independiente del resto. Dado t ≥ 0, si N t denota la cantidad de buses en servicio que han pasado hasta el instante t desde que usted llega, calcule la distribución de N t . ¿Qué puede decir sobre el proceso (N t )t≥0 ? Indicación: para calcular P(N t = n), condicione en una variable aleatoria adecuada.
r t
. m . g . f
e p
+
p
−
1
a z n a i r a v a z n a r e p s e
)
p
−
n ) t
e p
+
p
−
t
e )
e − p 1 (
−
1 ( )
p
p
p n
1
p
p n
1
p n ´ o i c u b i r t s s i e d
n o i c u b i r t s i d n e e t m r o u s p e o s R
: 1 o r d o a p u i C t
n ´ o i c a t o n
−
1 p
2
= = ) ) 0 ( 1 (
X X
p p
= ) k (
p
−
)
p
−
1 ( = ) k (
X
p
p
} } 1 ,
0
{
n , . . . , 1 ,
a t e r c s i d ) p ( i l l u o n r e B
∼
) 1 , 0 (
∈ p
i l l u o n r e B
−
)
p
−
1 (
1 1
− −
k r
= ) k (
} .
. . , 3 , 2 ,
} . . . ,
1 +
r , r
)
)
n i b
) p ( m o e g
X
X
X
∗ N
∈
l a i m o n i b
e
t
λ
−
λ
a 2
− 1
b (
1 2λ
2 σ
+ 2
a
1
µ
λ
2 θ λ
k
!
λ k λ
−
e
= ) k (
X
p
) x ( ]
b , a [
a
1 −
b
= ) x (
X
f
) x ( )
∞ ,
0 [
x
λ
−
e
λ
∼
) 1 , 0 (
∈ p
p , r (
N B
∼
− 2
x
(
−
e σ π
1 2
√
= ) x (
f
f
X
} .
. . , 2 , 1 , 0
b , a [
{
a t e r c s i d
a u n i t n o c
) λ ( n o s s i o P
)
∼
b , a (
f i n u
∼
∈
0
,
λ
>
∈ r
a c i r t e ´ m o e g
]
b < a
∗ N
l a a v i i m t o a n g i e b n
1
−
θ
)
x ) λ θ ( (
x Γ
λ
−
e
λ
= ) x (
X
X
p
0 [
µ σ
f
X
) 1 , 0 (
λ
∞ ,
2 ) 2
= ) x (
X
θ
) x ( )
X
a t e r c s i d
,
λ
k
a t e r c s i d
p
λ
p
a t e r c s i d
∈
t µ
p
n
e r b m o n
r
{
) 1 , 0 (
)
1 (
{
∼
−
+
θ
− 2 p
{
p , n (
λ
σ
1 2
2
1
0
e
t
∀
2
λ
r
X
X s o r t e m ´ a r a p
n k
b ( t
< t
∀
1
r
k
p
− −
b t
p
−
k
e
e a
< t
t
2
r
p
λ
)
a t
b
p 1
1 (
−
e
(
p
k
)
e − p 1 (
−
t
)
− p
1 (
n
p
t
) 1
λ
−
−
e )
1
1 (
p
t
p
t
λ
n o s s i o P
,
R
∈
b , a
e m r o f i n u
)
∞ ,
0 [
a u n i t n o c ) λ ( p x e
∼
X
0
>
λ
l a i c n e n o p x e
) R
a u n i t n o c )
2 σ
,
µ (
N ∼
X
∞ ,
0 [
a u n i t n o c )
λ
,
θ ( a m m a g
∼
X
0
0
σ
λ
> ,
>
R
, 0
µ
θ
∈
l a m r o n
>
a m m a g
Ingeniería Matemática FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS UNIVERSIDAD DE CHILE MA3403 Probabilidades y Estadística Primavera 2013
Roberto Cortez Mauricio Duarte Joaquín Fontbona
Pauta Control 2 P1.
(a) (1,5 ptos.) Recordemos que funciones de v.a. independientes son independientes. Si X e Y fuesen independientes, también lo serían X 2 e Y 2 . Pero estas dos últimas variables son iguales, por lo que es imposible que sean independientes. (b) (1,5 ptos.) Asumimos que X e I son independientes. Dado que la distribución Normal con media cero es simétrica, tenemos que P(Y
≤ y | I = 1) = P(X ≤ y) = P (−X ≤ y) = P (Y ≤ y | I = 0).
Se deduce que el evento la distribución acumulada de Y no depende del valor de I , luego Y e I son independientes. (c) (1,5 ptos.) Dado que Y e I son independientes, P(Y
≤ y) = P (Y ≤ y | I = 1) = P(X ≤ y).
Se deduce que F Y (y) = F X (y). Como la distribución acumulada caracteriza a la variable aleatoria, tenemos que Y ∼ X , es decir, Y ∼ N (0, 1). (d) (1,5 ptos.) Observar que Y = X · (2I − 1). Como X e I son independientes, y dado que tanto X como Y tienen esperanza cero, varianza uno Cov(X, Y ) = E(XY ) = E (X 2 (2I − 1)) = E(X 2 )E(2I − 1) = 2E(I ) − 1 = 2 P(I = 1) − 1 = 0. P2.
(a) (1,5 ptos.) Calculemos: M X (t) = E (e
1 − |x−µ| eµt b )= e f X (x)dx = e e dx = 2b 2b −∞ −∞ ∞
tX
∞
tx
tx
∞
|y|
−∞
ety e−
b
dy,
donde la última igualdad se obtiene haciendo el cambio de variable y = x − µ. Separando la integral en los rangos en que y es negativa y positiva, obtenemos: M X (t) =
eµt 2b
0
1
−∞
e(t+ b )y dy +
∞
0
1
e(t− b )y dy =
eµt 2b
(t+ 1b )y 0
e t +
1 b
−∞
+
(t− 1b )y ∞
e t−
1 b
.
0
Por lo tanto, la primera integral converge cuando t > −1/b, y la segunda converge cuando t < 1/b. Es decir, M X (t) está bien definida cuando |t| < 1/b. Para un tal t, se tiene entonces: eµt M X (t) = 2b
1 t +
1 b
1 − t−
1 b
eµt = . 1 − b 2 t2
(b) (1,5 ptos.) Derivando la f.g.m. y evaluando en 0: M X (t)
=
eµt 1 − b2 t2
=
µeµt (1 − b2 t2 ) + 2b2 teµt µ·1−0 = µ. ⇒ E(X ) = M X (0) = (1 − b2 t2 )2 1 1
Derivamos nuevamente: M X (t) =
=
µeµt (1 − b2 t2 ) + 2b2 teµt (1 − b2 t2 )2 1 [(µ2 eµt (1 − bt2 ) − 2b2 teµt + 2b2 eµt + 2btµeµt )(1 − b2 t2 )2 2 2 4 (1 − b t ) + 4(1 − b2 t2 )b2 t(µeµt (1 − b2 t2 ) + 2b2 teµt )].
Evaluando en 0 para obtener el segundo momento de X , se obtiene: var(X ) = E (X 2 )−E(X )2 = M X (0)−µ2 = 1 ·[(µ2 −0+2b2 +0)·1+0]−µ2 = µ 2 +2b2 −µ2 = 2b2 .
(c) (1,5 ptos.) Sea Y = |X |. Calculemos su distribución acumulada en y ≥ 0: F Y (y) = P(Y ≤ y) = P (|X | ≤ y) = P (−y ≤ X ≤ y) =
y
−y
1 −|x| e b dx = 2 2b
y
0
1 −x e b dx, 2b
donde la última igualdad se obtiene por la simetría del integrando. Derivando con respecto y a y, y aplicando el teorema fundamental del Cálculo, se llega a que f Y (y) = (1/b)e− b . Sabiendo que f Y (y) = 0 para y < 0 (pues Y es no-negativa), obtenemos: 1 y f Y (y) = e− b 1[0,∞) (y). b Es decir, Y = |X | tiene distribución exponencial de parámetro 1/b. (d) (1,5 ptos.) Calculemos las densidades de U = λ 1 Y 1 y V = −λ2 Y 2 : − λu λ1
F U (u) = P (U ≤ u) = P(λ1 Y 1 ≤ u) = P(Y 1 ≤ u/λ1 ) = 1 − e
1
= 1 − e−u ,
lo cual vale para u ≥ 0. Derivando, se obtiene que f U (u) = e−u 1[0,∞) . Similarmente para V : − −v λ F V (v) = P (V ≤ v) = P(−λ2 Y 2 ≤ v) = P (Y 2 ≥ −v/λ2 ) = e λ = e v , 2
2
válido para v ≤ 0. Derivando, se llega a f V (v) = e v 1(−∞,0] (v). Sea Z = λ 1 Y 1 − λ2 Y 2 = U +V . Como U y V son independientes (pues Y 1 y Y 2 lo son), se tiene que la densidad de su suma es la convolución de sus densidades, es decir: f Z (z) = (f U ∗ f V )(z) =
∞
−∞
f U (z − w)f V (w)dw =
∞
−∞
e−(z−w) 1[0,∞) (z − w)ew 1(−∞,0] (w)dw
Se tiene que la primera indicatriz vale 1 si y sólo si w ≤ z. Luego, el producto de las indicatrices valdrá 1 sólo cuando w ≤ m´ın(0, z). Con esto, se obtiene: f Z (z) = e
−z
m´ın(0,z)
−∞
e
2w
dw = e
−z
Además:
−z + 2 m´ın(0, z) =
1 2w e 2
−z z
m´ın(0,z) −∞
1 = e−z+2 m´ın(0,z) . 2
si z ≥ 0 si z < 0.
Por lo tanto, −z + 2 m´ın(0, z) = −|z |. Con esto se obtiene que f Z (z) = (1/2)e−|z| para todo z ∈ R, concluyendo que Z = λ 1 Y 1 − λ2 Y 2 es una variable de Laplace con parámetros µ = 0 y b = 1. 2
Una forma alternativa de probar lo pedido es la siguiente: de los cálculos previos, es claro que U y − V tienen distribución exponencial de parámetro 1, luego M U (t) = 1/(1 − t) y M V (t) = E (etV ) = E (e(−t)(−V ) ) = M −V (−t) = M U (−t) =
1 . 1 + t
Como U y V son independientes, la f.g.m. de Z = U + V es el producto de las f.g.m.’s, con lo cual obtenemos 1 1 1 M Z (t) = = , 1−t 1 + t 1 − t2
la cual es la f.g.m. de una variable de Laplace con parámetros µ = 0 y b = 1. Como la f.g.m. caracteriza la distribución de una variable aleatoria, necesariamente Z posee dicha distribución. P3.
(a) 1) (1,5 ptos.) Se tiene que (U, V ) = g(X, Y ), donde g(x, y) = (x, x/y). El teorema del cambio de variables (método del jacobiano) nos dice que f U,V (u, v) = f X,Y (g −1 (u, v))|det(Jg−1 (u, v))|. En nuestro caso es directo ver que g es su propia inversa, por lo cual g −1 (u, v) = (u, u/v) y entonces 1 0 Jg−1 (u, v) = 1/v −u/v 2
y luego |det(Jg−1 (u, v))| = |u|/v2 . Como X e Y son normales estándar independientes, su densidad conjunta es el producto de las densidades marginales, es decir, f X,Y (x, y) = (1/2π)e−(x +y )/2 . Reemplazando todo esto en la fórmula que entrega el teorema, obtenemos: 2
2
2
2
|u|e−(u +u /v f U,V (u, v) = 2πv 2
2
)/2
2
|u|e−u (1+1/v = 2πv 2
2
)/2
.
2) (1,5 ptos.) Calculemos la densidad marginal de V : f V (v) =
∞
−∞ ∞
=
−∞
f U,V (u, v)du 2
|u|e−u (1+1/v 2πv 2
1 = 2 2πv 2
∞
0
2
ue−u
2
)/2
du
(1+1/v 2 )/2
du,
donde la última igualdad se debe a la simetría en u. Hacemos el cambio de variable w = u 1 + 1/v2 y de lo anterior se obtiene
1 f V (v) = πv 2
∞
0
1 π(1 + v 2 ) 1 = , π(1 + v 2 ) =
2
we−w /2 1 + 1/v2
∞
0
we−w
dw 1 + 1/v2
2
/2
dw
donde la última integral vale 1, pues corresponde a −e−w V es una variable con distribución de Cauchy. 3
2
/2
evaluado en 0 e ∞. Luego,
(b) 1) (1,0 ptos) Sea B t el proceso de Poisson de intensidad 10 que representa la cantidad de buses que han arribado al paradero en tiempo t. Buscamos E(B2 ), pero como B2 es una variable de Poisson de parámetro 10 · 2 = 20, tenemos que E(B2 ) = 20. Entonces, se espera que pasen 20 buses en las próximas 2 horas. 2) (1,0 ptos) Con la notación de la parte anterior, tenemos que B1 = 0 pues a la hora de espera no han pasado buses aún. Buscamos la probabilidad de que B1,5 = 0 dado que B1 = 0. Dado que los incrementos del proceso de Poisson son independientes y estacionarios P(B1,5 =
0|B1 = 0) = P (B1,5 − B1 = 0|B1 = 0) = P (B1,5 − B1 = 0) = P (B0,5 = 0) = e −10·0,5
(10 · 0,5)0 = e −5 . 0!
3) (1,0 ptos) Para k ∈ N, buscamos P(N t = k). Como se tiene que Bt ≥ N t , usando probabilidades totales en el valor de B t : ∞ P(N t = k)
=
P(N t = k |Bt = n)P(Bt = n)
n=k ∞
=
P(N t = k |Bt = n)e
n −10t (10t)
n!
j=k
Buscamos P(N t = k |Bt = n), la probabilidad de que entre n buses que han pasado, una cantidad n − k hayan sido defectuosos. Como los buses son independientes en cuanto a ser defectuosos o no, esta probabilidad equivale a un muestreo sin orden y sin reposición un subconjunto de buses de tamaño n − k entre n, con probabilidad de “éxito” (ser defectuoso) igual a p. Entonces
n n n−k (1 − p)k . P(N t = k |Bt = n) = pn−k (1 − p)k = p n−k k Así ∞ P(N t = k)
=
P(N t = k |Bt = n)P(Bt = n)
n=k ∞
=
n=k ∞
=
n n n−k k −10t (10t) p (1 − p) e k n!
n! (10t)n−k (10t)k pn−k (1 − p)k e−10t k!(n − k)! n! n=k
(1 − p)k (10t)k −10t ∞ pn−k = e (10t)n−k k! (n − k)! n=k
(1 − p)k (10t)k −10t ∞ (10 pt)n = e k! (n)! n=0 (1 − p)k (10t)k −10t 10 pt = e e k! (10(1 − p)t)k −10(1− p)t = e . k! 4