qwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasd fghjklzxcvbnmqwertyuiopasdfghjklzx cvbnmqwertyuiopasdfghjklzxcvbnmq Apuntes de clases del Prof. Emilio Ramón Ortiz Trepowski wertyuiopasdfghjklzxcvbnmqwertyui Estadística II Facultad Politécnica UNA opasdfghjklzxcvbnmqwertyuiopasdfg hjklzxcvbnmqwertyuiopasdfghjklzxc vbnmqwertyuiopasdfghjklzxcvbnmq wertyuiopasdfghjlzxcvbnmqwertyuio pasdfghjklzxcvbnmqwertyuiopasdfgh jklzxcvbnmqwertyuiopasdfghjklzxcv bnmqwertyuiopasdfghjklzxcvbnmqw ertyuiopasdfghjklzxcvbnmqwertyuio pasdfghjklzxcvbnmqwertyuiopasdfgh jklzxcvbnmrtyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnmqwerty uiopasdfghjklzxcvbnmqwertyuiopasd Funciones Generadoras de Momentos y Funciones Características Abril/2010
1
Funciones Generadoras
Sabemos que μ m′ = E ( X m ) es llamado el momento de orden m de una distribución. Si m = 1 , tenemos la esperanza matemática, la cual es el primer momento. E ( X 2 ) es el segundo momento alrededor del origen el cual es σ 2 + μ 2 . El cálculo de cualesquiera de estos momentos es engorroso y por lo tanto sería deseable derivar los momentos de una distribución de algún esquema más general antes que computar E ( X m ) para cada m. La Función Generadora de Momentos Definición ∞
∞
( ) = ∫−∞ e f ( x) dx = ∫ −∞ e
La función m ( t ) = E e
Xt
xt
xt
dF es llamada la función generadora de
momentos (también conocida como la transformada de Laplace ) de X . La función está definida para definida para aquellos valores de t para para los cuales la integral existe integral existe. La Función Característica Definición
( ) donde
La función φ ( t ) = E e
iXt
2 i = −1 , esto e, el complejo i , es llamada la función
característica de X .
Usando las expansiones de series de potencia de eixt , sin xt , y cos xt , se puede verificar que eixt = cos xt + i sin xt xt. Por lo tanto,
φ ( t ) =
∫
∞
−∞
cos xtdF + i
∫
∞
−∞
sin xtdF =
∫
∞
−∞
cos xtf ( x ) dx + i
∫
∞
−∞
sin xt f ( x ) dx
Cada una de las integrales es llamada una transformada de Fourier. Porque cos xt y sin xt no exceden 1 y porque una función de densidad de probabilidad integra o suma 1, cada
una de las integrales de Fourier existe y por lo tanto φ ( t ) siempre existe. Así la Así la función característica siempre existe a pesar de que la función generadora de momentos puede no existir. La expansión de series de potencia de eiXt es
2
∞
e
iXt
=∑ r = 0
( iXt )
r
r !
Por lo tanto, la función característica también puede escribirse como
φ ( t ) =
∞
r E⎡( iXt) ⎤
r =0
r!
∑
⎣
∞ r r ⎦ = i t μ ′ ∑ r
r !
r = 0
donde μ r ′ = E ( X r ) es el momento de orden r de X . Así podemos Así podemos observar que el momento
( i t ) r r
de orden r , si existe, es generado como el coeficiente de
r !
en la serie de expansión
infinita de φ ( t ) . Por lo tanto, si podemos obtener la función característica de una distribución, podemos obtener todos los momentos de una distribución más fácilmente. Teorema.
Una función Una función característica es uniformemente continua sobre la línea real.
Las pruebas pueden encontrarse en Ramanathan y Lukacs.
Asumiendo que φ ( t ) es diferenciable bajo el signo de la integral obtenemos que: φ ′ ( t ) =
∞
∫
−∞
ixt
e ixdF
Sigue que φ ′ ( 0 ) = iE ( X ) . Procediendo de manera similar, obtenemos que
⎡ d r φ ( t ) ⎤ r φ ( 0) = ⎢ ⎥ = i μ r ′ ⎣ dt ⎦ 0 r
suponiendo que la derivada de orden r existe. Así, si el momento existe y solo si las derivadas correspondientes de φ ( t ) existen en t = 0, la técnica descrita aquí es aquí es muy útil para derivar los momentos de una distribución. Dado que la función característica siempre existe, incluso una distribución como la de Cauchy para la cual los momentos no existen tiene una bien definida función característica. Puede demostrarse que la función característica de una distribución Cauchy es φ ( t ) = e
− t
. Pero,
porque φ ( t ) no es diferenciable en t = 0, su primer y mayores momentos no existe. Ejemplo: Función Característica de la Normal Estándar y de la Normal General
3
Derivemos la función característica de una distribución normal estándar ( Z ) y luego deduzcamos lo mismo para una distribución X ∼ N ( μ , σ 2 ) . Queremos que E ( eiZt ) la cual es 1
φ Z ( t ) =
=e
−t 2 2
2π
∫
∞
−∞
izt
e e
⎡ ∞ − ⎡⎢⎣( z− it) ⎢ ∫ −∞ e ⎣⎢
2
− z2 2
− t2 ⎤⎥ 2 ⎦
1
dz =
⎤
∞
2π
dz ⎥ = e
∫
−∞
e
2 − ⎡⎢( z− it) − t2 ⎤⎥ 2 ⎣ ⎦
dz
− t 2 2
⎦⎥
porque el integrando es la función de densidad normal con media it y varianza 1 y por lo tanto 2
integra a 1. Así, φ Z ( t ) = e −t
2
para una distribución normal estándar.
Para obtener la función característica para una distribución X ∼ N ( μ , σ 2 ) primero notemos que X = μ + σ Z . φ X ( t ) = E ⎡ e (
⎣
= eiμt e−σ
2 2
t
2
i μ +σ Z )t
=e
iμ t
⎤ = eiμt E ⎡ eiZσ t ⎤ = eiμ tφ Z (σ t ) = ⎣ ⎦ ⎦
−σ 2 t 2 2
Por lo tanto la función característica de X ∼ N ( μ , σ 2 ) es e
i μ t
−σ 2t 2 2
. Podemos usar la función
característica para derivar la media y la varianza de la normal general. Diferenciando φ ( t ) con respecto a t obtenemos que φ X ′ ( t ) = ⎡e
⎣
iμ t
−σ 2 t 2 2
⎤ ( iμ − σ 2t ) ⎦
Por lo tanto, iE ( X ) = φ X ′ ( 0 ) = iμ . Se deduce de esto que E ( X ) = μ . Diferenciando una vez más, φ X ′′ ( t ) = ⎡ e
i μt
⎣
−σ 2 t 2 2
⎤ ( i μ − σ 2t 2 ) + ⎡ e ⎦ ⎣
i μ t
−σ 2t 2 2
⎤ ( −σ 2 ) ⎦
Por lo tanto, 2
( ) = φ ′′ ( 0 ) = i μ
i E X
2
2
X
2
+ i 2σ 2
Por lo tanto, E ( X 2 ) = μ 2 + σ 2 y Var ( X ) = σ 2 . Esto establece el resultado expuesto anteriormente, que X ∼ N ( μ , σ 2 ) tiene media μ y varianza σ 2 . Ejemplo: Función Característica de la Distribución Binomial
Para la distribución binomial, B( n, p) , tenemos que 4
x n ⎛ n ⎞ x n− x n ⎛ n ⎞ it n− x it φ ( t ) = E ( e ) = ∑ e ⎜ ⎟ p q = ∑ ⎜ ⎟ ( pe ) q = ( q + pe ) 0 0 ⎝ x⎠ ⎝ x ⎠ n
iXt
ixt
la que hace uso de la expansión binomial. Diferenciando φ ( t ) con respecto a t , tenemos que φ ′ ( t ) = n ( q + pe
it
)
n −1
pe i. Por lo tanto (observando que p + q = 1), iE ( X ) = φ ′ ( 0 ) = inp. it
La media de una binomial es por lo tanto np. Diferenciando φ ′ ( t ) tenemos, it φ ′′ ( t ) = n ( q + pe pe )
n −1
pe t 2 + n ( n − 1) ( q + pe pe it
it
n −1
2
) ( pe t ) it
Por lo tanto, 2
( ) = φ ′′ ( 0) = i np + n ( n − 1) p t
i E X
2
2
2 2
Por lo tanto, E( X2 ) = n2 p2 + np(1 − p) de lo cual tenemos que, Var ( X ) = np (1 − p ) = npq. La distribución binomial tiene por lo tanto media np y varianza
igual a npq. Ejercicios a Resolver para el Exámen
1. Derive la asimetría y la kurtosis para una distribución X ∼ N ( 0,1) . 2. Compute φ ( t ) para la distribución exponencial estándar con la función de densidad −x f ( x) = e , para x > 0, y cero en cualquier otro lado. Úsela para derivar la media, la
varianza, la asimetría y la kurtosis.
5