Resumen de temas de Economia segun el Autor HellerDescripción completa
Actualización 2014 Contabilidad y fiscalidadDescripción completa
Este documento ayuda a saber como interpretar la RMS y la relación de precios.Descripción completa
Full description
Descripción completa
Descripción: CUADRO COMPARATIVO
Descripción: resolucion de no acoger
resolucion de no acoger
material que describe los tres momentos de la lecturaDescripción completa
MOMENTOS DE INERCIA RESPECTO A EJES INCLINADOS
Descripción: Pipino el Breve
Receitas docesDescrição completa
Full description
Momentos respecto a la media Dada una variable aleatoria X con función de probabilidad o densidad f(x) podemos definir una función de X que sea igual a la diferencia entre la variable y su media aritmética elevada a un exponente entero no negativo.
El valor esperado de z(x) es el !ésimo momento de la variable X respecto a la media y se llama " .
#
%$#
$& es decir' en cualquier variable aleatoria su primer momento respecto de la media es igual a %. Esta propiedad se utilizar reiteradamente en las demostraciones estadsticas.
#
$
EJEMPLO:
este segundo momento respecto de la media se le llama también varianza.
*a varianza de una variable mide la dispersión de sus valores respecto al valor central ". +ara calcular la varianza por un método m,s sencillo se utiliza la expresión-
Es decir' la varianza de una variable es igual a la media de los cuadrados menos el cuadrado de la media.
El principal problema de la varianza es que se expresa en unidades cuadr,ticas que no siempre tienen una interpretación clara. +ara obviar este problema se define otra medida de la dispersión que es la desviación típica' X' o simplemente ' que se calcula como la raz cuadrada positiva de la varianza/ evidentemente' la desviación tpica se mide en las mismas unidades que la variable
0o obstante' la desviación tpica no resuelve todos los problemas que se pueden plantear' como por e1emplo la comparación de situaciones en las que la unidad de medida o el orden de magnitud de esta sea diferente. +ara resolver esta cuestión se define una medida adimensional de la variabilidad que es el coeficiente de variación' 2 3' que se calcula como el cociente entre la desviación tpica y la media (a veces este cociente se expresa en tanto por ciento multiplic,ndolo p or &%%).
En este contexto de la medida de la variación se plantea el problema de medir la variación con1unta de variables de variables asociadas. 4upongamos que tenemos dos variables aleatorias X e 5' discretas o continuas' con función de probabilidad o densidad con1unta f(x'y) y definimos una función z(x'y) igual al producto de las desviaciones de cada valor a su media respectiva (es decir' z(x'y) tiene la misma estructura que (X ! ") $ (X ! ") (X ! ") si sustituimos una vez a X por 5).
6l valor esperado de z(x'y) se le llama covarianza de las variables X e 5 y se representa como xy o cov(x'y).
*a covarianza es una medida de la variación com7n a dos variables y' por tanto' una medida del grado y tipo de su relación. 8
xy es positiva si los valores altos de X est,n asociados a los valores altos de 5 y viceversa.
8
xy es negativa si los valores altos de X est,n asociados a los valores ba1os de 5 y viceversa.
8 8
4i X e 5 son variables aleatorias independientes cov(x'y) $ % . *a independencia es condición suficiente pero no necesaria para que la cov(x'y) sea nula.
cov(x,y) = 0
cov(x,y) 0
cov(x,y) ! 0
4e puede deducir' algebraicamente' un medio m,s sencillo para calcular la covarianza de dos variables.
En el caso de la covarianza tenemos el mismo problema que se nos presentó con la varianza' es decir' la covarianza se expresa en términos del producto de las unidades de medida de ambas variables' lo cual no siempre es f,cilmente interpretable. +or otra parte también es difcil comparar situaciones diferentes entre s. En este caso' ambos problemas se solucionan de una vez mediante la definición del coeficiente de corre"ación' 9' que se define como el cociente entre la covarianza y el producto de las desviaciones tpicas de las dos variables.
*a correlación toma valores entre !& y &' siendo su signo igual al de la covarianza. 2orrelaciones con valor absoluto & implican que existe una asociación matem,tica lineal perfecta' positiva o negativa' entre las d os variables y correlaciones iguales a % implican ausencia de asociación. :bviamente' las variables independientes tienen correlación %' pero nuevamente' la independencia es condición suficiente pero no necesaria. 2orrelaciones con valores absolutos intermedios indican cierto grado de asociación entre los valores de las variables.
+ropiedades de la varianza 4i X es una variable aleatoria con función de probabilidad o densidad f(x)' la varianza de una función de la variable X ' m(x) ' se calcula seg7n la expresión-
2asos concretos&.
2uando a todos los valores de una variable se les suma una constante' la varianza de la variable conserva el mismo valor (ver imagen en las propiedades de la media)
.
2uando a todos los valores de una variable se les multiplica por una constante' la varianza de la variable queda multiplicada por el valor de la
constante elevado al cuadrado (ver imagen en las propiedades de la media)
;.
4i X e 5 son dos variables aleatorias con función de densidad o probabilidad con1unta f(x'y)' la varianza de la función m(x'y) $ a X < b 5' donde a y b son constantes reales se calcula como-
En el caso de que a $ b $ & 4i adem,s ocurre que X e 5 sean independientes xy $ % ' luego
3olviendo al tema de los momentos respecto al origen' veamos los dos siguientes que también son interesantes' #
$;
$ asi#etría
El tercer momento respecto de la media mide la asimetra de la distribución' es decir' si existen o no observaciones muy extremas en alg7n sentido con frecuencias razonablemente altas. 4i la asimetra es negativa' la variable toma valores muy ba1os con mayor frecuencia que valores muy altos y se dice que tiene una cola izquierda pesada o que es asimétrica =acia la izquierda. 4i la asimetra es positiva' la variable toma valores muy altos con mayor frecuencia que valores muy ba1os y se dice que tiene una cola derec=a pesada o que es asimétrica =acia la derec=a. 4i la asimetra es cero' los valores ba1os y altos de la variable tienen probabilidades iguales (el e1emplo m,s tpico de variable simétrica es la variable normal) *a asimetra tiene el mismo problema que la varianza y la covarianza en cuanto a sus unidades de medida y' por ello' normalmente se utiliza una medida adimensional de la asimetra que es el coeficiente de asi#etría' g&' que se calcula como el cociente entre el tercer momento y el cubo de la desviación tpica.
#
$>
$ c$rtosis
El cuarto momento respecto de la media mide la curtosis de la distribución' es decir' la forma de la distribución de probabilidad. 6l representar gr,ficamente variables con curtosis peque?a' platic7rticas' se observan curvas o =istogramas con colas cortas y aspecto aplanado o en meseta/ si la variable tiene curtosis grande' es decir' si es leptoc7rtica' su gr,fica ser alta y estilizada' con colas largas y pesadas. *a curtosis de una variable siempre es positiva y se mide en la unidades de la variable elevadas a potencia >. +or tanto' nuevamente se nos plantean los problemas relacionados con las unidades de medida y las escalas y necesitamos una medida
adimensional de la curtosis. Esta medida adimensional de la curtosis es el coeficiente de c$rtosis' g' que se calcula como el cociente entre el cuarto momento y el cuadrado de la varianza' al que se le resta ; unidades. Esta corrección se debe a que' sin ella' las variables normales tendran coeficiente de curtosis igual a ;/ al restar ; conseguimos que el coeficiente de curtosis de la variable normal sea % y que las variables platic7rticas tengan coeficiente de curtosis negativo y la leptoc7rticas positivo' lo cual es m,s mnemotécnico que la distinción entre curtosis peque?a y grande.