ESTADÍSTICA ACTUARIAL NO VIDA
ecosdelaeconomia.wordpress.com
ÍNDICE Introducción 1. Los modelos de probabilidad específicos 1.0 Conceptos básicos de estadística 1.1 Modelos discretos Distribución de Bernoulli Distribución Binomial Distribución de Poisson Distribucción Binomial Negativa Distribución con contagio Ejemplos 1.2 Modelos continuos Distribución uniforme Distribución Normal Distribución log-normal Distribución Pareto Distribución Gamma Distribución Beta Distribución Exponencial Ejemplos 1.3 Convergencia y teoremas sobre límites 1.4 Introducción a los procesos estocásticos 2. Teoría del riesgo y de la ruina 2.1 Procesos del número de siniestros: Proceso de Poisson 2.2 Procesos del daño total: procesos compuestos de Poisson 2.2.1 Teoría y ejemplos del cálculo de reservas, parámetros, prima y prob. de insolvencia 2.3 Aproximaciones a la distribución del daño total 2.3.1 Recurrencia de Panjer: ejemplos en Poisson, Bin., Bin.negativa y geométrica 2.4 Teoría de la ruina 3. Inferencia aplicada 3.1 Métodos de estimación 3.2 Contrastación no paramétrica (Chi², K-S, S-W) 3.3 Estimación de los parámetros del riesgo total 3.4 Métodos de aproximación en la estimación 4. Simulación 4.1 El método de Montecarlo 4.2 Aplicaciones a las distribuciones del Riesgo 4.3 Obtención empírica de la siniestralidad
ecosdelaeconomia.wordpress.com
INTRODUCCIÓN
El objetivo de la asignatura es resolver
Donde S representa la cuantía total que debe afrontar una aseguradora como suma de un número N de siniestros, de cuantía Xi cada uno. Es decir, la suma de cada siniestro nos da el importe total en euros que deberá desembolsar una compañía de seguros. De esta forma existen 2 variables aleatorias: 1. El numero N de siniestros 2. La cuantía X de cada uno de estos siniestros. Conceptos básicos de estadística: ¿Qué es una variable aleatoria? Es una función que transforma la aleatoriedad en un número. ¿Qué es una función de distribución, o función de distribución de probabilidad? Es una función que a cada número real x le da la probabilidad de que la variable aleatoria tome valores inferiores o iguales a x. Es decir, representa la probabilidad acumulada de -∞ a ∞.
¿Qué es una función de cuantía o función de densidad? Es la probabilidad exacta de que la variable X sea un valor determinado. Para variables discretas se habla de función de cuantía y es posible calcularlo, por ejemplo; probabilidad de tener 2 siniestros (N=2). Para las variables continuas se habla de función de densidad, y es imposible calcular la probabilidad de un valor exacto (dado que es continuo e infinitamente exacto), pero sí es posible determinar la probabilidad dentro de un rango, por ejemplo probabilidad de que la cuantía de un siniestro esté entre 100 y 110 €. Se obtiene derivando la función de distribución:
ecosdelaeconomia.wordpress.com
¿Qué es la esperanza matemática? Representa el valor medio esperado de una variable aleatoria, y se representa como la suma de cada valor x por su probabilidad de ocurrencia: Si es una variable discreta;
Si es una variable continua
Las propiedades de la esperanza, la esperanza de la cartera de Barcelona y Baleares es igual a la suma de la esperanza de la suma de ambas. la esperanza de una cartera sujeta a una divisa ¿Qué es la varianza? Es una medida de dispersión, elevada al cuadrado para evitar compensación de valores por encima y por debajo de la media, y también para magnificar los valores más alejados. Las propiedades de la esperanza,
¿Qué es una función generatriz? Es una transformación que permite condensar en una función todos los valores de una secuencia. Es una cuerda de la ropa en la que tendemos una sucesión de números para exhibirla. Y permite hallar las probabilidades y momentos de una variable aleatoria. ¿Qué son los momentos de una variable aleatoria? Son valores que relacionándose permiten estudiar una distribución, indica su punto medio, su dispersión, su asimetría y su altura. El primer momento es el valor central = El segundo momento es la varianza El tercer momento es la asimetría o sesgo. El cuarto momento es la ‘puntiagudez’ o curtosis. Propiedades de las funciones de distribución de probabilidad
Es continua por la derecha y monótona no decreciente. Cuando estamos con variable discretas la función de distribución es del estilo
ecosdelaeconomia.wordpress.com
Y sucede en distribuciones binomiales, binomiales negativas, bernoulli, Poisson, geométrica, etc. Cuando estamos con variables continuas la función de distribución es
Y sucede en las distribuciones normal, ji cuadrado, t student, exponencial, etc. ¿Qué es la distribución de Bernoulli? Sirve para sucesos dicotómicos; (sucede / no sucede). Como lanzar una moneda al aire, o vivir/morir. La probabilidad de éxito es “A” y tiene una probabilidad “p”, y la de fracaso es A’ y tiene una probabilidad complementaria 1-p. En esta distribución la media y varianza de los éxitos será;
¿Qué es la distribución binomial? Cuenta el número de veces que sucede un éxito en una serie de n experimentos con la misma probabilidad p.
siendo
Si x es una variable aleatoria con distribución binomial, su
¿Qué es la distribución binomial negativa? Cuenta el número de experimentos necesarios para que suceda el m-ésimo éxito.
Donde,
¿Qué es la distribución de Poisson? Se trata de una distribución que mide el número de veces que sucede un fenómeno. Lo que supone es que ante un experimento (número de accidentes en las carreteras, emisión de fotones de una partícula) tendremos una que será el número de veces que se da el suceso en un intervalo de tiempo (2 accidentes/hora). Su ley de probabilidad es;
Y tiene como media y varianza; ecosdelaeconomia.wordpress.com
Debe cumplir que sería posible fraccionar el tiempo hasta unidades temporales donde sólo se da 1 suceso, y con la probabilidad de que sucedan 2 o más sucesos = 0 en este mínimo intervalo temporal, y que sean independientes entre estas fracciones mínimas temporales. Cumplido esta condición, la puede ser un número no entero > 0
ecosdelaeconomia.wordpress.com
TEMA 1. MODELOS DE PROBABILIDAD ESPECÍFICOS 1.0 definición de probabilidad y conceptos de estadística 0. La probabilidad Ley de los grandes números de Bernouilli: Un experimento aleatorio se caracteriza porque, repetido muchas veces y en idénticas condiciones, el cociente entre el número de veces que aparece un resultado (suceso) y el número total de veces que se realiza el experimento tiende a un número fijo.
Definición axiomática de la probabilidad por Kolgomorov: Consideró que esta frecuencia relativa de un suceso está en relación directa con su probabilidad de ocurrencia. De forma que se puede extrapolar que, para un solo experimento, la probabilidad de que ocurra el suceso es igual a la frecuencia relativa observada después de haber repetido el experimento muchísimas veces. Además, la probabilidad del suceso (a) será complementario a la probabilidad de no-suceso .
Este último se lee como “la probabilidad de que suceda “a” o que no suceda “a”, es igual al todo”. La probabilidad de que suceda “a” o “b” es la suma de probabilidades:
La probabilidad de que suceda “a” y “b” es el producto de probabilidades:
La probabilidad de que suceda “a” condicionado a que haya sucedido “b” es:
Parámetros estadísticos El parámetro estadístico es un número, obtenido a partir de datos de la población, que resume el conjunto de datos que contiene una variable aleatoria. Su función es crear un modelo de la realidad. Por ejemplo, la media aritmética. Este parámetro se analizará para ver si se ajusta al modelo ideal, se estimará, o se descartará en busca de parámetros más fiables. En su acepción matemáticamente más pura, un parámetro es una variable que define una familia de objetos matemáticos en determinados modelos. Como la distribución normal con parámetros media y desviación estandar, N(μ, σ), o en Poisson su parámetro λ, o la Binomial con n, y p. Las propiedades de un parámetro estadístico son: 1. Que se defina de manera objetiva, sin ambigüedades. 2. Es capaz de concebir todas las observaciones, sin dejar valores fuera de su marco.
ecosdelaeconomia.wordpress.com
3. Es interpretable, y tiene un significado claro. 4. Es poco sensible a las fluctuaciones muestrales. Medidas de posición: Son parámetros que indican los valores en determinados puntos de la distribución, como medias, modas y mediana respecto la tendencia central, o los cuantiles. Medidas de dispersión: son parámetros que resumen la heterogeneidad de los datos, varianza o desviación estandar, coeficientes de variación. Medidas de forma: dan valores a la asimetría y curtosis de la distribución. Los momentos Son una generalización de los parámetros estadísticos. Son valores obtenidos a partir de todos los datos de una variable estadística y sus frecuencias absolutas, centrados respecto a la media observada. Como yo lo entiendo: a partir de unos datos observados en realidad sólo se pueden encontrar dos cosas: cuál es la media, y cuál es la dispersión de los datos alrededor de la media. El momento ordinario de orden k se obtiene como
El momento central de orden k se obtiene como
Demostración de que la media es = momento ordinario de orden 1 y su momento central es = 0.
La interpretación que yo le doy es que los momentos ordinarios son una medida de los valores observados (potenciados k veces) y los momentos centrales es una relación entre estas medidas y el centro; la media. Son valores abstractos, pero que combinados ofrecen una perspectiva de la distribución de la variable. Demostración de la varianza; primero es necesario encontrar el momento ordinario de orden 2, y luego combinarlos en el momento central de orden 2,
Se puede demostrar que
Y, lo que ya se ha dicho, siempre en cada caso es fácil calcular el valor del momento ordinario k como
ecosdelaeconomia.wordpress.com
La asimetría se obtiene como
La curtosis se obtiene como
Ejemplo: La variable N tiene función de distribución F(x)= 0 0,5 0,75 0,87 0,95 1
x<0 0≤x<1 1≤x<2 2≤x<3 3≤x<4 x≥4
Como la función de distribución son las probabilidades acumuladas, y N es una variable discreta, P(N=0) P(N=1) P(N=2) P(N=3) P(N=4)
0,5 0,25 0,12 0,08 0,05
Momento ordinario de orden 1, o media,
Para encontrar la varianza será necesario encontrar el momento ordinario de orden 2,
La asimetría
La curtosis
ecosdelaeconomia.wordpress.com
Pleno de retención Importe a partir del cual los siniestros de una cartera los asume una empresa de reaseguro. Por ejemplo: se contrata un reaseguro con pleno de retención en 1200 euros. A partir de este importe, los siniestros se los queda la empresa reasegurado. Franquicia Importe por debajo del cual los siniestros los asume otra compañía. Por ejemplo: se contrata una franquicia de 1200 euros. Otra compañía se hace cargo de hasta los 1200, y los importes por encima de 1200 los afronta nuestra aseguradora. Variable aleatoria mixta Sea X la v.a. pérdida de un asegurador, cuando existe un deducible “d” y un beneficio límite de M:
Es decir, no existe pérdida siempre que el coste del siniestro sea inferior al deducible (p.ej. tienes un siniestro de 40 pero siempre se deducen 50, por lo que no estás en pérdidas). Existen unas pérdidas entre el valor máximo deducible (50) y un tope de beneficio límite, p.ej 100, de forma que si se da precisamente un siniestro de 100, el valor de la pérdida será de 100-50= 50. A partir del valor M, la pérdida para el asegurador será siempre un máximo de M, p.ej., si se da un siniestro de 150, el coste para el asegurador será 150-50 = 100. La función de distribución en este caso será
Es decir, valores negativos de pérdida no existen; probabilidad de ocurrencia cero, valores superiores a M menos el descuento son el máximo, lo que queda por lo tanto es la distribución de la probabilidad de coste entre cero y el límite superior M-d. La función de densidad será
Donde el límite inferior es el valor discreto de la probabilidad de que el coste sea = d. El límite superior es el valor discreto de que la probabilidad del coste sea = M. Entre ambas, existe una función de probabilidad continua.
ecosdelaeconomia.wordpress.com
Transformación de una variable aleatoria
Ejemplo: Dada la función a) Y=5+x b) Y=log(x)
, cuál es la transformación si
1º hay que verificar la monotonía de las funciones Y; a)
b)
2º Se invierte la función Y; en lugar de Y igual a X, se invierte a X igual a Y; a)
b)
3º Una vez demostrada la monotonía e invertida la función ya sólo queda
a)
b)
ecosdelaeconomia.wordpress.com
1.1 modelos discretos 1. Distribución de Bernoulli Esta distribución X∼Be(p) es la base para luego construir la distribución Binomial. La distribución de Bernoulli es aquella distribución donde la variable aleatoria sólo puede tomar 2 resultados mutuamente excluyentes; éxito (A) o fracaso (A’). El espacio muestral W sólo está constituido por estas dos posibilidades , donde A tiene una probabilidad de ocurrencia = p, y A’ tiene una probabilidad q=1-p. El ejemplo clásico es el ensayo de lanzar una moneda al aire: la posibilidad de éxito excluye el fracaso; sucede uno u otro. Y la suma de ambas probabilidades es = 1, no hay espacio para nada más. La distribución de Bernoulli sirve para encontrar la probabilidad de éxito al realizar un ensayo. Volviendo a la generalidad: La función de densidad de Bernoulli se resume, Y su función de distribución es,
La esperanza matemática es,
La varianza matemática es,
Ejemplo: Un comercial coloca un seguro el 30% de las veces que sale a la caza de clientes. Modelizar la variable aleatoria “venta” según una distribución de Bernoulli. ¿Cuál será la probabilidad de vender 1 seguro?
La función de densidad será, La media o valor esperado será,
Y la varianza será, La probabilidad de que al hacer un intento de venta, consiga vender el seguro será
ecosdelaeconomia.wordpress.com
2. Distribución Binomial Se conoce como X∼B(n,p), donde n es el número de repeticiones del experimento y p es la probabilidad de éxito. La distribución Binomial consiste en la repetición de n ensayos de Bernoulli independientes y en las mismas condiciones. Si antes Bernoulli nos daba la probabilidad de éxito para un ensayo, ahora la Binomial nos informa de la probabilidad de k éxitos al realizarse n ensayos. En cada prueba existe la probabilidad p de éxito (A), y la probabilidad q=1-p de fracaso (A’). a) Así, A sucederá k veces, y A’ sucederá n-k veces, es decir,
b) Todos los sucesos elementales posibles, independientes, son al final y al cabo permutaciones con repetición de n elementos de los cuales k son del tipo A, y n-k son A’, el número de permutaciones es:
Una vez se tiene la probabilidad de que suceda k, y el número de permutaciones, ya se puede calcular la probabilidad de que se den k éxitos con n ensayos:
Si no vamos a los extremos, la probabilidad de que en n ensayos no haya ningún éxito será, y la probabilidad de que en n ensayos haya n éxitos, Por ejemplo, tiras una moneda 100 veces y esperas la probabilidad de que no salga ni una cara:
y la probabilidad de que salgan 100 caras,
Ya se puede deducir también que la probabilidad de, por ejemplo, un solo éxito es así como la probabilidad de un solo fracaso,
En definitiva, la probabilidad de que sucedan x éxitos será,
Las condiciones de la función de distribución Binomial son 1. valores siempre positivos 2. la suma de todo debe ser igual a 1. La segunda condición se demuestra porque si Ya que recoge todas las n permutaciones:
entonces
ecosdelaeconomia.wordpress.com
La distribución Binomial es simétrica cuando las probabilidades de éxito y fracaso son iguales (0,5, como al tirar la moneda al aire). Si existe una mayor probabilidad de éxito (p>0,5) entonces la distribución es asimétrica y su media se encuentra a la derecha del centro (si es que colocamos un eje de coordenadas básico con el 0 -fracaso- en origen y el 1 -éxito- a la derecha). Si es al revés y existe una mayor probabilidad de fracaso (q>0,5) entonces la asimetría es por la izquierda porque el máximo de la distribución se encuentra a la izquierda del centro. La función de distribución de la Binomial es
Una buena herramienta de cara a aquellas preguntas puñeteras del estilo, si la probabilidad de X=k es tal, cuál es la probabilidad de X=k+1? , es la relación entre los coeficientes binomiales de k y k+1 para el mismo número de ensayos, es decir, se puede demostrar que,
Ya que,
Por lo tanto,
La esperanza matemática será, según la propiedad de que la esperanza de una suma es la suma de esperanzas;
La varianza será,
La varianza será máxima cuando p=q=0,5
ecosdelaeconomia.wordpress.com
Ejemplo: Un comercial coloca un seguro el 30% de las veces que sale a la caza de clientes. ¿Cuál es la probabilidad de que en las 10 próximas visitas realice al menos una venta? Suponiendo que cada visita se puede considerar como una variable aleatoria de Bernoulli con p=0,3 entonces la variable X número de ventas en 10 visitas será
B(n=10, p=0,3) Con una función de densidad
Entonces, la probabilidad de obtener al menos una venta en las próximas diez visitas será
3. La distribución de Poisson La distribución de Poisson X∼P(λ) aparece como límite de la distribución Binomial cuando el número de ensayos es grande ( n > 30) y la probabilidad de éxito pequeña ( p < 0,1), o bien n·p > 5. Por extensión de estas dos condiciones, también se relaciona con la probabilidad de que ocurra un suceso en un intervalo de tiempo o en un espacio determinado; número de errores por página en una imprenta, número de accidentes por día, número de estrellas en un volumen de espacio,… Desarrollando la Binomial cuando el límite tiende a infinito se llegaría a la función de densidad de la Poisson,
Siempre que, para todo k positivo también positivo se cumplirá que f(k) es una función de densidad entre 0 y 1. Y la suma de todo f(k) = 1 ecosdelaeconomia.wordpress.com
k será el número de sucesos que pueden ocurrir sujetos a una probabilidad, y λ será el parámetro de la distribución de Poisson, que se puede entender como el número medio de sucesos por unidad de espacio o tiempo. Y se expresa que la variable X sigue una distribución de Poisson de parámetro lambda; La esperanza matemática, coincide con el parámetro lambda
Y la varianza también será,
Otra propiedad de la distribución de Poisson es que si son variables aleatorias de Poisson independientes de parametros , se cumplirá que la suma de variables sigue una distribución de parámetro lambda igual a la suma de parámetros.
Ejemplo: Si se tienen una cartera de 10.000 pólizas, y el siniestro que cubren sucede 1 vez cada 1000 con un coste por siniestro de 5000 euros, a) probabilidad de que ocurran menos de 2 siniestros. b) probabilidad que ocurran al menos 3 siniestros c) esperanza matemática de la indemnización a) La variable aleatoria X “número de siniestros” sigue una distribución Binomial n=10.000 y probabilidad p= 0,001. Como n es grande y p pequeña, se puede aproximar por la Poisson, donde el parámetro λ será = n*p Por lo tanto es una distribución de media 10, y varianza 10. La probabilidad de que X sea inferior a dos será
b) Mediante complementarios:
ecosdelaeconomia.wordpress.com
c) La esperanza de la indemnización será,
4. La distribución Binomial Negativa X∼BN(n,m,p) Dentro de procesos dicotómicos, se puede tener como objetivo calcular el número de exposiciones al riesgo necesario para que tenga lugar m siniestros. Esto significa que habrá sucedido m-1 siniestros durante n-1 veces. Y que exactamente en la exposición número n, sucede el m-ésimo siniestro. Más fácil de ver en ejemplos; Si se sabe que se venden 3 seguros cada 10 intentos de venta, se puede calcular cuál es la probabilidad de a) que al cabo de 9 intentos se hayan vendido 2 seguros. b) que al cabo de 10 intentos se hayan vendido 3 seguros. c) que al cabo de 11 intentos se hayan vendido … etc. O por ejemplo, si nos dedicamos a tirar una moneda al aire, cuál es la probabilidad de que al décimo lanzamiento nos salga la quinta cara. Esto obliga a que en las nueve tiradas anteriores hayan salido 4 caras y 5 cruces, y que exactamente en la 10 tirada salga al 5ª cara. n=10 y m=5 Por lo tanto, esta probabilidad será = y como se ve, los exponentes suman las n-1 exposiciones al riesgo y se está añadiendo la probabilidad de que la n-ésima exposición sea el resultado buscado. Se pueden sumar los exponentes y reducir la expresión a
Pero también hay que añadirle el número de permutaciones de estos éxitos y fracasos, esto es: la cantidad de veces que se dan ese número de éxitos y fracasos pero en cualquier orden. Finalmente, la probabilidad que estamos buscando será exactamente una de ésas permutaciones de las n-1 exposiciones previas de forma que justamente en la última exposición sucede el último éxito:
La expresión de la distribución Binomial Negativa es: X~BN(m, p) Donde “m” es el m-ésimo éxito esperado, y “p” la probabilidad de dicho éxito. La función de distribución será,
La esperanza matemática será,
ecosdelaeconomia.wordpress.com
La varianza será,
Ejemplo: Si se venden 3 seguros cada 10 intentos de venta, cuál es la probabilidad de que en el intento número 100 se consiga la venta número 30? m= 30, el número de ventas objetivo n= 100, momento en el que se espera obtener esa venta número 30.
Existe un 2,6% de probabilidades de que en el intento de venta número 100, llegue la 30 venta.. La Binomial Negativa es una alternativa al modelo de Poisson cuando la frecuencia de ocurrencia del suceso no es constante. Suponiendo que una cartera N siga una distribución de Poisson de media λ, y que a su vez esta media λ muestra la variabilidad de la cartera representada con una función de densidad continua (por ejemplo del tipo Gamma, de parámetros α y ϴ), entonces la distribución de accidentes seguirá una distribución Binomial Negativa para un número de sucesos α y probabilidad p=1/(1+ϴ).
Recurrencia para el cálculo de probabilidades en una Binomial Negativa A partir de la Binomial Negativa se pueden llegar a dos distribuciones muy útiles. Por un lado, averiguar la probabilidad de que en m+k exposiciones al riesgo hayan ocurrido exactamente k fracasos
Se puede desarrollar la expresión anterior para llegar a una distribución aún mucho más interesante: 5. Proceso de Polya-Eggenberger Consiste en una distribución de probabilidad que tiene en cuenta el efecto de contagio de la ocurrencia. A medida que sucede el siniestro “contagia” al resto de exposiciones incrementando su ocurrencia. Se nombra a “h” como el grado de heterogeneidad de las variables aleatorias, a mayor h, menos efecto contagio. Y “μ” será el parámetro media.
ecosdelaeconomia.wordpress.com
donde
y
Por efecto de la recurrencia, se demuestra que
ecosdelaeconomia.wordpress.com
Ejemplos: 1. ¿Cuál es la probabilidad de obtener 3 caras si se tira una moneda al aire 5 veces? Tirar una moneda al aire sigue una distribución de Bernouille, y cuantificar la probabilidad cuando se realizan n exposiciones sigue una distribución Binomial, donde la variable aleatoria X es número de caras X~B(n,p) donde n= 5
2. ¿Cuál es la probabilidad de una Poisson truncada por la exclusión del valor 0, es decir, omitiendo el valor 0?
3. Se tienen 2000 personas sometidas a un riesgo con probabilidad 0,001. Si existe independencia en la ocurrencia del siniestro, ¿qué distribución de probabilidad le corresponde? ¿cuál será la media y la varianza? Se define X como la variable aleatoria “número de siniestros”, que sigue una Binomial (n=2000 y p=0,001) Por lo tanto, la variable X sigue una Poisson de parámetro lambda
4. Se tienen 10.000 asegurados sometidos a un riesgo con probabilidad de ocurrencia del 0,005%. ¿Cuál es el número medio de accidentes? ¿Cuál es la probabilidad de tener que afrontar el pago de más de 3 siniestros? X se define como la variable aleatoria “número de accidentes” que sigue una Binomial (n=10.000 y p=0,00005)
El número medio de accidentes será = 0,5 La probabilidad que P(X>3) será,
5. En una fábrica el número de accidentes por semana sigue una Poisson de λ=2 a) ¿cuál es la probabilidad de que en una semana haya algún accidente? b) ¿cuál es la probabilidad de que haya 4 accidentes en 2 semanas? ecosdelaeconomia.wordpress.com
c) ¿cuál es la probabilidad de que haya 2 accidentes en 1 semana y 2 más la siguiente semana? d) ¿cuál es la probabilidad de que en una semana que sí ha habido accidentes, no sean más de 3? Se define X como la variable aleatoria “número de accidentes por semana” X~P(λ=2) a) probabilidad de que haya algún accidente supone el complementario a que no ocurra ninguno:
b) probabilidad de 4 accidentes al cabo de 2 semanas, suponiendo que existe independencia y la cantidad de accidentes de una semana no afecta al número de accidentes de la siguiente, se puede definir ahora X como la suma de accidentes de dos semanas; , y con parámetro λ igual a la suma de
c) la probabilidad de 2 accidentes una semana y 2 más la siguiente semana supone una intersección donde se tiene que dar P(X=2) y P(X=2), que es igual a P(X=2)*P(X=2)
d) Es una probabilidad de P(X<3) pero condicionada a P(X>0),
6. Un broker hace una media de 4 inversiones intradia y cobra 10 euros fijos por operación como comisión. ¿Cuál es la probabilidad de ganar más de 1000 euros al mes? Suponer que el número de inversiones diarias sigue una distribución de Poisson y que hay 20 días laborales al mes. Sea “X” el número de operaciones mensuales, que sigue una ley de Poisson de parámetro
Si Por lo tanto
Una aproximación sería decir que para llegar a 100 operaciones, si hay 20 días laborales, esto supone 5 operaciones al día. Sea ahora “X” la variable aleatoria número de operaciones diarias, que sigue una
ecosdelaeconomia.wordpress.com
distribución de Poisson de parámetro λ=4. Se calcula la probabilidad de que hayan más de 5 operaciones al día, a lo largo de 20 días, para conseguir superar la cifra de 1000 euros:
Y ahora, que esto se dé durante 20 días supone
7. Un analista de bolsa contabiliza las veces que una acción cae más de 50 céntimos de euro respecto a la hora anterior. Le sale una media de 0,5 veces a la semana.¿Cuál es el riesgo de que en una semana se produzcan más de 2 caídas? ¿Cuál es la probabilidad de que en 3 semanas no haya ni una? Supongamos distribución de Poisson. Sea “X” la variable aleatoria número de caídas de 50 céntimos respecto la hora anterior, que sigue una distribución de Poisson λ=0,5
Que no suceda nada durante 3 semanas quiere decir
O lo que es lo mismo, se puede suponer que tenemos una distribución de Poisson de λ=0,5·3=1,5 donde ahora “X” es el número de caídas cada 3 semanas.
8. Un actuario ha analizado unos datos de siniestralidad y concluye que la probabilidad de que un mismo asegurado tenga dos siniestros en un año es cuatro veces la probabilidad de que tenga un siniestro en un año. Sabiendo que el número de siniestros que sufre un asegurado en un año sigue una distribución de Poisson. Determinad: a) El número esperado de siniestros que sufre el asegurado en un año según la hipótesis de Poisson. b) La probabilidad de que un asegurado tenga más de 3 accidentes en un año. c) Si la ocurrencia de siniestros en un año y el siguiente es independiente. ¿Cúal es la probabilidad de que un asegurado tenga al menos un accidente en dos años? a) Sea “X” la variable aleatoria número de siniestros en un año, que sigue una distribución de Poisson λ. Si,
ecosdelaeconomia.wordpress.com
b)
c) Se puede plantear como la probabilidad de que un año no haya suceso y al año siguiente haya un suceso.
Pero es más correcto decir que “X” es la variable aleatoria número de siniestros cada 2 años, que sigue una distribución de Poisson de parámetro λ=8·2=16
9. Una entidad ofrece a sus clientes preferentes (un total de 5000 clientes) una tarjeta de crédito. La probabilidad de que se realice un uso fraudulento de la tarjeta es de un 0.003% al mes. En una operación fraudulenta, la pérdida se considera fija e igual a 1350 euros. a) Calculad la probabilidad de que no se produzca ningún uso fraudulento de la tarjeta durante un mes. b) El coste anual por tarjeta emitida que tendrá una cobertura por uso fraudulento (coste esperado anual). Se supone independencia entre un mes y el siguiente. Sea “X” la variable aleatoria uso fraudulento de la tarjeta al mes. Que por tener una muestra grande y una probabilidad de ocurrencia pequeña, sigue una distribución de Poisson de parámetro λ=5000·0,00003=0.15 a)Probabilidad de no suceso
b) Coste de la cobertura anual del uso fraudulento
que es la media de usos fraudulentos al año. Si se multiplica por el valor de la operación fraudulenta,
y si ahora se reparte entre la población de 5000 targetas,
0,49 céntimos por tarjeta cubrirían el valor del uso fraudulento anual.
ecosdelaeconomia.wordpress.com
1.2 modelos continuos
1 Distribución uniforme Toda variable aleatoria se puede relacionar con una distribución uniforme en el intervalo (0,1). Supone que la función de intensidad de probabilidad es constante, con lo cual la probabilidad de ocurrencia es constante independientemente de la cantidad de exposiciones al riesgo. Su función de densidad es,
Para todo el intervalo (a,b) de distribución uniforme. Y cumple que,
La función de distribución dentro del intervalo será,
La esperanza matemática será,
Y la varianza,
Ejemplo: El tiempo que una ambulancia tarda en acudir al lugar del accidente sigue una distribución uniforme entre 0 y 10 minutos. ¿Cuál es la probabilidad de que tarde más de 3 minutos? ¿Cuál es el tiempo medio de espera? X es la variable aleatoria “tiempo de espera” que sigue una distribución U(0;10)
otro ejemplo: El coste de los siniestros se distribuye uniformemente entre 0 y 10.000€ a) cuál es la media? b) cuál es la media si se establece una franquicia de 1000€? c) cuál es la media si se establece un límite de 9000€? d) cuál es la media si b+c?
ecosdelaeconomia.wordpress.com
a)
b)
c)
d)
ecosdelaeconomia.wordpress.com
2. La distribución Normal Si se tiene n variables aleatorias independientes e igualmente distribuidas, por el Teorema Central del Límite, cuando n tiende a infinito entonces X sigue una distribución Normal. También surge en otros casos cuando los sumandos son dependientes entre sí. La característica fundamental es que en la distribución Normal la media, mediana y moda coinciden, y separa en dos lados perfectamente simétricos la distribución, además es el punto donde la densidad de probabilidad es máxima. Esta simetría supone que la densidad de la probabilidad se puede medir en términos de media±desviación estandar. Su función de densidad es,
Y si X es una variable aleatoria que sigue una distribución Normal de media μ y varianza σ², se expresará, X~N(μ, σ²) o expresado en desviación estandar, X~N(μ, σ) Dos distribuciones Normales de igual varianza y media
tendrán un dibujo,
Dos distribuciones Normales de igual media y varianza σ²< σ² tendrán un dibujo,
Si X~N(μ, σ²) y a≠0 es una constante, la variable aleatoria Y del tipo Y=aX+b también será una distribución Normal N(aμ+b, a²σ²) Si
y
entonces la variable aleatoria
tendrá una distribución
La función de distribución será,
ecosdelaeconomia.wordpress.com
Y para cualquier media y varianza se cumplirá que la proporción de probabilidad acumulada dentro de los intervalos entre la media y n veces la varianza es constante, μ ± σ = 0,6826 μ ± 1,64·σ = 0,9 μ ± 1,96·σ = 0,95 μ ± 2·σ = 0,9544 μ ± 2,58·σ = 0,99 μ ± 3·σ = 0,9972 Distribución Normal estandarizada Consiste en una distribución Normal con media 0 y varianza = 1. Esto permite para cualquier distribución con media y varianza particular estandarizarlo a N(0, 1). Para transformar la variable aleatoria particular X a una variable aleatoria estandarizada Z, donde las tablas de la normal indican cuál es la probabilidad acumulada para cualquier valor de Z, que se obtiene
Ejemplo: La distribución del resultado técnico (en miles €) de una cartera de seguros sigue una distribución Normal con parámetros μ=0 y σ=30 a) ¿cuál es la probabilidad de obtener resultados negativos? b) ¿cuál es la probabilidad de obtener beneficio entre 10 y 15? c) ¿cuál es la probabilidad de un beneficio superior a 30? Sea X la variable aleatoria “resultado técnico en miles de euros”, con distribución X~N(0, 30) La probabilidad de obtener resultados negativos será,
si se estandariza dará el mismo resultado,
b)
c)
ecosdelaeconomia.wordpress.com
3. La distribución logarítmico-Normal Es una de las distribuciones más usadas para ajustar datos en relación al coste de un siniestro. Por efecto del logaritmo, se da más importancia a los valores grandes y no presenta una distribución simétrica: la pendiente a la derecha de la media es más suave. Esto permite una mayor densidad de probabilidad a la derecha, y por lo tanto es “más fácil” encontrar valores extremos por la derecha: es más pesimista. Para valores medios o altos de la varianza, respecto a la función de distribución Normal, la asimetría tiende a ser más pronunciada. Y por el contrario, cuando la varianza de la lgN tiende a cero, más simétrica es la distribución hasta el límite de superponerse a la distribución normal. Una variable aleatoria X sigue una distribución lgN si el logaritmo neperiano de X se distribuye como una normal.
También se puede estandarizar, de forma que,
Si se opera en esta expresión se puede despejar X en función del valor Z de la normal estandarizada: Su función de distribución será,
Su esperanza matemática será,
Y su varianza será,
Ejemplo: Un siniestro tiene para su cuantía una función de distribución lgN(μ=7, σ=1,5) a) ¿cuál es la probabilidad de tener un siniestro de cuantía inferior a 200? b) ¿cuál es la probabilidad de tener un siniestro de cuantía superior a 1000? Sea X la variable aleatoria “cuantía del siniestro” X~ln(7, 1’5)
ecosdelaeconomia.wordpress.com
4. La distribución de Pareto Es una distribución muy útil en el cálculo de la probabilidad de que se produzca una pérdida grande. Si la distribución lgN muestra más densidad de probabilidad en el extremo de la derecha que la distribución Normal, la distribución de Pareto todavía converge a cero más lentamente que la propia lgN. Por este motivo se usa para determinar las primas de un reaseguro en los tramos de grandes siniestros. El primer paso es considerar la probabilidad de que una variable aleatoria X tome un valor superior a un determinado x. Siendo x>k y α>0
Su función de distribución será,
Su función de densidad es, para todo x>k
y f(x)=0 para x≤k Su esperanza matemática es,
Su varianza es,
La distribución de Pareto suele utilizarse junto con otra distribución. Para modelizar la distribución de una variable aleatoria X se usa una distribución de las anteriores hasta un cierto valor k crítico, a partir del cual entra en funcionamiento la distribución de Pareto con su particular lentitud en converger a cero por la derecha. El parámetro k es la altura inicial de la función de distribución, y el parámetro α es el responsable de la suavidad con que la función tiende a cero. Cuando menor sea el parámetro α más suavidad más lentitud en converger a cero mayor densidad de probabilidad es más probable que ocurra un siniestro de elevada cuantía. Ejemplo: La distribución del coste de un siniestro de una cartera de seguros, sigue una distribución de pareto de parámetros α=2 y k=300, ¿cuál es la proporción de siniestros que exceden los 600? ¿ cuál es el coste medio? Sea “X” la variable aleatoria “coste del siniestro”,
Un 25% de los siniestros exceden los 600 u.m.
ecosdelaeconomia.wordpress.com
5. La distribución Gamma Es otra distribución muy útil cuando se dispone de un conjunto de datos positivos, con una sola moda, y de asimetría positiva; la mayoría de los sucesos se concentran a la izquierda de la media. Esto se corresponde con distribuciones donde se dan muchos sucesos de poca cuantía y pocos sucesos de más cuantía. También se usa para modelizar el tiempo hasta que se produce p veces un determinado suceso. Ejemplo: en un estudio de la guardia urbana de Barcelona se toma una distribución gamma para modelizar el número de víctimas en accidentes de tráfico. Como es más habitual la proporción de 1 ocupante por vehículo, y es más rara la probabilidad de 4 ó 5 ocupantes por vehículo siniestrado, se crea una distribución gamma para modelizar el número de víctimas por accidente de tráfico. El 38% de la distribución lo acumula la proporción 1 accidentado por accidente, el 36% 2:1, 16% la 3:1, 6% el 4:1 y finalmente un 3% para 5:1 La función de densidad es
donde x>0 y h,α son parámetros positivos. Se demuestra que f(x) es una función de densidad porque para f(x)≥0
La función característica es,
La esperanza matemática será,
ecosdelaeconomia.wordpress.com
La varianza será,
donde
6. La distribución beta Es una distribución para modelizar variables que representan proporciones. Su función de densidad incopora la función gamma Γ(x),
Su esperanza es,
y su varianza,
Ejemplo: La proporción de pólizas de hogar que durante el año tienen algún siniestro sigue una distribución Beta con valor esperado 0,375 y varianza 0,1302. ¿Cuál es la probabilidad de que la proporción de hogares con algún siniestro sea como máximo del 45%? ¿cuál es la probabilidad de que la proporción de hogares con algún siniestro sea como mínimo del 75%? Sabiendo que
se encuentra que p=0,3 y q=0,5 P(X≤0,45)= 0,6138 P(X≥0,75)= 1-P(X≤0,75)= 0,2343
ecosdelaeconomia.wordpress.com
7. La distribución exponencial La distribución exponencial se aplica en fiabilidad de sistemas, en variables que representan tiempo de vida de componentes con pequeño desgaste. Tiene dos parámetros, α y θ. Es un caso especial de ley gamma cuando θ=0 y α=1. Se puede interpretar como tiempo transcurrido hasta la presencia de un acontecimiento. Su función de densidad es
y si suponemos que θ=0 y que λ=1/α, entonces
Su función de distribución es
Y su esperanza es
y su varianza,
Ejemplo: El tiempo que un paciente tarda en ser atendido en un centro de salud sigue una distribución exponencial de media 10 minutos. ¿Cuál es la probabilidad de que un paciente tarde más de 20 minutos en ser atendido? Sea “X” la variable aleatoria tiempo de ser atendido. Si la media son 10 minutos, entonces
Entonces,
ecosdelaeconomia.wordpress.com
Ejemplos: 1. Un asegurador ha observado que en una de sus carteras en promedio tiene 5 siniestros anuales superiores a los 3 millones de Euros. Los datos de los últimos 10 siniestros que superan esta magnitud son: {3,2 ; 4 ; 5 ; 4,5 ; 3,1 ; 3,8 ; 7 ; 3,2 ; 3,4 ; 4 } Suponiendo que la variable aleatoria "Coste del siniestro en millones de Euros" sigue una distribución de Pareto, calculad: 1. Probabilidad de tener un siniestro que cueste más de 20 millones de Euros. 2.¿Cada cuantos años se espera un siniestro de más de 20 millones de Euros? 3. Si la cartera está formada por 200.000 pólizas que se renuevas anualmente, ¿cuánto cuesta por póliza el reaseguro de los siniestros de más de 20 millones? Primero se encuentra la media y la varianza muestral de los 10 siniestros:
Se establece el parámetro k=3 A partir de la muestra, se puede suponer que
La probabilidad de tener un siniestro superior a 20 millones es de 0,093% Esta probabilidad próxima a 0,01% supone que uno de cada mil siniestros supera los 20 millones de euros. Si cada año hay cinco siniestros; mil siniestros dividido por 5 siniestros al año da 200 años para que suceda un siniestro superior a 20 millones. Sea ahora “X” la variable aleatoria “valor esperado de los siniestros superiores a 20 millones”.
Lo que se ha hecho es plantear ahora “k=20” y suponer que el parámetro α sigue siendo = 3,68 Como que hay 5 siniestros al año,
0,1279 millones de euros es el coste esperado anual. Si se tienen 200.000 pólizas,
ecosdelaeconomia.wordpress.com
El precio de la cobertura del reaseguro anual de los siniestros de un importe mayor de 20 millones de euros es de 64 céntimos de euro para cada una de las 200.000 pólizas. 2. El coste de un siniestro sigue un a distribución normal de media 1 millón de euros, con una desviación estándar de 300.000 euros. Si los siniestros son independientes y se producen 5 siniestros. Nota dejad indicado el cálcullo de la función de distribución de una normal estándard a) Calculad la probabilidad de que el coste total supere los 7 millones de euros. b) Calculad la probabilidad de que ningún siniestro sea superior a 1 millón de euros. Sea “X” la variable aleatoria coste total de un siniestro, que sigue una ley Normal de media μ=1 millón y desviación estandar σ=300.000. a) que 5 siniestros superen en total los 7 millones supone 1,4 millones por siniestro;
También, Sea “X” la variable aleatoria coste del siniestro ~N(1;0,3), y si los siniestros son independientes entonces
y así
b) La probabilidad de que ninguno de los 5 siniestros supere el coste de 1 millón, es
3. El número de tramitaciones de siniestros que realiza la central de una entidad en un día oscila uniformemente entre 60 y 120. Si los días son independientes entre sí, calculad la probabilidad de que en cinco días se superen las 500 tramitaciones. Sea “X” la variable aleatoria número de tramitaciones al día, X~U(60,120), si renombramos “X” como variable aleatoria número de tramitaciones en 5 días, será X~U(5·60, 5·120) = X~U(300, 600).
y ahora, si la función de densidad de una distribución uniforme es
y la función de distribución es
ecosdelaeconomia.wordpress.com
4. Un conjunto de pólizas tienen dos tipos de coberturas. Para cada una de ellas el coste del siniestro sigue una distribución log-normal de media = 1; = 2 y desviación estándard = 1, = 2 respectivamente. Suponiendo que los dos costes son independientes. a) Hallad que distribución sigue el producto de los dos costes. b) Escribid el valor esperado del producto de los dos costes. Sea Sea
la variable aleatoria coste del siniestro, y su logaritmo sigue una distribución la variable aleatoria coste del siniestro, y su logaritmo sigue una distribución
Entonces el producto de los dos costes será que seguirá una distribución b) el valor esperado será
ecosdelaeconomia.wordpress.com
1.3 Convergencia de sucesiones de variable aleatoria 1. Sucesión de variable aleatoria Si una sucesión de números reales es una función que genera una lista ilimitada de números; sucesión constante (2,2,2,2,2…), la sucesión de números naturales (1,2,3,4,5,…), sucesiones recurrentes como la de Fibonacci (1,1,2,3,5,…), o progresiones aritméticas o geométricas… Entonces una sucesión de variable aletoria es una función que genera una lista ilimitada de números inciertos, debido a que cada número es una variable aleatoria. Se reconoce como Convergencia en probabilidad Una sucesión converge en probabilidad a la variable aleatoria X si cuando al llevar la sucesión al límite la probabilidad de que la diferencia entre y X sea mayor que un error ε es igual a cero.
Esta convergencia en probabilidad de
a X se escribe
Propiedades: 1. Si
2. Si
y se tiene que g(x) es una función continua, entonces
y
y g(x,y) es una función continua, entonces
3. Se cumple también que
2. Teorema de Bernoulli Sea
una variable aleatoria con distribución Binomial B(n,p). Si tenemos otra variable aleatoria tal que
Su función de densidad será
Siendo
la frecuencia relativa de la presencia de un suceso de probabilidad p en n pruebas independientes:
ecosdelaeconomia.wordpress.com
La frecuencia relativa
converge en probabilidad p cuando el número n tiende a infinito.
Conclusión: Dado un suceso de probabilidad p, cuando n tiende a infinito la frecuencia relativa se aproxima a p. 3. Teorema de Poisson Es una generalización del teorema anterior de Bernoulli, que también dice que la frecuencia relativa converge en probabilidad a p. Sea A un suceso y consideremos n experiencias independientes, cada una de ellas asociada a un espacio de probabilidades que no son necesariamente iguales, con como las probabilidades de A en cada uno de estos espacios. Entonces
Cuando el número de experiencias tiende a infinito, la frecuencia relativa
verifica que
4. Ley de los grandes números La media muestral de n observaciones independientes de una variable aleatoria, tiende a m cuando crece n. Si tenemos una sucesión de n observaciones de una variable aleatoria, y consideramos que
Entonces
5. Convergencia en la distribución Es la forma más débil en convergencia. La sucesión función de distribución F(x) si
Si
converge en ley o en distribución a la variable X de
es una binomial B(n,p) con n que tiende a infinito y p muy pequeña, y n·p=λ entonces
donde X es una distribución de Poisson de parámetro λ
ecosdelaeconomia.wordpress.com
6. Convergencia en probabilidad Supone que la probabilidad de encontrar un resultado inusual se vuelve más y más pequeña cuando la secuencia avanza. Un estimador será consistente si converge en probabilidad a la cantidad que estima. Es la convergencia que establece la ley débil de los grandes números 7. Convergencia casi segura Supone que la secuencia converge casi seguro, en casi todas partes, con probabilidad de 1 hacia X. Implica la convergencia en probabilidad, y por lo tanto también la convergencia en la distribución. La convergencia casi segura es la que establece la ley fuerte de los grandes números. Teorema de Laplace-de Moivre: Si
es una binomial B(n,p) con n que tiende a infinito y p constante, y
entonces
Teorema central del límite: Si una sucesión de variables aleatorias independientes, con esperanza y varianza finitas, se verifica que
Es decir, la variable aleatoria “suma de variables aleatorias” se comporta como una distribución normal. El problema que se plantea es: ¿cómo de grande debe ser n para que este límite se cumpla? Ley débil de los grandes números: Asegura que en muchas situaciones la media aritmética de n variables aleatorias converge en probabilidad hacia E( ): La convergencia cuando converge en probabilidad a cero. Ley fuerte de los grandes números: La convergencia cuando
converge a cero.
Es decir, la ley débil nos dice que el promedio de las observaciones es muy probablemente casi igual que el valor esperado. La ley fuerte nos dice que la convergencia de los valores observados al valor esperado es casi segura. El detalle es que se pasa de una convergencia de probabilidad, a una convergencia casi segura. 8. Ley de Kolmogorov de los grandes números Si las variables aleatorias de la sucesión son independientes, igualmente distribuidas, de varianza común, entonces
9. Teorema de Moivre Sea con y Es decir, el experimento de lanzar una moneda al aire.
donde p=q=0,5
ecosdelaeconomia.wordpress.com
Cuando n∞ sucede que la variable converge en distribución a una N(0,1), con lo cual la variable una distribución N(n·p, )
tiene
ecosdelaeconomia.wordpress.com
1.4 Introducción a los procesos estocásticos Cualquier estudio de una variable aleatoria a lo largo de un plazo temporal o espacial es un proceso estocástico. El estudio pretende modelizar teóricamente una variable aleatoria para poder hacer predicciones del comportamiento futuro de un proceso. Se identifica un proceso estocástico con una sucesión de variable aleatoria . Normalmente la “t” hace referencia al momento temporal, y X a la variable aleatoria. De forma que será el valor de la variable aleatoria en un momento temporal. Por ejemplo; número de palabras escritas el último minuto. Estos procesos pueden ser sobre variables aleatorias independientes, o llegar a una gran complejidad si se aplican a variables aleatorias no independientes, como los procesos estocásticos de cadena de Markov; el último evento condiciona la probabilidad de eventos futuros. Un proceso estocástico markoviano es tal que la distribución de no de los otros anteriores.
sólo depende de la distribución de
y
ecosdelaeconomia.wordpress.com
TEMA 2. TEORÍA DEL RIESGO Y DE LA RUINA 2.1 Proceso del número de siniestros. Proceso de Poisson. Un proceso de Poisson es aquel que 1. El número de sucesos que se producen en un intervalo de tiempo es una variable aleatoria, independiente de los que se produzcan en otro intervalo de tiempo: los sucesos se dan de forma independiente. 2. La probabilidad de que en un intervalo de amplitud infinitesimal ocurra un único suceso es λ·Δt, siendo lambda constante. 3. La probabilidad de que en una amplitud infinitesimal se produzca más de un suceso es despreciable. Dicho de otra forma, un proceso de Poisson cuenta los eventos raros que suceden a lo largo del tiempo. Se demuestra que la probabilidad de que en el espacio t sucedan x siniestros es una Poisson de parámetro λ·t
Distribuciones mixtas de Poisson Si para una Poisson se cumple que tiene valor esperado y varianza iguales a λ, en la realidad sucede que no siempre coinciden E(X) y V(X): algunas veces la varianza es superior a la media. Además, no concurre la hipótesis de independencia, y el acaecimiento de un siniestro aumenta la probabilidad de los siguientes: sucede contagio. Lo que se plantea es una distribución de Poisson donde el propio parámetro λ es a su vez una variable aleatoria compuesta por una constante y una variable aleatoria que recoge la heterogeneidad de la cartera:
Ahora la media será
y la varianza será
Ejemplo: El número medio anual de siniestros por póliza no es constante, sino una variable aleatoria que puede tomar 3 valores diferentes sujetos a una probabilidad de ocurrencia:
0,4 0,8 1,2
0,1 0,8 0,1
El valor esperado de λ será
Las variaciones de λ se considera que están producidas por la variable ξ, de forma que
ecosdelaeconomia.wordpress.com
de forma que para cada escenario se puede despejar el valor de la variable ξ
0,4 0,8 1,2
k 0,8 0,8 0,8
ξ 0,5 1 1,5
0,1 0,8 0,1
Los momentos de segundo orden son,
ecosdelaeconomia.wordpress.com
2.2 Procesos de Daño Total. Proceso compuesto de Poisson. El daño total es un proceso compuesto en tanto que está formado por la variable aleatoria número de siniestros y la también variable aleatoria cuantía del siniestro. En un principio, y por restricciones técnicas, los primeros estudios de seguros simplificaban la realidad suponiendo que el valor de nº de siniestros y cuantía tenían valor igual al valor esperado (la media de observaciones anteriores). De Moivre demostró que si una empresa aseguradora simplifica las variables aleatorias de su cartera por los valores medios, la probabilidad de ruina es elevadísima. Es necesario incluir un margen adicional; un recargo de seguridad, para englobar las fluctuaciones aleatorias. En la teoría del riesgo se estudia o analiza las fluctuaciones aleatorias que se producen sobre la siniestralidad, con el objetivo de saber qué reservas hay que tener, que retención vamos a asumir (reaseguro) y el nivel de riesgo aceptado en la cartera. Los fondos del asegurador serán ingresos menos pagos:
Ejemplo: Si una empresa tiene 1000 pólizas, donde con un 10% de probabilidades suceden siniestros de media 100 euros, el valor esperado de coste total será = 1000·0,1·100 = 10.000 euros. Si la desviación típica es de 30, significa que la desviación típica de la cartera es = Se puede estandarizar a una distribución normal N(0,1) haciendo que ¿cuál es la probabilidad de que el coste sea superior a 11.500 euros?
Cartera con importe de siniestro constante Supone que todos los siniestros son del mismo importe, X, y que el número total de siniestros de la cartera sigue una distribución de media n. Si k es el número total de pólizas de cartera y q la probabilidad de ocurrencia, entonces
Entonces,
Si n es mayor de 10, entonces se puede utilizar la aproximación normal a la distribución de Poisson:
Siendo X el importe de cada siniestro, k el número total de pólizas, y N el número de pólizas siniestradas de un conjunto n, y además λ es el recargo de seguridad, las reservas del asegurador a final de año deberían ser
ecosdelaeconomia.wordpress.com
Si se estandariza a la normal (0,1) se puede escribir una función con el valor del error asumible, es decir, valor de la reserva sujeto a una Z que garantiza una solvencia en el 99% de los casos, por ejemplo:
o lo mismo pero expresado dede el valor de la reserva:
Ejemplo: Una cartera de 1000 pólizas, con un capital asegurado por póliza de 500 euros. La frecuencia es de 0,01, el recargo de seguridad es de λ=0,1. ¿Cuál es la reserva para tener una solvencia en el 99% de los casos?
¿Qué tamaño debe tener la cartera para que no sea precisa reserva inicial? Si K es el número total de pólizas, y n=λ·K y sabemos que
Cartera con un importe de siniestros variable Evitamos la restricción anterior de que todos los siniestros son del mismo importe. N sigue siendo el número total de siniestros de un conjunto de n pólizas, pero ahora cada siniestro es de un importe . La variable aleatoria coste total (C) es ahora
Que antes se reducía a C=N·X gracias a la restricción de que todos los importes son iguales. El número esperado de siniestros sigue siento n=k·q y su distribución es
y se supone que cada siniestro tiene su media = m y momento de segundo orden
. Se deduce que
Es decir, el coste total esperado es el total de polizas siniestradas por su valor esperado. También
Si las reservas libres a comienzo del año son
, y el total de primas devengadas es
Incluyendo también un recargo de seguridad, y el coste total a afrontar, las reservas a final del ejercicio serán:
ecosdelaeconomia.wordpress.com
Igual que en el apartado anterior se puede estandarizar
Y las reservas necesarias condicionadas a una Z de error será
Ejemplo: Una empresa tiene una cartera de pólizas que siguen una Poisson de parámetro (media) = 10 siniestros/año Otra empresa tiene otra cartera de pólizas que también es una Poisson = 20 siniestros/año En cada caso, el siniestro es de 1 millón de euros (la severidad del siniestro). a) Cuál es el margen mínimo para cada empresa para cumplir la normativa europea de un 99% de solvencia. b) Y si se fusionan? a) Se crea una columna en excel con el valor acumulado de una Poisson de parámetro = 10, de forma que en la primera fila se tiene P(X=0), en la segunda P(X=1),… y se van sumando probabilidades. Se observa que para P(X=17) la probabilidad acumulada es de 0,9857, y que para P(X=18)=0,9928. Por lo tanto, se necesitan 18·1 millón = 18 millones de reserva para garantizar el 99% de solvencia. Por lo tanto, si la media es de 10 siniestros al año, el margen de solvencia es de
. Es decir, necesitas
poner el 80% más de los siniestros esperados para garantizar el 99% de solvencia. Para la segunda entidad, cuando P(X=31) la probabilidad acumulada llega a 0,991908. Se necesitan 31 millones. Si la media es de 20 siniestros al año, el margen de solvencia es de
Es decir, necesitas poner el
55% más de los siniestros esperados para garantizar el 99% de solvencia. b) Si se fusionan, se tendrá una distribución de Poisson de parámetro = 30. Haciendo el mismo procedimiento que en el apartado anterior, cuando P(X=43) la probabilidad acumulada es de 0,990264. Ahora el margen de solvencia es de
. Se necesita un 43% de más sobre el valor esperado para
poder garantizar un 99% de solvencia. Ejemplo 2: Una tabla recoge los datos observados de la distribución del coste de los siniestros de una cartera de seguros generales. Estimar los momentos m y de la distribución del coste de un siniestro.
Si se planteara un pleno de retención, es decir, un importe a partir del cual se activa el reaseguro, la suma será hasta el coste dentro del reaseguro, con lo que aparcerán un nuevo y un .
ecosdelaeconomia.wordpress.com
Las reservas libres serán, para cada caso,
donde también k·q=n Ejemplo 3: Si una aseguradora quiere tener unas reservas de 12000, para una cartera que sigue una Poisson de parámetro λ=0,05, con parámetros m=967,4 y , condicionados a una solvencia del 99% ( ), y la probabilidad del siniestro es q=0,035 ¿cuál debe ser el tamaño de la cartera? Nos preguntan por el valor de k. El primer paso es encontrar el número de pólizas siniestradas = n
Ya que
Será necesario tener o menos de 837 pólizas contratadas, o más de 60117, para disponer de unas reservas de 12000. Ejemplo 4: ¿Cuál debe ser la prima de riesgo de un seguro si la cuantía media de los siniestros es de m=412,9, y la probabilidad de ocurrencia es de q=0,035?
Elección del tipo de distribución Si existe un número máximo de sucesos posibles entonces la mejor opción es la distribución Binomial. Cuando no existe techo o n tiende a infinito se usa Poisson, ya que formalmente la Binomial tiende a la Poisson. La Binomial Negativa se usa cuando media y varianza son distintas, y es la primera que se usa antes que otras distribuciones más complejas.
ecosdelaeconomia.wordpress.com
2.3 Aproximaciones a la distribución del daño total Sea “S” el coste total o daño total que hace frente una compañía de seguros de forma anual. Será fundamental poder calcular la probabilidad de que P(S≤s), es decir; la probabilidad de que el daño total S sea inferior a un importe “s”. O bien encontrar la probabilidad complementaria; la probabilidad de que el daño total exceda de un determinado importe. Una forma de aproximar el valor de S es hacer la suma de las cuantías de cada siniestro ocurrido; es el modelo de riesgo individual. Otra aproximación es la del riesgo colectivo; donde se trata el número de siniestros y la cuantía de cada uno como variables aleatorias. Esto último es lo que acaba sucediendo, en tanto es dificil conocer en cada momento los datos reales. 1. Recurrencia de Panjer Se demuestra que cuando estamos en el modelo de riesgo colectivo, si las variables aleatorias cumplen una serie de condiciones, la fórmula de Panjer expresa con gran exactitud la distribución de probabilidad de que el daño total S sea menor o mayor a una cuantía s. Si N es la variable aleatoria número total de siniestros, entonces será una variable discreta (porque no sucede medio accidente). Para que la fórmula de Panjer funcione, deben cumplir que la probabilidad sea de la clase (a,b;0), es decir, que dependa de dos constantes, a y b, de forma que
Por ejemplo, la probabilidad de que la cantidad de siniestros totales sea = 1, es decir (N=1), será
Resulta que sólo las distribuciones de Poisson, Binomial, Bin. negativa y geométrica, pertenecen a esta clase, y se cumplen cuando: N es una binomial de parámetros (n,p); N~B(n,p) y las constantes son
N es una Poisson, N~P(λ),
N es una binomial negativa, N~BN(α, p)
Si se despeja la fórmula de la probabilidad de forma que;
se tiene la fórmula de una recta, Y=a·X+b donde “a” es la pendiente de la recta. Si sabemos que Poisson no tiene pendiente, que la Binomial es de pendiente negativa, y que Binomial Negativa y geométrica son de pendiente positiva, un gráfico de nos dará una pista de cuál es la función de distribución que mejor se ajusta a las frecuencias observadas.
ecosdelaeconomia.wordpress.com
La fórmula de recurrencia de Panjer es laboriosa, pero la mejor de las peores, y supone que f(x) será la función de densidad de la variable aleatoria S, discreta, asociada a la cantidad de reclamación.
Y para cada distribución, f(x) será: Para la distribución de Poisson;
Para la distribución Binomial;
Para la distribución Binomial Negativa;
Y para la distribución Geométrica;
Ejemplo de Panjer aplicado a una Poisson: Si el número total de siniestros N sigue una Poisson de parámetro λ=5, y con la probabilidad de que S>3?
, ¿cuál es
Como estamos en una Poisson, a=0, y b=λ=5 Aplicando Panjer, para los valores positivos de x tendremos que;
Y ahora hay que aplicar la recurrencia; la probabilidad de no tener ningún siniestro,
la probabilidad de tener 1 siniestro,
la probabilidad de tener 2 siniestros,
ecosdelaeconomia.wordpress.com
la probabilidad de tener 3 siniestros,
Por lo tanto,
Ejemplo de Panjer aplicado a una Binomial: Si el número total de siniestros N sigue una Binomial de parámetros N=100 y θ=0,05, y con , ¿cuál es la probabilidad de que S>3? Las constantes serán
Aplicando Panjer, para los valores positivos de x se tiene que
Y ahora hay que aplicar la recurrencia; la probabilidad de no tener ningún siniestro,
la probabilidad de tener 1 siniestro,
la probabilidad de tener 2 siniestros,
la probabilidad de tener 3 siniestros,
Y finalmente,
Ejemplo de Panjer aplicado a una Binomial Negativa: Si el número total de siniestros N sigue una Binomial de parámetros r=5 y θ=0,3, y con , ¿cuál es la probabilidad de que S>3?
ecosdelaeconomia.wordpress.com
Las constantes serán
Aplicando Panjer, para los valores positivos de x se tiene que
Y ahora hay que aplicar la recurrencia; la probabilidad de no tener ningún siniestro,
la probabilidad de tener 1 siniestro,
la probabilidad de tener 2 siniestros,
la probabilidad de tener 3 siniestros,
Y finalmente,
Ejemplo de Panjer aplicado a una geométrica: Si el número total de siniestros N sigue una geométrica de parámetros θ=0,1, r=1, y con , ¿cuál es la probabilidad de que S>3? Las constantes serán
Aplicando Panjer, para los valores positivos de x se tiene que
Y ahora hay que aplicar la recurrencia; la probabilidad de no tener ningún siniestro,
la probabilidad de tener 1 siniestro,
la probabilidad de tener 2 siniestros, ecosdelaeconomia.wordpress.com
la probabilidad de tener 3 siniestros,
Y finalmente,
2 Aproximación al daño total por una distribución Normal Como el método recursivo de Panjer se demuestra limitado, se han desarrollado métodos de cálculo para aproximar la distribución de la cantidad total (S) independientemente de la distribución N. Así no nos preocupamos de si la función de probabilidad de N es de la clase (a,b;0) o no. Las aproximaciones más utilizadas son la Normal, Normal-power, log-normal, Gamma, Edgeworth y Esscher. Será necesario tener los datos empíricos de la variable aleatoria S, y de no tenerlos habrá que encontrar los momentos del coste total a partir de los momentos de N y X (variable aleatoria número de siniestros y cuantía de cada siniestro, respectivamente). El método de la aproximación por la distribución normal consiste en plantear que la función de distribución del daño total,
sigue una distribución normal con la misma media y varianza que S, tal que
y que como cualquier normal se puede tipificar, siendo
la función de la normal tipificada;
Se justifica la aproximación normal por el teorema central del límite, puesto que N es una función de variables aleatorias independientes e idénticamente distribuidas. El problema que presenta es el supuesto de simetría propia de la normal, algo muy difícil de defender en la realidad ante la mayoría de carteras de pólizas. Aproximación al daño total por una distribución Gamma La distribución gamma se usa cuando la variable aleatoria S tiene un poco de asimetría (un poco, no mucho), o cuando el parámetro de la Poisson es grande.
Aproximación de Edgeworth Primero es necesario estandarizar la variable, para dejar la media=0 y la varianza=1. Da muy buenos resultados entorno al valor medio, pero funciona muy mal en los extremos.
ecosdelaeconomia.wordpress.com
Aproximación de Esscher Es la que presenta mejores resultados dentro de la teoría del riesgo. Es la utilizada para modelizar los seguros de coches con bonus-malus
Aproximación de Normal-power Se estandariza la variable en una variable simétrica. No funciona en colectivos reducidos. En todo caso su utilidad es demostrar cuán mala es la distribución normal.
ecosdelaeconomia.wordpress.com
TEMA 3. INFERENCIA APLICADA 3.1 Métodos de estimación 1 Introducción a la estimación puntual Cuando se estudia un fenómeno aleatorio puede suceder que, o bien se desconoce el modelo de probabilidad al que se ajusta la variable aleatoria que estamos estudiando; inferencia no paramétrica, o bien conocemos el modelo de probabilidad pero se desconocen los parámetros que la definen; inferencia paramétrica. La estimación puntual forma parte de la inferencia paramétrica, y consiste en usar la información de la muestra para determinar el valor de los parámetros que, supuestamente, tiene la distribución de probabilidad de la población. Espacio paramétrico: el conjunto de todos los valores admisibles para los parámetros, se escribe Θ. La función de distribución que depende de nuestro parámetro a analizar será Por lo tanto, la familia de distribuciones de una variable aleatoria ξ, tendrá valores dentro del conjunto
Ejemplo: Si ξ es una variable aleatoria, y sabemos que sigue una distribución Binomial con parámetros n=3 y p desconocido, pero con valores entre 0 y 1;
Por lo tanto, los valores del parámetro depende de la muestra elegida. Por esto el parámetro no puede ser el parámetro real de la población, sino que se trata de un estimador. El estimador es una función de los valores muestrales con un conjunto de posibles valores que han de ser los valores posibles del parámetro de la población. El estimador se obtiene calculando la media de los valores observados, o con la media geométrica, o tomando el valor de la moda, o tal vez tomando el valor mínimo observado,… en definitiva, se obtiene mediante estadísticos. El estadístico, o estadístico muestral, es una medida cuantitativa derivada del conjunto de datos de la muestra. Y por lo tanto: Ni todos los estadísticos son estimadores, y no todos los estimadores asignan el mismo valor al parámetro desconocido. Evidentemente, como los datos de la población son inescrutables, nunca se sabrá cuál es el error que se comete al realizar la predicción con nuestros estimadores. Propiedades de los estimadores 1. Propiedad de insesgadez: Consiste en contrastar el valor del estimador θ que nos planteamos, respecto sucesivas muestras de θ’ de la población. De forma que comparándolos y asumiendo que a veces se cometen errores de más y de menos, la media de θ’-θ será = 0 Un estimador θ’ es un estimador insesgado de θ si:
ecosdelaeconomia.wordpress.com
Y si planteamos que b(θ) es la diferencia entre el estimador del parámetro y el parámetro a estimar,
Cuando b(θ)>0 el sesgo será positivo: nuestro estimador está sobreestimando el parámetro. Cuando b(θ)<0 el sesgo es negativo: nuestro estimador está infravalorando el parámetro. Ejemplo: Consideremos una distribución normal, y que deseamos plantear tres estimadores de la media (μ). El primer estimador, lo calcularemos como la media = suma de las n observaciones dividido por n-1. El segundo estimador, lo calcularemos como la media = suma de las n observaciones dividido por n. El tercer estimador, lo calcularemos como la media = suma de las n observaciones dividido por n+1. Y a ver qué pasa:
Por lo tanto, es un estimador que siempre tendrá un ligero sesgo positivo
Por lo tanto, es un estimador insesgado.
Por lo tanto, es un estimador que siempre tendrá un ligero sesgo negativo.
Estimador de mínimo error cuadrático medio Supongamos que estudiamos una variable aleatoria ξ, que sabemos que se ajusta a un modelo probabilístico con función de distribución F, conocida, que depende de un parámetro θ, desconocido. Se considera θ’ entonces como el estimador de ese parámetro. Por lo tanto θ’ es una variable aleatoria, que depende de la muestra seleccionada, y con un posible error de sesgo planteado en el apartado anterior. El error cuadrático medio entre estimador y parámetro será
Y evidentemente, el mínimo error será lo deseable. Desarrollando la expresión anterior se llega a que ecosdelaeconomia.wordpress.com
O dicho de otra forma,
Ejemplo: Volviendo al primer estimador del ejemplo del apartado anterior, si suponemos que la variable aleatoria ξ sigue una distribución normal ~N(μ, 30), entonces su error cuadrático medio será:
2. Propiedad de eficiencia: Si resulta que nos encontramos con dos estimadores insesgados el que tenga menor varianza será el que tenga menor error cuadrático medio. Se dirá entonces que, el que tenga menor varianza, será más eficiente. Podemos compararlos, y si V(θ’)
Ya que los estimadores provienen de la muestra, siempre existirá una varianza mínima. Esto significa que si estimamos un parámetro y resulta insesgado pero con una cierta varianza, y por lo tanto con un cierto error cuadrático medio, estamos ante algo inevitable. No habrá forma de encontrar un estimador con error cuadrático medio igual a cero. Este valor mínimo es la cota de Cramer-Rao.
y en caso de tratarse de un estimador insesgado;
3. Propiedad de consistencia: Insesgadez y eficiencia no dependen del tamaño de la muestra, pero evidentemente influye. Lo lógico es que si se incrementa n, la calidad de nuestro estimador también crece en tanto que aumenta su capacidad de previsión. Se indica el tamaño de n en el estimador, de forma que, por ejemplo, si tenemos una muestra de 100;
En este caso se cumple una convergencia de probabilidad del estimador respecto el parámetro. Cuando n tiende a infinito, la probabilidad de que la diferencia entre estimador y parámetro sea superior a un error es cero. ecosdelaeconomia.wordpress.com
Se cumple cuando el estimador es insesgado o asintóticamente insesgado. También se verifica que la varianza del estimador cuando n tiende a infinito es = 0. Si se cumple que la probabilidad de error tiende a cero, y que la varianza también, entonces se dice que es un estimador consistente en Error cuadrático medio. Ejemplo: Volviendo a los 3 estimadores planteados anteriormente;
y entonces, aplicando límites:
Y por lo tanto
es un estimador consistente.
Respecto al siguiente;
y entonces, aplicando límites:
Y por lo tanto
es un estimador consistente.
Y respecto al último
ecosdelaeconomia.wordpress.com
y entonces, aplicando límites:
Y por lo tanto
es también un estimador consistente.
4. Propiedad de suficiencia: Un estimador es suficiente si incluye todas las observaciones de la muestra y no se le escapan valores extremos. El criterio que se usa para determinar esta propiedad es la factorización de Fisher-Neyman, donde el objetivo es decubrir si la función de verosimilitud de la muestra aleatoria simple se puede descomponer en otras dos funciones; una que sí depende del parámetro, otra que no.
2. Métodos de estimación Para encarar la búsqueda del estimador más adecuado existen dos caminos: El método de los momentos, y el método de la máxima verosimilitud. Método de los momentos Un momento es una representación de la población, y por lo tanto los momentos de una muestra deben coincidir con los momentos de la población. El método de los momentos en la estimación de los parámetros supone crear los parámetros de la función a partir de una muestra. El procedimiento consiste en plantear un sistema de ecuaciones en el que la incógnita sean los momentos muestrales. No se garantiza que el estimador obtenido vaya a ser insesgado, pero sí que pueden serlo asintóticamente (cuando n tiende a infinito) y sí que son estimadores consistentes y asintóticamente normales. Sólo para recordarlo: la varianza de una muetra siempre tiene denominador n-1: Ventajas del método de los momentos: su simplicidad. Desventajas: no se tiene en cuenta la distribución de probabilidad de la población, y por lo tanto no se usa toda la información disponible. Ejemplo 1: Si se tiene una muestra aleatoria simple de tamaño = n, y tenemos una variable X~P(λ) donde se desconoce el valor del parámetro λ: El momento de la población
y cualquier muestra debería cumplir que
ecosdelaeconomia.wordpress.com
Por lo tanto,
Y ya está. Lo que se ha hecho es suponer que la media de la muestra “deberá” ser la media de la población, en tanto que el método de los momentos plantea que los momentos muestrales y poblacionales deben coincidir. Ejemplo 2: Si tenemos una muestra de tamaño = n, de una variable X~BN(m, p), donde m y p son desconocidos,
Lo que hay que hacer es encontrar la media y varianza de la muestra, y plantear un sistema de ecuaciones en tanto que tenemos dos incógnitas, m y p, precisamente los parámetros a estimar. Ejemplo 3: Muestra = n, y variable de una distribución exponencial: X~exp(λ), donde
es el parámetro
desconocido:
Ejemplo 4: Muestra = n, y variable de una distribución uniforme: X~U(a, b)
Y de nuevo, encontrando la media y la varianza de la muestra, se despejan los estimadores de a y b. Método de la máxima verosimilitud Es un método simple pero de cálculo complejo. Consiste en elegir entre todos los estimadores del parámetro aquel que haga máxima la probabilidad de haber obtenido la muestra encontrada. Es decir; maximizar la probabilidad de observar lo que realmente se ha observado. El procedimiento es, ante una muestra, definir la función de verosimilitud L(X, θ), donde cada valor observado X tiene su probabilidad asociada por un parámetro θ. Así, será la función de densidad de la variable x. De forma que
Es decir, L(X;
es la probabilidad de haber obtenido toda la serie de observaciones encontrada.
Como trabajar con productos es un lío, se puede aplicar logarítmos de forma que
ecosdelaeconomia.wordpress.com
Propiedades: No garantizan la insesgadez de los estimadores. Aunque sí que lo son de manera asintótica. Son consistentes, son asintóticamente normales, tampoco se garantiza suficiencia.
ecosdelaeconomia.wordpress.com
3.2 Contraste no paramétrico Es un procedimiento para verificar el ajuste a una distribución de probabilidad. La distribución que sigue la variable es conocida, y los parámetros de la misma pueden conocerse o no. El procedimiento consiste en verificar si la muestra proviene de una población que sigue una distribución determinada. Es lo que se conoce como “contrastes de bondad del ajuste”. Existen 3 tipos de contraste: El de chi cuadrado o de Pearson, el de Kogomorov-smirnov, y el de ShapiroWilk. La hipotesis a contrastar es la afirmación sobre la función de distribución. La hipotesis nula por lo tanto es que la muestra proviene de la población planteada, y se justifica cuando no existen diferencias significativas entre la distribución muestral y la teórica. Un caso extremo supone rechazar la hipotesis nula. 1. Contraste de Pearson Es una prueba de bondad del ajuste que se basa en la distribución chi cuadrado (o Ji cuadrado, o χ²). Mide el ajuste entre valores observados (reales) y esperados (teóricos) bajo la hipótesis nula establecida. La es que no hay diferencias significativas. La alternativa, es que se distribuyen con funciones diferentes. Es un contraste donde los parámetros de la variable aleatoria pueden ser conocidos o no. Para poder realizar esta prueba se necesita medir la variable aleatoria en diferentes intervalos.
Donde k es el número de categorías o intervalos definidos, y h el número de parámetros estimados. Como se ve en la función, es un estadístico que mide la discrepancia entre cada elemento observado θ, y el que le debería corresponder según la teoría E. Consideraciones: 1. el número de intervalos será por lo menos de 5, y no más de 20. 2. el número esperado de observaciones por intervalo también será > 5 3. Si un intervalo no cumple esta condición (2), se agrupará con el intervalo siguiente. Se define α como el nivel de significación crítico, De forma que se rechazará la hipotesis nula si
2. Contraste de Kolgomorov-Smirnov Soluciona un problema que tiene el contraste de Pearson, y es el de la necesidad de una muestra grande. El contraste de K-S se utiliza cuando la muestra es pequeña, la función continua, y aparecen intérvalos vacíos. No necesita agrupar las observaciones a intervalos. Pero necesita que se sepan los parámetros de la variable, excepto cuando se trata de una distribución normal. Procedimiento: 1. Extraer una muestra aleatoria simple de tamaño = n. 2. Calcular la función de distribución empírica de la muestra.
ecosdelaeconomia.wordpress.com
Donde F es la función de la frecuencia relativa acumulada de las observaciones, N(x) es el número de observaciones de la muestra con valor igual o inferior a x (una frecuencia absoluta acumulada), y n es el número total de observaciones muestrales. 3. La función Fn se puede utilizar como estimador de la función de distribución de la población F(x). 4. Comparación entre función empírica y planteada. 5. Medir las discrepancias a través de la distancia máxima entre las dos observaciones.
6. La distribución de este estadístico Dn, depende del tamaño de la muestra n, no depende de la función planteada, sí depende del nivel de significación. Es decir, el objetivo es valorar la diferencia máxima entre la distribución empírica y la planteada. Si esta distancia es significativa, entonces es que son distribuciones diferentes. Se rechazará la hipotesis nula cuando:
Ventajas de K-S respecto chi cuadrado: La potencia del contraste K-S es mayor que la de chi cuadrado porque funciona con muestras pequeñas. Aunque cuando n tiende al infinito se igualan. Para recordar: la potencia define el grado de confianza para concluir que la hipotesis nula es falsa cuando realmente es falsa. Es decir, la potencia la probababilidad de NO cometer un error tipo II; aceptar la hipotesis nula cuando es falsa.
3. Contraste de normalidad de Shapiro-Wilk Trata de contrastar si una muestra viene de una población Normal sin necesidad de conocer los parámetros.
La hipotesis alternativa es que la función sigue otra distribución diferente a la normal. Procedimiento: 1. ordenar la muestra de menor a mayor. 2. El estadístico para realizar el contraste es
3. buscar en tablas en función de n y del nivel de significación
ecosdelaeconomia.wordpress.com