ANTECEDENTES DE LA ADMINISTRACIÓN DE RIESGOS Origen de la palabra riesgo La palabra riesgo proviene del vocablo latín risicare que significa: atreverse. Tiene un significado negativo relacionado con el peligro, daño, siniestro o pérdida. Sin embargo, el riesgo es parte inevitable en los procesos de toma de decisiones en general y en los procesos de inversión en particular.
Riesgo financiero El beneficio que se puede obtener en cualquier decisión o acción que se adopte, necesariamente debe asociarse con su riesgo inherente. inherente. En finanzas, finanzas, el concepto de riesgo está relacionado relacionado con el grado de de incertidumbre de los rendimientos esperados en el futuro.
Medición del riesgo La medición cuantitativa del riesgo está dada por la probabilidad asociada a una pérdida potencial. Los seres humanos deben reconocer y responder a las probabilidades que confrontan confront an en cada decisión. La esencia de la administración de riesgos consiste en medir esas probabilidades en contextos de incertidumbre.
Orígenes de la probabilidad Los primeros estudios serios sobre probabilidad fueron desarrollados en el siglo XV Lenta época del Renacimiento. En esta etapa, la ciencia y la tecnología avanzaron a un ritmo mucho mayor que en los siglos pertenecientes a la Edad Media.
Girolamo Cardano Girolamo Cardano nació en Milán, Italia en 1500 y murió en 1571. Fue un gran médico y a través de su biografía se sabe de su afición a los juegos de azar, en especial con dados y cartas. A través del análisis de este tipo de juegos, en particular con el juego con dados, realizó múltiples análisis de probabilidad.
Primer libro de probabilidad Girolamo Cardano desarrolla los principios de la teoría de probabilidad en su libro “liber de ludo aleae” aleae ” (Libro de juegos de azar) publicado en 1663 después de su muerte. En esta obra, propuso el término “probable” que “probable” que se refiere a eventos cuyo resultado es incierto.
Galileo Galilei Otro italiano que analizó y escribió respecto a la teoría de probabilidad fue Galileo, quien nació en 1564 y murió en 1642. El escrito más conocido relacionado con dicha teoría se tituló “Sopra gli “Sopra gli scopertie dei dadi” (Sobre los descubrimientos de los dados). En él, como en la obra de Cardano, Galileo analiza la frecuencia de diferentes combinaciones y posibles resultados al tirar los dados.
Los franceses Tres académicos franceses del siglo XVII que siguieron a Cardano y a Galileo, propusieron un método sistemático para medir la probabilidad. Pierre de Fermat utilizó conceptos algebraicos, Chevalier de Mére fue intuitivo y filósofo, Blaise Pascal aplicó conceptos geométricos a la teoría de probabilidad (mediante el triángulo de Pascal es posible analizar las probabilidades de un evento). Teoría de probabilidades En 1654 Pascal es retado a resolver un acertijo de un juego de apuesta, que había sugerido Luca Paccioli doscientos años antes, éste pide ayuda a Fermat, dando origen a la teoría de probabilidades.
Jacob Bernoulli En 1703 Jacob Bernoulli inventa la ley de los grandes números y los métodos de muestreo estadístico. Hacia 1725 los matemáticos competían sobre tablas de esperanza de vida y emerge el negocio de los seguros marítimos en Londres.
Abraham de Moivre En el año de 1730, Abraham de Moivre propuso la estructura de la distribución de probabilidad normal (conocida como distribución de campana) y propuso el concepto de desviación estándar. Daniel Bernoulli Daniel Bernoulli definió un proceso sistemático para la toma de decisiones, basado en probabilidades, situación que dio lugar a lo que hoy se conoce como teoría de juegos.
Daniel Bernoulli Daniel Bernoulli definió un proceso sistemático para la toma de decisiones, basado en probabilidades, situación que dio lugar a lo que hoy se conoce como teoría de juegos.
Rey Midas Los descubrimientos de Daniel Bernoulli son paradigmas en el comportamiento de un inversionista.
Propuso la idea de que el grado de satisfacción que resulta de un aumento en la riqueza, es inversamente proporcional a la cantidad de bienes que tenga la persona. Esto explica porqué el ser humano tiene aversión al riesgo y porqué el Rey Midas es un hombre infeliz.
Thomas Bayes Cien años después de la notable contribución de Pascal y Fermat, el inglés Thomas Bayes aportó una nueva teoría de probabilidad, demostrando cómo tomar mejores decisiones incorporando nueva información a la anterior.
Francis Galton En 1875, Francis Galton descubrió el concepto de “regresión a la media” el cual explica el porque, a pesar de las fluctuaciones en los precios que se pueden observar en los mercados organizados, siempre habrá una fuerza natural que presione los precios a la “restauración de la normalidad”. Galton cambió el concepto de probabilidad estático en uno dinámico.
Harry Markowitz En 1952, Harry Markowitz, Premio Nobel de economía, desarrolló la teoría de portafolios. Propuso que en la medida en que se tienen activos negativamente correlacionados entre sí, el riesgo de mercado de una cartera de activos disminuye.
Fisher Black y Myron Scholes Entre 1970 y 2000, la proliferación de nuevos instrumentos financieros ha sido notable. En particular, destaca el desarrollo de los productos derivados: futuros, opciones y swaps. El desarrollo más importante se dio en 1973 con la contribución que hicieron Fisher Black y Myron Scholes al proponer la fórmula para valuar el precio de las opciones financieras.
JP Morgan En 1994, el banco estadounidense JP Morgan propuso en su documento técnico denominado RiskMetrics , el concepto de “Valor en Riesgo” como modelo para medir cuantitativamente los riesgos de mercado en instrumentos financieros o portafolios. El Valor en Riesgo (VaR) es un modelo estadístico, basado en la teoría de probabilidad.
RiskMetrics Con la propuesta de JP Morgan, en la que se incorporan los conceptos de estadística desarrollados desde el siglo XVII, la administración de riesgos moderna en los umbrales del siglo XXI se concibe como la adopción de un enfoque más proactivo, que transforma la manera de medir y monitorear los riesgos.
Clasificación de los riesgos financieros Los diferentes tipos de riesgos financieros se pueden clasificar en las siguientes categorías:
Riesgo Riesgo Riesgo Riesgo Riesgo
de mercado de crédito de liquidez de reputación operativo
Riesgo de mercado Es la pérdida que puede sufrir un inversionista debido a los cambios en las variables macroeconómicas, como son: tasas de interés, tipo de cambio, precios de los recursos estratégicos, déficit presupuestal, entre otros.
Riesgo de crédito Es la pérdida potencial por el incumplimiento de la contraparte en una operación que incluye un compromiso de pago.
Riego de liquidez Es la dificultad que sufre un inversionista para poder transformar en efectivo un activo.
Riesgo legal Se refiere a las operaciones que tengan algún error de interpretación jurídica o alguna omisión en la documentación.
Riesgo de reputación Son las pérdidas que podrían resultar como consecuencia de no concretar oportunidades de negocio atribuibles a un desprestigio de una institución por fraude o errores en la ejecución de alguna operación.
Riesgo operativo Es una categoría muy amplia que se asocia con fallas en los sistemas y procedimientos. Pero también se relaciona con pérdidas por fraudes o por falta de capacitación de algún empleado en la organización.
Caso Enron Ocultamiento de deudas y registro de utilidades mayores a las reales, con el propósito de generar un mayor flujo de efectivo y mantener la confianza de los inversionistas. Inadecuada aplicación de principios contables, alterando de manera intencional las cifras del negocio. Monto: 508 millones de dólares.
Fecha: Diciembre de 2001.
Principales consecuencias: Banca rrota de la empresa. Sus acciones cayeron de 82.00 USD en septiembre de 2000 a 0.61 USD en enero del 2002. Una pérdida del 99.2%, quedándose sin empleo 20,000 personas. Descrédito de principales firmas de contadores públicos. Nuevas regulaciones de control y gobierno corporativo. El caso Enron sólo se explica por la corrupción de políticos y máximas autoridades regulatorias.
Caso Barings
Durante 11 años un trader considerado una estrella de la oficina de Singapur, de solamente 28 años, Nick Leeson, ocultó pérdidas en contratos de futuros en el mercado japonés. Monto: 1.4 billones de dólares.
Fecha: Febrero de 1995. Principales consecuencias:
Desaparición del banco y pérdida en el valor de las acciones, originando afectación patrimonial a miles de accionistas.
Caso New York Life Incumplimiento de condiciones ofrecidas a los clientes en pólizas. Inadecuada definición de escenarios. Retrasos en pago de pólizas. Monto: 65 millones de dólares.
Fecha: Abril de 1995.
Principales consecuencias: Pérdida importante de participación en mercado a nivel mundial. Descrédito en el mercado de seguros, falta de confianza. Mayor regulación. Afectación de tres millones de asegurados.
Caso de Daiwa Bank Por 11 años se falsificaron documentos para ocultar pérdidas de la oficina en New York por ventas de bonos, propiedad del banco y de clientes, sin contar con las autorizaciones expresas. Monto: 1.1 billones de dólares de quebranto 340 millones de dólares de multa.
Fecha: Febrero de 1995. Principales consecuencias: Reducción de operaciones en EUA, especialmente en Nueva York. Incremento de revisiones en bancos extranjeros. Reducción en el valor de la acción con afectación en miles de accionistas.
Caso FOBAPROA El costo del rescate bancario en México fue de alrededor de 70 mil millones de dólares, que fueron los 542 mil millones de pesos que durante 1998 le hereda el Fobaproa al IPAB. Esa deuda representó 20 por ciento del Producto Interno Bruto (PIB).
¿Qué es el Comité de Basilea? Es una organización formada en 1975 por los presidentes de los Bancos Centrales del Grupo de los 10 (Bélgica, Canadá, Francia, Alemania, Italia, Japón, Luxemburgo, Holanda, Suecia, Suiza, Reino Unido y los Estados Unidos). El Comité de Basilea se reúne usualmente en las oficinas del Banco de Pagos Internacionales, también sede de su Secretaría Permanente.
Basilea I Las pautas recogidas en el primer acuerdo en 1988, Basilea I, para la adecuación de capital de la banca son de enorme importancia. Las reglas han demostrado su valía, sobre todo la regla principal, por la cual los bancos deben mantener un volumen de capital de por lo menos el 8% del valor total de sus activos, ponderado por su nivel de riesgo.
Basilea II Basilea II lleva en consulta desde 1999 y el documento final se presentó en Junio del 2004. Los elementos del Nuevo Acuerdo se han ordenado en tres pilares fundamentales: Ponderaciones de riesgo asignadas a los diferentes activos. Se incluye aquí, los riesgos operacionales.
Supervisión por parte de las Superintendencias.
Disciplina del mercado a través de más transparencia.
Basilea III Basilea III introduce un colchón de conservación de capital de 2.5 % que se suma al capital estructural Tier 1. Cualquier banco que no cumpla con este amortiguador se enfrentar estricciones de supervisores en pagos como dividendos, recompras de acciones y bonos a ejecutivos. El nuevo colchón tendrá que estar compuesto de acciones comunes. El colchón será introducido paulatinamente desde enero del 2016 y estará en vigor en enero del 2019. El Capital estructural (Tier1) Se refiere a las reservas básicas de capital de un banco, calculadas según el riesgo de los activos que tiene en sus libros.
La Ley Sarbanes-Oxley Con fecha 24 de Julio de 2002 se emite en los Estados Unidos la “Sarbanes -Oxley Actof 2002”(SOA).
“Para proteger a los inversionistas mejorando la exactitud y calidad de los reportes corporativos bajo leyes de seguridad”.
Objetivos Establecer o mejorar el ambiente de control interno de las empresas públicas Definir y formalizar responsabilidades sobre su cumplimiento al CEO, CFO y auditores financieros.
Los hipotecas subprime La actual crisis financiera comenzó con:
La desaceleración del mercado hipotecario en EUA. Incremento en la morosidad de pago de las hipotecas y en embargos, dando como resultado la pérdida de valor de los activos referenciados a este sector. Venta de casas a la baja. Permisos de construcción también disminuyendo. Inventarios en aumento En suma, la menor inversión residencial continuará restando al crecimiento de la economía de EUA.
DIVERSIFICACIÓN PARA DISMINUIR RIESGO Y AUMENTAR RENDIMIENTO Privilegiar la distribución de las inversiones Más del 91% del rendimiento de un portafolio en el tiempo, responde a una adecuada distribución de activos.
Es indispensable respetar el tiempo de maduración de cada portafolio para recibir los frutos de la estrategia de inversión.
Frontera eficiente
Un portafolio de bonos, tiene el mismo riesgo teórico, que uno invertido 50% en acciones y 50% en bonos. Además, este último tiene un mayor rendimiento
No importa cuán volátil sea el mercado
Siempre y cuando obtenga rendimientos altos; en el largo plazo
EL PROCESO DE ADMINISTRACIÓN DE RIESGOS Objetivo de la administración de riesgos El objetivo de la administración de riesgos puede expresarse en dos sentidos: Asegurarse de que una institución o inversionista no sufra pérdidas económicas inaceptables.
Mejorar el desempeño financiero de dicho agente económico, tomando en cuenta el rendimiento ajustado por riesgo.
Proceso de la administración de riesgos
El proceso de la administración de riesgos implica: La identificación de riesgos.
La cuantificación y control mediante el establecimiento de límites de tolerancia al riesgo. La modificación o nulificación de los riesgos a través de la reducción en la exposición al riesgo o el incremento de una cobertura.
Proceso de la administración de riesgos
Identificación del riesgo
Cuantificación del riesgo Este aspecto ha sido suficientemente explorado en materia de riesgos de mercado. Existen diferentes herramientas que ayudan a cuantificar el riesgo, entre ellas: Valor en Riesgo (VaR). Duración Convexidad Peor escenario Análisis de sensibilidad Beta Delta
Cuantificación del riesgo
En el caso de riesgos de crédito, la cuantificación se realiza a partir del cálculo de la probabilidad de incumplimiento. JP Morgan publicó un documento técnico denominado Credimetrics con el que pretende establecer un paradigma similar al del Valor en Riesgo pero instrumentado en riesgos de crédito.
Definición. Estadística descriptiva Es el conjunto de técnicas y procedimientos utilizados para recolectar, presentar y analizar datos sobre los cuales basar decisiones en una situación de incertidumbre.
Objetivo.
Hacer inferencias (predecir, decidir) acerca de un conjunto de datos, usualmente grande, llamado población, con base en la información contenida en una muestra.
Población. Es el conjunto de todas las observaciones de interés.
Muestra. Es una colección de observaciones seleccionadas de la población.
Partes de un problema estadístico.
Para poder tomar una decisión basada en información estadística se necesita:
muestral.
Áreas de la estadística. Generalmente, el estudio de la estadística se divide en dos categorías: estadística descriptiva y estadística inferencial.
Estadística descriptiva. Resume un grupo de datos con elementos de información que caracterizan la totalidad de los datos.
Estadística inductiva.
Se refiere a la generalización sobre las propiedades de la población.
Tipos de variables.
Existen dos tipos de datos: los obtenidos a partir de una población cualitativa y los que resultan de una población cuantitativa.
Variable cualitativa.
Cuando la característica o variable en estudio es no numérica, se le denomina variable cualitativa o atributo. Ejemplos de estas variables son: género sexual, religión, marca de automóvil, lugar de nacimiento, color de ojos, etc. Con este tipo de información, generalmente interesa saber cuántas o que proporción entra en cada categoría.
Variable cuantitativa. Cuando la variable de interés se puede expresar numéricamente, se denomina variable cuantitativa. Algunos ejemplos de este tipo de variables son: El PIB de los países, las tasas de interés que pagan los bonos de las empresas, el precio de las acciones que cotizan en el mercado, el tipo de cambio del peso con el dólar, etc.
Niveles de medición.
Los datos pueden clasificarse de acuerdo a los niveles de medición. El nivel de medición de un dato determina los cálculos que se pueden realizar para resumir y presentar la información.
Nivel nominal.
En el nivel nominal las observaciones únicamente se pueden clasificar o contar. No existe algún orden específico entre las clases. Algunos ejemplos del nivel nominal son: color de ojos, género, religión, etc.
Nivel ordinal.
El nivel ordinal involucra datos con algún arreglo, pero las diferencias entre los valores de los mismos no pueden ser determinadas o bien no tienen algún significado. Un ejemplo de este nivel es: en la evaluación de profesores, se asigna el 4 a excelente, 3 a bueno, 2 a regular y 1 a malo.
Nivel de intervalo.
El nivel de intervalo es similar al ordinal, con la propiedad adicional de que la diferencia entre los valores de los datos sí pueden ser determinados. Es importante señalar que 0 es solamente un punto de la escala, y no representa la ausencia de la condición. Un ejemplo de este nivel es: la medición de la temperatura en grados Celsius.
Nivel de razón.
Nivel de razón: esta medida tiene todas las características del nivel de intervalo, pero además el punto 0 sí tiene significado, y la razón (cociente) entre dos números también es significativa. Algunos ejemplos en este nivel son: unidades de producción, salarios, distancia entre dos ciudades, la estatura.
DISTRIBUCIÓN DE FRECUENCIAS. Definición.
Es una forma apropiada de organizar los datos en grupos o clases para poder presentarlos en forma de tablas, diagramas y gráficos. Los pasos básicos para la construcción de una distribución de frecuencias son:
Número de intervalos de clase. Es conveniente tener entre 5 y 20 intervalos de clase. Entre más datos se tengan, más intervalos deben considerarse. Si el número de intervalos es demasiado pequeño pueden estarse ocultando características importantes de los datos. Por otro lado, si se tienen demasiados intervalos algunos pueden quedar vacíos. Un consejo sencillo para determinar el número de clases es la regla de 2 a la k. La cual sugiere utilizar como número de clases el menor número k tal que 2k sea mayor que el número de observaciones. Por ejemplo, en una muestra de 80 observaciones, si tomamos k = 6, lo que significa utilizar 6 clases, entonces tenemos que 26 = 64, menor que 80. Por lo tanto, 6 clases no son suficientes. Si tomamos k = 7, entonces 27 = 128, que es mayor que 80. En consecuencia, el número de clases que se recomienda es utilizar es 7.
Tamaño de los intervalos. La longitud de los intervalos se determina dividiendo la diferencia de la mayor y la menor de las observaciones entre el número de intervalos, modificando este cociente para obtener intervalos de longitud conveniente. Todos los intervalos deben tener la misma longitud, con la posible excepción del primero y último. Expresando lo anterior mediante una ecuación tenemos: I ≥ (H – L) / k Donde: i es el intervalo de clase, H es el mayor valor observado, L es el menor valor observado y k es el número de clases.
Fronteras de clase.
Las fronteras deben determinarse de tal forma que sea imposible que una observación coincida con una frontera. Esto significa que se deben evitar los límites de clase que se empalmen. Se recomienda utilizar intervalos del tipo a <= x < b, que significa que el intervalo incluye a su límite inferior (a<=x) pero no a su límite superior (x < b), de esta manera no habrá ninguna ambigüedad. Los intervalos es el espacio que se da de un punto a otro en el cual se toman en cuenta todos los puntos intermedios. Por ejemplo: en una recta tenemos un intervalo: [-2, 2] entre este espacio se encuentran los números (-2, -1, 0, 1, 2). Se pueden clasificar los intervalos según sus características topológicas (intervalos abiertos, cerrados y semi abiertos). Aquí están todos los casos posibles, con a ≤ b, y x perteneciente al intervalo:
Histograma. Es un gráfico de barras de una distribución de frecuencias, en el que las frecuencias se miden en el eje (Y).
Polígono de frecuencias. Un polígono de frecuencias es similar al histograma, sólo que está formado por segmentos de recta que unen a los puntos medios de cada clase.
Ojiva.
Es similar a un polígono de frecuencias, sólo que se construye a partir de una distribución de frecuencias acumuladas.
MEDIDAS DE TENDENCIA CENTRAL. Definición.
La tendencia central se refiere a la localización de un punto intermedio o valor representativo de una distribución de datos. Las medidas de tendencia central más importantes son:
3.2. Media aritmética. La media aritmética de un conjunto de (n) observaciones es igual a la suma de las observaciones dividida entre (n).
Donde: ∑x: Suma de todas las observaciones. ∑fx: Suma de las frecuencias de cada clase. N: Número de observaciones en la población. n: No. de observaciones en la muestra.
3.2.1. Mediana. La mediana de un conjunto de (n) observaciones se define como la observación que cae en el centro cuando las observaciones están ordenadas. Si el número de observaciones es par, se escoge como mediana el promedio de las observaciones de en medio.
Donde: L: Límite inferior de la clase mediana. (Clase que contiene el elemento medio). n: Número de observaciones. F: Suma de las frecuencias de las clases inferiores a la clase mediana.
fm: Frecuencia de la clase mediana. c: Amplitud del intervalo de clase. 3.2.2. Moda. La moda de un conjunto de (n) observaciones se define como el valor que ocurre con mayor frecuencia.
Donde: L: Límite inferior de la clase modal. (Clase de mayor frecuencia).
d1: Frecuencia de la clase modal menos la frecuencia de la clase anterior. d2: Frecuencia de la clase modal menos la frecuencia de la clase posterior. c: Amplitud del intervalo de clase. 3.3. Media ponderada. La media ponderada es un caso especial de la media común. Se presenta cuando hay varias observaciones con un mismo valor, lo cual puede ocurrir si los datos han sido agrupados en una distribución de frecuencias. En general, la media ponderada de x1, x2, …, xn, con las ponderaciones correspondientes W1, W2,…, Wn, se calcula: XW = (W1x1 + W2x2 + … + Wnxn) / (W1 + W2 +…+ Wn)
3.4. Media geométrica. La media geométrica es una herramienta apropiada para encontrar el promedio de porcentajes, razones, índices o tasas de crecimiento. La media geométrica de un conjunto de n números se define como la raíz n-ésima del producto de los n valores. MG = [(x1) (x2)…(x3)]1/n
4. MEDIDAS DE DISPERSIÓN. 4.1. Definición. La dispersión se refiere a la variabilidad o amplitud en los datos, con respecto a la media aritmética. Las medidas más importantes son:
4.2. Desviación media. La desviación media de un conjunto de (n) observaciones se define como la suma de los valores absolutos de las desviaciones de las observaciones respecto de la media, dividida entre (n).
Donde: x - μ: Valor absoluto de las diferencias respecto a la media aritmética.
4.3. Varianza. La varianza de un conjunto de (n) observaciones se define como la suma de los cuadrados de las desviaciones de las observaciones respecto de la media, dividida entre el (n), si se trata de una población, o entre (n - 1) para una muestra.
4.4. Desviación estándar. La desviación estándar de un conjunto de (n) observaciones se define como la raíz cuadrada de la varianza.
4.5. Coeficiente de variación. El coeficiente de variación mide la dispersión relativa de las observaciones y se expresa como un simple número sin ninguna unidad. Esta característica contrasta con la desviación estándar y otras medidas de dispersión absoluta. El coeficiente de variación puede ser útil para comparar la dispersión relativa de dos o más distribuciones expresadas en diferentes unidades.
4.6. Forma de dispersión de frecuencia. La forma de distribución de frecuencia se refiere a su asimetría y a la agudeza de su punta o curtosis.
4.6.1. Asimetría. Una distribución tiene asimetría cero si es simétrica a su media. En una distribución simétrica la media, mediana y moda son iguales. Una distribución está sesgada positivamente, si la cola derecha es más larga. Entonces, la media es mayor a la mediana y ésta a la moda. Una distribución está sesgada negativamente, si la cola izquierda es más larga. Entonces, la moda es mayor que la mediana y ésta a la media.
4.6.2. Curtosis. Una curva de punta aguda se llama leptocúrtica, que es opuesta a una achatada o platicúrtica. Entre estos dos extremos se encuentra la mesocúrtica.
4.7. Diagramas de caja. Para elaborar un diagrama de caja se utilizan los cuartiles Q1, Q2 y Q3. Además de la primera y última observación. Si n = 20 y la muestra es: 2, 3, 3, 4, 4, 4, 5, 5, 6, 6, 7, 7, 7, 8, 9, 9, 9, 10, 10, 11 Q1 = (n + 1) / 4 = 21 / 4 = 5.25 Q2 = 2(n + 1)/4 = (n + 1) / 2 = 10.5 Q3 = 3(n + 1)/4 = 0.75 (21) = 15.75 Los valores obtenidos indican la ubicación de los cuartiles, pero no son los cuartiles. Q1 = 4 y no 5.25 que sólo indica la ubicación. Q2 = 6.5 y no 10.5 que indica que la ubicación está entre 10 y 11. Q3 = 9 y no 15.75 que indica que el tercer cuartil está entre 15 y 16.
5. DISTRIBUCIÓN NORMAL.
5.1. Curva normal. Es una distribución de probabilidad continua y es la más comúnmente usada en el análisis estadístico. La curva normal tiene forma de campana y es simétrica con respecto a su media. Se extiende indefinidamente en ambas direcciones, pero la mayor parte del área está concentrada alrededor de la media.
5.2. Curva normal estándar.
Es una distribución con una medi
En tales condiciones, el 68.26% del área bajo la curva normal estándar se incluye dentro de una desviación estándar de la media. El 95.54% dentro de dos desviaciones estándar y 99.74% dentro de tres.
Para encontrar probabilidades (áreas) para los problemas que involucran la distribución normal, primero se convierte el valor de (X) a su correspondiente valor en (Z), como sigue: Z = (X - μ ) / σ Luego se localiza el valor de (Z) en las tablas, el cual nos da la proporción del área (probabilidad) incluida bajo la curva entre la media y ese valor de (Z). Né st or H. Pal afo x Eliz ald e 14 En el ámbito financiero, los inversionistas desean mantener una cartera de inversiones que les proporcione un rendimiento máximo y niveles aceptables de riesgo. Los siguientes datos representan las razones de Precio / Utilidad para 25 acciones diferentes en el mercado de valores. Razones Precio / Utilidad de 25 acciones.
Ordene las observaciones de manera ascendente. Construya una tabla de distribución de frecuencias y un histograma. Encuentre la media, la mediana y la moda. Encuentre la desviación media, la varianza, la desviación estándar y el coeficiente de variación. Encuentre el coeficiente de asimetría y de curtosis.
SOLUCIÓN.
Ordene las observaciones de manera ascendente. Razones Precio / Utilidad de 25 acciones.
Construya una tabla de distribución de frecuencias y un histograma. Primero calculamos la longitud del recorrido. 28.6 – 5.4 = 23.2 Decidimos dividir la muestra en 6 intervalos.
Modificamos la longitud del recorrido para que la amplitud de los intervalos sea exactamente igual a 4.0. 29.0 – 5.0 = 24.0 24.0 / 6 = 4.0
Encuentre la desviación media, la varianza, la desviación estándar y el coeficiente de variación. Desviación media: