http://www.gestiopolis.com/resultados-busqueda/ http://www.gestiopolis.com/canales/financiera/articulos/no%208/Eva1.htm http://www.gestiopolis.com/canales/financiera/articulos/no%208/Eva1.htm
Unidad 2 SENSIBILIZACION DE VARIABLES
ANALISIS DE SENSIBILIDAD DE LOS NEGOCIOS
El Análisis de Sensibilidad busca medir cómo se afecta la rentabilidad de un proyecto, cuando una o varias variables que conforman los supuestos, bajo los cuales se elaboraron las proyecciones financieras, se modifican. Es por lo anterior, que algunos textos en inglés la denominan la técnica del "What if...", reconociendo que lo que trata de hacer esta metodología, es determinar qué pasa con la rentabilidad del proyecto, si una o más variables cambian. Cuando sólo una de las variables se modifica, nos encontramos frente al análisis de sensibilidad por variables (o unidimensional) si, en cambio, más de una cambia de valor, entonces estamos ejecutando un análisis de sensibilidad por escenarios (también conocido como multidimensional).
1. Es el grado de compromiso de un proyecto o una empresa debido al nivel de sus costos fijos. Los costos fijos actúan como una palanca en el sentido que un cambio porcentual pequeño en el ingreso puede convertirse en un cambio porcentual considerable en el BAIT. Cuanto mayor sea el nivel de apalancamiento operativo mayor será el peligro potencial ocasionado por el riesgo de pronóstico. Cuanto mayor sean los CF, mayor será el apalancamiento operativo y por consiguiente el riesgo económico de la empresa 2. Dos Conceptos: – Riesgo: » Información de naturaleza aleatoria, las probabilidades de ocurrencia de eventos son conocidas. – Incertidumbre: » Las probabilidades de ocurrencia de un evento no son bien cuantificadas. » Fuente básica de Incertidumbre: información incompleta inexacta, sesgada, falsa o contradictoria Dos Conceptos: – Riesgo: » Información de naturaleza aleatoria, las probabilidades de ocurrencia de eventos son conocidas. 3. Uso de fuentes de información poco confiables Dinámica de los mercados Errores de interpretación de datos Errores en la manipulación de información 4. Poco conocimiento del mercado – – – – – – – – – – Precios Demandas Gustos y modas Costos de insumos Tecnologías
5. 1. Análisis individual de una inversión – – – – – – – – 1.1 Análisis probabilístico 1.2 Análisis de Sensibilidad y de Escenarios 1.3 Ajuste simple en la tasa de descuento 1.4 Simulación 2. Análisis de portafolio – 2.1 Diversificación y en modelo CAPM 3. Análisis de Decisiones Secuenciales y Arboles de Decisión 6. 1.1 Análisis probabilístico de una inversión. – Una forma de Interpretar el Riesgo » La variabilidad de los flujos de caja, que implica la variabilidad del VAN Ahora los flujos de caja son variables Aleatorias F1 F3 F4 F2 Fn F7 F6 F5 .... F8 F8 7. Desviación estándar del flujo de caja Fi » VAR(Fi) = =Valor esperado del flujo de caja Fi » E( Fi) = Valor Esperado de la Inversión: Sea : » E(VAN) = (1+r) (1+r)2 (1+r)3 8. Desviación estándar de una Inversión : – Caso 1: Flujos de caja independientes – Caso 2 : Flujos de caja perfectamente correlacionados Cov(Fi , Fj) = 1 = Coeficiente de correlación – Caso 3: Flujos de caja imperfectamente correlacionados Sea : 9. – Podemos obtener el comportamiento probabilístico del rendimiento económico: Probabilidad Distribución de probabilidades del VAN $ 10. ¿Qué inversión elegir? Probabilidad Distribución de probabilidades probabilidades del VANA $B 11. Probabilidad Distribución de probabilidades del VAN $ < < Inversión B es más Riesgosa Inversión B es más Rentable 12. Análisis de Sensibilidad – Inversión evaluada en una situación base – Se determinan las variables más significativas que afectan los indicadores de rentabilidad : – – – – – – – – – – – – – – precios de venta precios de insumos costos de producción costo de capital volúmenes de venta coeficientes tecnológicos inversión 13. Item (∆VAN/VAN)/(∆X/X) Situación Base Precio Venta*(1-x%) Precio
Insumos*(1+y%) Ventas*(1-z%) Costos Operación*(1+W%) Análisis de Sensibilidad – Se busca evaluar la sensibilidad de los indicadores de rentabilidad ante variaciones de las variables significativas más inciertas:
14. Análisis de Sensibilidad – Si el impacto de una variable riesgosa en el VAN es importante, entonces el proyecto es RIESGOSO. – El nivel de riesgo se determina en la medida que el VAN se hace negativo para valores probables de la variable. – En este caso, se debe hacer una evaluación costo-beneficio de la pertinencia de comprar certidumbre. 15. Cultivo (∆VAN/VAN) (∆X/X) Elasticidad Avena forrajera Poroto Lenteja Carne
Leche Trigo Cebada Frambuesa Remolacha Manzana Pera Zanahoria Todos Inversión N°años entrada en 0.20% -0.07% 1.04% 3.02% 0.03% 0.07% 1.72% 0.92% 1.15% 1.07% 3.13% 12.30% -2.30% -19.44% 10.00% 10.00% 10.00%
10.00% 10.00% 10.00% 10.00% 10.00% 10.00% 10.00% 10.00% 10.00% 10.00% 55.56% 0.02 -0.01 0.10 0.30 0.00 0.01 0.17 0.09 0.12 0 .11 0.31 1.23 -0.23 -0.35 régimen(9 a 14)
16. Análisis de Sensibilidad – Ventajas » Fácil Aplicación » Fácil de Entender – Desventajas » Sólo permite analizar variaciones de un parámetro a la vez. » No utiliza información como las distribuciones de probabilidad del parámetro a sensibilizar. » No entrega distribución de probabilidades de los indicadores de rentabilidad VAN y TIR. 17. Análisis de Escenarios – Esta técnica permite solventar el problema de unidimensionalidad del análisis de sensibilidad, definiendo escenarios para las distintas variables riesgosas que afectan la inversión. – Cada escenario está determinado por los valores que supuestamente tomarían las variables riesgosas en estos. – Habitualmente se definen tres escenarios: optimista, medio y pesimista. 18. Análisis de Escenarios – Un ejemplo: » Escenario optimista: Precio producto sube un 20 % Precio de los insumos se mantienen Las ventas crecen en un 10 % etc. – Los escenarios deben ser definidos por la alta gerencia de la empresa. – Esta es una actividad netamente interfuncional. 19. Comportamiento del Inversionista : – A una inversión más riesgosa se le exige una mayor rentabilidad – Por lo tanto se espera recibir un premio por asumir riesgo – Una forma de incorporar el riego es castigar la tasa de descuento : = Tasa de descuento que incorpora riesgo = Tasa de descuento libre de riesgo = Premio por asumir el riesgo 20. NiveldeRiesgo δΡ ε VAN Nulo Bajo Medio Alto 6 10 14 18 0 4 8 12 2028 1192 447 −217 4500 4500 10000 4500
21. Problemas del Método: se fija arbitrariamente. – No se utiliza información valiosa como la distribución de probabilidades de los flujos futuros. – El riesgo aumenta a medida que pasa el tiempo, cosa que no siempre es cierto. – 22. Limitaciones del modelo probabilístico : – Entendimiento de probabilidades – Difícil formulación matemática » Modelación de las relaciones entre flujos » Modelación de la relaciones entre variables » Imposibilidad de llegar a una solución analítica Solución : Simulación Computacional 23. La simulación permite la evaluación de un gran número de escenarios generados aleatoriamente, de acuerdo a las distribuciones de probabilidades de las variables riesgosas y de las relaciones de interdependencia entre ellas. Se obtiene distribuciones de probabilidad de los criterios de evaluación seleccionados. 24. – Binomial – “ad hoc” Distribuciones de Probabilidad más usadas : – Uniforme – Triangular – Normal Sí No
25. La diversificación de Markowitz se preocupa del grado de covarianza entre las rentabilidades de los activos componentes de un portafolio. La idea central es combinar en un portafolio, activos que no estén perfectamente correlacionados, con el propósito de disminuir el riesgo sin sacrificar rentabilidad. 26. * Rentabilidad Esperada Riesgo Conjunto factible está representado por la curva 1-5 Conjunto eficiente está representado por la curva 2-5 5 ** 6 M 2 Rf 27. 2 i 2 =Cov CovXX+X= i N i =1 j i La varianza del portafolio es: Sea Xi fracción de riqueza invertida en cada alternativa, Xi 1/N, donde N es el número de inversiones NOTA: p2 = VAR (rp) 28. Riesgo diversificable (no sistemático) Riesgo no diversificable (sistemático) Número de Activos en el Portafolio 29. Sabemos que la relación más típica entre riesgo y rentabilidad es lineal. Esto significa que la rentabilidad de un activo se “explica” en función de la cantidad de
riesgo que tiene. En términos más formales: Cov(Ri,RM ) Var(RM ) E(Ri) Rf E(RM ) Rf rentabilidad esperada tasa libre de riesgo premio por riesgo riesgo sistemático
30. La expresión anterior formalmente se deriva de imponer que la pendiente de la LMC es igual a la derivada de la frontera eficiente en el punto M. Cov (Ri, RM)/Var (RM) = i representa la cantidad de riesgo y se denomina riesgo sistemático. Por definición sabemos que M = 1 = Cov (RM, RM)/Var (RM) = Var (RM)/ Var (RM) = 1. i > 1 i < 1 activo más volátil o sensible que el “mercado” activo menos volátil o sensible que el “mercado”
31. VPN FCt (1 r) t N t 0 Calculado de acuerdo a CAPM riesgo sistemático ¿Para qué sirve el modelo? Básicamente, para determinar el costo de capital (empresa, división, proyecto). Numerador refleja riesgo no sistemático Denominador refleja 32. Aplicando el modelo – Tasa libre de riesgo » Candidatos: Papeles del Banco Central de Chile (PRC’s van desde 2 a 20 años) Rentabilidad esperada de mercado – Primer problema: Portafolio de mercado – ¿Cuál es el portafolio de
mercado? Teóricamente representa el valor de mercado de todos los activos de la economía (debidamente ponderados). Candidatos para RM : índices bursátiles (IPSA, IGPA), índices sectoriales, PIB, consumo agregado real.
33. Estimación de Betas El beta de una compañía es típicamente estimado a través de una regresión con datos históricos. ML estimó el beta para Hewlett Packard a partir de 60 observaciones de retornos de su acción y S&P500 y obtuvo: =1.81 significa alto riesgo. Claramente mayor a 1.0. 1. Elabore el modelo de pronóstico, en pocas palabras, elabore las proyecciones en una hoja de cálculo, el cual debe incluir el Estado de Ganancias y Pérdidas, el Flujo de Caja y los indicadores de rentabilidad. No olvide de incluir un panel de variables de entrada. Si quiere revisar el porqué de este consejo, le pido por favor,
que revise el post anterior. PREDICCIÓN DE QUIEBRAS (MODELO ALTMAN) A partir de 1968 y como consecuencia de los estudios de Beaver, varios investigadores comenzaron a trabajar con modelos multivariables con el objetivo de poder determinar con más precisión qué empresas se dirigían hacia la quiebra y cuales otras no. Entre estos estudios destacan los conducidos por Edward Altman de la Universidad de Nueva York (1968, 1977, 1978, 1979, 1981, 1984, 1988, 1993, 1994a, 1994b, 1995, 1996, etc.) el cual amplió el análisis univariable al introducir por primera vez múltiples predictores de quiebra mediante el Análisis Discriminante Múltiple (MDA). A través de los años Altman ha llegado a ser considerado por gran número de expertos como el investigador que más ha contribuido al desarrollo de la relativamente nueva teoría de la solvencia, sobre todo al haber creado el modelo original de la “Z -Score” (1977). Actualmente las grandes empresas, y sobre todo las financieras, utilizan el “Zeta Credit Risk System” o “Zeta Credit Scoring Model” que fue producto de su investigación y que continua desarrollando la “Zeta Services Inc.”, una de las
principales firmas que comercializa sistemas que contribuyen a la investigación del análisis del fracaso empresarial en los Estados Unidos. Otras que también son muy importantes son: “Advantage Financial Systems” (Boston); Trust Division of the First Unión Bank” (Carolina del Norte); “Datastream” (Reino Unido); “Perfor mance Analisys Services Ltd.” (Reino Unido). En 1984 a través de la revista “Studies in Banking and Finance” (North Holland; Vol. 8, No.2), Altman editó una serie de 20 artículos que intentaron perfeccionar el modelo para medir el riesgo de las compañías ( “Company and Country Risk Models”). Estos estudios se hicieron en países altamente industrializados como:
Alemania, Australia, Francia, Italia, Israel, Japón y el Reino Unido. Para 1988, en esta misma revista (Vol. 7) se volvieron a editar otras investigaciones realizadas en países con economías emergentes tales como: España, Finlandia, Grecia, India, Malasia, Singapur, Turquía y Uruguay. Sin embargo, para esas fechas únicamente las autoridades de Malasia estaban utilizando el modelo predictivo de Altman con una base de datos en tiempo real. Posteriormente, durante sus investigaciones en México con Hartzcel y Peck (1995), Altman adaptó el modelo original de su Z-Score para economías emergentes con el fin de proponer un nuevo indicador global predictivo exclusivo para este tipo de mercados. A este nuevo indicador lo denominó: “Emerging Mar ket Scoring Model” (EMS Model)
Según el propio Altman, lo anterior obedeció al hecho de que para el otorgamiento de créditos en los mercados emergentes, el análisis financiero tradicional debería de realizarse de forma similar a como se hace, por ejemplo, en los Estados Unidos. Sin embargo, este autor reconoció que la realidad indicaba que en los
países emergentes existía una serie de riesgos adicionales cuantitativos que el análisis tradicional no consideraba. Tal era el caso del riesgo de la moneda y el riesgo industrial que impedía frecuentemente construir un modelo específico para la muestra de empresas ubicadas en las economías emergentes. A partir de esto propuso que el tipo de análisis tenía que modificarse. En general los trabajos de Altman se fueron desarrollando bajo un nuevo entorno tecnológico que se inició a finales de los años sesenta cuando se contó con un uso más significativo de las computadoras y el grado de maduración de las escuelas estadísticas repercutió directamente en el desarrollo de las técnicas multivariables. Por eso Altman consiguió resultados sorprendentes al aprovechar las ventajas del análisis tradicional de ratios sin fundamentos simplistas y combinándolos con las técnicas estadísticas más sofisticadas. En su primer estudio multivariable relacionó un conjunto de variables mediante una función que explicará su comportamiento y se orientaran principalmente a la predicción de quiebras. Concluyó que existen relaciones entre los ratios financieros, y que el uso de un sólo ratio como indicador de empresas fracasadas, es susceptible de interpretación defectuosa o errónea si el ratio en cuestión es disfrazado por otros ratios, los cuales pueden indicar una gran diferencia de probabilidad de quiebra. Por ejemplo, decía, si nos guiamos sobre un ratio de circulante "sano" e ignoramos un ratio "pobre" de pasivo / activo, o cash flow, puede conducir a predicciones incorrectas acerca del futuro de la empresa. Con respecto a las decisiones incorrectas, para él estas tendían a ser menos probables de realizarse si estaban basadas sobre el análisis simultáneo de varios ratios que midieran diferentes aspectos de la salud financiera de la empresa. Altman al aplicar el MDA sobre las bases de datos contables sintetizadas en ratios financieros, desarrolló la función lineal con una serie de variables exploratorias para clasificar o predecir el valor de una variable dependiente cualitativa, como por ejemplo, “quiebra” o “no quiebra”. Aquí la definición de la variable dependiente se
basó en el hecho de que la empresa estuviera en un procedimiento concursal, es decir, amparada sobre el Capítulo X del “National Bankruptcy Act” de los Estados
Unidos. Para su investigación de 1968 seleccionó una submuestra de 33 empresas que fueron a la quiebra y otra submuestra de 33 empresas sin quiebra de tamaño medio y del sector manufacturero que cotizaban en la bolsa de valores durante el período de 1946-1965. La selección de la muestra se hizo de acuerdo a dos criterios que fueron: a) considerando el tipo de industria al que pertenecía la empresa; y b) de acuerdo al tamaño de los activos de la empresa. La media del tamaño de los activos de las empresas fracasadas muestreadas fue de 6.4 millones de dólares, con un rango entre los 700 mil hasta los 25.9 millones de dólares. La media de los activos de las empresas sanas que continuaban operando hasta 1966 fue de 9.6 millones de dólares, cuyos rangos se ubicaron entre 1 a 25 millones de dólares.
Posteriormente, cada empresa fracasada fue emparejada con otra no fracasada, considerando la homogeneidad entre su tamaño y sector, pues se trató de evitar los efectos de distorsión de ambos factores en los resultados. Para la selección de las variables independientes, inicialmente Altman integró un grupo de 22 ratios que fueron aplicados a ambas sub muestras de empresas. La selección de dichos ratios estuvo basada sobre los siguientes tres criterios: a) Por su popularidad dentro de la literatura. b) Por su relevancia potencial para el estudio. c) Por la forma innovadora que presentaron algunos ratios en el análisis. Los 22 ratios fueron reducidos a cinco factores que median: la rentabilidad, actividad, liquidez y solvencia. Este último factor (variable independiente X4) era en realidad el apalancamiento financiero, pues se refería a aquellas operaciones financieras rentables efectuadas con préstamos (relación deuda / capital propio; o la relación endeudamiento / medios propios) Es decir, se trataba de la compra de activos a cambio de emisión de obligaciones. Para Altman los cinco factores mostraron ser las mejores combinaciones para el discriminante entre empresas en quiebra y empresas sin quiebra. Sin embargo, este autor no indicó con base a que dividió en cinco categorías su modelo, y si en realidad dichas categorías eran las más representativas en su conjunto e independientes entre sí para predecir una quiebra. También en su primer trabajo llama la atención que de los veintidós ratios seleccionados no se consideró al ratio de cash flow / deuda total, el cual había proporcionado buenos resultados de clasificación en los estudios de Beaver y en otros trabajos posteriores. Según Altman, esto se debió a la dificultad que existió para obtener bases de datos que incluyeran la amortización. Con respecto a las bases de datos, y que constituyen una de las principales críticas a su primer trabajo, Altman seleccionó los estados financieros del “Moody´s Industrial Manual” del último cierre de ejercicio antes de la solicitud de quiebra. El promedio entre la fecha de cierre y la solicitud de quiebra fue de 7.5 meses. Para algunos analistas, la no contemplación del problema del retraso en la disponibilidad de datos dio como resultado que el plazo medio de tiempo representativo de un año previo al fracaso fuera inferior con respecto al de otros trabajos en donde se consideró como último año, aquel cuyos estados financieros resultaron disponibles con anterioridad. En cuanto al proceso de su investigación, ésta involucró las siguientes cuatro etapas:
1. Observación de la significancia estadística de varias combinaciones de ratios incluyendo la contribución estadística relativa de los ratios individuales. 2. El análisis de intercorrelaciones entre ratios. 3. El análisis de la exactitud de predicción de varias combinaciones de ratios. 4. El juicio del análisis sobre los resultados obtenidos. Este proceso dio como resultado la inclusión de los cinco ratios en la función discriminante con los que Altman construyó la puntuación “Z -Score”, que es considerada por gran número de académicos como uno de los mejores modelos teóricos de predicción de quiebras (ver cuadro 2.6.). El análisis discriminante múltiple fue seleccionado como el método de análisis estadístico. La primera ventaja de utilizar el MDA sobre el análisis univariable es que el primero analizaba el perfil completo de las características simultáneamente y no sólo individualmente. La experiencia con este modelo llevó a su autor a la conclusión de que puntuaciones Z-Scores inferiores a 1.81 indicaban una probabilidad elevada de quiebra. En cambio, puntuaciones superiores a 3.00 indicaban una escasa probabilidad de quiebra. Altman denominó "la zona de ignorancia" al rango comprendido entre 1.81 y 2.99. Al analizar a las empresas que cayeron dentro de la zona de ignorancia, Altman razonó que utilizando una Z-Score de 2.675 daba como resultado el número más bajo de errores para clasificar a una empresa entre quiebra y no quiebra. Según él, este punto medio de la Z-Score podía tener aplicaciones prácticas para la evaluación de los préstamos, pues indicaba cuales empresas presentan poca capacidad de evaluación y cuales empresas garantizaban una capacidad de evaluación adicional por su posición fuera de la zona de ignorancia. Respecto a los porcentajes de error de clasificación, obtuvo en promedio un 5% para un año previo a la quiebra (tipo I = 6%; tipo II = 3%); un 17 % para dos años previos (tipo I = 28 %, y tipo II = 6 %). Sin embargo, para el tercero, cuarto y quinto año, los porcentajes de error se incrementaron significativamente, obteniéndose 52 %, 71 % y 14 % respectivamente. Después de obtener estos resultados, Altman seleccionó una segunda submuestra de validación compuesta por 25 empresas en quiebra, las cuales dieron como resultado un porcentaje de error general de sólo el 4% un año previo a la quiebra. Para otra submuestra de 66 empresas fracasadas, aunque esta vez estas no estaban en quiebra, sino sólo con agudos problemas financieros, se obtuvo un porcentaje de error del 21%, cinco años previos a la quiebra.
Volviendo a la muestra inicial, en donde obtuvo el 95 % de aciertos un año previo a la quiebra, el cuadro 2.7. Nos permite ver el comportamiento de los años siguientes. Según Altman, su modelo predictivo proporcionaba un pronóstico más exacto hasta dos años previos a la quiebra, pero conforme pasaban los años la exactitud tendía a perderse. Es muy importante hacer notar que para Altman la cuestión principal no radicaba en si la empresa tenía que acabar forzosamente fracasando por tener unos niveles determinados en sus ratios, sino la importancia de su modelo radicaba en si sus síntomas eran similares a los de otras empresas que sí avanzaban o terminaban en un proceso de fracaso. Es decir, el modelo predictivo de Altman era de alerta y previsión. Altman al defender su modelo hizo varias observaciones a otros trabajos como el de Deakin (1972), en el sentido de que éste construyó una función discriminante para cada año, en lugar de desarrollar la misma función del primer año con las bases de datos de los otros años previos al fracaso. En general, los críticos del modelo Altman señalaban que las variables independientes del modelo inicial no eran las más representativas. De ahí que posteriores estudios al seleccionar las variables independientes se apoyasen más en el trabajo de Beaver, y únicamente para el aspecto metodológico se tomaba como referencia a Altman. Por ejemplo, la variable X5 propuesta por Altman y que se refiere al factor de rotación o eficiencia global de activos (ventas / activo total) fue considerado como un ratio no significativo en los modelos univariables, pues apenas tenía capacidad de discriminación. En cambio, en los modelos multivariables representaba la segunda variable independiente más importante de la función. Según Joy Tolleferson, esto se debía a un defecto metodológico en la medición correspondiente a las contribuciones individuales que son deducidas mediante los valores de los coeficientes estandarizados. También se cuestionaba mucho el problema que presentaba la variable X4 en aquellas empresas que no cotizan, pues varios analistas opinaban que al no cotizar en Bolsa la mayoría de las firmas, la función era poco práctica al requerir indicadores del mercado de valores. Con respecto a la X4, Lizárraga (1993) opinó que existían dos importantes situaciones que fueron: a) El ratio X2 (beneficios retenidos / activo total), que recogía el tipo de información de la X4; y b) el ratio X4 que no representaba un verdadero indicador del endeudamiento, a excepción de aquellas empresas que tuvieran una gran dependencia del mercado de valores y dada su volátil cotización podría desvirtuar el sentido del ratio. Algunos estudios como los de Moyer (1977) habían logrado en la reestimación eliminar a las variables X4 y X5. Altman propuso entonces cambiar a datos contables el numerador de la variable X4 para aquellas empresas que no cotizaran en la bolsa y revisar la variable X5
para su posible eliminación del modelo. A partir de las observaciones de Jhonson (1970) y Moller (1977), Altman llegó a comprender algunas limitaciones y defectos en su modelo; sobre todo en lo tocante a lo polémica sobre la capacidad predictiva. Embargo, el modelo no por eso podía diferenciar realmente a las empresas que iban a fracasar, ya que no todas las clasificadas como fracasadas llegaban a su fin. describir el proceso dinámico de la quiebra, pues éste hecho hasta la fecha es muy complejo en términos cuantitativos y cualitativos. Tradicionalmente los ratios sólo
Modelo Z1 de Altman Este modelo es una variación del modelo Z original, en el que se sustituye, por un lado, el numerador en X 4 por el valor del capital contable en lugar del valor de mercado del capital y en el que la ponderación de cada índice también se modifica. Las adaptaciones se hicieron con el fin de aplicarlo a todo tipo de empresas y no solamente a las que cotizaran en bolsa. Esta versión se desarrolló con empresas manufactureras y pondera de manera importante el activo total de la empresa y su rotación. La función queda de la siguiente manera: Z1 = 0.717 X 1 + 0.847 X 2 + 3.107 X 3 + 0.420 X4 + 0.998X 5 Si Z1>=2.90, la empresa no tendrá problemas de insolvencia en el futuro; si Z1<=1.23, entonces es una empresa que de seguir así, en el futuro tendrá altas posibilidades de caer en insolvencia. Si el resultado de Z1 es de entre 1.24 y 2.89, se considera que la empresa se encuentra en una "zona gris" o no bien definida. Modelo Z2 de Altman Esta versión es una ajuste del modelo anterior Z1 en la que se elimina la razón de rotación de activos X 5, para aplicarlo a todo tipo de empresas y no sólo a manufactureras. Este nuevo modelo pondera de manera importante la generación de utilidades en relación al activo, así como su reinversión. La función final es: Z2 = 6.56X 1 + 3.26X 2 + 6.72 X 3 + 1.05 X 4 Si Z2>=2.60, la empresa no tendrá problemas de insolvencia en el futuro; si Z2<=1.10, entonces es Una empresa que de seguir así, en el futuro tendrá altas posibilidades de caer en insolvencia. Las empresas se ubicarán en una zona no bien definida si el resultado de Z2 se encuentra entre 1.11 y 2.59
MODELO DE EVA El EVA es un concepto que se ha conocido en Latinoamérica en la década de los años noventa, a pesar que las teorías económicas y financieras desarrollaron elementos aproximados desde hace algo más de un siglo. Alfred Marshall fue el primero que expresó una noción de EVA, en 1980, en su obra capital The Principles of Economics: "Cuando un hombre se encuentra comprometido con un negocio, sus ganancias para el año son el exceso de ingresos que recibió del negocio durante al año sobre sus desembolsos en el negocio. La diferencia entre el valor de la planta, los inventarios, etc., al final y al comienzo del año, es tomada como parte de sus entradas o como parte de sus desembolsos, de acuerdo a si se ha presentado un incremento o un decremento del valor. Lo que queda de sus ganancias después de deducir los intereses sobre el capital a la tasa corriente es llamado generalmente su beneficio por emprender a administrar”. La idea del beneficio residual apareció en la literatura de la teoría contable en las primeras décadas de este siglo; se definía como el producto de la diferencia entre la utilidad operacional y el costo de capital. La empresa General Electric lo estuvo utilizando a partir de los años veinte. Posteriormente, en los 70, algunos académicos finlandeses lo estuvieron usando y, entre ellos, Virtanen lo define como un complemento del retorno sobre la inversión (Return Over Investement, ROI) para la toma de decisiones. Peter Drucker en un artículo para Harvard Business Review se aproxima al concepto de creación de valor cuando expresa lo siguiente: "Mientras que un negocio tenga un rendimiento inferior a su costo de capital, operará a pérdidas". no importa que pague un impuesto como si tuviera una ganancia real. La empresa aun deja un beneficio económico menor a los recursos que devora...mientras esto sucede no crea riqueza, la destruye". Teniendo en cuenta estos antecedentes, por qué la aparición de EVA sólo en los años recientes? Simplemente porque la compañía consultora estadounidense Stern Stewart & Co. ha desarrollado una metodología sobre el tema y patentado
ese producto denominado EVA como marca registrada, pero que es un concepto general basado en la teoría financiera y económica de muchos años. EVA resume las iniciales en inglés de las palabras Economic Value Added o Valor Económico Agregado en español. EVA es también llamado EP (Economic Profit) o utilidad económica, término usado por otra firma consultora, Mc Kinsey & Co.. Otros términos derivados del Ingreso Residual son aproximados a EVA, aunque no tengan las características de la marca registrada por Stern Stewart. Simplemente cada consultora ha desarrollado su propio concepto, aunque todos se refieren a aspectos semejantes. La metodología de EVA supone que el éxito empresarial está relacionado directamente con la generación de valor económico, que se calcula restando a las utilidades operacionales el costo financiero por poseer los activos que se utilizaron en la generación de dichas utilidades. Toda empresa tiene diferentes objetivos de carácter económico - financiero. A continuación se enuncian los más importantes: 1. Aumentar el valor de la empresa y, por lo tanto, la riqueza de los propietarios. Este objetivo incluye las siguientes metas: Obtener la máxima utilidad con la mínima inversión de los accionistas. Lograr el mínimo costo de capital. 2. Trabajar con el mínimo riesgo. Para conseguirlo, se deben lograr las siguientes metas: Proporción equilibrada entre el endeudamiento y la inversión de los propietarios. Proporción equilibrada entre obligaciones financieras de corto plazo y las de largo plazo. Cobertura de los diferentes riesgos: de cambio, de intereses del crédito y de los valores bursátiles. 3. Disponer de niveles óptimos de liquidez. Para ello se tienen las siguientes metas: Financiamiento adecuado de los activos corrientes. Equilibrio entre el recaudo y los pagos.
EXPLICACIÓN DEL CONCEPTO:
El valor económico agregado o utilidad económica es el producto obtenido por la diferencia entre la rentabilidad de sus activos y el costo de financiación o de capital requerido para poseer dichos activos. EVA es más que una medida de actuación, es parte de una cultura: la de Gerencia del Valor, que es una forma para que todos los que toman decisiones en una empresa se coloquen en una posición que permita delinear estrategias y objetivos encaminados fundamentalmente a la creación de valor. Si a todos los ingresos operacionales se le deducen la totalidad de los gastos operacionales, el valor de los impuestos y el costo de oportunidad del capital se obtiene el EVA. Por lo tanto, en esta medida se considera la productividad de todos los factores utilizados para desarrollar la actividad empresarial. En otras palabras, el EVA es el resultado obtenido una vez se han cubierto todos los gastos y satisfecho una rentabilidad mínima esperada por parte de los accionistas. Es decir, el valor económico agregado o utilidad económica se fundamenta en que los recursos empleados por una empresa o unidad estratégica de negocio (UEN) debe producir una rentabilidad superior a su costo, pues de no ser así es mejor trasladar los bienes utilizados a otra actividad. Esto obliga a un análisis más profundo que el desarrollado por los indicadores tradicionales de crecimiento en ingresos, utilidades y activos como factores de evaluación del desempeño. Esto, además, obliga a una presentación más clara de los balances para establecer los diferentes recursos, bienes y derechos empleados por cada unidad estratégica de negocio en su proceso de generación de utilidades y flujo de caja. La toma de decisiones puede ser influida por el tipo de indicadores seleccionados para medir el desempeño. Empresas dirigidas hacia el uso de parámetros como la utilidad neta, los diferentes márgenes de ganancias o el crecimiento de las ventas pueden desarrollar un punto de vista miope e ignoran otros elementos de análisis como la racionalización del capital de trabajo o la productividad derivada del uso de la capacidad instalada. La evaluación de dichas oportunidades solo puede basarse en el uso de indicadores enfocados en el concepto de valor.
INDICADORES FINANCIEROS PARA EL MODELAJE
La alta dirección de una organización debe tomar tres clases de decisiones de carácter financiero: decisiones operativas, de inversión y de financiación. En las tres se resume la función financiera. Estas decisiones deben conducir a resultados y éstos a su vez deben ser medidos a través de los indicadores y sus respectivos índices. Los índices tradicionales, aunque siguen siendo válidos, no reflejan completamente la situación financiera de la empresa, existen nuevos elementos de medición. Veamos algunos de ellos.
1. Contribución financiera. Es la verdadera forma de cálculo para determinar la rentabilidad patrimonial. El accionista al adquirir deuda, está corriendo un riesgo y este debe generar un remanente por encima del costo de capital como consecuencia del endeudamiento. En realidad la contribución financiera es el remanente que queda de la deuda 2. Efectivo generado en la operación. El indicador por excelencia para medir la gestión gerencial. El valor resultante muestra la capacidad de la compañía para cubrir incremento del activo operativo de la empresa, es decir el capital de trabajo neto operativo y el incremento del activo fijo. 3. Rentabilidad marginal. Uno de los indicadores más cruciales. Si ésta rentabilidad no es superior al costo de la deuda, la compañía se verá abocada a un déficit financiero de marca mayor. El uso del activo genera obviamente una utilidad operativa, si ésta, después de impuestos, no supera el incremento en el activo operativo, la empresa irá hacia una situación de "ahogo" financiero de grandes proporciones 4. Rentabilidad operativa del activo. Mide la gestión de la gerencia, es el indicador que verdaderamente muestra la rentabilidad de la inversión. Es de anotar que esta rentabilidad se descompone en dos indicadores: margen operativo y rotación del activo, es decir, una empresa obtiene rendimientos, a través de rotación o a través de margen. Casi ningún balance muestra cómo se llega al resultado final a través del análisis de los dos componentes 5. Productividad del capital de trabajo neto operativo. Refleja la necesidad de inversión en activo operativo corriente neto debido a un incremento en ventas, es decir, cuantos centavos requiere la empresa para sostener un aumento de $1 en facturación.
6. Margen EBITDA. Muestra los centavos adicionales que genera un aumento de$1 en ventas. Si la relación de ambos indicadores, muestra un índice menor a 1, la empresa no será capaz de sostener la mayor facturación. Me atrevería a asegurar que esta es la razón principal de quiebras empresariales. Cuantas empresas manejan estos dos últimos conceptos? en realidad muy pocas. 7. El flujo de caja libre partiendo del flujo de tesorería. La mayoría de los autores financieros calculan el FCL partiendo de la utilidad neta. El suscrito opina que este debe partir del flujo de tesorería. La razón es que la utilidad es una cifra de papel, en cambio el saldo de recaudos menos pagos es una realidad de caja. Como nota final, el autor solo conoce dos empresas que utilizan este concepto, increíble verdad? 8. Índice de contribución. El uso de este indicador requiere manejar el concepto de Margen de contribución. El índice de contribución muestra la capacidad para cubrir costos y gastos fijos más una utilidad. Muestra cuanto, dada una inversión y/o gasto, tiene que facturar la empresa para obtener ganancias. En opinión del autor este indicador es de vital importancia para tomar decisiones financieras 9. Comportamiento del capital empleado. En su mas simple definición se considera que el valor del patrimonio es el capital empleado; una mayor refinación considera que al patrimonio hay que sumarle el pasivo. Un concepto de mayor avanzada dice que el capital empleado es el patrimonio mas pasivo financiero. Podemos resumirlo entonces como la suma del activo operativo mas el activo no operativo menos el pasivo no financiero. 10. Autofinanciación. Es la parte del FCL que se reinvierte, son los recursos generados por la empresa. La capacidad de autofinanciación de da a través del FCL y la política de distribución de dividendos. A mayor autofinanciación, mayor autonomía financiera frente al endeudamiento.
El diagnóstico y proyección financieras exigen conocer indicadores e índices que muestren un comportamiento y una situación real financiera. Nuevos conceptos como EVA, EBITDA, VPN, entre otros, han cambiado la manera de analizar y evaluar empresas. El suscrito ha adaptado e implementado unos indicadores que facilitan la toma de decisiones financieras buscando facilitar la toma de decisiones correctas; sin éstas,
la empresa puede llegar a cualquier parte, con indicadores financieros adecuados la empresa encontrará el rumbo correcto
IV. INDICADORES FINANCIEROS Y SU INTERPRETACION Las razones o indicadores financieros son el producto de establecer resultados numéricos basados en relacionar dos cifras o cuentas bien sea del Balance General y/o del Estado de Pérdidas y Ganancias. Los resultados así obtenidos por si solos no tienen mayor significado; sólo cuando los relacionamos unos con otros y los comparamos con los de años anteriores o con los de empresas del mismo sector y a su vez el analista se preocupa por conocer a fondo la operación de la compañía, podemos obtener resultados más significativos y sacar conclusiones sobre la real situación financiera de una empresa. Adicionalmente, nos permiten calcular indicadores promedio de empresas del mismo sector, para emitir un diagnóstico financiero y determinar tendencias que nos son útiles en las proyecciones financieras.
El analista financiero, puede establecer tantos indicadores financieros como considere necesarios y útiles para su estudio. Para ello puede simplemente establecer razones financieras entre dos o más cuentas, que desde luego sean lógicas y le permitan obtener conclusiones para la evaluación respectiva. Para una mayor claridad en los conceptos de los indicadores financieros, los hemos seleccionado en cuatro grupos así:
1. Indicadores de liquidez 2. Indicadores operacionales o de actividad 3. Indicadores de endeudamiento 4. Indicadores de rentabilidad
EL ANALISIS SENCIBLE MEDIANTE ECENARIOS
EL ANÁLISIS DE SENSIBILIDAD Y LA CONSTRUCCIÓN DE ESCENARIOS El análisis de sensibilidad consiste en determinar cómo e l valor presente neto del proyecto es afectado por el comportamiento de ciertas variables, las cuales son relevantes para su cálculo. Siguiendo la explicación presentada por Garay y Gonzales, en su libro Fundamentos de Finanzas, para realizar el análisis debemos seguir los siguientes pasos: - En primer lugar determinar cuáles son las variables que intervienen en el cálculo del VPN. El valor presente neto es una función del monto de la inversión inicial, la tasa de descuento, el precio de venta de los bienes y/o servicios producidos por el proyecto, las cantidades vendidas, los costos y todas aquellas variables que consideremos de relevancia para calcularlo. Recordemos que el VPN es el resultado de sumar a la inversión inicial los flujos de efectivo que generará el proyecto descontados (o traídos) al momento donde esta se realizará. - Una vez que tenemos claro cuáles son estas variables, debemos determinar un rango para que fluctúen. Este análisis, según la opinión de los autores antes citados, debe ser realizado por conocedores del área en la que esté ubicada nuestro proyecto, para tener cierto grado de confiabilidad en la estimación. - Luego calculamos el VPN esperado. - Y por último hacemos fluctuar, una por una, las variables dentro del rango estimado para conocer de qué manera se comporta el VPN. En este punto se nos presenta una complejidad, ya que debemos calcular la variación del VPN esperado, cuando sólo una de las variables se “mueve” y las otras se mantienen constantes. Esta condición es l o que se conoce como “ceteris paribus” y que en palabras más sencillas nos indica que debemos determinar cómo varía el VPN cuando “movemos” por ejemplo la inversión inicial y
mantenemos constantes los valores del costo, tiempo, precios, cantidades, etc. Todos estos cálculos, que se realizan utilizando derivadas parciales, nos permiten la construcción de tres escenarios en los cuales podríamos estarnos manejando, uno optimista, uno más probable y uno pesimista. El optimista, donde el VPN efectivo, es superior al esperado, el pesimista con un VPN efectivo inferior al esperado y el más probable donde el VPN efectivo es igual al esperado.
Como podemos observar el VPN es lo suficientemente relevante para representar la situación de un proyecto en un momento determinado, en el que alguna de las variables del que este depende fluctúe. Pero para entender mejor de que va el análisis de sensibilidad y la creación de escenarios utilicemos un ejemplo de la vida real: Supongamos que nuestra variable de decisión, similar al VPN para un proyecto, es la hora en la que llegamos a nuestro trabajo, digamos a las 8 de la mañana. Esto sucederá si despertamos a las 6 am y el sistema de subterráneo funciona correctamente. Tenemos entonces una variable con valor esperado (la hora de llegar al trabajo) que dependerá de otras dos variables: la hora de despertar y que el subterráneo trabaje como debe ser. Qué pasaría entonces si en vez de despertar a las 6 lo hiciera a las 7 am dado que el subterráneo no presenta ningún contratiempo. Seguramente llegaríamos tarde al trabajo, a las 8.30 am y recibiríamos una amonestación. Este sería un primer escenario que podríamos considerar pesimista. Por otra parte si despertamos a las 5.30 am seguramente estaremos en nuestra oficina a un cuarto para las 8, lo que podríamos considerar un escenario optimista. Por último el escenario más probable es que despertemos a las 6 y estemos en el trabajo a las 8 am. Aunque muy simple, este ejemplo nos permite ver de qué se trata la construcción de escenarios y el análisis de sensibilidad. Determinamos que sucede con nuestra variable de decisión, en este caso la hora de llegada al trabajo, en función del comportamiento de las variables hora de despertar y funcionamiento del transporte público.
REGISTROS DE VARIABLES POR SUBSISTEMAS
Los registros variables son registros improvisados que el llamador supone que se van a destruir durante una llamada. Los registros no variables deben retener sus valores durante una llamada a una función y el destinatario debe guardarlos si los utiliza. La tabla siguiente describe cómo se utiliza cada registro durante las llamadas a funciones:
Register
Estado
Uso
RAX
Variable
Registro de valor devuelto
RCX
Variable
Primer argumento de tipo entero
RDX
Variable
Segundo argumento de tipo entero
R8
Variable
Tercer argumento de tipo entero
R9
Variable
Cuarto argumento de tipo entero
R10:R11
Variable
Se debe conservar según requiera el llamador; se utiliza
R12:R15
No variable
Debe ser conservado por el destinatario
RDI
No variable
Debe ser conservado por el destinatario
RSI
No variable
Debe ser conservado por el destinatario
RBX
No variable
Debe ser conservado por el destinatario
RBP
No variable
Se puede utilizar como un puntero de marco; debe ser co
RSP
No variable
Puntero de pila
XMM0
Variable
Primer argumento FP
XMM1
Variable
Segundo argumento FP
XMM2
Variable
Tercer argumento FP
XMM3
Variable
Cuarto argumento FP
XMM4:XMM5
Variable
Se debe conservar según lo requiera el llamador
XMM6:XMM15
No variable
Se debe conservar según lo requiera el destinatario
INTEGRACION DE HOJA DE CÁLCULO Las hojas de cálculo se emplean para anunciar la interpretación entre las distintas variables del diseño, mediante que los cálculos suplementarios son llevados a cabo por cajas negras preparadas por el instructor este efecto sinérgico permite que se puedan investigar los conceptos de síntesis más relevantes aislando al estudiante de las complejidades matemáticas y numéricas involucradas en la resolución del modelo propuesto.
Desde el gestor de archivos de GDocs haz clic sobre el título de una hoja de cálculo para acceder al editor de la misma.
Una vez situado en el editor de la presentación, elige Archivo > Publicar en la Web. En el panel Publicar en la Web se pueden publicar Todas las hojas o sólo una hoja en concreto. Marca la opción Volver a publicar automáticamente cuando se realicen los cambios. Clic en el botón Iniciar la publicación.
En la sección Obtener un enlace a los datos publicados elige una de las siguientes opciones:
Página web. Proporciona la URL de una página HTML que muestra el contenido de la hoja de cálculo. Se podría utilizar para crear un enlace en una entrada de nuestro blog. Código HTML para insertar en una página. Proporciona el código HTML que insertar en el artículo de tu blog. CSV, TXT, PDF, … Proporciona un enlace para la descarga de la hoja de cálculo en uno de los formatos elegido. Este enlace se podría utilizar para crear un enlace en un artículo del blog.
UNIDAD 3 OBTENCION ANALISIS Y CONTROL DEL COSTO DEL CAPITAL PROMEDIO Y PONDERADO
UNIDAD 4 VALORACIÓN UTILIZANDO ANÁLISIS DISCRIMINANTE