INDICE I. PROBLEMA 1.1 Planteamiento del problema 1.2 Formulación del problema 1.2.1 Problema general 1.2.2 Problemas específicos II. OBJETIVOS 2.1 Objetivo general 2.2 Objetivos específicos III. JUSTIFICACIÓN E IMPORTANCIA IV. FUNDAMENTACIÓN TEÓRICA 4.1 Antecedentes 4.2 Bases teóricas 4.2.1 ¿Qué es seis sigma? 4.2.2 ¿Por qué usar seis sigma? 4.2.3 Fundamentos seis sigma 4.2.4 Filosofía seis sigma 4.2.5 Aplicación de seis sigma usando la metodología DMAIC 4.2.6 Formación del equipo seis sigma 4.2.7 Funciones de los miembros del equipo 4.2.8 Fase I 4.2.8.1 Definir 4.2.8.1.1 Project charter 4.2.8.1.2 Enfoque del proyecto 4.2.8.1.3 Estratificación de ideas 4.2.8.1.4 Análisis de Pareto 4.2.8.1.5 Métricas (CTQ) 4.2.8.2 Medir 4.2.8.2.1 Mapeo de procesos 4.2.8.2.2 Diagrama de flujo 4.2.8.2.3 SIPOC 4.2.8.2.4 Definir métricas 4.2.8.2.5 Validación del sistema de medición 4.2.8.2.5.1 Gage R&R continuo 4.2.8.2.5.2 Gage R&R discreto 4.2.8.2.6 Determinación de la línea base 4.2.9 Fase II 4.2.9.1 Análisis 4.2.9.1.1 Análisis de valor 4.2.9.1.2 Análisis de fuentes de variación 4.2.9.1.3 Regresión y correlación 4.2.9.1.4 Diseño de experimentos 4.2.10 Fase III 4.2.10.1 Aplicación de mejoras 4.2.10.2 Técnicas lean para optimizar procesos 4.2.10.3 Uso de modelos de optimización (DOE)
4.2.11 Fase IV 4.2.11.1Validación del sistema de medición del proceso mejorado 4.2.11.2Elaboración del plan de control 4.2.11.3Mecanismos de control para asegurar el mantenimiento de las mejoras 4.3 Glosario de términos técnicos V. CASOS PRÁCTICOS 5.1 Manufactura 5.1.1 Incremento de la productividad (datos continuos) 5.1.2 Reducción de mermas y defectos (datos discretos) 5.2 Servicios 5.2.1 Reducción de reclamos 5.2.2 Incremento de la satisfacción del cliente VI. REFRENCIAS BIBLIOGRÁFICAS VII.APÉNDICES
PRÓLOGO
Este manual de aplicación se fundamenta en una suposición Universal: LO L ÓGICO Y NATURA L DEL SER HUMANO ES LA MEJORA CONSTANTE…
Sin embargo si lo lógico y natural del ser humano es mejorar, entonces: ¿P o r q u ées tan ta n d i f íc i l m e j o r ar e n l a s o r g an i za c i o n es ?
Philip Crosby y E. Deming explican este fenómeno diciendo que: El problema no es cuando la dirección no sabe qué hacer para mejorar, el problema está cuando cree saberlo… De esta percepción errónea nacen planes que no solucionan nada y la mayoría de las veces empeoran la situación (E. Deming) Dicho esto, este manual toma como base para su propuesta los conceptos vertidos por Kasukiyo Kurosawa, quien sostenía que para mejorar un indicador debemos conocer profundamente los factores y sub factores que explican su comportamiento, es decir, el fundamento de la metodología Six Sigma, esto es: f(x )= Y El núcleo fundamental de la metodología Six sigma se basa en identificar las X vitales (factores y subfactores) que explican el comportamiento del indicador (mediante pruebas de hipótesis, regresiones y Diseños de Experimento), plantear soluciones robustas que buscan corregir y prevenir que estas causas se vuelvan a presentar, así como implementar mecanismos de control para monitorear dichas variables a fin de mantenerlas bajo control.
Ing. Lean Six Sigma MBB Giovann y Mendoza Bastidas
I. PROBLEMA 1.1 Planteamiento del problema El bajo nivel de competitividad que aún presentan muchas de de las empresas de nuestro país nos resta participación en los grandes mercados mundiales. Hoy la competitividad se ha convertido en una necesidad ineludible para sostener el crecimiento empresarial y el de las naciones, en este contexto el Perú presenta uno de los niveles más bajos de competitividad empresarial, según el Reporte de Competitividad Mundial 2002/2005. 1.2 Formulación del problema 1.2.1 Problema general Existe un bajo nivel de competitividad de nuestras empresas nacionales sobre todo en temas relacionados a la calidad y productividad. 1.2.2 Problemas específicos Bajo nivel de desempeño de los procesos en la industria nacional. Alto nivel de sobrecostos en la industria nacional por mala calidad, reprocesos, rechazos, etc. II. OBJETIVOS 2.1 Objetivo general Dar a conocer la metodología DMAIC para lograr altos niveles de desempeño 2.2 Objetivos específicos Incrementar los niveles de desempeño Reducción de costos por mala calidad III. JUSTIFICACIÓN E IMPORTANCIA El presente manual está orientado a mostrar la forma de cómo aplicar de forma sencilla y práctica la metodología DMAIC en proyectos de mejora para pequeñas, medianas y grandes industrias a fin de lograr altos niveles de desempeño.
IV. FUNDAMENTACIÓN TEÓRICA La búsqueda de la calidad como tal no es un tema nuevo en los negocios modernos. La buena calidad es el conductor de la organización a obtener ventajas más competitivas, además de reducir costos por devoluciones, reacondicionamientos y desperdicios. Una buena calidad incrementa en sentido amplio la productividad, las uti lidades y otras medidas de éxito. Pero lo más importante, la buena calidad genera clientes satisfechos, que permiten a las organizaciones contar con el apoyo continuo de estos clientes y con publicidad transmitida de boca en boca (Garza, 2006).
4.1 Antecedentes
La pintura mural egipcia que data de 1450 A.C., muestra evidencia de medición e inspección. En la edad media en Europa, el artesano hábil fungía tanto de fabricante como de inspector por estar él ligado directamente al cliente. A principios de 1900, Frederick W. Taylor estableció una nueva filosofía de la producción. Su filosofía era separar la función de planeación de la función de ejecución, permitiendo a los productores proporcionar productos de buena calidad pero a un costo muy elevado. Los defectos existían, pero se eliminaban por la inspección, y los productores empleaban cientos, incluso miles de inspectores. La inspección fue por lo tanto, el medio principal para el control de calidad durante la primera mitad del siglo XX. En 1924 se diseñaron las primeras gráficas de control de variabilidad en un producto, utilizándose por primera vez el muestreo de aceptación para sustituir la inspección al 100%. En 1942 se reconoce la importancia del control estadístico de la calidad. Durante la segunda guerra mundial, las fuerzas armadas estadounidenses empezaron a utilizar procedimientos estadísticos de muestreo y a imponer a sus proveedores normas muy severas. Fueron desarrolladas las tablas de muestreo MIL-STD, por estándar militar (Military Standard), que todavía se utilizan ampliamente. La primera publicación profesional de esta disciplina “Industrial Quality Control”, apareció por primera
vez en 1944. En 1946 nace la American Society for Quality Control (ASQC) que ahora se conoce como American Society for Quality. En 1950 W. Edwards Deming, impartió en empresas de Japón sus conferencias sobre métodos estadísticos. En 1954 Joseph Jurán visita Japón para enfatizar el papel de los directivos en la obtención de calidad en las empresas. Antes de la década de los cincuenta, la atención se había centrado en el control estadístico del proceso, ya que de esta forma era posible tomar medidas adecuadas para prevenir los defectos. Este trabajo se consideraba responsabilidad de los estadísticos. Sin embargo, era necesario que quedara asegurado el mejoramiento de la calidad logrado, lo cual significaba que había que desarrollar profesionales dedicados al problema del aseguramiento de la calidad, que más aún había que involucrar a todos en el logro de la calidad. Y todo lo cual requería un compromiso mayor por parte de la administración (Garza, 2006). A finales de los ochenta las empresas encontraron un nuevo credo: la calidad total. Las empresas que se limitaban a hacer el control a posteriori de su única calidad presentaron la quiebra una tras otra. Las empresas de hoy si quieren sobrevivir, deben trabajar para sus clientes más que para sí misma (Bahena, 2006) Philip Crosby popularizó el concepto de Cero Defecto como orientación para el control de calidad. Este enfoque establece la meta de resultados que carezcan de errores al 100 por ciento. Crosby sostiene que si se establece un nivel “aceptable” de
defectos, ello tiende a provocar que dicho nivel, o uno más alto, se conviertan en una profecía que se cumple; Si los empleados saben que está “bien”
trabajar dentro de un nivel determinado de errores, llegarán a considerar que ese nivel es la “norma”. Es evidente que dicha “norma” está por debajo de lo
óptimo. Crosby sostiene que a las personas se le establecían estándares de desempeño mucho más holgados en sus trabajos que lo que regían sus vidas personales. “Ellos esperaban hacer las cosas bien, cuando se tra taba de sostener a un bebé, de pagar las facturas o de regresar temprano a la casa correcta. En cambio, en los negocios se les fijaban “niveles aceptables de calidad”, márgenes de variación y desviaciones (Bahena y Reyes, 2006). La idea de un “porcentaje de error aceptable” (a veces denominado un “nivel de calidad aceptable”) es un curioso remanente de la era del “control” de calidad.
En aquellos tiempos, se podían encontrar maneras de justificar estadísticamente las naturales fallas humanas, sosteniendo que nadie podía ser posiblemente perfecto. De modo que si el 100% es inalcanzable, ¿por qué no conformarse con el 99%, e incluso con el 95%? Entonces, si alcanzáramos el 96,642%, podríamos dar una fiesta y celebrar el hecho de haber superado los objetivos. La cuestión es que el 96,642% significa que de 100.000 transacciones efectuadas por un servicio, 3.358 resultarían desfavorables. Como las fallas de uno entre mil paracaidistas. Los clientes insatisfechos, aquellos que habrían estado fuera del porcentaje de transacciones perfectas, no regresarían jamás (Bahena, 2006). La historia de Seis Sigma se inicia en Motorola cuando el ingeniero Mikel Harry comienza a influenciar en la organización para que se estudie la variación en los procesos (enfocado en los conceptos de Deming), como una manera de mejorar los mismos. Estas variaciones son lo que estadísticamente se conoce como desviación estándar alrededor de la media, la cual se representa por la letra griega sigma (σ). Esta iniciativa se convirtió en el punto
focal del esfuerzo para mejorar la calidad en Motorola, capturando la atención del entonces CEO de Motorola: Bob Galvin. Después de Motorola ganó el Malcolm Baldrige National Quality Award en 1988, el secreto de su éxito se hizo de conocimiento público y la revolución Seis Sigma se puso en marcha. Con el apoyo de Galvin, se hizo énfasis no sólo en el análisis de la variación sino también en la mejora continua, estableciendo como meta obtener 3,4 defectos (por millón de oportunidades) en los procesos; algo casi cercano a la perfección. Esta iniciativa llegó a oídos de Lawrence Bossidy, quién en 1991 y luego de una exitosa carrera en General Electric, toma las riendas de Allied Signal para transformarla de una empresa con problemas en una máquina exitosa. Durante la implantación de Seis Sigma en los años 90 (con el empuje de Bossidy), Allied Signal multiplicó sus ventas y sus ganancias de manera dramática. Este ejemplo fue seguido por Texas Instruments, logrando el mismo éxito. Durante el verano de 1995 el CEO de GE, Jack Welch, se entera del éxito de esta nueva estrategia de boca del mismo Lawrence Bossidy, dando lugar a la mayor transformación iniciada en esta enorme organización. El empuje y respaldo de Jack Welch transformaron a GE en una "Organización
Seis Sigma", con resultados impactantes en todas sus divisiones (Bahena y Reyes, 2006).
Algunos Logros en el Mundo Hahn et al . (2000) y Harry (1998) citados por Gutiérrez y de la Vara (2004) presentan algunos resultados logrados por varias compañías gracias a Seis Sigma: Motorola logró aproximadamente 1000 millones de dólares en ahorros durante tres años y el premio a la calidad Malcom Baldrige en 1988.
Allied Signal, compañía de diversas aéreas como la aeroespacial, automotriz y materiales, que cuenta con más de 70 mil empleados e ingresos anuales aproximados de 25 mil millones de dólares, logró más de 2000 millones de dólares en ahorros entre 1994 y 1999.
General Electric, gigante corporativo internacional en diversas áreas como la aeroespacial, entretenimiento, equipo médico, etc. tiene más de 300 mil empleados y su capital supera los 450 mil millones de dólares, alcanzo más de 2250 millones de dólares en ahorros en dos años (19981999).
Algunos Logros en Latinoamérica Carrillo (2011) sostiene que se han obtenido los siguientes logros:
Business Engineering IDC. Jul. 2003 – Feb. 2004. Implantar mejoras a través de 6 Sigma en los procesos críticos de América Latina y el Caribe (entrega de Estados de Cuenta, emisión de Tarjetas, recepción de Pagos) y en el área de Riesgos. Implantar Círculos de Calidad a través de programas de entrenamiento cruzado. Logros: Generación de ahorros operativos por $ 800 000 dólares. Mejora del 35% en la confiabilidad de los sistemas para categorización de llamadas en el Call Center.
Critical Processes. Jul. 2001 – Jul. 2003. Mejorar los procesos de Adquisición de Clientes y procesos críticos de América Latina y el Caribe. Implantar nuevos productos y servicios para Puerto Rico. Logros: Ahorros operativos por $ 1 300 000 dólares. Disminución de riesgos por demandas ante el gobierno de EEUU.
Business Engineering IDC. México. Ene. 2000 – Jun 2001. Diseñar el Modelo de Servicio para América Latina y el Caribe. Mapeo de los procesos de negocio en visitas a Puerto Rico, Bahamas, Costa Rica y Panamá. Rediseño de la estructura organizacional de la Vicepresidencia de Operaciones y el área de Reingeniería. Logros: Ahorros operativos por $ 800 000 dólares. Disminución de la plantilla de Operaciones en 20% sin impactos en los niveles de servicio.
4.2 Bases teóricas 4.2.1 ¿Qué es seis sigma? Forma de dirigir un negocio o un departamento, sistema de dirección para lograr un liderazgo duradero en el negocio y un desempeño de primer nivel en un ámbito global (Lefcovich, 2005), filosofía de trabajo y una estrategia de negocios que se basa en el enfoque hacia el cliente, un manejo eficiente de los datos y metodologías y diseños robustos, que permite eliminar la variabilidad en los procesos y alcanzar un nivel de defectos menor o igual a 3 ó 4 defectos por millón de oportunidades de error (Arias et al., 2008). Es una estrategia de mejora de negocios, impulsado por la alta dirección con apoyo de una estructura directiva y técnica, que busca encontrar y eliminar causas de errores o defectos en los procesos de negocio enfocándose a los resultados que son de importancia crítica para el cliente generando soluciones de fondo y nuevas formas de hacer las cosas (Proces Consultores, 2006; Reyes, 2004). Medida estadística del nivel de desempeño de un proceso o producto (Lefcovich, 2005), implementación rigurosa, concentrada y altamente efectiva de los principios y técnicas comprobados de calidad manifestado como una respuesta a la creciente expectativa de los clientes y la creciente complejidad de los productos y procesos modernos (Pyzdek y Keller, 2010). Es una estrategia de gestión que usa herramientas estadísticas y métodos de proyectos para lograr mejoras en calidad y utilidades significativas (Reyes, 2004). Un objetivo de lograr casi la perfección mediante la mejora del desempeño (Lefcovich, 2005). Cuadro 1. Los Costos de Calidad y Seis Sigma
Nivel Sigma
Rendimiento Largo Plazo (%)
Defectos por Millón de Oportunidades de error (DPMO)
Costo de Calidad (%Ventas)
1
30,9
690 000
NA
2
69,2
308 000
NA
3
93,3
66 800
25 – 40
4
99,4
6 210
15 – 25
5
99,98
320
5 – 15
6
99,9997
3,4
<5
Proces Consultores (2006)
1.1.1 ¿Por qué usar seis sigma? Reyes (2004) y Lefcovich (2005) manifiestan que la aplicación de la Metodología Seis Sigma nos permite alcanzar los siguientes beneficios:
Reducciones de costo debido a la disminución de defectos y errores, máximo 3,4 defectos por millón de oportunidades. Reducir la variación de calidad. Mejoras en las utilidades y la productividad. Mejora en la satisfacción del cliente (lealtad y participación de mercado). Reducciones de tiempos de ciclo. Cambios culturales. Eliminar burocratismo en los procesos y las actividades que no agregan valor. Construcción de una reputación de empresa de excelencia. Capturar nuevos mercados.
1.1.2 Fundamentos seis sigma Gutiérrez y De la Vara (2009) señalan que Seis Sigma se rige bajo 12 principios. 1.
2.
3.
4.
5.
6.
Liderazgo comprometido de arriba hacia abajo. Esta metodología implica un cambio en la forma de realizar las operaciones y de tomar decisiones. La estrategia se apoya y compromete desde los niveles más altos de la dirección y la organización. Seis Sigma se apoya en una estructura directiva que incluye de gente de tiempo completo. La forma de manifestar el compromiso por Seis Sigma es creando una estructura directiva que integre líderes de negocio, de proyectos, expertos y facilitadores. Cada uno de los líderes tiene roles y responsabilidades específicas para formar proyectos de mejora. Entrenamiento. Cada uno de los actores del programa de Seis Sigma requiere de un entrenamiento específico. Varios de ellos deben tomar un entrenamiento amplio, conocido como currículo de un Black Belt. Acreditación. Esto implica que para cada alcanzar cada uno de los niveles de los actores de Seis Sigma implica esfuerzo, recepción del entrenamiento y garantizar que se tienen la experiencia y conocimientos que exigen la distinción. Orientada al cliente y enfocada a los procesos. Esta metodología busca que todos los procesos cumplan con los requerimientos del cliente y que los niveles de calidad y desempeño cumplan con los estándares de Seis Sigma. Al desarrollar esta metodología se requiere profundizar en el entendimiento del cliente y sus necesidades. En base a ese estudio sobre el cliente se diseñan y mejoran los procesos. Seis Sigma se dirige con datos. Los datos y el pensamiento estadístico orientan los esfuerzos de esta metodología- Los datos son necesarios para identificar las variables de calidad y los procesos y áreas que tienen que ser mejorados.
Seis Sigma se apoya en una metodología robusta. Se requiere de una metodología para resolver los problemas del cliente, a través del análisis y tratamiento de los datos obtenidos. 8. Seis Sigma se apoya en entrenamiento para todos sobre la Metodología DMAIC. Por lo general, la capacitación se da sobre la base de un proyecto que se desarrolla de forma paralela al entrenamiento, lo cual proporciona un soporte práctico. 9. Los proyectos realmente generan ahorros o aumento en ventas. Esto implica varias cosas: se seleccionan problemas claves que atienden las verdaderas causas, se generan soluciones de fondo y duraderas, y se tiene un buen sistema para evaluar los logros del proyecto. 10. El trabajo por Seis Sigma se reconoce. Seis Sigma se sostiene a lo largo del tiempo reforzando y reconociendo a los líderes en los que se apoya el programa, así como a los equipos que logran proyectos DMAIC exitosos. 11. Seis Sigma es una iniciativa con horizonte de varios años, por lo que no desplaza otras iniciativas estratégicas, por el contrario se integra y las refuerza. Seis Sigma es un enfoque muy poderoso. 12. Seis Sigma se comunica. Los programas de Seis Sigma se basan en una política intensa de comunicación entre todos los miembros y departamentos de una organización, y fuera de la organización. Con esto se adopta esta filosofía en toda la organización. 7.
1.1.3 Filosofía seis sigma Pyzdek y Keller (2010) explica que la filosofía Seis Sigma se centra en la atención a los grupos de interés de la empresa. Es una mentalidad de causa y efecto. Sistema de gestión bien diseñados y procesos empresarial operado por empleados felices producen que clientes y propietarios estén satisfechos o contentos. Por supuesto, nada de esto es nuevo. La mayoría de los líderes de organizaciones tradicionales creen honestamente que ya hacen esto. Lo que distingue el enfoque tradicional de Seis Sigma es el grado de rigor y compromiso con los principios básicos.
1.1.4 Aplicación de seis sigma usando la metodología DMAIC Pries (2006) afirma que dentro de Seis Sigma se tienen diferentes metodologías las cuales son diferentes en fines y usos. Una de las principales es la Metodología DMAIC que es la sigla de Define – Measure – Analyze – Improve – Control. Se utiliza para mejorar procesos ya existentes. Este proceso, que es conducido por datos, consiste en mejorar procesos ya existentes y está compuesto por cinco fases que se listan a continuación y que son graficados en la Figura 1: 1. Definición 2. Medición 3. Análisis 4. Mejora (Improve) 5. Control
Figura 1. Las 5 Etapas en la realización de un Proyecto 6 Sigma DMAIC Fuente: Gutiérrez y De la Vara (2008)
Formación del equipo seis sigma Gutiérrez y De la Vara (2008) resaltan que la forma de manifestar compromiso por seis Sigma es creando una estructura directiva que integre líderes del negocio, líderes de proyectos, expertos y facilitadores. Donde cada uno tiene roles y responsabilidades específicas para lograr proyectos de mejora exitosos. Los roles, tomados de las artes marciales, que usualmente se reconocen dentro de Seis Sigma son: líder ejecutivo, Champions (campeones o patrocinadores), Master Black Belt (Maestro Cinta Negra), Black Belt (Cinta Negra), Green Belt (Cinta Verde) y Yelow Belt (Cinta Amarilla). La Figura 2 y el Cuadro 2 nos muestran dichos roles. Cuadro 2. Actores y Roles en Seis Sigma Nombre
Rol
Característic as
Capacitación a recibir
Líder de Implementaci ón
Dirección del comité directivo para 6 Suele tener una jerarquía sólo por debajo del máximo líder ejecutivo de la organización.
Profesional con experiencia en la mejora empresarial en calidad. Es muy respetado en la estructura directiva.
Liderazgo, calidad, conocimiento estadístico básico. Entendimiento del y de su metodología DMAIC.
Acreditació n
Champions y/
o Patrocinadore s
Master Black Belt (MBB)
Black Belt (BB)
Gerentes de Planta y Gerentes de Área. Son los dueños de los problemas. Establecen problemas y prioridades. Responsables de garantizar el éxito de la implementaci ón 6 áreas de influencia. Dedicados a tiempo completo, un 100%, al 6 Brindan asesoría y tienen la responsabilid ad de mantener una cultura de calidad dentro de la empresa. Dirigen o asesoran proyectos clave. Son mentores de los Black Belt .
Gente dedicada a tiempo complete a y asesoran proyectos.
Liderazgo, calidad, Aprobar conocimiento examen Dedicación, estadístico teórico entusiasmo, fe básico, y un buen práctico en sus entendimiento del acerca de las proyectos, Programa Seis generalidade capacidad Sigma, así como s de Seis para de su Sigma y el administrar. metodología de Proceso desarrollo de DMAIC. proyecto DMAIC.
Habilidades y conocimientos técnicos, estadísticos y en liderazgo de proyectos.
Haber dirigido cuando menos un Requieren amplia proyecto formación de exitoso y estadística y en asesorado los métodos de 20 proyectos 6 exitosos. preferencia Aprobar Maestría en examen Estadística o en teórico Calidad, y recibir práctico el acerca del entrenamientoBla currículo Bla ck Belt. ck Belt y aspectos críticos de Seis Sigma.
Capacidad de comunicación. Reconocido por el personal por su experiencia y conocimientos . Gente con futuro en la empresa.
Haber dirigido dos proyectos exitosos y asesorado cuatro. Recibir el Aprobar entrenamientoBla examen ck Belt con una teórico base estadística práctico sólida. acerca del currículo Bla ck Belt y aspectos críticos de Seis Sigma.
Green Belt (GB)
Ingenieros, analistas financieros y expertos técnicos en el negocio. Atacan problemas de sus áreas y están dedicados a tiempo parcial
Trabajo en equipo, motivación, aplicación de métodos DMAIC, capacidad para dar seguimiento.
Haber sido el líder de dos proyectos exitosos. Recibir el Aprobar entrenamientoBla examen ck Belt . teórico práctico acerca del currículo Bla ck Belt .
Conocimiento de los problemas, motivación y voluntad de cambio.
Haber participado Cultura básica de en un calidad y proyecto. entrenamiento en Aprobar herramientas examen estadísticas teórico básicas, DMAIC y práctico en solución de acerca del problemas. entrenamient o básico que recibe.
Participan y lideran Equipos Seis Sigma.
Yelow Belt (YB)
Personal de piso que tiene problemas en su área.
Fuente: Gutiérrez y De la Vara (2008)
Figura 2. Estructura Directiva y Técnica de Seis Sigma Fuente: Gutiérrez y De la Vara (2008)
1.1.1 1.1.2 Funciones de los miembros del equipo Pyzdek y Keller (2010) nos resume las principales tareas y responsabilidades del equipo Seis Sigma durante el desarrollo de Proyectos DMAIC y se visualizan en el Cuadro 3. Cuadro 3. Tareas y Responsabilidades Típicas de Proyectos DMAIC
Tarea Marco del Proyecto (Project Charter) Identificar oportunidades de mejora Identificar Patrocinador Estimar el ahorro Borrador del Marco del Proyecto Revisión semanal del Proyecto por Patrocinador Definir Selección del equipo Completar el Marco del Proyecto Formación del equipo Revisar la documentación existente del
Responsable Black Belt Black Belt Black Belt Black Belt , Patrocinador Patrocinador, Black Belt
Patrocinador, Black Belt Black Belt Black Belt, Green Belt
Miembro del equipo,
proceso Definir los objetivos y el Plan del Proyecto Presentar los objetivos y el Plan de Gestión Definir y mapear el proceso tal como está Revisar y redefinir el problema, si es necesario Patrocinador Medir
Experto del Proceso Equipo
Identificar CTQ’s
Black Belt, Green Belt
Recopilar datos sobre subtareas y ciclos de tiempo Validar sistema de medición
Equipo
Green Belt
Equipo, Experto del Proceso Equipo
Black Belt, Operador del
Proceso
Analizar Preparar los gráficos de base sobre las subtareas / tiempo de ciclo Analizar los impactos, por ejemplo, subtareas, Pareto, etc. Utilizar a los subequipos para analizar el tiempo y el valor, riesgos de gestión Comparar con otras empresas Discutir los resultados preliminares de los subequipos Consolidar los análisis/resultados de los subequipos Mejorar Presentar recomendaciones a los propietarios del proceso y operadores Revisar recomendaciones/formulaciones pilotos Preparar el proceso piloto mejorado Prueba de proceso mejorado (Prueba Piloto) Analizar piloto y resultados Desarrollar el Plan de Ejecución Preparar Presentación Final Presentar recomendaciones finales al equipo de gestión Control Definir el control de métricas
Black Belt, Green Belt Black Belt, Green Belt
Equipo Miembro del Equipo Equipo Equipo Patrocinador, Equipo Equipo, Black Belt Equipo, Responsable del Proceso Operador de Proceso Black Belt, Green Belt
Equipo, Responsable del Proceso Equipo Green Belt
Black Belt, Green Belt ,
Experto del Proceso Desarrollar herramientas de recolección de métricas o indicadores Despliegue de proceso mejorado Despliegue de métricas o indicadores de control
Black Belt
Responsable del Proceso Responsable del Proceso
Proceso de monitoreo mensual utilizando indicadores de control
Responsable del Proceso,Black Belt
Fuente: Pyzdek y Keller (2010)
Fase I 1.1.2.1 Definir El propósito de esta fase, según Bahena (2006), es identificar el problema a resolver, estratificando tanto como sea posible, por ejemplo: el reclamo de un cliente por falla, identificar la familia de productos por importancia mediante el uso del diagrama de Pareto, después identificar el producto, la línea donde se hace, el equipo específico, etc. En este momento ya se puede definir el problema y la oportunidad de mejora. En esta primera fase de la metodología de Seis Sigma, se trata de detectar cual es el problema, definir los CTQ´s (Criticos para la calidad) con base en la voz del cliente (VOC), el impacto que tiene para el negocio la realización del el proyecto, las metas que se pretenden lograr, el alcance y los ahorros financieros. Objetivos de la Fase Definir Según Bahena y Reyes (2006), los objetivos de esta fase son: Definición del problema. Establecer el Alcance del proyecto. Conocer el uso de las herramientas de la fase de definición. Herramientas de la Fase Definir Para Bahena (2006) las herramientas a utilizar son: 1. Mapa de Proceso. 2. Despliegue de la Funcion de Calidad (QFD). 3. Modelo Kano. 4. Diagrama Matricial. 5. Benchmarking. 6. Costos de Calidad.
1.1.2.1.1 Project Charter Pyzdek y Keller (2010) aseguran que el plan oficial y la autorización para el proyecto se resumen en el Marco del Proyecto Seis Sigma, como se muestra en la Figura 2. El Marco del Proyecto es un contrato entre el equipo del proyecto y su patrocinador. Por lo tanto, cualquier cambio en los elementos críticos de alcance, los objetivos, o programación requieren de la aprobación del patrocinador y el consenso del equipo. Los documentos implicados en el marco del proyecto, el por qué, cómo, quién y cuándo, incluyendo los siguientes elementos: Declaración del problema. Objetivo o propósito del proyecto, incluyendo la necesidad abordada del negocio. Alcance.
Entregables,
es decir, las medidas objetivas de éxito que se utilizarán para evaluar la efectividad de los cambios propuestos, como se verá posteriormente. El Patrocinador y los grupos de interés. Los miembros del equipo. Cronograma del proyecto, mediante el uso de Gráficos de Gantt o PERT como un archivo adjunto. Otros recursos necesarios. 1.1.2.1.2 Enfoque del proyecto Bahena (2006) afirma que los problemas en un posible proyecto se pueden dar debido a muchos factores, como: devoluciones, bajo nivel de servicio, entregas tardías, desperdicios, producto defectuoso, documentos inadecuados. El problema se selecciona basándose en las políticas de la organización, al grupo de trabajo, jefe inmediato y a los resultados de sus actividades diarias. Algunos criterios para seleccionar el problema son: Seguridad. Calidad. Costo. Entrega. Nivel de servicio. Cuadro 4. Ejemplo de Marco de Proyecto
Nombre Proyecto/Título
Eficiencia en Procesamiento de Órdenes
Fecha de Inicio:
17/09/2011
Problema / Descripción del Proyecto: La capacidad actual Área de Ventas/Atención al Cliente es limitado, mientras que existen oportunidades sin explotar para aumentar las ventas. Debemos limitar, hasta donde sea posible, la participación en el proceso de venta a fin de liberar recursos para realizar un seguimiento activo y generar ventas. Además, los errores y/o deficiencias en la información obtenida durante el procedimiento de procesamiento de pedidos tienen un impactonegativo sobre el tiempo necesario sobre la velocidad de generación y/o recepción de,marketing por correo electrónico y renovaciones de software para los clientes existentes. Esto tiene un especial impacto potencialmente grande, ya que requiere corrección por parte del personal de ventas senior, que tendrá más tiempo para relacionarse con los clientes, desarrollar actividades de marketing, o trabajar con el personal de desarrollo de productos. Alcance del Proyecto (Proceso, Producto, Áreas Funcionales): Limitada a productos de software. Objetivos y Metas del Línea de Métrica Meta Proyecto Base
Disminuir tiempo de ciclo y costos específicos de las $ 32 $ 16 actividades del Departamento Costo / Orden Descarga Descarga de Ventas: $ 40 Envío $ 20 Envío Procesamiento de la orden por 50+%. Tiempo / Campaña 2 – 4 horas 20 minutos Marketing a clientes existentes por 80+%. Tiempo / Actualización 2 – 4 horas 20 minutos Renovación de software por 80+%. Impacto en el Cliente: Mejora en la tasa de notificaciones de las renovaciones y actualizaciones. Reducción del tiempo total de ciclo con un procedimiento más simplificado. Impacto en el Accionista: Necesidades Aumento del potencial de ventas, inmediatamente sobre la actualizacióny de Negocio también de las futuras ventas con la disponibilidad de personal de ventas. Reducción del costo de procesamiento de pedidos. Reducción de costos de marketing y campañas de renovación. Impacto en el Empleado: Responsabilidades más claras. Menos interrupciones en el flujo del proceso. Responsabilidad / Nombre Grupo de Interés Firma / Fecha Patrocinador del Proyecto Ventas y Operaciones Francisco Salas Valerio Black Belt del Equipo Alexis Cabrera Rodríguez Miembros del Equipo Esther Chanducas Maza Atención al Cliente Renato Sabogal Silvestre Envío y Embalaje Jesús Santos Garay Contabilidad DEFINE MIDE ANALIZA MEJORA CONTROLA Objetivo/Fecha Objetivo/Fech Objetivo/Fecha Objetivo/Fecha Objetivo/Fecha a Definir Definir Análisis Cadena Proceso de Métodos proyecto proceso de Valor Implementación Estandarizados 17/09/2011 Definir Def. Mejor métricas Nivel Proceso 19/09/2011
Análisis de Variación
Formación Estimar de Equipo línea de base 19/09/2011
Determinar controladores
Fuente: Pyzdek y Keller (2010)
Asegurar Beneficios
Plan de Control
Evaluar Lección Modo de Fallos Aprendida
Es muy recomendable expresar los antecedentes, la importancia y la prioridad de los problemas. Se debe de explicar porque se selecciono el problema ya sea por: 1. Efecto económico, reclamo de mercado, rechazos, porcentaje de ventas perdidas, disponibilidad, otros. 2. Impacto para los procesos posteriores, monto de pérdida, incremento de tiempo de operación, paro de línea, desperdicio, costo de falla, baja eficiencia, etc. Entre todos los integrantes del equipo pueden evaluar las razones arriba descritas y enfocarse en un solo tema. 1.1.2.1.3 Estratificación de ideas Ruskin y Estes (1995) ofrecen el Desglose de las Estructuras del Trabajo (WBS) como un proceso para la definición de los productos finales e intermedios de un proyecto y sus relaciones. La definición de las tareas del proyecto es compleja y por lo general realizada por una serie de descomposiciones seguido por una serie de agregaciones. Por ejemplo, un proyecto de software para desarrollar una aplicación de software SPC se desglosan las necesidades del cliente en los requisitos de análisis muy específicos (por ejemplo, el requerimiento del cliente que el producto cree gráficos de barras X se puede descomponer en las necesidades analíticas, tales como subrutinas de promedios y rangos de subgrupo de informática, trazando puntos de datos, líneas de dibujo, etc.). La agregación implicaría vincular los distintos módulos para producir un gráfico de X-Barra. Pyzdek y Keller (2010) afirman que la WBS se puede representar en un diagrama de árbol, tal como se muestra en la Figura 3. Los Diagramas de Árbol son utilizados para desmenuzar o estratificar ideas en detalle cada vez mayor. El objetivo es dividir una idea o problema grande en sus componentes más pequeños, para llegar a un nivel donde los proyectos son "pequeños". De esta manera, la idea es más fácil de entender, o el problema más fácil de resolver. La idea básica es que, en algún nivel, la solución de un problema sea relativamente fácil de encontrar, o se aísla lo suficiente en el ámbito que sea más sencillo que otras soluciones necesarias para satisfacer todas las condiciones posibles. Este es el nivel minúsculo. El trabajo en el diagrama de árbol se lleva a cabo sobre los elementos más pequeños. Mientras que el WBS proporciona una vista gráfica de los elementos potenciales del proyecto, no proporciona ninguna idea de los beneficios relativos que se obtienen en la mejora de un elemento dado. Aquí, un análisis de Pareto es a menudo muy útil. Los diagramas de Pareto son útiles en las Fases de Definir, Medir y Analizar para concentrar los recursos del proyecto en las áreas, defectos, o causas que disminuyen la rentabilidad. Un ejemplo es mostrado en la Figura 7, donde se analiza el procesamiento de pedidos de equipos para una empresa de ventas y desarrollo de software descomponiendo las tareas de procesamiento de pedidos basado en software o servicios profesionales, y luego por familia de productos, y luego por el tipo de la venta de dicha familia (Descarga, Envío, Renovación del soporte).
Figura 3. Ejemplo de WBS para un proyecto de Procesamiento de pedidos Fuente: Pyzdek y Keller (2010)
1.1.2.1.4 Análisis de Pareto Pyzdek y Keller (2010) define al Diagrama de Pareto como una gráfica de barras verticales que muestran problemas, o quizás de forma más directa las oportunidades, en un orden de prioridad, por lo que se puede determinar cuáles son los problemas u oportunidades que deben ser abordados en primer lugar. Las categorías para las barras verticales representan categorías mutuamente excluyentes de interés. Las categorías se clasifican en orden decreciente de izquierda a derecha en el diagrama de Pareto por su cuenta o costo, lo que se está mostrando. En la fase de definición, el diagrama de Pareto se utiliza en conjunto con la WBS para cuantificar las oportunidades inherentes a cada uno de los elementospequeños como resultado de la WBS.
Gutiérrez y De la Vara (2009) afirma que la viabilidad y utilidad general del diagrama está respaldada por el “principio de Pareto”, conocido como “Ley 80 20” o “Pocos vitales, muchos triviales”, en el cual se reconoce que pocos
elementos (20%) generan la mayor parte del efecto (80%), y el resto de los elementos propician muy poco del efecto total.
Figura 4. Aplicación de Pareto en una Industria de Construcción. Fuente. Blancas y Rodríguez (2005)
1.1.2.1.5 Métricas (CTQ) Para establecer los CTQ, debemos evaluar la voz del cliente (VOC), esto significa buscar una retroalimentación o reunir la información ya existente de los clientes para determinar cu{ales son las características que el cliente valora. La VOC refleja las verdaderas necesidades del cliente, las cuales pueden ser convertidas en un producto determinado o servicio requerido. Para evaluar la VOC se siguen los siguientes pasos: Identificar los clientes de su proceso o negocio (cliente: “cualquier ente cuyo éxito o satisfacción depende de mis acciones”); 2. Recopilar la información de sus clientes (Información proveniente de los clientes (procesada): aumentada/repetida, negocios, referencias, cartas de 1.
recomendación/ reconocimiento por parte de otros proveedores, quejas, llamadas sin contestar, producto devuelto, cancelación de contratos, estadísticas del cliente, grupo de análisis, llamadas/asuntos de soporte técnico, entrevistas al cliente, fichas de seguimiento,Tableros de Control, etc. ) 3. Traducción de la voz del Cliente en CTQs: para este fin se usa el árbol de CTQ, mediante el cual se descomponen los requisitos del cliente (voz del cliente) en los requisitos generales más fácilmente cuantificables (CTQ’s), como paso previo se definen los conductores, que viene a ser lo que consideramos que el cliente aprecia como bueno, ejemplo:
El resultado de dicha traducción es una lista de necesidades específicas expresadas en un lenguaje que es entendido por la empresa y por el cliente. Para priorizar los CTQs usamos la matriz Impacto/ Desempeño:
1.1.2.2 Medir 1.1.2.2.1 Mapeo de procesos Para el mapeo de los procesos se siguen los siguientes pasos: Definir el proceso a mejorar (Dar nombre al proceso). Delimitar el proceso (Donde inicia y Donde termina) Listar salidas clave del proceso. Listar clientes para cada salida del proceso. Identificar CTQ´s de cada cliente. Listar entradas críticas al proceso (si el proceso puede realizarse sin una entrada, entonces esta no será crítica). Listar proveedores para cada entrada al proceso. Identificar factores que afectan el proceso. Describir paso a paso el proceso. Definir el nivel de detalle (Macro, Micro, Detallado) a) Macro (Actividades principales): Organización> Empresa> Sistema. Diagrama PEPSC
b) Micro (Actividades específicas): Proceso> Área> Subsistema Se elaboran diagramas de flujo a nivel de subsistemas ó subprocesos. c) Detalle (Actividades puntuales): Subproceso> Función> Partes Se elaboran flujogramas del proceso según el nivel de detalle definido en el paso anterior. Validar el flujograma ejecutando un recorrido físico al proceso. Realizar correcciones que sean necesarias.
Identificar simplificaciones y mejoras del análisis del mapa 1. Conjuntamente con el equipo responsable del proyecto analizar el mapa de procesos con los métodos de: a) Valor agregado, identificar actividades que no aportan valor, simplificarlas o eliminarlas. b) Análisis de Re´s, identificar actividades repetidas o que implican realizar doble actividad. 2. Identificar actividades que no aportan valor y actividades de alto riesgo en las que se generan los defectos. 3. Listar las acciones de mejora y proceder a su evaluación en el siguiente paso. Identificación de mejoras rápidas
1. Elaborar una matriz de impacto y facilidad de aplicación para evaluar el listado de acciones de mejora del paso anterior. 2. Evaluar y ubicar la acción de mejora según su impacto, facilidad de aplicación (rapidez). 3. Paro los casos en los que las acciones de mejora sean de alto impacto y alta rapidez en su aplicación implementar de inmediato y proseguir con el paso anterior. 4. En los casos en los que las acciones de mejora sean de bajo impacto y alta rapidez en su aplicación implementar de inmediato y proseguir con el paso anterior. 5. En los casos en los que las acciones de mejora sean de bajo impacto y baja rapidez en su aplicación no implementar en el momento. Proseguir con el paso de Análisis del sistema de medición. 6. En los casos en los que las acciones de mejora sean de alto impacto y baja rapidez en su aplicación evaluar el costo beneficio, si es positivo iniciar su implementación. Implementación de mejoras rápidas 1. Validar la lista de acciones de mejora generado en el paso anterior (identificar simplificaciones y mejoras del análisis del mapa), seleccionando las acciones de mejora elegidas anteriormente (¿mejoras rápidas?). 2. Establecer un formato para el acta de acuerdos (reuniones de trabajo, esta acta alimentará el plan de acciones de mejora): Acuerdo/ Responsable/ Fecha 3. Elaborar un plan de acciones de mejora, en él se colocará la siguiente información: Actividad identificada/Acciones de mejora/ Acuerdos establecidos por el equipo/ Responsable/ Fecha de verificación/ Status (colocar color verde si la actividad se ha concluido, color amarillo si se encuentra en proceso, rojo si no se ha concluido y blanco si no se ha hecho nada/frecuencia de reprogramación/ Fecha de reprogramación. 4. Elaborar un cronograma de implementación para las acciones de mejora (El plan de acciones de mejora alimentará este cronograma).
1.1.2.2.2 Diagrama de flujo 1.1.2.2.3 PEPCS ó SIPOC
1.1.2.2.4 Definir métricas La definición de las métricas tiene que ver con definir tres tipos de indicadores para nuestros proyectos: Indicador principal u operacional, es aquel que explica el comportamiento del proceso a mejorar CTQ=Y Indicadores relacionados, todos aquellos que se ven afectados por el indicador principal, por ejemplo si el indicador principal es el nivel de producción debemos tener en cuenta que los indicadores de % de rechazos, % de quejas del cliente, % de retrabajos, etc. no se vean afectados. 1.1.2.2.5 Validación del sistema de medición Cuando se miden los resultados de un proceso siempre aparecen variaciones en los datos obtenidos. Esta variación puede provenir de dos fuentes distintas: Variación intrínseca: Diferencias inherentes a cualquier par de elementos distintos que se midan Variación debida al sistema de medición: Ningún método de medición es perfecto: al medir el mismo elemento en repetidas ocasiones no se obtendrá siempre el mismo dato numérico. Debido a que los datos son una representación de nuestro proceso, entonces, es necesario asegurar la fiabilidad de su recopilación antes de poder realizar cualquier estudio (control, capacidad, , etc.) La finalidad de la validación del sistema de medición es logra que la variación registrada, en su mayor parte, no sea debida al sistema de medición utilizado (operarios, instrumento, etc.). De acuerdo a las partes o procesos con características que pueden variar ampliamente, y sean de interés para el proyecto, se debe realizar lo siguiente: i. Determinar el valor esperado de la medición y su tolerancia. ii. Seleccionar el instrumento de medición y su respectiva resolución (la unidad más pequeña que se puede medir) iii. Realizar la descripción operacional de la medición a realizarse (¿qué se mide? ¿cómo se mide?). iv. Determinar si las mediciones son pruebas destructivas o no destructivas, de lo cual dependerá la metodología de análisis del sistema de medición. v. Seleccionar las piezas a ser medidas. vi. Seleccionar a los operarios encargados de realizar las mediciones. vii. Determinar el número de repeticiones a realizarse. viii. Diseñar la forma en que se realizarán las mediciones (orden aleatorio) ix. Analizar los datos recabados. x. Determinar si el sistema de medición es aceptable o no. 1.1.2.2.6 Determinación de la línea base Una adecuada recolección de datos permitirá realizar análisis del control y la capacidad del proceso de interés para el proyecto Seis Sigma. Se debe tener en cuenta que las muestras recabadas deben ser homogéneas (máquina, operador, etc.).
Previa identificación del tipo de datos que son requeridos para el proyecto, se deberá realizar las siguientes actividades para la recolección de los datos: i. Determinación de los subgrupos racionales. ii. Determinar la forma de recolección de información (Plan de muestreo) iii. Elaborar una hoja (física o electrónica) para el almacenamiento de los datos recabados. iv. Capacitar al personal encargado de la recolección de los datos (definiciones operacionales, herramientas de medida a usar y los procedimientos a seguir). v. Diseñar un mecanismo de inspección/verificación de los datos recabados.
Recolección de datos para la línea base Seguir los siguientes pasos: Definir Tamaño de muestra Verificar si la Y es discreta o continua continua, el tamaño de la muestra depende de: Error tipoI, tipo B, desv estandar y de Delta (diferencia que quiero observar) Si es discreta, debo de tener en mis subgrupos racionales más de 5 datos por subgrupo. Ejemplo Y = Defectos esteticos en pintura de un auto Subgrupo Dia Linea L 1,2,3 M M J V
Turno Modelo 1,2 1,2,3,4,5
Subgrupo
Subgrupos racionales
Verificar la estabilidad del proceso En la metodología Seis Sigma es de suma importancia verificar la estabilidad de los procesos, mediante el control estadístico de procesos, ya que primero se debe controlar un proceso para luego reducir su variabilidad, y por lo tanto aumentar la capacidad del proceso y mejorar el nivel sigma correspondiente. Con los datos recabados, en relación a la caratcerística de interés, se podrá verificar la estabilidad de los mismos mediante el uso de gráficas de
distribución de los datos y las hojas de control, para lo cual se seguirán los siguientes pasos: i. Determinar la forma de distribución de los datos (Histograma). ii. Determinar posibles factores de estratificación (formas en las que se puede subdividir la información para entender la variación) iii. Identificar observaciones distantes o por fuera del resto de la distribución de datos (outlier). iv. De acuerdo a la experiencia y conocimiento del proceso, determinar cualquier evento o situación que haga variar el proceso más allá del rango normalmente observado y plantear soluciones rápidas. v. Implementar las acciones que requieren poco esfuerzo pero que da un resultado relativamente grande (Quick Win), en relación a lo determinado en el ítem anterior. vi. Realizar un análisis de control del proceso, mediante hojas de control, de acuerdo al tipo de datos. vii. Analizar la centralidad y dispersión de los datos.
Análisis de capacidad de procesos En cualquier proceso de manufactura o servicios es importante cuantificar la variabilidad natural del proceso para poder analizarla y evaluar si es compatible con los requerimientos del cliente. A este estudio se le llama ANALISIS DE CAPACIDAD, esta es una herramienta estadística que compara matemáticamente el rendimiento actual del proceso con las especificaciones del cliente.
1.1.3 Fase II 1.1.3.1
Análisis
En esta fase se efectúa el análisis de los datos obtenidos en la etapa de Medición, con el propósito de conocer las relaciones causales o causas raíz del problema. La información de este análisis nos proporcionara evidencias de las fuentes de variación y desempeño insatisfactorio, el cual es de gran utilidad para la mejora del proceso (Bahena, 2006). 1.1.3.1.1 Análisis de actividades que agregan valor Una cadena de valor se compone de todas las actividades, con o sin valor agregado, que llevan un producto desde la materia prima hasta estar en manos del cliente, una necesidad del cliente desde el pedido hasta la entrega, y un diseño desde el concepto hasta su lanzamiento. La mejora de la cadena de valor comienza generalmente a nivel de puerta a puerta dentro de una instalación, y luego se expande para abarcar finalmente la cadena de valor completa (Womack y Jones, 1996). Una cadena de valor se compone de los flujos de productos y servicios, así como los flujos de información. Los principios de Lean se utilizan para analizar la cadena de valor. Lean, también conocido como elSistema de Producción Lean, tiene sus orígenes en la época posterior a la Segunda Guerra Mundialen Japón. Fue desarrollado por Taiichi Ohno, un ejecutivo de producción de Toyota, en respuesta auna serie de problemas que aquejaban a la industria japonesa. El enfoque Lean (el término fue acuñado en la década de 1990 por investigadores del MIT) sistemáticamente minimiza el desperdicio de los llamados muda en la cadena de valor. Muda incluye todo tipo de trabajos defectuosos, no sólo los productos defectuosos. La pérdida de tiempo, el movimiento y los materiales son parte de la muda.Ohno identificó los siguientes tipos de muda en los negocios: 1. Defectos. 2. Exceso de producción. 3. Inventarios (en proceso o productos terminados). 4. Procesamiento innecesario. 5. Movimientos innecesarios de las personas. 6. El transporte innecesario de los bienes. 7. Espera. 8. Productos y diseño de servicios que no satisfacen las necesidades de los clientes (agregado por Womack y Jones, 1996). El valor es lo que los clientes quieren o necesitan, y que están dispuestos y son capaces de pagar. Los residuos son actividades que consumen recursos pero no crea valor para el cliente. Por lo tanto, a las actividades de los residuos se les llama "sin valor agregado”. Diferenciar entre los dos puede no ser fácil, especialmente para nuevos productos o servicios; pero hay que hacerlo. La definición de valor debe comenzar con el productor y el cliente para analizar conjuntamente el valor y desafiante de viejas creencias. Con su definición de valor, ahora puede comenzar a evaluar las actividades que agregan valor y que actividades son muda. Los resultados suelen ser sorprendentes. En algunos casos, la mayoría de las actividades no agregan valor. (Pyzdek y Keller, 2010).
1.1.3.1.2 Análisis de fuentes de variación
Pyzdek y Keller (2010) sostienen que si el objetivo del proyecto Seis Sigma se relaciona directamente con la mecánica de la cadena de valor, tales como el tiempo de ciclo y costo/capacidad relacionadas con la asignación de recursos, o indirectamente, con la calidad relativa de su producción, una pieza fundamental del análisis es la comprensión de la contribución relativa de las fuentes de variación que afectan la cadena de valor. Una revisión de la tabla de control estadístico construido en la Fase de Medición proporcionará información sobre el tipo de variación: una causa común intrínseca al procesoo causas especiales que se producen esporádicamente en condiciones específicas. La respuesta acada uno de estos tipos de variación es muy diferente. Las posibles fuentes de variación del proceso se pueden determinar utilizando una lluvia de ideas por el equipo de Seis Sigma utilizando undiagrama de causa y efecto. Estas posibles causas se deben analizar por su importancia utilizando herramientas estadísticas más avanzadas, que incluye el diseño de experimentos y sus métodosenumerativos asociados. Los métodos estadísticos básicos, incluyendo los intervalos de confianza y las pruebas de hipótesis, pueden ser utilizados para comparar directamente las propiedades deseadas de una muestra con otra. El diseño de experimentos se basa en estos conceptos con la aplicación de ANOVA (Análisis de Varianza), las técnicas de múltiples fuentes de variación, lo que permite la cuantificación de la contribución relativa de cada fuente para el error total. La Regresión general y análisis de correlación se presentan como precursor de los diseños de experimentos, para ayudar en la comprensión de las técnicas de análisis experimental.
Diagrama de Causa Efecto Diaz (2008) recomienda el uso del Diagrama Causa – Efecto, conocido también como Ishikawa o Espina de Pez, debido a que es un método gráfico que relaciona un problema o efecto con los factores o causas que posiblemente lo generan. La importancia de este diagrama radica en que obliga a contemplar todas las causas que pueden afectar el problema bajo análisis y de esta forma se evita el error de buscar directamente las soluciones sin cuestionar a fondo cuáles son las verdaderas causas. Este diagrama se usa en sesiones de tormenta de ideas y coloca las posibles causas en grupos o afinidades.
Figura 5. Aplicación de Ishikawa en una Industria Química. Fuente. Tomati y Gabriele (2010)
Figura 6. Aplicación de Ishikawa en una Industria de Construcción. Fuente. Blancas y Rodríguez (2005)
Diagrama de Cajas Es un diagrama que proporciona información sobre el centro, la dispersión y la asimetría o sesgo; utiliza cuartiles, y así, es resistente a las observaciones aberrantes (Bahena y reyes, 2006).
Figura 7. Detalles del Diagrama de Cajas Fuente: Pyzdek y Keller (2010)
Inferencia Estadística Pyzdek y Keller (2010) nos refieren que la inferencia estadística pertenece a la clase enumerativa de los métodos estadísticos. Aunque la mayoría de las aplicaciones de Seis Sigma son analíticas, hay momentos en que la estadística enumerativa resultar útil. El término “inferencia” se define como (1) el acto o proceso de derivar las conclusiones lógicas de premisas que se sabe o se supone son verdad, o (2) el acto de razonar a partir del conocimiento de hechos o pruebas. La estadística inferencial proporciona la información que se utiliza en el proceso de inferencia. Como puede apreciarse en las definiciones, la inferencia consiste en dos ámbitos: en las premisas y la evidencia o conocimiento de los hechos. Además, hay dos marcos conceptuales para abordar premisas cuestionadas en la inferencia: el enfoque basada en el diseño y el enfoque basado en el modelo. Gutiérrez y De la Vara (2009) sostienen que la Inferencia Estadística se refiere a establecer las características de una población o proceso con base en la uniformidad contenida en una muestra.
Distribuciones Chi-Cuadrado, T-Student y F Además de la distribución normal, estas tres distribuciones se utilizan en Seis Sigma para poner a prueba las hipótesis, construir intervalos de confianza, y calcular los límites de control (Pyzdek y Keller, 2010). 1. Distribución Chi-Cuadrado Pyzdek y Keller (2010) afirman que puede demostrarse que en muchos casos, la distribución de las varianzas de las muestras tiene la forma (a excepción de una constante) de una distribución de chi-cuadrado, cuyo símbolo 2. La distribución 2 varía con la cantidad , que para nuestros propósitos es igual al tamaño de la muestra menos 1. Para cada valor de hay una diferente distribución 2. La ecuación de la 2 se muestra a continuación:
Figura 8. Distribución Chi-Cuadrado
2. Distribución T de Student Pyzdek y Keller (2010) sostienen que el estadístico t se utiliza comúnmente para probar las hipótesis acerca de los medios, los coeficientes de regresión y una amplia variedad de otras estadísticas utilizadas en la ingeniería de calidad.
La probabilidad integral de la relación,conocida como la estadística t, se muestra en la ecuación:
Una de las aplicaciones más simples y más comunes de prueba de la t de Student consiste en utilizar una muestra de una población normal con µ media y la varianza 2.
Figura 8. Distribución t de Student
3. Distribución F Pyzdek y Keller (2010) refieren que si tenemos dos muestras aleatorias de una población normal y sea la varianza de la primera muestra y la varianza de la segunda muestra.Las dos muestras no necesitan tener el mismo tamaño de muestra. El estadístico F tiene una distribución muestral denominada distribución F. Hay dos variaciones de la muestra y que dos conjuntos de grados de libertad, n 1 – 1 en el numerador y n 2 – 1 en el denominador. El estadístico F está dado por:
Figura 10. Distribución F
Estimación Puntual y por Intervalo Pyzdek y Keller (2010) concluyen que el promedio de la muestra, la desviación estándar de la muestra,y la varianza de la muestra son conocidos como estimadores puntuales, ya que son valores únicos para representar parámetros de población. También es posible construir un intervalo sobre las estadísticas que tiene una probabilidad determinada de incluir el parámetro real de la población. Este intervalo se denomina intervalo de confianza. La estimación del intervalo es una alternativa a la estimación puntual que nos da una mejor idea de la magnitud del error de muestreo. Los intervalos de confianza pueden ser unilaterales o bilaterales. Un intervalo de unilateral o de confianza establece un límite superior o inferior del valor de un parámetro con un nivel de confianza. Un intervalo de confianza bilateral presenta ambos límites superior e inferior. En casi todas las aplicaciones prácticas de las estadísticas enumerativas, incluyendo las aplicaciones de Seis Sigma, podemos hacer inferencias acerca de las poblaciones sobre la base de datos de las muestras. Prueba de Hipótesis Pyzdek y Keller (2010) sostienen que la inferencia estadística en general, consta de cuatro pasos: 4. La formulación de una hipótesis sobre la población o "estado de naturaleza". 5. La toma de una muestra de las observaciones de la población. 6. El cálculo de las estadísticas sobre la base de la muestra. 7. Aceptar o rechazar la hipótesis basada en un criterio de aceptación predeterminado. Hay dos tipos de errores asociados con la inferencia estadística:
1. Error de tipo I (error α). La probabilidad de que una hipótesis que es realmente cierto sea rechazada. El valor de α se conoce como el nivel de significancia de la prueba. 2. Error de tipo II (error β). La probabilidad de que una hipótesis que es falsa, sea aceptada. Los errores de tipo II son a menudo representados en lo que se conoce como curva de características operativas. Los intervalos de confianza se construyen normalmente como parte de una prueba estadística de hipótesis. La prueba de hipótesis se ha diseñado para ayudarnos a hacer una inferencia sobre el valor real de la población a un nivel de confianza deseado.
Remuestreo (Inicio de Calibración) Pyzdek y Keller (2010) mencionan que se han planteado una serie de críticas con respecto a los métodos utilizados para la estimación y prueba de hipótesis: No Se
son intuitivos. basan en fuertes supuestos, por ejemplo que distribución normal, que a menudo no se cumplen en la práctica. Son difíciles de aprender y aplicar. Son propensos a errores.
sigue
una
En los últimos años, se ha desarrollado un nuevo método de realización de estos análisis. Se le conoce como remuestreo o inicio de calibración. El nuevo método es conceptualmente muy simple: utilizando los datos de una muestra, se calcula el estadístico de interés en repetidas ocasiones y se examina la distribución del estadístico. El remuestreo tiene muchas ventajas, especialmente en la era informática. Las hojas de cálculo pueden ser programado para volver a muestrear y calcular las estadísticas de interés. En comparación con los métodos estadísticos tradicionales, el remuestreo es más fácil de entender. Funciona sin supuestos fuertes, y es simple. El remuestreo no impone bagajeentre el problema de ingeniería y el resultado estadístico con los métodos convencionales. También puede ser utilizado para problemas más avanzados, tales como el modelamiento, diseño de experimentos, etc.
1.1.3.1.3 Regresión y correlación La herramienta más sencilla utilizada en el análisis de regresión es conocida como Gráfico de Dispersión o Diagrama de Dispersión. Un diagrama de dispersión es una gráfica de una variable frente a otro. Una variable que se llama la variable independiente X y por lo general se muestra en la horizontal del eje. La otra variable que se llama la variable dependiente Y se muestra en el eje vertical olateral del eje. Los diagramas de dispersión se utilizan para evaluar las relaciones causa-efecto. El supuesto es que la variable independiente causa un cambio en la variable dependiente (Pyzdek y Keller, 2010).
Figura 11. Tipo de correlaciones Fuente: Bahena (2006)
Modelo Lineal Simple Bahena y Reyes (2006) explican que la Regresión lineal se refiere a la predicción del valor de una variable a partir de una o más variables. En ocasiones se denomina a la variable dependiente Y, variable de respuesta y a la variable independiente X, variable de predicción.
Usamos un modelo probabilístico para explicar el comportamiento de la variable independiente versus la variable dependiente, llamado modelo de regresión lineal, y se expresa de acuerdo a la siguiente ecuación: y = 0 + 1 x +
Donde: y = variable dependiente 0 = ordenada al origen 1 = pendiente x = variable independiente = Error aleatorio La expresión 0 + 1 x se denomina componente determinístico del modelo de regresión lineal. La muestra de pares de datos se usara para estimar los parámetros 0 y 1
Modelo Lineal Múltiple Bahena (2006) refiere que en ocasiones la información de una variable independiente no es suficiente, Cuando se usa más de una variable independiente para predecir los valores de una variable dependiente, el proceso se llama análisis de regresión múltiple; y se expresa de acuerdo a la siguiente ecuación: Y = 0 + 1 x + 2 x2 +.... + n Donde: y = variable dependiente 0 = ordenada al origen 1, 2 = coeficiente de cada variable. x, x2 = variables independientes = Error aleatorio La estimación de los coeficientes de una regresión múltiple es un cálculo bastante complicado y laborioso, por lo que se requiere del empleo de programas de computación especializados. Sin embargo, la interpretación de los coeficientes es similar al caso de la regresión simple: el coeficiente de cada variable independiente mide el efecto separado que esta variable tiene sobre la variable dependiente. El coeficiente de determinación, por otro lado, mide el porcentaje de la variación total en Y que es explicado por la variación conjunta de las variables independientes X.
Análisis de Correlación Bahena y Reyes (2006) nos dicen que la Correlación: Mide
la fuerza de la asociación lineal entre dos variables. No mide las relaciones fuertes no lineales.
No mide causa y efecto. Puede ser utilizada como un primer paso para la regresión. Debe ser utilizada en conjunto con técnicas gráficas.
La medición de la fuerza de la asociación lineal en un análisis de correlación es “R” conocida como el Coeficiente de Correlación, que dependiendo del valor nos dice que tan bien se ajuntan los datos a la ecuación. R va de –1 a 1. R
> 0 indica una relación positiva lineal. R < 0 indica una relación negativa lineal. R2 es la proporción de la variabilidad total de los valores de “y” que pueden ser explicados por la variable independiente x. Si el valor de R 2 está entre: 0,9 0,8 0,6
≤ R2 ≤ 1 Muy buen ajuste ≤ R2 < 0,9 Buen ajuste, requiere de más pruebas ≤ R2 < 0,8 Regular, requiere revisión
1.1.3.1.4 Diseño de experimentos Bahena (2006) afirma que un experimento es una prueba o serie de pruebas en las cuales se hacen modificaciones a las variables de entrada de un proceso o sistema para que puedan ser observadas y definidas las respuestas de salida. Pyzdek y Keller (2010) sostienen que el diseño de experimentos juega un papel importante en la mejora de la calidad. Mientras que los intervalos de confianza y pruebas de hipótesis se limitan a las comparaciones más sencillas entre una muestra y los requisitos, o entre dos muestras, los diseños de experimentos utilizan ANOVA (Análisis de Varianza), técnicas de partición de la variación de la respuesta entre las posibles fuentes de variación. El enfoque tradicional de "un factor a la vez" (OFAT) es llevar a cabo todos los factores constantes, excepto uno. Cuando se utiliza este enfoque, podemos estar seguros de que la variación se debe a una relación de causa y efecto. Sin embargo, este enfoque adolece de una serie de problemas: Por
lo general, no es posible llevar a cabo todas las demás variables constantes. No hay manera de explicar el efecto de la variación conjunta de las variables independientes, tales como la interacción. No hay manera de explicar el error experimental, incluyendo la variación de la medición. Pyzdek y Keller (2010) aseveran que el diseño estadístico de experimentos, por lo general, implica la variación de dos o más variables de forma simultánea y la obtención de medidas múltiples bajo las mismas condiciones experimentales. La ventaja de este método estadístico es tri ple: 1. Se puede detectar y medir las interacciones. Esta es una carencia importante en el enfoque OFAT. 2. Cada valor trabaja con varios valores. Un experimento bien diseñado le permite utilizar la misma observación para estimar varios efectos
diferentes. Esto se traduce directamente en ahorro de costes al utilizar el método estadístico. 3. El error experimental se cuantifica y se utiliza para determinar la confianza que el experimentador tiene en sus conclusiones. Para Bahena y Reyes (2006), los propósitos del diseño de experimentos son: Determinar las variables que son de mayor influencia a la salida. Determinar dónde fijar las entradas para producir la salida al nivel deseado. Determinar dónde fijar las entradas de mayor influencia para reducir la variabilidad en la salida. Determinar dónde fijar las entradas controlables para que los efectos de las entradas incontrolables sean minimizados. Encontrar la ecuación y = f(x) para optimizar el proceso. Por ello, Bahena y Reyes (2006) concluyen que los métodos de diseño de experimentos pueden utilizarse ya sea para el desarrollo o la mejora de los procesos, para mejorar el desempeño o para obtener un proceso que sea robusto o insensible a fuentes externas de variabilidad.
Terminología Bahena y Reyes (2006) brindan la siguiente lista de términos que se utilizan en los diseños de experimentos. a. Bloques: Unidades experimentales homogéneas. b. Bloqueo: Considerar las variables que el experimentador desea reducir su efecto o variabilidad. c. Colinealidad: Ocurre cuando 2 variables están completamente correlacionadas. d. Covarianza: Cosas que cambian durante los experimentos pero no fueron planeadas a cambiar. e. Diseño robusto: De acuerdo a Taguchi, un experimento en el cual la variable de respuesta es inmune a los factores de ruido. f. Diseño simples: Un diseño espacial usado para determinar todas las combinaciones posibles de factores de entrada en una prueba experimental. g. DOE: Diseño de Experimentos. h. Efecto principal: Un estimado del efecto de un factor independientemente del efecto de los demás. i. Error experimental: Variación en respuesta bajo las mismas condiciones de prueba. También se denomina error residual. j. Error residual: Es la diferencia entre los valores observados y los estimados por un modelo. k. Fraccional: Un arreglo con menos experimentos que el arreglo completo (1/2, 1/4, etc.). l. Factorial completo: Arreglo experimental que considera todas las combinaciones de factores y niveles. m. Grados de libertad (DOF, DF, df): Numero de mediciones independientes para estimar un parámetro poblacional.
n. Interacción: Ocurre cuando el efecto de un factor de entrada en la respuesta depende del nivel de otro factor diferente. o. Nivel: Un valor especifico para un factor controlable de entrada. p. Optimización: Hallar las combinaciones de los factores que maximicen o minimicen la respuesta. q. Ortogonal o balanceado: Es el arreglo que permite estimar los efectos de los factores principales y de sus interacciones sin confundirlos. El factorial completo es un ejemplo. r. Replicas: Experimentos repetidos en diferente tiempo para estimar el error experimental. s. Variable de respuesta: Variable que muestra los resultados observados de un tratamiento experimental, es la variable dependiente. t. Tratamientos: Son los diversos niveles de los factores que describen como se debe realizar el experimento. Características del Diseño Natrella (1963) citado por Pyzdek y Keller (2010) afirma que los buenos experimentos no ocurren por casualidad, son el resultado de una cuidadosa planificación. Un plan experimental depende de: El propósito del experimento. Las restricciones físicas de la toma de medidas en el proceso. Las restricciones impuestas por las limitaciones de tiempo, dinero,
material y
personal.
El analista debe fundamentar la ejecución del experimento, el por qué se seleccionaron dichostratamientos experimentales, si al término del experimento se alcanzarán los objetivos establecidos. El plan experimental debe estar por escrito y debe ser aprobado por todos los participantes clave. El plan incluirá una declaración de los objetivos del experimento, los tratamientos experimentales que se aplicarán, el tamaño del experimento, el tiempo, y una breve discusión de los métodos que se utilizan para analizar los resultados. Para el analista de Seis Sigma son de particular interés la repetición y la aleatorización.
1. Repetición. La colección de más de una observación para el mismo conjunto de condiciones experimentales. La repetición permite al experimentador estimar el error experimental. Si la variación se produce cuando todas las condiciones experimentales se mantienen constantes, la causa debe ser algo más que las variables controladas por el experimentador. El error experimental se puede estimar sin hacer repeticiones. Si el proceso ha estado bajo control estadístico en un periodo de tiempo, el error experimental puede estimarse a partir de la gráfica de control. La repetición también sirve para disminuir el sesgo debido a factores no controlados. 2. Aleatorización. Con el fin de eliminar el sesgo del experimento, las variables no controladasespecíficamente como factores deben ser aleatorizadas. La asignación aleatorea también asegura la estimación válida del error experimental.
Tipos de Diseño Pyzdek y Keller (2010) afirman que l os experimentos pueden ser diseñados para satisfacer una amplia variedad de objetivos experimentales. 1. Modelo de efectos fijos. Un modelo experimental en el que todos los factores son estudiados en los niveles posibles. Por ejemplo, si hay tres materiales diferentes, los tres están incluidos en el experimento. 2. Modelo de efectos aleatorios. Un modelo experimental en los niveles de los factoresevaluados por el experimento representa una muestra de todos los niveles posibles. Por ejemplo, si tenemos tres materiales diferentes, pero sólo utiliza dos materiales en el experimento. 3. Modelo mixto. Un modelo experimental con dos efectos fijos y aleatorios. 4. Diseño completamente al azar. Un plan experimental, en donde el orden en que se lleva a cabo el experimento es completamente al azar. 5. Diseño de Bloques al Azar. Un diseño experimental donde una de las observaciones experimentales se divide en bloques de acuerdo a algún criterio. Los bloques se llenan de forma secuencial, pero el orden en el bloque está lleno es al azar. 6. Diseño Cuadrado latino. Diseño donde cada tratamiento aparece una vez y sólo una vez encada fila y columna. Un plan cuadrado latino es útil cuando es necesario o deseable para permitir dos fuentes específicas de no homogeneidad en las condiciones que afectan los resultados. Análisis de Varianza o ANOVA El análisis de varianza lo vamos a utilizar para verificar si hay diferencias estadísticamente significativas entre medias cuando tenemos más de dos muestras o grupos en el mismo planteamiento. En estos casos no utilizamos la t de Student que solamente es un procedimiento válido cuando comparamos únicamente las medias de dos muestras. Como explicaremos más adelante, cuando tenemos más de dos muestras y comparamos las medias de dos en dos suben las probabilidades de error al rechazar la hipótesis de no diferencia porque queda suficientemente explicada por factores aleatorios (error muestral). Este ANOVA puede realizarse de dos maneras en función al número de factores a evaluar. Los Cuadros 5 y 6 nos ejemplifican cómo se realiza dicho análisis. Cuadro 5. ANOVA para Un Factor Fuente
Grado de Libertad
Suma de Cuadrados
Cuadrado Medio
F
Intergrupos Intragrupos o Error Total
t – 1
SSFactores
T = SSFactores / (t – 1)
N – t
SSError
E = SSError / (N – 1)
N – 1
SSTotal
F=T/E
Cuadro 6. ANOVA para Dos Factores Fuente
Grado de Libertad
Suma de Cuadrados
Cuadrado Medio
Factor A
t – 1
SS A
CM A = SS A / (t – 1)
Factor B
r – 1
SSB
CMB = SSB / (r – 1)
Interacción AB Error Total
(t – 1) (r – 1) N – tr N – 1
SS AB SSError SSTotal
F F A = CM A / CME FB = CMB / CME
CM AB = SS A / ((t – 1) (t – 1)) CME = SSE / (N – tr)
Factorial Puro y Fraccionado Según Bahena y Reyes (2006) existen diferentes tipos de experimentos entre los cuales son mencionados en el Cuadro 7. Cuadro 7. Tipos de Experimentos
Tipos comunes de Experimentos Factorial Completo (todas las combinaciones de factores y niveles) Fraccional Factorial (subgrupo del número total de combinaciones) Diseño Central Compuesto
Diseño Robusto
Objetivos los niveles de factor que proporcionan los mejores resultados. Construir un modelo matemático (evalúa todas las interacciones).
Número típico de factores controlables
Encontrar
los niveles de factor que proporcionan los mejores resultados. Construir un modelo matemático (evalúa todas las interacciones).
4 o menos
Encontrar
Optimizar. Construir un
modelo matemático cuando no haya efectos lineales (Superficie de respuesta). Optimizar. Para encontrar los niveles de factores a fin de reducir al mínimo la variación ante factores de ruido cambiantes.
5 o más
3 o menos
5 o más
Diseño Robusto Dinámico de Taguchi
Optimizar. Optimizar la
función de un producto o proceso de manufactura. Reducir al mínimo la sensibilidad al ruido y aumentar al máximo la sensibilidad a la señal de entrada.
7 o más
Fuente: Bahena y Reyes (2006)
Potencia y Tamaño de Muestra El término potencia de una prueba estadística se refiere a la probabilidad de que los conducirá a rechazar correctamente una hipótesis nula falsa, es decir, 1-β, donde beta es la probabilidad de no rechazar la hipótesis nula falsa. En general, el poder de una prueba estadística se mejora cuando: Existe
una gran diferencia entre las condiciones de la hipótesis nula y alterna. La sigma de la población es pequeña. El tamaño de la muestra es grande. La importancia de es grande. Muchos paquetes de software estadístico proporcionan los cálculos de Potencia y Tamaño de muestra.
1.1.4 Fase III En la fase de Análisis es cuando el equipo selecciona las características de desempeño del producto que deben ser mejoradas para alcanzar la meta de mejora identificando las mayores fuentes de variación del proceso. Se identificaran las causas de variación. En esta fase se utilizará el Diseño de Experimentos (DOE), para seleccionar las causas que más afectan nuestro CTQ e investigar estas causas para conocer el comportamiento del proceso. El método de DOE consiste en realizar cambios en los niveles de operación de los factores (X) para obtener los mejores resultados en la respuesta "Y". Esta información es de gran ayuda para la optimización y mejora de procesos (Bahena y Reyes, 2006). 1.1.4.1 Aplicación de mejoras Pyzdek y Keller (2010) afirman que las demandas de los clientes se pueden convertir fácilmente en los requisitos de diseño y especificaciones. El término "traducción" se utiliza para describir este proceso, porque, literalmente, la actividad consiste en la interpretación de las palabras de un idioma (el de atención al cliente) en los de otra (el empleado). Se debe tener cuidado para mantener la intención de los clientes de todo el desarrollo de los requisitos internos. El propósito de las especificaciones es para transmitir la voz del cliente en toda la organización. Además, la cuestión del mantenimiento de la voz del cliente, es el tema relacionado a la importancia asignada a cada demanda del cliente. El diseño de productos y servicios siempre implica concesiones. La importancia de cada criterio deberá ser determinado por el cliente. Cuando los diferentes clientes asignan una importancia distinta a los
criterios, las decisiones de diseño se complican aún más. Añádase a esto las diferencias entre el personal interno y los objetivos de un departamento y otro, el costo de diseño frente a frente a la calidad de diseño, etc. y la complejidad de elegir rápidamente una alternativa de diseño. A continuación, se debe determinar la importancia que los clientes colocan en cada punto. Hay un número de maneras de hacer esto: Haga
que los clientes asignen rangos de importancia utilizando una escala numérica. Haga que los clientes asignan una importancia utilizando una escala subjetiva. Haga que los clientes "gasten" cierta cantidad de dinero asignándolo entre los diversos temas. En estos casos es más fácil para el cliente para asignar las primeras cantidades de dinero entre las principales categorías, a continuación, debe asignar a los elementos dentro de cada subcategoría. Haga que los clientes evaluen una serie de ofertas de productos hipotéticos e indicar su preferencia para cada producto por la clasificación de las ofertas, asignándole una "probabilidad de compra", etc Esto se conoce como el análisis conjunto, una técnica de marketing. Haga que los clientes evalúen los elementos en pares, asignándole una calificación de preferencia a cada uno de los elementos de cada par, o decidir los elementos de una pareja son igualmente importantes. Esto es menos tedioso si primero se evalúan las principales categorías, antes que los elementos dentro de cada categoría.
1.1.4.2 Técnicas lean para optimizar procesos Pyzdek y Keller (2010) concluyen que la clave para el flujo de valor es romper los enlaces mentales de la mentalidad lote y cola. Lote y cola son también endémicos en nuestras empresas. Este es un punto de innovación fantástica. La producción en masa se basa en la producción de grandes lotes deartículos idénticos para satisfacer la demanda prevista. Se obtiene una gran eficiencia, porque los costos de los ajustes, herramientas, etc. se amortizan en un gran número de unidades, haciendo que elcosto por unidad sea muy bajo. Las opciones se limitan a los favorecidos por la mayoría. La producción es para programar, más no la demanda. El flujo se concentra en el objeto de valor. El producto, diseño, servicio, orden, etc., que se está creando para el cliente. El foco no está en el departamento, el proveedor, la fábrica, el procedimiento, las herramientas, la configuración, elinventario o cualquier otra faceta de la empresa, o su funcionamiento. Todas las prácticas de trabajoson evaluadas cuidadosamente y repensado para eliminar todas las interrupciones, por lo que elobjeto de valor se produce con mayor facilidad y en forma continúa para el cliente. 1.1.4.3 Uso de modelos de optimización (DOE) Pyzdek y Keller (2010) sostiene que l a construcción de modelos empíricos es un método estadístico para determinar el proceso óptimo o la configuración del diseño. Se utiliza una serie de diseños experimentales para reducir el proceso total posible o el espacio de diseño del producto para afinarlo con la configuración óptima de uno o más requisitos.
En la modelización empírica tenemos que empezar a orientarnos con las cosas antes de proceder a su cambio. Llamaremos a esta actividad Descubrimiento del Conocimiento o Fase 0. Ahora que usted tiene una idea de su situación actual y que se sienta seguro de que sabes algo acerca de lo que se va a hacer realiza pequeños experimentos para validar que los factores seleccionados son válidos. Esta fase es equivalente a una Selección Experimental o Fase I. Ahora siente que está listo para comenzar. Toma sólo aquellos factores que se necesitan, mueve los valores inicialmente tomados y verifica que todavía se está moviendo en la dirección correcta.Llamamos a esta subida Escalamiento Empinado o Fase II. En algún momento usted nota que hay tendencias ascendentes y descendentes entre los valores evaluados. Llamamos a esta etapa de su viaje el Experimento Factorial , o Fase III. Ahora usted decide que un enfoque más organizado es necesario para localizar el objetivo que puede ser un valor máximo, un valor mínimo o uno dentro de un rango nominal. Se realiza evaluaciones con el objetivo de ver dichos valores óptimos. Esta es la Fase de Diseño Compuesto, lo que llamamos la Fase IV. Usted hace un experimento robusto y fuerte, capaz de soportar los cambios de su entorno. Llamamos a la actividad de construcción de productos y procesos que son insensibles a los cambios en sus parámetros de funcionamiento de Producto Robusto y Diseño del Proceso, que es la Fase V. Fase 0: Consigue tu Rumbo Pyzdek y Keller (2010) afirman que antes de que la experimentación se puede iniciar, el equipo debe tener una idea de cuáles son los problemas principales, las mediciones importantes del rendimiento, costos, tiempo y otros métodos y recursos disponibles para la experimentación, etc. El aprendizaje es, por su propia naturaleza, un proceso secuencial. El experimentador, ya sea un individuo o un equipo, comienza con un relativamente poco conocimiento específico y procede a obtener conocimientos mediante la realización de experimentos en el proceso. Como se adquieren nuevos conocimientos, el alumno está en mejores condiciones para determinar qué paso a seguir es el más apropiado. En otras palabras, la experimentación implica siempre conjeturas, pero conjeturas se vuelven más educadas que los datos experimentales disponibles para su análisis. Seis Sigma se diferencia de las aplicaciones de las aplicaciones agrícolas de muchas maneras, sobre todo en que los resultados estén disponibles rápidamente. Este método se aprovecha para acelerar y dirigir el aprendizaje. Fase I: Experimento Exploratorio Pyzdek y Keller (2010) sostienen que en este punto el proceso se mantiene estable y el equipo está listo para pasar de la etapa de control de proceso a la etapa de mejora de procesos. Esto implica la realización de diseño de experimentos para medir los efectos importantes. El equipo debe buscar la manera de controlar la mayor cantidad de variables listadas y debe ser capaz de desarrollar métodos para eliminar los efectos de muchas variables. Con los factores que no se pudieron controlar se crea un diseño experimental utilizando un paquete de software estadístico. Dado que se trata sólo de ser un experimento de selección, el objetivo es identificar los principales efectos
significativos. Los softwarespermiten la selección entre varios diseños. El Black Belt decide el diseño que estime los efectos principales con el menor número de unidades de prueba. Una vez ejecutado este diseño el equipo se reúne para analizar los resultados. Se decide establecer todos los factores que no fueron estadísticamente significativos en los niveles que tienen menores costos de operación. El equipo monitoreará el proceso en estos valores por un tiempo para determinar que los resultados fueron similares a lo que el equipo espera a partir del análisis experimental. Mientras se hace esto, se planifica otra serie de experimentos para explorar más a fondo los efectos significativos revelados por el experimento de detección. Fase II: Escalamiento Ascendente o Descendente Pyzdek y Keller (2010) sostienen que esta etapa está basada en el experimento de selección, utilizando un modelo lineal para estimar la tasa de defectos encontrados a partir de los coeficientes obtenidos. El equipo necesita llevar a cabo una serie de experimentos para evaluar los factores significativos. En la primera fase del experimento se observó la dirección y la relación existentes entre los factores, lo cual nos indica que se debe cambiar para conseguir la mejora más rápida en la tasa de defectos, es decir, la dirección de escalamiento empinado (en "ascenso" significa una mejora en la medición de intereses). Para el cálculo de una serie de puntos a lo largo de la dirección del ascenso más escarpado, comience en el centro del diseño y el cambio de los factores en proporción a los coeficientes de la ecuación ajustada. Fase III: Experimento Factorial Pyzdek y Keller (2010) sostiene que p ara explorar la región experimental con mayor profundidad se necesita llevar a cabo un experimento factorial. Para ello se necesitan 2 a 4 factores y se utilizará un diseño 3 k –p para poder evaluar las interacciones entre los factores y la curvatura. Es necesario hallar una la curvatura en nuestra región de experimentación ya que es un medio importante de que ya no estamos experimentando en la región lineal de las respuestas. Al ver los resultados, el Black Belt debe decidir si ya es necesario avanzar a la Fase IV para investigar mejor a la región de respuesta y para tratar de localizar un óptimo. Fase IV: Diseño Compuesto Pyzdek y Keller (2010) sostiene que el Black Belt es el que decide que ya se puede utilizar el Diseño Central Compuesto. Método utilizado para obtener información adicional sobre la región en la que el proceso estaba funcionando. Este diseño consiste en utilizar sólo los puntos de esquina y el punto central del anterior experimento factorial con puntos adicionales, tal como se muestra en la Figura 12. Los puntos a ampliar del diseño van más allá de los niveles previamente diseñados, tanto en los valores altos y bajos para cada factor. Los softwares encuentran los coeficientes de la ecuación que describe una región compleja por las respuestas. Además se generan gráficos de visualización en dos y tres dimensiones que describen gráficamente la región de la experimentación. Generalmente no es difícil interpretar los dibujos de la superficie de respuesta. A dichos gráficos se los conoce como gráfico de contornos y superficie de respuesta, respectivamente. Esta metodología no sólo nos modelará y predecirá las ocurrencias dentro de los rangos de valores analizados, también puede darnos valores óptimos en función al análisis. El
equipo, dirigido por el Black Belt debe verificar y validar los resultados de dicho análisis. También debe proporcionar apoyo continuo a la institución en forma de visitas periódicas y la disponibilidad ante las posibles preguntas.
Figura 12. Diseño Central Compuesto con 3 k –p Fuente: Gutiérrez y De la Vara (2008)
Fase V: Producto Robusto y Diseño de Proceso Pyzdek y Keller (2010) concluye que para mantener los logros se requiere, entre otras cosas, la creación de procesos y productos que operen cerca de sus condiciones óptimas, aun cuando se produzcan cambios. Los Diseños Robustos pueden comenzar con un estudio cuidadoso de la tramade contorno. La planificación sólida de control de debe tomar en cuenta procesos de no-linealidad. Si hay una necesidad de cambiar algún factor, debe ser cambiado de una manera que evite el aumento de la tasa de defectos. Esto no quiere decir que todos los cambios deben ser prohibidos, después de todo, sin cambio no hay aprendizaje o perfeccionamiento. Sin embargo, los cambios deben ser controlados para proporcionar un filtro entre el cliente y la producción de productos no conformes que pueden ocurrir durante el proceso de aprendizaje. Más formalmente, el diseño robusto puede ser integrado con el Diseño Experimental (DOE). Los métodos descritos por Genichi Taguchi es unmétodo bien conocido para la integración de DOE y diseño de productos y procesos. Si bien ha habido muchas críticas de la aproximación estadística de Taguchi, hay un amplio consenso en que sus principios de diseño de parámetros robustos son contribuciones válidas y valiosas para el análisis deSeis Sigma.
1.1.5 Fase IV
1.1.5.1 Elaboración del plan de control Bahena y Reyes (2006) afirman que los procesos tienden a degradarse con el tiempo, por lo que es de gran importancia la implementación de un plan de control para cada X, para establecer el pan es necesario tener procesos y procedimientos documentados y entrenar al personal que llevara a cabo esta actividad. Una vez implementadas las mejoras se vuelve a calcular los niveles sigma del proceso, para saber en qué nivel nos encontramos actualmente. Un plan de control es: Un resumen de todas las actividades de control para el proceso. Un método para identificar deficiencias en el sistema de control. Una lista de las actividades de control para implantar. Una entrada al AMEF (Procesos maduros). Una salida para el AMEF (procesos nuevos).
Intención y Propósito del Control del Proceso La intención del proceso de control es: Correr el proceso en el objetivo. Minimizar la variación sobre el objetivo. Minimizar los ajustes requeridos y el sobre-control. Siempre conocer los requerimientos del cliente.
El propósito del plan de control es: Institucionalizar las mejoras del proceso. Destacar aéreas que requieren educación extra. Proveer procedimientos de un solo paso para el control
Desarrollo de un plan de control del proceso Las Entradas para el plan de control son: Mapa
de proceso final. AMEF. Documentación del proceso. Requerimientos del cliente. Capacidades de IT. ASM’s. Estudios de capacidad. Mantenimiento de procedimientos. Materiales de entrenamiento. Guías de solución de problemas. Calendarios de Calibración. Ventanas de operación. Planes
de acción fuera de control.
Identificación del proceso El Paso del proceso:
de la información.
Del
mapa de proceso. Mantener coherencia en nombres con el mapa de proceso, AMEF, etc. Solo Alto riego, pasos críticos del proceso. Que está controlado Nombre de la entrada o la salida. Entrada o Salida – Especificar. Inicialmente, el plan debe tener más controles en las salidas que en las entradas. Las metas son para el control de la entrada, no el monitoreo de la salida.
Especificaciones y Medición Los límites de Especificación / Requerimientos: Listar el objetivo y las tolerancias para cada entrada Método de Medición. Proceso o máquina que hace la medición. Método de Control. Que método se utiliza para el control. SPC o SPM Automatización, Pre-control o Aislar el error.
y salida critica.
Tamaño, Frecuencia y Responsabilidad Seleccionar
el tamaño de muestra sobre la base del sistema de medición y capacidad del proceso. Seleccionar la frecuencia basada en el sistema de medición, capacidad del proceso y requerimientos de la operación. Seleccionar el método de medición. Seleccionar al responsable de asegurar que los datos se tomen y que sean correctos.
Acción y Documentación Dónde se registran los datos. Dónde residen los datos (Bases de datos, graficas, Regla de decisión / Acción correctiva. Qué pasa cuando el proceso está fuera de control.
1.1.5.2 Mecanismos mantenimiento de las mejoras
de
ambas, etc.).
control
para
asegurar
el
1.2 Glosario de términos técnicos 1.2.1 Análisis de Varianza (ANOVA): Una técnica que subdivide la variación total de un conjunto de datos en sus componentes significativos asociados con las fuentes específicas de variación con el fin de probar algunas hipótesis sobre los parámetros del modelo o componentes de varianza estimada.
1.2.2 Aseguramiento de la Calidad: Todas aquellas acciones planeadas o sistemáticas necesarias para proporcionar la confianza adecuada de que un producto o servicio satisfaga unas necesidades dadas. 1.2.3 Asimetría (S k e w n e s s ) : Es una medida de la simetría de una distribución. Un valor positivo indica que la distribución tiene una mayor tendencia a tener la cola hacia a la derecha, conocida también como Asimetría Positiva o sesgada a la derecha. Un valor negativo indica una mayor tendencia de la distribución con la cola hacia la izquierda, denominada como Asimetría Negativa o sesgada a la izquierda. La asimetría es 0 para una distribución normal. 1.2.4 Calidad Media de Salida (AOQ): La calidad esperada de los productos de salida tras el uso de un plan de muestreo aceptado para un valor dado de calidad de producto entrante. 1.2.5 Calidad: La totalidad de rasgos y características de un producto o servicio que le confieren la aptitud para satisfacer necesidades dadas. 1.2.6 Capacidad-del Proceso: Límites en los que operan con base en una herramienta o proceso sobre la variabilidad mínima que se rige por las circunstancias prevalecientes. NOTA: La frase "por las circunstancias prevalecientes" indica que la definición de la variabilidad inherente a un proceso que involucra un solo operador, una fuente de materia prima, etc., se diferencia de una participación de múltiples operadores, y muchas fuentes de materia prima, etc. Si la medida de la variabilidad inherente se realiza en circunstancias muy restringidas, es necesario añadir componentes para fuentes asignables de variación que frecuentemente ocurren y que económicamente no pueden ser eliminados. 1.2.7 Causa Asignable: Un factor que contribuye a la variación y que es posible detectar e identificar. 1.2.8 Coeficiente de Correlación Múltiple: Un número entre 0 y 1 que indica el grado de relación lineal combinada de varias variables de predicción, X 1, X 2, ... , X p a la variable respuesta Y . Es el coeficiente de correlación simple entre los valores predichos y observados de la variable respuesta. 1.2.9 Coeficiente de Correlación: un número entre -1 y 1 que indica el grado de relación lineal entre dos conjuntos de números. 1.2.10 Coeficiente de Determinación: Una medida de parte de la varianza de una variable que puede explicarse por su relación lineal con una segunda variable. Designado por 2 o r 2 . 1.2.11 Coeficiente de Variación: Una medida de dispersión relativa que es la desviación estándar dividida por la media y multiplicada por 100 para obtener un valor porcentual. Esta medida no puede ser utilizada cuando los datos tienen valores negativos y positivos, o cuando se hayan codificado de tal manera que el valor de X 0 no coincide con el origen. 1.2.12 Control de Calidad: Las técnicas operativas y las actividades que sostenga una calidad de producto o servicio que satisfaga necesidades dadas, también el uso de técnicas y actividades. 1.2.13 Curtosis: Una medida de la forma de una distribución. Un valor positivo indica que la distribución tiene colas más largas que la distribución normal (platicurtosis), mientras que un valor negativo indica que la distribución tiene colas más cortas (leptokurtosis). Para la distribución normal, la curtosis es 0.
1.2.14 Defecto: A la salida de una característica de calidad del nivel o estado deseado que se produce con una intensidad suficiente para causar que un producto o servicio asociado no cumpla con la intención normal, o razonablemente previsible, de los requisitos de uso. 1.2.15 Defectuoso: Una unidad de producto o servicio que contenga al menos un defecto, o tener varias imperfecciones que en combinación hacen que la unidad no para satisfacer las normales previstas, o razonablemente previsibles, los requisitos de uso. La palabra defectuoso es apropiado utilizar cuando una unidad de producto o servicio es evaluado en términos de uso (a diferencia de la conformidad con especificaciones). 1.2.16 Desviación Estándar 1. – Desviación Estándar Poblacional. Una medida de la variabilidad o dispersión de las observaciones que es la raíz cuadrada positiva de la varianza poblacional. 2. s – Desviación Estándar Muestral. Una medida de la variabilidad o dispersión, que es la raíz cuadrada positiva de la varianza de la muestra. 1.2.17 Diseño Experimental: El arreglo con el que un programa experimental se lleva a cabo, y la selección de las versiones (niveles) de uno o más factores o combinaciones de factores que deben incluirse en el experimento. 1.2.18 Distribución de Frecuencias: Un conjunto de todos los diferentes valores que las observaciones individuales pueden tener y la frecuencia de su ocurrencia en la muestra o población. 1.2.19 Doble muestreo: Inspección de muestreo en los que la inspección de la primera muestra de tamaño n1, conduce a la decisión de aceptar un lote, no es aceptado, o se toma una segunda muestra de tamaño n2, y la inspección de la segunda muestra lleva a la decisión de aceptar o no el lote. 1.2.20 Error de Tipo I (sentido de control de aceptación): La decisión incorrecta de que un proceso es inaceptable cuando, en realidad, la información perfecta revelaría que se encuentra dentro de la "zona de aceptación del proceso”.
1.2.21 Error de Tipo II (sentido de control de aceptación): La decisión incorrecta de que un proceso es aceptable cuando, en realidad, la información perfecta revelaría que se encuentra dentro de la "zona de rechazo de los procesos". 1.2.22 Estadístico: Una cantidad calculada a partir de una muestra de observaciones, en su mayoría para formar una estimación de un parámetro de la población. 1.2.23 Experimentos Factoriales: Experimentos en los que todas las combinaciones posibles de tratamiento formado por dos o más factores, estudiándose cada uno está con dos o más versiones (niveles), son examinados de manera que se pueda estimar las interacciones (efectos diferenciales), así como los efectos principales. 1.2.24 Factor: Una causa conocida que puede afectar a las respuestas (resultados de la prueba) y de la que las diferentes versiones (niveles) incluidos en el experimento. 1.2.25 Hipótesis Alterna: La hipótesis que se acepta si la hipótesis nula es rechazada. La elección de la hipótesis alterna determinará si las pruebas de "una cola" o "dos colas" son adecuadas.
1.2.26 Hipótesis Nula: La hipótesis examinada en las pruebas de significancia es que no hay ninguna diferencia (nula) entre la población muestral y una población específica (o en entre las poblaciones asociadas a cada muestra). La hipótesis nula no puede ser nunca cierta. Sin embargo, se puede mostrar, con los riesgos específicos de error, que es falso, es decir, se puede demostrar que existe una diferencia entre las poblaciones. Si no es refutada, por lo general actúa en el supuesto de que no hay razón suficiente para dudar de que es cierto. (Puede ser que no hay poder suficiente para probar la existencia de una diferencia en vez de que no haya diferencia; es decir, el tamaño de la muestra puede ser demasiado pequeño Si se especifica la diferencia mínima que se quiere detectar y , el riesgo de detectar una diferencia de este tamaño, se puede determinar, sin embargo, el tamaño requerido de la muestra actual. 1.2.27 Histograma: Un gráfico de la distribución de frecuencias en forma de rectángulos cuyas bases son iguales para el intervalo de celdas y cuyas áreas son proporcionales a las frecuencias. 1.2.28 Límite de Calidad Media de Salida (AOQL): Para un plan de muestreo de aceptación dado, el máximo AOQ sobre todos los niveles posibles de calidad de entrada. 1.2.29 Límites de Confianza: Los puntos finales del intervalo de la muestra estadística que se considera, con un coeficiente de confianza especifica, para incluir el parámetro poblacional. 1.2.30 Mediana: La medición del centro, cuando un número impar de unidades están dispuestas en orden de tamaño, por un conjunto ordenado X 1, X 2, ... , X 2k –1. Siendo la mediana igual a X k . Cuando un número par están dispuestas, la mediana es el promedio de las dos unidades centrales, para un conjunto ordenado X 1, X 2, ... , X 2k . 1.2.31 Moda: el valor más frecuente de la variable. 1.2.32 Muestra: Un grupo de unidades, parte del material, o las observaciones tomadas de una colección más grande de unidades, cantidad de material o las observaciones que sirve para proporcionar información que pueda ser utilizado como base para la toma de una decisión relativa a la cantidad más grande. 1.2.33 Muestreo Aleatorio: El proceso de selección de unidades de una muestra de tamaño n de tal manera que todas las combinaciones de n unidades en cuestión tengan la misma o comprobable oportunidad de ser seleccionados como muestra. 1.2.34 Muestreo Múltiple: Muestreo de inspección en la que, después de cada muestra es examinada, se toma la decisión de aceptar o no aceptar un lote, se toma otra muestra para tomar la decisión. Puede haber un número máximo de muestras prescritas, después del cual se debe llegar a la decisión de aceptar o no aceptar. 1.2.35 Muestreo Simple: Muestreo de inspección en la que se basa la decisión de aceptar o no a un lote basado sobre la inspección de una sola muestra de tamaño n. 1.2.36 Nivel de Calidad Aceptable: Porcentaje o proporción máxima de unidades variantes en un lote o batch que, para el propósito de aceptación del muestreo, se puede considerar satisfactorio como un promedio del proceso.
1.2.37 Oportunidad de Causas: Factores, en general numerosas e individualmente de una importancia relativamente pequeña, que contribuyen a la variación, pero que no hay viabilidad de detección o identificación. 1.2.38 Parámetro: Una constante o coeficiente que describe algunas características de una población. Por ejemplo, la desviación estándar, promedio, coeficiente de regresión. 1.2.39 Población: La totalidad de elementos o unidades de material en cuestión. NOTA: Los elementos pueden ser unidades o mediciones, y la población puede ser real o conceptual. Así, la población puede hacer referencia a todos los elementos de hecho producido en un día o todo lo que se podría producir si el proceso se mantuviera bajo control. 1.2.40 Proceso en Control: Un proceso en el que la(s) medida(s) estadística(s) está(n) siendo evaluadas en un "estado de control estadístico". 1.2.41 Promedio, Error Estándar de: La desviación estándar de la media de una muestra de tamaño n. 1.2.42 Promedio: una medida de la ubicación de una distribución. El centroide. 1.2.43 R (Rango): Una medida de dispersión, que es la diferencia entre el mayor valor observado y el menor valor observado en una muestra determinada. Mientras que el rango es una medida de dispersión por derecho propio, a veces se utiliza para estimar la desviación estándar de la población, pero es un estimador sesgado a menos que multiplicado por el factor apropiado (1/d2) para el tamaño de la muestra. 1.2.44 Replica: La repetición de la serie de todas las combinaciones de tratamientos que se comparan en un experimento. Cada una de las repeticiones se llama una réplica. 1.2.45 Riesgo para el Consumidor ( ): Para un determinado plan de muestreo, la probabilidad de aceptación de un lote, cuya calidad tiene un valor numérico designado que representa un nivel que rara vez se desea aceptar. Por lo general, el valor designado será el Nivel de Calidad Límite (LQL). 1.2.46 Riesgo para el Productor ( ): Para un determinado plan de muestreo, la probabilidad de no aceptación de un lote cuya calidad tiene un valor numérico que representa un nivel asignado que por lo general se desea aceptar. Por lo general, el valor asignado será el nivel de calidad aceptable (AQL). 1.2.47 Varianza: 1. 2 – Varianza Poblacional. Una medida de la variabilidad (dispersión) de las observaciones basada en la desviación estándar de la media aritmética. 2. s2 – Varianza de la Muestra. Una medida de la variabilidad (dispersión) de las observaciones en una muestra basada en las desviaciones al cuadrado de la media aritmética dividida por los grados de libertad. II. CASOS PRÁCTICOS 2.1 Casos de Manufactura Definir el proyecto: Definir el indicador operacional y el indicador finaciero
2.2 Casos de Servicios
III. REFRENCIAS BIBLIOGRÁFICAS 1. Arias Montoya, Leonel; Portilla, Liliana Margarita y Castaño Benjumea, Juan Carlos. 2008. Aplicación de Six Sigma en las Organizaciones. Scientia Et Technica. Universidad Tecnológica de Pereira. Colombia. 25 (38): 265 – 270. 2. Bahena Quintanilla, Miguel y Reyes Aguilar, Primitivo. 2006. Curso de Seis Sigma. Universidad Iberoamericana. Santa Fe. México. 262 pág. 3. Bahena Quintanilla, Miguel. 2006. Aplicación de la Metodología Seis Sigma para mejorar la calidad y productividad de una Planta de Bebidas. Tesis para obtener el Grado de Maestría en Ingeniería de Calidad. Universidad Iberoamericana. Puebla. México. 190 pág. 4. Blancas Castro, Álvaro Mauricio y Rodríguez Gutiérrez, Jorge Luis. 2005. Propuesta de un sistema de mantenimiento preventivo y de logística para Firth Industries Perú S. A. Tesis para Optar el Grado Académico de Magíster en Gestión de Operaciones. Universidad Peruana de Ciencias Aplicadas. Lima. Perú.
5. Carrillo Sancosme, Rodrigo. 2011. Curriculum Vitae. Consultado el 18 de Diciembre de 2011. Disponible en: http://www.cimat.mx/Sitios/seissigma/archivos/CV_Rodrigo_Carrillo.pdf 6. Diaz Medrano, Susana. 2008. Aplicación del Método Seis Sigma en la mejora del proceso de facturación en la Agencia Morelia Norte de la Comisión Federal de Electricidad. Tesis presentada para obtener el grado de Magíster en Administración. Universidad Michoacana de San Nicolás de Hidalgo. Morelia. Michoacan. México. 121 pág. 7. Garza Gonzalez, Mario. 2006. Modelo de Indicadores de Calidad en el Ciclo de Vida de Proyectos Inmobiliarios. Tesis para obtener el Grado Académico de Doctor. Universidad Politécnica de Cataluña. Barcelona. España. 204 pág. 8. Gutiérrez Pulido, Humberto y De la Vara Salazar, Román. 2008. Análisis y Diseño de Experimentos. 2da edición. McGraw-Hill. México. 545 pág. 9. Gutiérrez Pulido, Humberto y De la Vara Salazar, Román. 2009. Control Estadístico de la Calidad y Seis Sigma. 2da edición. McGraw-Hill. México. 482 pág. 10. Lefcovich, Mauricio León. 2005. Seis Sigma: Un Sistema de Calidad para el Siglo 21. Consultado el 16 de Diciembre de 2011. Disponible en línea:http://www.degerencia.com/articulo/seis_sigma_un_sistema_de_calidad_ para_el_siglo_21 11. Pries, K. 2006. Six Sigma for the Next Millennium. ASQ Quality Press. Milwaukee. Wisconsin.USA. 12. Proces Consultores. 2006. Curso Fundamentos de Seis Sigma (Nivel Yellow Belt ). Hitachi GST. Guadalajara. México. 13. Pyzdek, Thomas y Keller, Paul A. 2010. The Six Sigma Handbook. A Complete Guide for Green Belts, Black Belts, and Managers at All Levels. Third Edition McGraw-Hill. 561 pág. 14. Reyes Aguilar, Primitivo. 2004. Curso de Seis Sigma Transaccional para Black Belts. Módulo I.Universidad Iberoamericana. México. 15. Ruskin, A. M. and Estes, W. E. 1995. What Every Engineer Should Know About Project Management. 2nd Edition. Marcel-Dekker. New York. USA.