MANEJO DE DATOS Y MÉTODOS DE ANÁLISIS A. MICHAEL HUBERMAN MATTHEW B. MILES Traducción de Rosa I. Valero Moll Original: Huberman, A.M. y Miles, M.B. 1994. Data management and analysis methods. En Denzin, N.K. y Lincon, Y.S., Handbook of Qualitative Research. Thousand Oaks, CA: Sage. Pp. 428-444. Definiciones y Asunciones
A lo largo de la pasada década, la discusión sobre el manejo de datos cualitativos y su análisis hizo que éstos hayan llegado a estar más diferenciados e integrados. En 1976, la revisión que Sieber realizó sobre siete textos “respetados” en el campo de la metodología desveló que menos del 5-10% de sus páginas se dedicaban al análisis propiamente dicho. En 1979 Miles advirtió que el análisis cualitativo disponía en general de pocas directrices para protegerse del autoengaño y, aún menos contra las conclusiones no válidas o poco fiables. Nosotros también comentamos que los métodos de análisis eran raramente descritos con detalle suficiente para que los lectores pudieran seguir cómo el investigador llegaba a las conclusiones finales a partir de 3,600 páginas de notas de campo (Miles & Huberman, 1984). Hoy en día nos encontramos lejos de esta situación. La base de datos consultada en la preparación de la edición de 1994 de Qualitative Data Analysis: An Expanded Sourcebook (Análisis de datos cualitativos: una fuente de información expandida) ha triplicado su tamaño desde la publicación de su primera edición (Miles & Huberman, 1984, 1994). Disponemos de nuevos journals (revistas), diversos manuales, innumerables conferencias sobre asuntos cualitativos, grupos especialmente interesados en el tema y nuevos paquetes de software. Es un sector creciente. Como resultado de ello, muchos textos nuevos, incluído el presente, han hecho que las conclusiones de Sieber hayan quedado obsoletas. Gradualmente la habilidad en el manejo de datos y su análisis están llegando a ser explícitamente compartidas. Todavía queda mucho por hacer. Existe una gran competencia entre los numerosos y polémicos argumentos. Aún resulta improbable que un investigador pueda escribir el estudio de un caso a partir de las notas de campo de un colega y que resultara creíblemente similar al original. En este capítulo fijamos nuestra atención en el manejo de los datos y los métodos de análisis, con la intención de señalar tanto el trabajo útil, bien hecho, como las cuestiones no resueltas. De esta manera, subrayaremos algunas asunciones básicas y definiciones, discusiones sobre la recogida sistemática de datos y manejo de cuestiones, para posteriormente dirigirnos a lo concerniente al análisis de los datos y su manejo (que ocurre antes, durante y después de la recogida de datos, así como dentro y a través del proceso en sí). Concluimos con cuestiones generales del análisis: la importancia de la presentación de los datos, amenazas para la validez analítica y la importancia de la “transparencia” en el procedimiento del manejo y análisis en sí mismo. Definiciones operativas
1
En este capítulo definimos manejo de datos pragmáticamente como las operaciones necesarias para un proceso sistemático y coherente de recogida, almacenamiento y recuperación de datos. Estas operaciones tienen el propósito de asegurar: a) datos accesibles de alta calidad b) documentación de los tipos de análisis que se han llevado a cabo c) conservación de los datos y análisis asociados después de completar el estudio. Nuestra definición de análisis de datos contiene tres subprocesos relacionados (Miles & Huberman, 1984, 1994): reducción (síntesis/procesamiento) de los datos, presentación datos y conclusiones/verificación (ver figura 27.1). Estos procesos se producen tanto antes de la recogida de datos, como durante la fase del diseño y planificación del estudio; a lo largo de todo el proceso de la fase de recogida de datos y al principio de la fase en que el análisis es llevado a cabo; y después de la recogida de datos al proponer y completar las conclusiones. Con la reducción de los datos, el universo potencial de datos queda reducido de manera anticipadora cuando el investigador elige el marco teórico/conceptual, las preguntas de investigación, los casos y los instrumentos. Una vez que las notas de campo, entrevistas, cintas u otros datos están disponibles, los sumarios de datos, codificación, estructuras de búsqueda, agrupaciones e historias escritas son, todos ellos, instancias de la selección y condensación de datos. La presentación de datos, definida como un ensamblaje comprimido y organizado de información que permite exponer conclusiones y/o tomar decisiones, constituye la inevitable segunda parte del análisis. Habitualmente el investigador necesita ver un conjunto de datos reducido como base para pensar sobre sus significados. Las presentaciones más focalizadas pueden incluir sumarios estructurados, sinopsis (Fischer & Wertz, 1975), viñetas (Erickson, 1986), conexiones en red u otros diagramas (Carney, 1990; Gladwin, 1989; Strauss, 1987; Werner & Schoepfle, 1987a, 1987b), y matrices con textos, en vez de números en celdas (Eisenhardt, 1989a, 1989b; Miles & Huberman, 1984, 1994). La exposición de conclusiones y su verificación involucran al investigador en la interpretación sobre el significado de lo expuesto a partir de los datos presentados. El rango de las tácticas usadas parece ser extenso, desde el uso típico y común de la comparación/contraste, la ilustración de temas y patrones, los agrupamientos y el uso de metáforas, hasta el de las tácticas confirmatorias tales como la triangulación, búsqueda de casos negativos, seguimiento de sorpresas y comprobación de resultados con respondentes (Miles & Huberman, 1984, 1994). Muchos puntos de este aspecto del análisis demuestran que hay un grupo de múltiples y reiterativas tácticas en juego (Chesler,1987; Fischer & Wertz, 1975; Schillemans et al., n.d.) y no sólo una o dos tácticas centrales. En este sentido podemos hablar de “transformación de los datos” cuando la información está agrupada, ordenada y conectada a lo largo del tiempo (Gherardi & Turner, 1987).
Figura 27.1. Componentes del Análisis de datos: Modelo Interactivo.
2
Algunas Asunciones Epistemológicas Una buena práctica para los investigadores es dejar claras sus preferencias. Saber cómo los investigadores construyen la forma del mundo social y cómo intentan darnos una descripción creíble de ello es conocer a quién tenemos al otro lado de la mesa. Cuando, por ejemplo, un realista, un teorista crítico, y un fenomenalista social están compitiendo por nuestra atención, es importante saber de dónde provienen. Tendrán puntos de vista diferentes de lo que es real, lo que podemos saber y de cómo estos hechos sociales pueden ser descritos con exactitud (Guba, 1990; Phillips, 1990; Ratcliffe,1983). En nuestro caso, nos hemos descrito como “realistas” (Huberman & Miles, 1985), pero más exactamente como “realistas transcendentales” (Bhaskar, 1978, 1989; Harré & Secord, 1973; Manicas & Secord, 1982). Fundamentalmente, pensamos que los fenómenos sociales existen no sólo en la mente, sino también en el mundo objetivo, y que hay algunas relaciones/leyes razonables estables entre ellos. Estas leyes provienen de las secuencias y las reglas que unen los fenómenos; es de estos fenómenos de los que obtenemos los constructos para la vida social e individual. Esta postura reconoce la naturaleza histórica y social del conocimiento, junto con la producción de significado en el centro de la experiencia fenomenológica (Parker & Addison, 1989; Polkinghorne, 1988). Nuestro objetivo es “transcender” estos procesos, construyendo cuidadosamente explicaciones que puedan describirlos de maneras plausibles. Así, el realismo transcendental necesita tanto las explicaciones causales como las evidencias para mostrar que cada entidad o hecho histórico es una instancia de dicha explicación. Por lo tanto, hay una necesidad no sólo para una estructura explicatoria, sino también para un relato descriptivo cuidadoso de cada configuración particular. Ésta es una razón por la que nosotros y otros nos hayamos inclinado hacia el método de estudio más descriptivo, pero al mismo tiempo, también más inductivo.
Manejo de los datos Los estudios cualitativos –especialmente aquéllos realizados por investigadores solitarios o sin experiencia- son vuñnerables respecto al manejo de los datos. Kvale (1988) ofrece un agudo análisis sobre una pregunta inocente, “¿Cómo encontraré un método para analizar las 1,000 páginas de transcripciones de entrevistas que he recopilado?” Su primera respuesta es “Nunca lleves a cabo una investigación con entrevista si vas a llegar a una situación en que tengas que hacerte tal pregunta” (p. 90). ¿De qué tipo de datos estamos hablando? Abstractamente, los datos cualitativos hacen referencia a la esencia de la gente, los objetos y las situaciones (Berg, 1989). Esencialmente, una experiencia pura es convertida en palabras, típicamente recopilada en textos extensos. Una parte de la experiencia pura también puede ser grabada como imágenes móviles o fijas; estas imágenes pueden ser usadas en una variedad de maneras, la mayoría de ellas también incluyendo conversaciones o conexiones a palabras. Ver especialmente Harper (1989) sobre diversos modos de ver la imagen de análisis. Ball y Smith (1992) también nos ayudan a ver que las imágenes no son más realistas que las palabras, y que, como la lengua, están igualmente sujetas a interpretación y diseccionamiento, son dependientes del contexto, pueden ser falseadas, etc.
3
Las palabras incluídas están típicamente basadas en observaciones, entrevistas o documentos (como apunta Wolcott, 1992, "ver, preguntar o examinar") y se llevan a cabo dentro de una escenario concreto durante un período de tiempo sostenido. Estos modos de recogida de datos pueden ser en su mayoría abiertos, sin estructura, producto de un evento, o estrechamente definidos, estructurados o dirigidos por el investigador. Normalmente, la información recogida no está inmediatamente disponible para el análisis, sino que requiere algún tipo de procesamiento; las notas de campo puras pueden ser garabatos indescifrables para alguien que no sea el mismo investigador y deben ser corregidas, elaboradas, editadas y escritas/pasadas a máquina. Las cintas de vídeo requieren un procesamiento similar. Además de la "calidad" de los datos cualitativos, la cantidad es otro aspecto a tener en cuenta, pues puede ser desalentadora e incluso arrolladora. Dependiendo del nivel de detalle, un día de la notas de campo de unas seis entrevistas podría convertirse fácilmente en 50-100 páginas a un espacio. Y, como al visitar un lugar concreto, se le van amontonando y, además, es posible que tenga que visitar muchos lugares para llevar a cabo su investigación, el investigador se verá pronto enfrentado a mucho más de las "mil páginas" mencionadas por Kvale. Finalmente, tenemos que añadir que, a no ser que haya un sistema coherente y razonable para recoger información de un rango de informantes, a lo largo de un potencial rango de lugares y en un formato más o menos comparable, el investigador se hallará pronto en el limbo del manejo de datos. Esto nos conduce a los asuntos de almacenamiento y recuperación de los datos. Almacenamiento y recuperación La clave para el manejo de los datos es cómo los datos son almacenados y recuperados; sin un esquema claro de trabajo, es fácil que los datos puedan ser "mal codificados, mal etiquetados, mal relacionados, y perdidos" (Wolfe, 1992, p. 293). Un buen sistema de almacenamiento y recuperación es vital para mantenerse al día sobre los datos disponibles; para permitir el fácil, fiable y flexible uso de datos --a menudo por varios miembros del equipo de investigación-- en puntos diferentes de un período de tiempo de la vida de un proyecto; y para documentar los análisis realizados, permitiendo así que, en principio, el estudio pueda ser verificado o replicado. Actualmente ha habido pocas discusiones detalladas sobre el sistema de almacenamiento y recuperación de datos cualitativos. Una de ellas es la propuesta por Werner y Schoepfle (1987b), quienes mostraron correctamente que un sistema necesita ser diseñado mucho antes de la recogida de datos. Distinguen entre notas de campo sin procesar (diarios), transcripciones, documentos y materiales interpretativo/analíticos producidos por el investigador y subrayan la importancia de un claro sistema de indexación. Levine (1985) propuso cinco funciones generales del almacenamiento y recuperación de datos: formateo (cómo los materiales están distribuidos, físicamente encarnados y estructurados en tipos de fichero), referencias cruzadas (unión a través de ficheros diferentes), indexación (definir códigos y organizarlos en una estructura, relacionando los códigos con partes específicas de una base de datos), resumir (hacer resúmenes condensados de materias más largas, como documentos o notas de campo extensas), y numeración de páginas (números y letras localizando materias específicas en notas de campo --por ejemplo, B J K 1 22 localiza para el Hospital de Brookside la primera entrevista con el Dr. Jameson, realizada por el investigador Kennedy, página 22).
4
Estas funciones, tradicionalmente conseguidas a través del libro de notas, las tarjetas de índice, las carpetas..., se pueden llevar a cabo mucho más rápida y fácilmente mediante el empleo de software (para sugerencias específicas, ver Weitzman & Miles, 1993; ver también Richards & Richards, Capítulo 28 de este volumen). Aún así, también es necesario un sistema de fichas físico para las notas de campo sin procesar, copias de transcripciones, cintas de audio, memos y similares. Hemos propuesto una lista sobre qué información necesita ser almacenada, recuperada y normalmente retenida durante un número de años posteriores para un estudio cualitativo (Miles & Hubeman, 1994; ver la tabla 27.1). Una última observación: un sistema de manejo de datos, su revisión efectiva y su uso a lo largo del tiempo no ocurren en un vacío social, sino en el contexto real del personal de la plantilla del proyecto, trabajando sobre un número de persona-días (que típicamente suman 5-10 veces más tiempo que el tiempo en el campo), y conectado por un acuerdo de grupo de trabajo con la gente que participa en el estudio (informantes y respondentes) sobre el tiempo, energía, flujo de información y productos que serán incluidos. (En Miles & Hubeman, 1994, aparecen sugerencias específicas sobre estos tópicos.) TABLA 27.1 Qué almacenar, recuperar y retener 1. Material puro: notas de campo, documentos "in situ". 2. Datos parcialmente procesados: descripciones, transcripciones. Idealmente, éstos deberían aparecer en la versión inicial y posteriormente en versiones corregidas, "limpiadas" y "comentadas". Las descripciones pueden incluir anotaciones en los márgenes o reflexivas, realizadas por el investigador durante la recogida de datos o tras ella. 3. Datos codificados: descripciones con códigos específicos adjuntos. 4. El esquema de codificación o thesaurus: en sus sucesivas iteraciones. 5. Memorias u otro material analítico: las reflexiones del investigador sobre el significado conceptual de los datos. 6. Fichas de búsqueda y recuperación: información que muestra qué trozos codificados o segmentos de datos buscaba el investigador durante su análisis y la materia de recuperación; fichas de conexiones establecidas entre segmentos. 7. Presentaciones de datos: matrices, diagramas, o redes usadas para presentar la información recuperada de una manera más organizada y comprimida, junto con los textos analíticos asociados. Típicamente, hay varias versiones revisadas de los mismos. 8. Episodios analíticos: documentación de lo que se hizo, paso a paso, para preparar las presentaciones y escribir los textos analíticos. 9. Textos del informe: las versiones sucesivas de lo que se ha escrito sobre el diseño, métodos, y descubrimientos del estudio. 10. Diario general o documentación de la recogida de datos y trabajo analítico. 11. Índice de toda la materia mencionada anteriormente.
5
Análisis
El análisis vía diseño del estudio Seremos breves ya que esta materia queda ya cubierta en este volumen (ver Janeesick, Capítulo 12). En primer lugar, el diseño de los estudios cualitativos puede ser considerado, en un sentido real, como analítico. La elección de un marco teórico, de las preguntyas a investigar, de las muestras, de la definición de "casos" en sí y de la instrumentación influye de manera anticipada sobre la reducción de datos --la cual, como hemos indicado, es un aspecto esencial del análisis de los datos. Estas elecciones tienen una función de unión y focalización, descartando ciertas variables, relaciones y asociaciones de datos y seleccionando otras para nuestra atención. Éstas también llaman a un trabajo creativo. En efecto, los diseños cualitativos no son copiables, fuera de sus propios patrones, pero normalmente tienen que ser construidos por encargo, revisados y "coreografiados" (Preissle, 1991). Segundo, existe un mérito en ambos diseños, los "relajados", dirigidos inductivamente y los "rigurosos", con un acercamiento más deductivo. Los primeros funcionan bien cuando el terreno no es familiar y/o excesivamente complejo, si incluye un caso único, y si el intento es exploratorio y descriptivo. Los diseños más rigurosos están indicados cuando el investigador tiene un buen conocimiento previo del terreno, una buena fuente de conceptos bien estructurados y aplicables, y toma una postura más explicativa y/o confirmatoria incluyendo casos múltiples y comparables. Los estudios cualitativos pretenden definir o explicar (a cualquier nivel) un patrón de relaciones, lo cual sólo podemos hacerlo con un grupo de categorías analíticas conceptualmente especificadas (Mishler, 1990). Empezando con ellos (deductivamente) o llegando gradualmente a ellos (inductivamente), ambos caminos son legítimos y útiles. Los componentes de tales diseños están descritos en el apéndice de este capítulo. Ínterin del Análisis A diferencia de las investigaciones experimentales y los cuestionarios, los estudios cualitativos suelen tener un ciclo de vida particular que reparte la recogida y el análisis de los datos a través del estudio, pero que necesita modos diferentes de investigación en los distintos momentos. Esto tiene algunas ventajas. Para empezar, los errores en el campo pueden ser eliminados para la próxima vez. Siempre hay una segunda oportunidad. Segundo, la instrumentalización puede ser ajustada y añadida. De hecho, a diferencia de los estudios experimentales, los cambios en protocolos observacionales o entrevistas estructuradas en un campo de estudio usualmente refleja un mejor entendimiento de la escena, aumentando así la validez interna del estudio. Pero existen también algunas desventajas. Por ejemplo, el investigador se enfrenta a la tarea de intentar reducir la cantidad de datos recogidos mientras aún está recogiendo más. La idea aquí es enfocar muchas de las recogidas de datos en los temas que surgen o en estructuras y así seguir recogiendo datos adicionales. El análisis en marcha es inflacionario. Habitualmente también, cuanto más se investiga, más estratos de la escena se descubren.
6
Investigación Iterativa La mayoría de estos procedimientos piden el uso de inducción analítica. La clave de la inducción analítica es la suposición de que hay regularidades que podemos encontrar en el mundo físico y social. Las teorías o constructos que obtenemos expresan estas regularidades de la manera lo más precisa posible. Para obtener estos constructos, usamos un procedimiento reiterativo -- una sucesión de ciclos de preguntas y respuestas-- lo cual incluye examinar un grupo de casos dado y entonces refinar o modificar aquellos casos subsecuentes. Tradicionalmente las inferencias resultantes son denominadas "válidas" en el sentido relajado de ser probables, razonables, o verosímilmente ciertas (Robinson, 1951; Znaniecki, 1934). En investigación cualitativa, estos procedimientos corresponden a un acercamiento a la "teoría de base/marco teórico" (Glaser & Strauss, 1967), el cual por sí mismo comparte características importantes con otros modos de análisis en el ínterin (análisis generativo, análisis constructivo, análisis "iluminativo"). Sin embargo, en todos estos casos se mezclan los análisis inductivos y deductivos. Cuando un tema, hipótesis o patrón es identificado inductivamente, el investigador se mueve dentro de un modo de verificación, intentando confirmar o cualificar el descubrimiento, entonces esto da pie a un nuevo ciclo inductivo. La teoría de base/marco teórico reconoce un punto importante: El análisis será no diferenciado y desligado hasta que el investigador tenga un poco de conocimiento local con el terreno. Éste es también el caso para un acercamiento/método derivado de la teoría (e.g., Miles & Huberman, 1994). Ver cómo una estructura funciona en el campo se lleva su tiempo, sobretodo porque sus aplicaciones son a menudo breves y están enmascaradas o cubiertas por otras características, o porque toman una forma diferente de aquello encontrado en la literatura de la investigación o en el laboratorio. En el típico método inductivo, el análisis empieza con la primera visita al sitio. Se hacen anotaciones al margen en las notas de campo, los pasajes más reflexivos se repasan cuidadosamente y se produce algún tipo de hoja de resúmenes. En el siguiente nivel hay que codificar y escribir memorias, ambos temas están tratados en algún lugar de este volumen (ver Strauss & Corbin, Capítulo 17). Con estas advertencias en mente, hemos obtenido un grupo de "tácticas" para darle un sentido (Miles & Huberman, 1994). Numeradas de 1 a 13, están ordenadas de manera aproximada de lo descriptivo a lo explicativo y de lo concreto a lo más abstracto: Anotar patrones y temas (1), Ver la plausibilidad --dando inicialmente un sentido intuitivo (2)-- y reunir por agrupamiento conceptual (3) ayudan a uno a ver las conexiones. Hacer metáforas, un tipo de agrupamiento de datos figurativo (4), es también una táctica para conseguir una mayor integración entre diversas piezas de datos. Contar (5) es la manera más familiar para ver "lo que hay aquí"-- y mantenerse honesto con uno mismo. Hacer contrastes y comparaciones (6) es una táctica clásica para agudizar la comprensión a través de la realización de observaciones de agrupamiento y de distinción. También es necesaria la diferenciación, como en las variables divisorias, variables desligadas que han sido prematuramente agrupadas, o que simplemente toman una apariencia menos monolítica (7). Las tácticas más abstractas incluyen la subsuma de particulares dentro de lo general, movimientos sucesivos entre datos del primer nivel y categorías más generales (8); factorización (9), un análogo de una técnica cuantitativa familiar, que permite al analista mover un gran número de variables medidas a un grupo más pequeño de variables inobservadas, usualmente hipotéticas; anotación de relaciones entre variables
7
(10); y encontrar variables intermedias (11). Finalmente, para construir una comprensión coherente de un grupo de datos podemos ayudarnos construyendo una cadena lógica de evidencias (12) y haciendo coherencias conceptuales/teóricas, normalmente a través de la comparación con constructos de referencia en la literatura (13). Análisis dentro de los casos: Asuntos Generales No existen fronteras fijas que separen el "ínterin" del análisis, el post-análisis o el análisis final. Sin embargo, una serie de asuntos aparecen mientras los casos particulares son examinados --y antes del trabajo de análisis de casos comparativos (ver la sección siguiente). Éste incluye la distinción entre descripción y explicación, la lógica general del análisis, la importancia de la presentación de los datos, el papel de la teoría y la visión de causalidad del trabajo. Descripción y Explicación El análisis dentro de los casos tratará invariablemente con dos niveles de comprensión. El primero es descriptivo. La primitiva pregunta de qué está pasando y cómo suceden las cosas necesita una descripción razonable del fenómeno observado. Esto es la descripción; Bernard (1998) describe tales análisis como: "hacen que las cosas complicadas sean comprensibles, reduciéndolos a sus partes componentes" (p. 317). En efecto, tal y como Rein y Schön (1977) sugieren, un vehículo para la descripción de los actores locales, ocurrencias y ambientes es contar una historia (qué pasó y qué pasó a continuación). Contar historias --una construcción para dar sentido a un "escenario"-- parece profundamente persuasivo en el pensamiento humano (Goleman, 1992; Read, Druian, & Miler, 1989), pero tiene también fallos interpretativos. Una de las preguntas más frecuentes en la vida diaria, y una que invariablemente nunca recibe respuesta, es ¿Por qué?. Pero este proceso familiar esconde el hecho, como señaló Draper (1988), de que "explicar" puede incluir también dar información requerida, justificar una acción, dar razones, apoyar una actitud o construir una expresión causal. La explicación "científica" se encuentra en la estrecha banda de preguntas "por qué", especialmente en las dos últimas de las mencionadas. Como sugiere Kaplan (1964), una explicación --si se propone en términos "determinados" o en términos que directamente se dirijan a lo histórico-- es en efecto una "descripción concatenada" (relacionada) que propone un hecho o leyen relación con otros, haciendo comprensible la descripción. Kaplan da otros puntos de ayuda al señalar que las explicaciones siempre son dependientes de la condición y el contexto, parciales, inconclusas y aplicables indeterminadamente --características no sólo limitadas a los estudios cualitativos. La importancia de las Presentaciones en el Análisis Repitiendo: las presentaciones de los datos que están suficientemente enfocadas para permitir ver el grupo completo de datos en un sitio fijo y que están sistemáticamente ordenadas para contestar la pregunta de investigación ayudan inmensamente a conseguir un análisis válido. Tenemos a mano el conjunto "completo" de datos, aunque de una manera reducida, y puede ser interrogado. Éstos no son
8
"agrupaciones" o "hechos claves" selectivamente extraídos. La analogía es el output de paquetes estadísticos, los cuales (a) permiten llevar a cabo análisis conjuntamente con los datos expuestos, (b) permiten al analista ver qué otros análisis necesita, (c) facilitan la comparabilidad a través de grupos de datos, (d) incrementan la credibilidad en los informes de investigación donde las presentaciones de datos normalmente acompañan a las conclusiones. Aquí también el análisis es secuencial e interactivo. Los datos presentados y el texto escrito que emerge de las conclusiones de un investigador se influencian mutuamente. La exposición ayuda al escritor a observar patrones; el primer texto hace que la exposición tenga sentido y sugiere nuevos movimientos analíticos en los datos mostrados; una exposición revisada o extendida señala nuevas relaciones y explicaciones, produciendo un texto más diferenciado e integrado, y sucesivamente. Las presentaciones fomentan el análisis y éste fomenta presentaciones más potentes y sugestivas.
Figura 27.2. Interacción entre la Presentación y el Texto Analítico.
El Papel de la Teoría en el Análisis dentro de los casos Las pretensiones honestas/virtuosas sobre las conclusiones normalmente se apoyan en tres metapretensiones: (a) que el investigador ha desarrollado o ha comprobado una teoría; (b) que todos los datos relevantes han sido examinados y que los datos irrelevantes no se han "metido por lo bajini"; y (c) que ha habido un "diálogo" estable y explícito entre ideas y evidencias (Ragin, 1987). Glasser (1978) sugiere que una buena teoría tiene categorías que encajan (o han llegado a encajar) los datos; es relevante para el núcleo/centro/corazón de lo que está pasando; puede ser usado para explicar, predecir e interpretar lo que está pasando; y es modificable. Aún/Tanto más para un punto de vista clásico (¡Vaya con el punto de vista
9
clásico!). En la práctica la teoría tiene otro lado oscuro que surge durante el análisis. Buena muestra de esto es la comparación entre los estudios de Everhart (1985a, 1985b) y Cusick (1985a, 1985b) sobre el significado de aprendizaje y enseñanza, analizado por Noblit (1988). Aunque ambos estudiaron escuelas secundarias americanas, Noblit demuestra que sus interpretaciones variaron ampliamente. Los supuestos de la teoría crítica de Everhart llevaron a éste a centrarse en los alumnos y en la escolarización como una manera de "proletariezación" del alumnado y a reproducir las estructuras del capitalismo a través de jerarquías y en la distribución de la información (como algo material, "cosificada") dada a los alumnos, considerándolos como "recipientes vacíos". Los supuestos estructuro-funcionalistas de Cusick le llevaron a enfocar la escuela como algo creado por una plantilla de trabajadores (staff), y la escolarización como algo conducido por un "ideal de igualdad", comprometido por la animosidad racial, con "conocimientos poco atractivos", tomando un segundo lugar para las "relaciones amistosas" con los alumnos. Cada investigador, de manera poco sorprendente, vieron las formulaciones del otro como "ideológicas". La fidelidad al "marco teórico" preexistente, llevó a cada uno a conclusiones dramáticamente diferentes sobre fenómenos muy similares. Aún más, la frontera entre teoría y datos es permeable. Como señala Van Maanen (1979), actualmente sólo hay conceptos de primer orden -- los llamados "hechos de estudio", que nunca "hablan por sí mismos"-- y conceptos de segundo orden -- las "nociones usadas por el investigador para explicar los patrones de los conceptos de primer orden" (pp. 39-40)--. Por lo tanto, los "hechos" que uno descubre ya son producto de muchos niveles de interpretación (Van Maanen, 1988). Los investigadores cualitativos, por lo menos, necesitan entender cómo están comprendiendo la "teoría" mientras progresa el análisis, ya que esta comprensión inevitablemente influenciará y limitará --conscientemente o no-- la recogida, reducción y presentación de datos, así como la formulación y verificación de conclusiones. Algunos constructos incluyen lo siguiente: • "marco teórico", como se ha explicado anteriormente: congruencia de algunos constructos mayores, bien articulados • un "mapa" destinado a generalizar la historia (o historias) contada sobre un caso (Rein & Schön, 1977) • un patrón de eventos parecidos, para ser comparado con lo que realmente se observa (Yin, 1991) • un modelo, con una serie de proposiciones conectadas que especifican relaciones, a menudo jerarquizadas, entre los componentes (Reed & Furman, 1992) • una red de relaciones no jerárquicas, expresadas por declaraciones que definan conexiones entre conceptos (Carley, 1991) Ser claro sobre tales constructos es también importante para conseguir las funciones clave descritas anteriormente debido al uso cada vez mayor de software de análisis cualitativo. Éstos también tienen suposiciones incorporadas en sí mismo sobre la "teoría" (ver Weitzman & Miles, 1993). Por ejemplo, programas como Ethnograph (Qualis Research Associates, 1990) y NUD IST (Richards & Richards, 1989) ayudan al usuario a desarrollar teorías a través de códigos relacionados jerárquicamente (A es un ejemplo de un concepto de más alto nivel que B, que a su vez es un concepto general de C), mientras otros, como ATLAS/ti (Mühr,1991), HiperRESEARCH (Hesse-Biber, Dupuis; & Kinder, 1990), y MECA (Carley, 1991), se centran en la teoría como una red
10
de uniones entre entidades (A promociona a B, es parte de C que "tapona" D, que precede a E [el cial también es parte de B], y así sucesivamente). Una visión de Causalidad Finalmente, el análisis dentro del caso frecuentemente se enfrenta con la cuestión de entender la causalidad. ¿Pueden los estudios cualitativos establecer relaciones causales de alguna manera? Esta posibilidad es a menudo atacada por ambos lados, por la derecha ("Sólo los experimentos controlados cualitativos pueden hacer eso") y por la izquierda ("causalidad es un concepto no operativo del comportamiento humano --la gente no son bolas de billar"). En la línes de nuestra posición epistemológica, mencionada anteriormente, la posición que tomamos aquí es que los estudios cualitativos (ver Van Maanen, 1979, 1983) son especialmente adecuados para encontrar relaciones causales; pueden observar directamente y longitudinalmente los procesos locales bajo superficies de una serie temporal de eventos y estados, mostrando cómo éstos llevaron a los resultados específicos, y rechazando hipótesis rivales. En efecto, podemos entrar dentro de la caja negra; podemos entender no sólo que una cosa particular ocurrió, sino también por qué y cómo ocurrió. La credibilidad de tales declaraciones depende de cómo uno vea la causalidad. A continuación ofrecemos un breve resumen de nuestra visión. Primero, causalidad implica necesariamente la cuestión de tiempo como parte de la explicación; suponemos que los eventos anteriores tienen una conexión, más o menos clara, con los eventos posteriores. La temporalidad es crucial (Faulconer & Willians, 1985); el establecer causalidad requiere que comprendamos el "guión" --los eventos se organizan en un orden flexible (Abbott, 1992). Aunque un punto de vista orientado y variado siempre mostrará un circuito cerrado (loop) de varios efectos sobre causas que producen nuevos efectos Eden, Jones, & Sims, 1983; Weick, 1979), los "guiones" se siguen revelando a lo largo del tiempo y tienen que ser comprendidos de esta manera al nivel del caso. Aquí es donde las versiones más narrativas de análisis causal encuentran su lugar (Abbott, 1992). Vale la pena señalar que nos confrontamos con una de las amenazas convencionales más probables de la causalidad: que vistos más de cerca, o "desmenuzados", muchos análisis causales son generados retóricamente, como una serie de estrategias textuales, géneros, tropos, figuras y dichos. Historias narrativas, por ejemplo, están compuestas casi exclusivamente de este tipo de artilugios figurativos (Atkinson, 1992; Clough, 1992). ¿Deberíamos analizarlo en términos convencionales? O debemos tener cánones específicos para la causalidad retórica que puedan, de alguna manera, ser separados de la lógica de la evidencia que nosotros usamos para las explicaciones analíticas? Geertz (1983) ha planteado bien el problema al señalar el lento movimiento en los instrumentos explicativos desde las leyes sociales hacia las metáforas de teatro y juego: "El movimiento de ajedrez promete hacer por la sociología lo que la palanca hizo por la física" (p. 22). Otra característica clave: la Calidad es local; fuerzas distantes y abstractas, como la "gravedad", palian los eventos inmediatos y procesos que ocurren cuando uno deja caer intencionadamente un lápiz (la fricción entre los dedos y el lápiz, la decisión de abrir la mano, el movimiento de los dedos hacia fuera). El nexo causal inmediato siempre está delante de nosotros, en una escena particular y en un tiempo determinado. Tercero, una determinación de causalidad no puede estar atada precisamente a las reglas: al criterio clásico de Hume de precedencia temporal (A antes de B), conjunción constante (cuando A, siempre B), y contigüidad de influencia (un
11
mecanismo plausible conecta A y B) tenemos que añadir otros, como los propuestos por Hill (1965) en Epidemiología: fuerza de asociación (mucho más B con A que con cualquier otra causa posible), gradiente biológico (si más A, entonces más B), coherencia (la relación A-B encaja con lo que más sabemos sobre A y B) y analogía (A y B son similares a patrones bien establecidos, notados sobre C y D). Cuarto, siempre existen múltiples factores causales: las causas siempre son múltiples y "conjuntares", combinándose y afectándose unas a otras tanto como afectando a sus supuestos efectos (Ragin, 1987). Causas y efectos deben ser considerados como configurados en redes --ellos mismos profundamente afectados por el contexto local. Finalmente, analizar la causalidad es, por la naturaleza de la materia, un asunto retrospectivo, que requiere que indiquemos cómo "algún evento ha ocurrido en un caso particular" (House, 1991). Por lo tanto, necesitamos el método de los historiadores de "habilidad de seguimiento" (Abbot, 1992) y típicamente estaremos haciendo "una recogida retrospectiva de eventos en una acción que hace que el final sea razonable y creíble... configurando los eventos de tal manera que sus partes en la historia completa queden claras" (Polkinghorne, 1988, p. 171; compara la discusión de Scriven [1974] sobre el enfoque del "modus operandi"). Las cuestiones causales de sentido común aquí extraídas son, en su mayoría, aqéllas propuestas por Lofland & Lofland (1984): ¿Cuáles son las condiciones bajo las cuales aparece [X]? ¿Qué facilita su aparición? ¿Cuáles son las circunstancias en que posiblemente va a ocurrir? ¿En la presencia de qué condiciones es probable que sea un resultado? ¿De qué factores depende la variación en sí misma? ¿Bajo qué condiciones está presente? ¿Bajo qué condiciones está ausente? Por supuesto, una explicación causal útil debería aplicarse necesariamente a más de un caso. Mediante inducción analítica (Manning, 1982; Miler, 1982) una descripción causal se obtiene en un caso y puede ser probada en cualquier otro sitio, pudiendo ser apoyada, calificada o sujeta a revisión. Ahora nos enfrentaremos a la cuestión del enfoque en el análisis de casos cruzados.
Análisis de casos cruzados El modo tradicional de análisis cualitativo ha sido el estudio de un caso único. En la mayoría de las investigaciones etnográficas, por ejemplo, los "casos" son individuales o más aún, unidades molares (de mol) que comparten varias características comunes --una familia, una tribu, un negocio pequeño, una vecindad, una comunidad. Los casos también pueden ser instancias de un fenómeno mayor (por ejemplo, "casos" de chantaje, "casos" de aprender a apagar fuegos), normalmente de un importante proceso social. Tales unidades molares son esencialmente de individuos múltiples: bomberos, profesores, criminales y otros. Mientras estos individuos han sido típicamente conectados con sus ambientes (por ejemplo, estaciones de bomberos, escuelas, vecindades particulares), ahora estamos viendo estudios que enfocan el grupo de individuos dentro de varios ambientes (escuelas, programas especiales, negocios) y realizando este trabajo con múltiples métodos (Firestone & Herriot, 1983; Louis, 1982; Schofield, 1990). Un objetivo aquí es extender la validez externa. Por ejemplo, observar actores múltiples en ambientes múltiples aumenta la habilidad de generalizar; los procesos clave, constructos y explicaciones en juego pueden ser comprobadas en varias
12
configuraciones diferentes. Y cada configuración puede ser considerada una réplica de los procesos o preguntas bajo estudio. Los casos múltiples también identifican configuraciones (de actores, de reglas funcionales, de influencias causales) que pueden ser ciertas en algunos ambientes, pero no en otros. Por lo tanto salimos con distintas "agrupaciones" o "familias" de casos. Pero el trabajo analítico de ambientes cruzados no es tan simple. Denzin (1989) ha señalado que cuando aparece el alcohólico A, con un perfil muy diferente del alcohólico B, los dos no pueden ser directamente comparados a no ser que elijamos un enfoque sobre las características comunes más abstractas. Así, existe un peligro de que los casos múltiples sean analizados a altos niveles de inferencia, uniendo las redes locales de causalidad y terminando con un grupo aproximado de generalizaciones que puede ser que no se ajuste a ningún caso individual. Esto ocurre con más frecuencia de la que desearíamos recordar. La tensión producida aquí es la de reconciliar lo particular con lo universal: reconciliar la exclusividad de un casos individual con la necesidad de entender los procesos genéricos en juego a través de los casos (Silverstein, 1988). Silverstein plantea que cada individuo tiene una historia específica --corriendo el riesgo de descartarla-pero es una historia contenida dentro de los principios generales que influyen en su desarrollo. De manera similar, Noblit & Hare (1983) proponen un caso sólido para preservar la exclusividad, aunque también realizando comparaciones. Más recientemente, también nos han advertido contra la realización de promedios en los resultados a través de los casos, para evitar malinterpretaciones y superficialidad (Noblit & Hare, 1988). Una Diferenciación Crucial: Variables y Casos Consideremos un estudio típico, uno intentando predecir la decisión de asistir al colegio, con una muestra de 300 adolescentes y los siguientes grupos de factores predictores: género, status socioeconómico, expectativas de los padres, aptitud escolar, apoyo de los compañeros y la decisión de asistir al colegio. En el análisis variable-orientado, las variables predictoras están interrelacionadas y la variable dependiente clave "decisión de asistir al colegio" es dependiente de los otros seis factores. Esto podría mostrarnos que la decisión de asistir al colegio está principalmente influenciada por la aptitud escolar con influencias adicionales de las expectativas de los padres y el status socioeconómico. Vemos cómo tanto las variables como los conceptos están relacionados, pero no conocemos el perfil de ningún individuo solo. En el análisis de casos orientados, observaríamos más de cerca algún caso particular, por ejemplo el Caso 005, fémina, de clase media, cuyos padres tienen unas altas expectativas, etc. Sin embargo estas son medidas "delgadas" (sin peso). Para realizar un análisis de casos genuino, necesitamos contemplar la historia completa del Caso 005: Nynke van der Molen, cuya madre aprendió a ser asistente social, pero que está amargada por el hecho de que nunca trabajó fuera de casa, y cuyo padre quiere que Nynke trabaje en la tienda familiar de flores. La cronología también es importante: hace dos años, la mejor amiga de Nynke decidió ir al colegio, justo antes de que Nynke empezara a trabajar en un establo y justo antes de que la madre de Nynke le mostrara un libro de recuerdos de la escuela de asistentes sociales. Entonces Nynke decidió matricularse en estudios veterinarios. Éstos y otros datos pueden mostrase en forma de matriz (ver Miles & Huberman, 1994), donde el flujo y configuración de eventos y reacciones que dirigen la
13
decisión de Nynke quedarían claros. También ayudaría a "encarnar" cómo los cinco predictores se asemejan individualmente y cómo interaccionan colectivamente. Ello, a su vez, sacaría a la superficie patrones recurrentes, "familias" o "grupos" de casos configuraciones características. Como muestra Ragin (1987), tal metodología de casos orientados examina cada entidad, entonces saca a la luz configuraciones dentro de cada caso y los somete a análisis comparativo. En estas comparaciones (de un menor número de casos), las similitudes sumergidas y asociaciones sistemáticas han sido buscadas con referencia a una variable principal de resultado. Desde aquí, podría explicarse un modelo más aclaratorio, al menos para los casos bajo estudio. Cada enfoque tiene sus más y sus menos. El análisis Variable-orientado es bueno para encontrar relaciones probabilísticas entre variables en una población grande, pro tiene dificultades con complejidades causales, o al tratar con submuestras. El análisis de casos orientados es bueno para encontrar patrones específicos, concretos, patrones históricamente fundados comunes a pequeños grupos de casos, pero sus conclusiones resultan particularísticas, aunque algunos autores argumentan que poseen especialmente un mayor grado de generalización. 1 Estrategias para el Análisis de casos cruzados Existen muchas maneras de proceder con los datos de casos múltiples, o datos que provienen de varias fuentes. A continuación tenemos una breve descripción de estrategia, que viene del debate de casos versus variables de orientación que acabamos de revisar. Estrategias de casos orientados. Yin (1984) propone una estrategia de replicación. Una estructura conceptual vigila el primer estudio de casos, entonces los casos sucesivos son examinados para ver si el nuevo patrón encaja con el patrón descubierto anteriormente. El enfoque de las "teorías fundadas" (e. g., Glaser, 1978) utiliza el mismo principio, pero construye la estructura inductivamente, entonces la comprueba y la depura con refernecia a múltiples grupos de comparación. Denzin (1989) trata el problema a través de múltiples ejemplos. Tras descomponer las concepciones previas de un fenómeno particular ( tal como "el yo alcohólico"), se recogen instancias múltiples (casos), entonces se "marcan", en un sentido fenomenológico y se inspeccionan por elementos o componentes esenciales. Los elementos están reconstruidos en un conjunto reordenado y devueltos al contexto social natural. Muchos investigadores enfocan la comparación de casos cruzados formando "tipos" o "familias". Los casos en un grupo se inspeccionan para ver si caen en grupos que comparten ciertos patrones o configuraciones. A veces estos grupos pueden organizarse a lo largo de alguna dimensión (conformidad baja o alta, ambigüedad, ambiciones de carrera específica, y otras). Estrategias de Variables Orientadas. Un enfoque usado a menudo es encontrar temas que atraviesan los casos. Por ejemplo, Pearsol (1985) examinó las entrevistas sobre programas de igualdad sexual con 25 profesores. Tras una cuidadosa codificación inductiva, encontró temas repetidos tales como "preocupación por los alumnos", "punto de vista activista de cambios" y "barreras a la innovación". (Después él cambió a un
1
Ésta es una distinción crucial y ha sido tratada de varias maneras. Para tratamientos recientes, ver Maxwell & Miler (1992) y Runkel (1990).
14
enfoque de casos orientados, organizando a los profesores en seis tipos basados en la configuración inicial de los temas.) A menudo una variable clave se presenta sola durante el análisis de ambientes cruzados. La estrategia aquí puede ser llamada clarificación de patrones. Por ejemplo, Eisenhardt (1989a) encontró evidencias para el constructo de "centralización de poder" observando datos sobre el comportamiento de CEO en 10 compañías de ordenadores. Su matriz de presentación incluyó adjetivos describiendo estilos de decisiones, medidas cuantitativas, funciones organizativas llevadas a cabo por el CEO y algunos descriptores "camafeo" (por ejemplo, "[Él] se basa en elegir buenos trabajadores y dejarlos trabajar").
Estrategias Mezcladas Un método más fenomenológico, descrito por Fischer y Wertz (1975), podría llamarse síntesis interactiva. Estudiando el significado de ser una víctima del crimen, estos autores primero escribieron sinopsis de casos individuales y después escribieron una narración basada en una serie de temas. Entonces compusieron una "condensación general" describiendo los significados personales esenciales, volviendo posteriormente a las sinopsis de los casos para ver cómo la condensación era ejemplificada aquí. Al final, escribieron una estructura general psicolóica en la que describían lo que parece esncial en el proceso temporal de victimización.
Figura 27.3. Matriz de Estructura Dispersa Sobre el Tiempo : Consecuencias de la Asistencia
15
La secuencia está estructurada cuidadosamente. En particular, incluye una mezcla analítica que combina metodologías, en vez de basarse en una y añadir otras esencialmente como apéndices. Otros ejemplos de estrategias combinadas se pueden encontrar en el trabajo de Abbot (1992), Gladwin (1989) y Huberman (1991). Técnicamente, los análisis de casos cruzados se realizan más fácilmente con "presentaciones": en matriz u otras muestras de datos que permitan al investigador analizar, de manera condensada, el grupo de datos completo, para ver literalmente lo que hay ahí. A partir de aquí, pueden ocurrir varias cosas: El investigador puede volver al campo para obtener los datos que le faltan; se puede realizar otra muestra para observarla mejor; se pueden reconfigurar las columnas, filas o todas las entradas. Habitualmente, el investigador comienza con una metamatriz parcialmente ordenada, la cual muestra la información básica de varios casos en un gran diagrama. A continuación vienen las presentaciones descriptivas o conceptualmente ordenadas, matrices temporoordenadas, matrices de efectos y análisis secuenciales compuestos, mostrando el movimiento de casos diferentes a través de un flujo generalmente estructurado de acontecimientos y condiciones. Miremos a la matriz de estructura dispersa presentada para 12 casos (distritos escolares) mostrada en la Figura 27.3. Nos muestra que esto es simplemente una tabla de contingencia, cruzando dos variables ("implementación temprana" y "estabilidad práctica") con una tercera ("nivel de asistencia"). Además cada una de las variables en juego es puesta en escala para que los casos puedan ser organizados y examinados de una manera bastante comparable. Típicamente, estos tipos de diagramas, que provienen del cuidadoso trabajo de los casos orientados, constituyen una salida analítica variable-orientada. Con esta presentación a mano, el investigador usualmente vuelve a los datos del nivel de casos. ¿A qué corresponde esta bastante temprana implementación en Masepa & Plumet, y son éstos dos casos comparables? ¿Parecía que la "asistencia" tenía poco efecto en la "implementación temprana", y si así era, por qué? ¿Y qué pasa con los casos compensatorios del grupo B? ¿Qué era el patrón de asistencia, el flujo a lo largo del tiempo, la relación entre la asistencia y la estabilidad percibida por los informantes? De esta manera, este examen se dirige a otra presentación, usualmente en una forma diferente, que organiza los casos según la forma en que estas preguntas han sido propuestas. En otras palabras, las presentaciones aparecen típicamente en secuencia: no ordenadas, ordenadas por casos en una o varias dimensiones de interés, reagrupadas por familias de casos que comparten algunas características, y presentadas de nuevo como un grupo interconectado de variables más explicatorias, que den apoyo a los grupos de casos que han sido identificados.
Verificación de Conclusiones y Amenazas para la Validez Analítica
La "Cohabitación" de Cánones Realistas e Interpretacionistas Como hemos indicado, desde hace poco tiempo virtualmente no habñian cánones, reglas de decisión, algoritmos, ni siquiera reglas acordadas para llevar a cabo
16
investigaciones cualitativas. Esto no es tanto un problema de dasarrollo como una ausencia de consenso en decidir la base sobre la cual los descubrimientos estén considerados plausibles o convincentes y qué procedimientos sean considerados legítimos. Sin embargo, aparecen algunos rasgos comunes de procedimiento, en el proceso secuencial de analizar, concluir y confirmar descubrimientos en el formato del campo de estudio. En ambos casos, el investigador se mueve desde ciclos inductivos en la recolección y análisis de los datos a ciclos deductivos de experimentación y verificación. Como hemos señalado, el proceso de muestreo explicatorio y confirmatorio conduce a decisiones sobre qué datos hay que recoger después. Gradualmente, estas construcciones de datos se hacen más "conclusivas". Más o menos, la mayoría de los investigadores "naturalistas" se suscriben a este ciclo analítico básico. Verificación La verificación implica comprobar las inclinaciones más comunes o más asiduas que pueden entrar en el proceso de sacar conclusiones. Algunos de los fallos más frecuentes se producen por: • sobrecarga de datos en el campo, llevando así a los analistas a perder información importante, sobrepesando algunos descubrimientos, torciendo el análisis • salientes de primeras impresiones o de observaciones de incidentes altamente concretos o dramáticos • selectividad, confiando demasiado en algunos datos, sobretodo cuando se intenta confirmar un descubrimiento clave • co-ocurrencias tomadas como correlaciones, o incluso como relaciones causales • falsas proporciones de nivel básico: extrapolación del número de instancias totales de aquello observado • falta de fiabilidad de información de algunas fuentes • sobreacomodación a información que cuestiona directamente un hipótesis tentativa El término más usado relacionado con asuntos de análisis y confirmación es el de triangulación --un término con múltiples significados. El origen del término es probablemente el "operacionalismo múltiple" (Campbell & Fiske, 1959): medidas múltiples que aseguran que la variabilidad reflejada es de unas características o tratamiento y no está asociada con las mediciones. La mejor manera de hacer esto es, por ejemplo, multiplicando medidas y fuentes independientes del mismo fenómeno -por ejemplo, los informantes hacen la misma declaración independientemente, y el investigador observa el fenómeno; los resultados de las pruebas apoyan las muestras de trabajo y las observaciones. Los teoristas de este "terreno" han discutido durante mucho tiempo que la teoría generada de una fuente de datos no funciona tan bien como los "trozos de datos" de fuentes diferentes (Glaser, 1978). Pero la triangulación también ha llegado a significar la convergencia entre investigadores (el acuerdo entre las notas de campo de un investigador y las observaciones de otro) y la convergencia entre teorías. Una prescripción general ha sido coger fuentes de triangulación que tienen inclinaciones diferentes, fuerzas difernetes, así que pueden complementarse una a otra.
17
En el desordenado mundo de la investigación empírica, sin embargo, las medidas independientes nunca convergen totalmente. Las observaciones no encajan completamente con los datos de la entrevista, ni las inspecciones con la información escrita. En otras palabras, las fuentes pueden ser inconsistentes o incluso chocantes, sin ninguna manera fácil de solución. En tales casos, de hecho, necesitaremos empezar por una nueva manera de pensar sobre los datos disponibles (Rossman & Wilson, 1985). Más allá de eso, la triangulación es más un modo de inquirir que una táctica. Por muy conscientemente que haya intentado coleccionar y doble-comprobar los descubrimientos, usando múltiples fuentes y modos de evidencia, el investigador convertirá el proceso de triangulación en un seguimiento de la recogida de datos. Será la manera en que él o ella llegaron al descubrimiento en primer lugar, viendo o escuchando múltiples instancias de ello en fuentes diferentes y encajando los descubrimientos con otros con los que deberían coincidir. Con esta lógica en mente, hemos desarrollado una lista de "tácticas" para comprobar o confirmar conclusiones (Miles & Huberman, 1984, 1994). Las tácticas para evitar las inclinaciones más obvias son las siguientes: comprobar la representatividad, comprobar el efecto del investigador (reactividad), y triangular y pesar la evidencia (dependiendo de medidas más robustas). Las tácticas para comprobar la viabilidad de los patrones cambian de sentido hacia la búsqueda activa de contrastes, comparaciones, grupos de datos fuera del límite y casos extremos. Las pruebas más elaboradas para las conclusiones requieren intentos para tachar o suprimir conclusiones espúreas, replicar descubrimientos clave, comprobar explicaciones rivales y buscar evidencias negativas. Por último, en cualquier momento de este ciclo se puede usar la retroalimentación (feedback) con los informantes. Un enfoque más general y comprensivo para la verificación de descubrimientos y conclusiones es la "auditoría" (ver la sección siguiente; ver también Schwandt & Halpern, 1988). Aplicada a la investigación empírica, la auditoría es una metáfora de la contabilidad para el repaso sistemático, por un examinador externo, de un estudio dado. Su interés principal puede ser menos la calidad de un repaso externo que la posibilidad de los investigadores cualitativos de tener una lista de bases analíticas donde agarrarse, de manera que los colegas rigurosos e interesados puedan determinar si el muestreo, las mediciones y el análisis que llevaron alas conclusiones y explicaciones principales son sólidas frente a las fuentes más comunes de inclinación y error. Sobre la "Transparencia del Método Las convenciones de investigación cualitativa requieren un clara y explícita documentación de los datos y los procedimientos. Cualquiera esperaría esto para que: (a) el lector tenga confianza y pueda verificar las conclusiones del informe; (b) el análisis secundario de los datos sea posible; (c) el estudio pueda ser, en principio, replicado; y (d) el fraude o la mala praxis, si existen, sean más fáciles de detectar. Existe otra necesidad interna añadida: la de mantener las estrategias analíticas coherentes, manejables y repetibles mientras progresa el estudio. Es decir, incluir estos requerimientos anima al progreso de la documentación desde el principio. Desde nuestro punto de vista, las mismas necesidades están presentes para los estudios cualitativos, incluso si uno toma una postura más interpretativa (compruebe, por ejemplo, las ideas sobre "confirmabilidad" y "dependencia" propuestas por Lincoln & Guba, 1985). Tal y como hemos escrito en trabajos previos:
18
Tenemos la inatractiva doble atadura donde los estudios cualitativos no pueden ser verificados porque los investigadores no informan sobre su metodología, y no informan sobre su metodología porque no hay cánones o convenciones establecidas para hacerlo. (Miles & Huberman, 1984, p. 244)
Soluciones La solución más básica ya ha sido discutida (ver la Tabla 27.1): la retención cuidadosa, de manera fácilmente extraíble, de toda materia de estudio, de notas de campo crudas (sin elaborar) a presentaciones de datos y textos del informe final. Esta solución, sin embargo, depende de otra: una postura reflexiva para llevar a cabo el estudio que asume una documentación concienzuda, regular y progresiva --de versiones sucesivas de esquemas de codificación, de discusiones conceptuales entre la plantilla del proyecto, de episodios de análisis-- de ambos sucesos, tanto los que tenían éxito como los que no. Hemos informado de una forma detallada de documentación para rastrear la reducción y la presentación de datos y las operaaciones para sacar conclusiones (Miles & Huberman, 1984), pero no somos conscientes de instancias de su uso por otros investigadores. Carney (1990) apuesta por una "revista de reflexividad" para el mismo fin. Recientemente, sin embargo, existe un movimiento hacia las descripciones más explícitas y complejas. Algunos ejemplos incluyen las descripciones metodológicas de estudios fenomenológicos como Barlett (1990) y Melnick & Beaudry (1990), la "cronología del análisis de datos" en un estudio hermenéutico de Pesarsol (1985), el diario detallado de investigaciones etnográficas biográficas de L. M. Smith (1992), la cuidadosa descripción de la metodología del estudio de casos de Merryfield (1990), la descripción de métodos de "comparación constante" de Hodson (1991), y los detalles en las presentaciones de los datos de Eisenhardt (1989a, 1989b). Todavía no pocos estudios restringen su apartado de "Métodos" a frases como "El estudio empleó el método comparativo constante", sin más explicación. Parte de la dificultad es que, dada la diversidad de metodologías para trabajos cualitativos, no hay un grupo estándar de expectativas sobre lo que la sección de métodos debería contener. Como mínimo, proponemos lo siguiente: • decisiones del muestreo realizado, tanto dentro como a través de los casos • instrumentación y operaciones de recogida de datos • sumario de la base de datos: tamaño y cómo se han producido • software empleado, si lo hay • repaso de las estrategias analíticas que se han seguido • inclusión de las presentaciones de los datos clave apoyando a las conclusiones principales Una cuarta solución es preparar, y/o llevar a cabo, una "auditoría" de todo el estudio que se está llevando a cabo. Las primeras aplicaciones factibles fueron las de Halpern (1983); desde entonces, Schwandt y Halpern (1988) han extendido la idea de auditoría, aplicándola al repaso de estudios de evaluación. Sugieren el requerimiento de seis niveles de atención: • ¿Están nuestros descubrimientos basados en los datos? (¿Es apropiado el muestreo? ¿Están los datos sopesados adecuadamente?) • ¿Son lógicas las inferencias? (¿Están las estrategias analíticas aplicadas correctamente? ¿Tenemos en cuenta las explicaciones alternativas?) • ¿Es apropiada la estructura de categorías?
19
• • •
¿Podemos justificar las decisiones de inquirir y los cambios de la metodología? (¿Están conectadas las decisiones del muestreo con la hipótesis de trabajo?) ¿Cuál es el grado de inclinación (cierre prematuro, datos de las notas de campo no explorados, falta de búsqueda para casos negativos, sentimientos de empatía) del investigador? ¿Qué estrategias se usaron para incrementar la credibilidad (segundos lectores, feedback con los informantes, repaso por colegas, tiempo en el campo adecuado)?
Parece que tales auditorías no se usan extensivamente, pero cuando sí lo hacen (ej. Merryfield, 1990), parecen tener efectos decididamente saludables, especialmente en la promoción del mantenimiento sistemático de la documentación y la reflexividad. Algunos Problemas El coste de tiempo y energía para una documentación metódica adecuada y/o una auditoría no es poco. Hemos estimado un incremento del 20% en el tiempo de análisis en el uso de nuestro diario de documentación (Miles & Huberman, 1984). Schwandt & Halpern (1988) no nos ofrecen cifras del coste, pero el trabajo del investigador para preparar un "rastro de auditoría" y el análisis del auditor, con su muy detallado procedimiento, son por lo menos caros. La computerización cuidadosa de un estudio ayudará, por supuesto, pero implica sus propios costes. Probablemente debamos esperar que las documentaciones detalladas y las auditorías continúen estando restringidas a los estudios de gran importancia, o a aquéllos en los que el investigador tenga un especial interés en su documentación o auditoría por sí. La documentación de los estudios y el reportaje completo también pueden dar lugar a un enfoque mecánico y obsesivo (ver Marshall, 1990, y Noblit, 1988, quienes se preocuparon de la "burocratización" del análisis de datos). O puede llevar a formulaciones abstractas de métodos que no aluden a las realidades de la investigación cualitativa (ver, por ejemplo, Constas, 1992, sobre la documentación de procedimientos en el desarrollo de categorías). En cualquier caso, necesitamos ser realistas sobre la "reproducibilidad"; incluso en el campo de la química sintética, Bergman (1989) informa de que casi la mitad de los estudios no podrían ser reproducidos, incluso por los investigadores originales. Así, necesitamos un estándar razonable, no un abstractamente exigente. Por último, debemos recordar que la "transparencia" tiene sus riesgos. Por ejemplo, mantener las notas de campo detalladas en los ficheros del ordenador, y teniéndolas disponibles para el reanálisis, incluso con supuestos de identificación, hace surgir cuestiones sobre la invasión de la privacidad y sobre los daños potenciales a los informantes (ver la discusión muy bien pensada de Akeroyd, 1991). Cualquier enfoque razonable hacia la transparencia metodológica tiene que tratar no sólo con asuntos técnicos, sino también con asuntos éticos. Resumiendo, estos problemas no parecen ser insuperables y nos queda la necesidad básica de la transparencia. Vemos que no hay razón para no seguir progresando en los avances --probablemente de forma paulatina-- a través de la rutina de llevar adelante una documentación, la evolución de estándares más claros, y --de vez en cuando, cuando es importante-- el profundo análisis del método que implica una auditoría rigurosa. Dado el cuidado y el escrúpulo con los que la investigación cualitativa debe ser llevada a cabo, tanto en la tradición etnográfica como en la tradición interpretativa, debería ser posible negociar un grupo de convenciones mínimas para llevar a cabo investigaciones cualitativas. Dado que estas tradiciones tienen marcos
20
diferentes para asegurar la validez y la dependencia de los descubrimientos del estudio, podría haber un grupo de convenciones compartidas junto con reglas específicas para los investigadores que trabajan en áreas diferentes. Estamos acercándonos a ello. Todavía la transparencia no es fácil cuando trae un peso añadido y una mayor posibilidad de exponerse a los juicios de colegas profesionales.
Apéndice: los Aspectos Principales Conceptuales y Analíticos del Diseño
Marco conceptual. Esto ilustra los factores, constructos o variables clave y las relaciones supuestas entre ellos. Hemos argumentado que las presentaciones gráficas de "bins" (variables principales) conectadas por flechas direccionales especificando relaciones intravariables son útiles para hacer que los marcos de los investigadores queden claros (Miles & Huberman, 1984). Los marcos conceptuales, incluso en diseños "sólidos", son normalmente reiterados a lo largo de la vida del estudio. Preguntas de investigación. Un grupo de preguntas definidas (no necesariamente hipótesis) representa las facetas de un dominio empírico que el investigador quiere explorar, delineando las prioridades y los enfoques de atención y excluyendo implícitamente un rango de temas no estudiados. Pueden estar definidos causalmente o no causalmente, y tratar sobre investigación, política, evaluación, o asuntos de dirección (N. L. Smith, 1981, 1987; ver también la aplicación de esquemas alternativos para hacer muestreos de más de 900 preguntas de investigación de Dillon [1984]). Usualmente representan una operacionalización más detallada del marco conceptual de un estudio. Definición de Caso. Esencialmente un "caso" es un tipo de fenómeno que ocurre en un contexto limitado --la unidad de análisis, en efecto--. Normalmente hay un enfoque de la atención y una limitación temporal, social, y/o física más o menos vagamente definida (por ejemplo, un paciente de cirugía de bypass antes, durante y seis meses tras la cirugía, en el contexto de la familia y el hospital). Los enfoques y las limitaciones pueden estar definidos por el tamaño de la unidad social (un individuo, un rol, un grupo pequeño, una organización, una comunidad, una nación), por su situación espacial, o por tiempo (un episodio, un evento, un día). Los casos también pueden tener subcasos incrustados en ellos (Yin, 1984). Tanto como con otros aspectos conceptuales del diseño del estudio, la definición del "caso" es fuertemente analítica, la elección de casos selectivos, si los casos involucrados son singulares o múltiples. Muestreo. Las elecciones de muestreo dentro o a través de los casos son poderosamente determinantes en justo qué datos serán considerados y usados en el análisis. Los investigadores cuantitativos a menudo piensan randomizadamente, estadísticamente y en términos de selección de casos fuera del contexto (abstractamente). Los investigadores cualitativos característicamente tienen que pensar sobre el propósito y conceptualmente en el muestreo (ver para sugerencias específicas Miles & Huberman, 1984).
21
Además, dentro de cada caso (incluso cuando el caso es un individuo), el investigador necesita hacer muestreos en un intrincado rango de actividades anidadas, procesos eventos, situaciones y tiempos (Bogdan & Biklen, 1982; Lofland, 1984; Schwartzman & Werner, 1990; Woods, 1979); tales elecciones están dirigidas por teorías (Glaser & Strauss, 1967), y no por preocupaciones con la "representatividad". Las elecciones de muestreo también evolucionan típicamente a través de olas sucesivas de colecciones de datos. Esto también es válido para muestreos a través de casos. Otra vez aquí, el asunto no es tanto la búsqueda para la generalización convencional, sino más bien un entendimiento de las condiciones bajo las cuales un descubrimiento particular aparece y funciona: cómo, dónde, cuándo, y por qué actúa como lo hace. Los casos múltiples son especialmente importantes como "grupos de comparación" (Glaser & Strauss, 1970); También permiten una estrategia de "replicación" (Yin, 1991), donde los descubrimientos de casos individuales están sucesivamente comprobados en una siguiente serie de casos. Cuando los casos múltiples están cuidadosamente ordenados a lo largo de una dimensión clave, las explicaciones poderosas son más probables (ver Eisenhardt, 1989b). Instrumentación. Otros capítulos de este volumen tratan explícitamente de este tema, pero siguiendo nuestra línea, necesitamos hacer algunos comentarios. El asunto general, propuesto por Warner (1991), es éste: ¿Cómo podemos maximizar los constructos y la validez descriptivo-conceptual, asegurándonos que nuestras interpretaciones conecten con las experiencias vividas de la gente, y minimizar el impacto del investigador? Pensamos que las respuestas normalmente se encuentran en la dirección de la instrumentación mínimamente prediseñada. De la misma manera, ¿cómo podemos mejorar la validez interna, generabilidad a otros casos y escenas sin mencionar el manejo de la recolección de datos? Aquí las respuestas también nos dirigen hacia la instrumentalización prediseñada de manera más completa.
*Referencias
22