COGNICIÓN
1
John C. Jahnke Jahnke & Ronal Ronal H. H. Nowacz Nowaczyk. yk.
2. ATENCIÓN “Todos saben lo que es la atención.” -
William James, 1890
Conduces a casa en una hermosa y silenciosa noche, hablando con un amigo y escuchando la radio. Eres capaz de monitorear tu conducir, discutir sobre eventos recientes, y aún reconocer la canción en la radio. Estás atendiendo a información proveniente de una variedad de fuentes ambientales y procesando la información importante. Cuando conduces en una noche tormentosa, puedes encontrarte a ti mismo apagando la radio radio,, evit evitan ando do co conv nver ersar sar,, y apre apreta tand ndo o el ma manu nubri brio o firm firme e mien mientr tras as cond co nduc uces es.. La atenc atenció ión n nuev nuevam amen ente te es cruc crucial ial;; es está táss dese desest stim iman ando do estímulos de una variedad fe fuentes para que puedas concentrarte en manejar de forma segura, una tarea más difícil en un clima tormentoso. El có cómo mo dirig dirigim imos os nues nuestr tros os es esfue fuerz rzos os hacia hacia el am ambie bient nte e para para seleccionar y procesar la información es uno de los focos de los psicólogos que estudian la atención. Asumimos que la gente no puede atender a toda la información disponible en el ambiente inmediato. Por ejemplo, un conductor debe dirigir más atención al camino durante una tormenta o cuando el tráfico está extremadamente atochado. Atención es el estudio de las capacidades y limitaciones de un individuo para seleccionar y procesar la información sensorial del ambiente. Si pudiésemos atender a toda la información sensorial simultáneamente, entonces podríamos, quizás, considerar los problemas de la pérd pérdid ida a de la info inform rmac ació ión n meram eramen ente te co como mo un prob proble lem ma de mem emor oria ia.. Sin Sin em emba barg rgo, o, inve invest stig igad ador ores es en el áre área de aten atenci ción ón no cuestionan si es que podemos o no atender a todas las entradas [input]; ello elloss cree creen n que que no pode podemo moss (Joh (Johns nsto ton n & Dark Dark,, 1986 1986). ). En vez, vez, se concentran en las limitaciones del procesamiento, incluyendo la selección de informa informació ción, n, los proces procesos os de foco foco atenci atenciona onall [focusi [focusing ng attent attention ional al 1
Extraído de: Jahnke, J.C., & Nowaczyk, R.H. (1998). Cognition. Englewood, Englewood, NJ: Prentice Hall. Traducción: Jorge Silva Rodighiero. Revisión: V ladimir López.
processes], y la división de los recursos atencionales entre las fuentes de estimulación ambiental. Coloquialmente el estudio de la atención se centra en estos tipos de preguntas: •
•
¿Por qué atendemos casi inmediatamente y sin esfuerzo cuando escuchamos a alguien decir nuestro nombre o gritar ‘fuego’? ¿Cóm ¿Cómo o busc buscam amos os un obje objeto to entre entre otro otros? s? En un labo laborat rator orio io la búsqueda puede ser de una letra particular dentro de una muestra de muchas letras. En la vida real, puede ser la búsqueda de una camisa o blusa particular en el armario o un libro en un estante de una biblioteca.
¿Por qué es que a veces somos capaces de hacer dos cosas a la vez; esto es, dividir nuestra atención? Otras veces, nos podemos ver abrumados tratando de concentrarnos en una tarea. ¿Has exper experim iment entado ado la frustrac frustración ión de hacer hacer una prueba prueba co con n ruidos ruidos distractores? La aten atenci ción ón ha sido sido de inte interé réss para para los los psic psicól ólog ogos os desd desde e los los temp tempran ranos os días días de la disc discip ipli lina na.. Much Muchas as co conc ncep eptu tuali aliza zaci cion ones es de la atención humana han sido propuestas en las cuatro décadas pasadas. En este capítulo, por ejemplo, leerás acerca del modelo ‘cuello de botella’ [bottleneck] que asume que existe un mecanismo neural que limita la cantidad de información que puede ser procesada. Otra propuesta es que los individuos poseen una cantidad fija de ‘poder’ atencional, que limita cuanto puede hacer en un momento dado. La analogía aquí sería la de un CPU CPU en un co com mputa putado dor. r. Lo Loss chip hips del del CPU en los los compu omputa tado dore ress personales antiguos no tenían los caballos de fuerza electrónicos para hacer las tareas tan rápido y eficientemente como tienen los más nuevos. En la medida que los nuevos chips evolucionaron, lo multitarea se hizo una realidad. El computador puede hacer más de una cosa a la vez. Otra propuesta es que lo que limita nuestra atención es la cantidad de poder neuronal que podemos dirigir en un momento; otro considera la atención como un pool de recursos. Estas diferentes perspectivas han dado pie a una variedad de tareas de investigación sobre la atención y perspectivas en la naturaleza psicológica de la atención. •
TAREAS ATENCIONALES La investigación en atención se ha centrado mayoritariamente en tareas que requieren dos sentidos, visión y audición. Esta sección te introduce a cuatro de las tareas más usadas en las décadas pasadas, esto es, búsqueda visual, emparejamiento visual, atención dividida, y tareas de audición dicótica [dichotic audition]. Más adelante en este capítulo serán examinadas examinadas algunas de las descripciones descripciones teóricas que han sido ofrecidas ofrecidas para los descubrimientos provenientes de este tipo de tareas.
Búsqueda Visual [Visual Search] El trab trabaj ajo o en ate atenció nción n visu visual al ha incl inclui uido do el uso uso de tare tareas as de búsqueda visual. En una tarea de búsqueda visual se le presenta al individuo información visual conteniendo frecuentemente un ítem objetivo y otra otra info inform rmac ació ión n irrel irrelev evan ante te llam llamada ada dist distrac racto tora. ra. El ítem ítem o ítem ítemss objetivo, determinados por el experimentador, son los mismos o pueden variar en cada prueba. El individuo se concentra en el muestreo visual para localizar e identificar los ítems objetivos. El tiempo que toma la persona en encontrar un ítem objetivo y el número de errores que hace, ya sea omitiendo un ítem objetivo o identificando incorrectamente un distractor distractor son frecuentem frecuentemente ente utilizados utilizados como como medidas de la conducta. La tarea del sujeto es de atención selectiva. En la atención selectiva, el usuario dirige la atención para seleccionar un estimulo particular en un muestreo visual. El profesor Ulrico Neisser (1964) describió la tarea de búsqueda visu visual al básic básica, a, la cual cual invo involu lucr cra a una una perso persona na busc buscan ando do por por una una letr letra a objetiva junto a otras letras. El panel izquierdo en la tabla 2.1 muestra el tipo de muestreo que utilizó. Se le daba la instrucción al sujeto para que encontrar la letra objetivo K en el muestreo. Neisser también discutió una variación en la tarea básica, mostrado en el panel derecho. En esta tarea, el usuario debe encontrar la línea que no contiene la letra Q. Como puede suponerse, esta tarea es más difícil que la anterior. Neisser encontró que un número de factores pueden influir en el desempeño de la tarea de búsqueda. Por ejemplo, la búsqueda es más lenta si la letra objetivo tiene características similares a las distractores; encontrar la letra Z entre las letras E, M, V , y X es más lento que buscarla entre las letras C, O, Q y U. Buscar una letra con ángulos es más difícil si las otras letras también tienen ángulos. La práctica es otro factor. Los sujetos que por vez primera se enfrentan a esta tarea son capaces de escanear una línea de letras en poco más de un segundo. Con práctica, sin embargo, pueden llegar a 10 líneas por segundo. La práctica resulta en un procesamiento más eficiente o bien en un cambio en la naturaleza de éste. Un resultado sorpresivo fue que los sujetos podían buscar múltiples objetivos tan bien como uno singular, una vez que habían practicado la tarea (Neisser, Novick & Lazar, 1963). Los sujetos buscaban un objetivo que estaba en una lista variando de uno a diez ítems. Como se muestra en la figura 2.1, el tamaño de la lista de objetivos influye en el desempeño temp tempran rano, o, co con n búsq búsque ueda dass má máss lent lentas as para para los los suje sujeto toss co con n list listas as de objetivos más largas. Sin embargo, en el noveno día de práctica las diferencias en el desempeño en cuanto el largo de la lista era bastante pequeño. Con la práctica, los sujetos eran capaces de buscar objetivos múltiples tan rápido como objetivos singulares.
En trabajos posteriores de Schneider y Shiffrin (1977), se uso una varia ariacción ión de la tare tarea a de búsq búsque ueda da visu isual, al, muest uestre reo os de let letras ras rápidamente presentados. Como sería discutido más adelante en este capítulo, esta tarea permitió a Schneider y Shiffrin distinguer entre dos tipos de procesamiento atencional. Emparejamiento Emparejamiento Visual [Visual Matching] Otro tipo de tarea atencional, la tarea de emparejamiento, fue usada usada por el profes profesor or Michae Michaell Pos Posner ner y sus asociad asociados os (Posne (Posner, r, 1969 1969;; Posner & Boies, 1971; Posner & Mitchell, 1967). Esta tarea prueba el supuesto de que la atención incluye tres componentes –alerta, selección de estímulo, y capacidad de procesamiento atencional limitado (Moray, 1970 1970). ). Adem Además ás de es esta tarr ale alerta rta o co conce ncent ntrad rado, o, un indi indivi viduo duo tambi también én selecciona los estímulos relevantes para la tarea y procesa esos estímulos utilizando los recursos cognitivos disponibles, que pueden ser algunas veces menos que óptimos para la tarea. La figura 2.2 muestra tres pares de letras que pueden servir de estimulo en una tarea de emparejamiento. Un suje sujeto to en una una co condi ndici ción ón,, la co condi ndici ción ón de em empa parej rejam amie ient nto o físic físico, o, debería identificar tan rápido como le sea posible las dos letras que físic físicam amen ente te so son n igua iguale les. s. Solo Solo el prime primerr par daría daría co como mo resu resulta ltado do la respuesta ‘igual’. En otra condición, la de emparejamiento nominal, el sujeto debería responder ‘igual’ si dos letras tienen el mismo nombre. En este caso, los dos primeros pares de letra recibirían la respuesta ‘igual’. La medida crítica es el tiempo de reacción, el tiempo que le toma al individuo responder correctamente. corr ectamente. La condición de emparejamiento físico no requiere que el individuo ide identif ntifiq ique ue el nom nombre bre de las las letr letras as;; só sólo lo neces esit ita a pro procesa sarr las las características físicas para determinar si hay una igualdad. En la condición nominal nominal se necesi necesita ta má máss proce procesam samien iento, to, y los tiemp tiempos os de res respue puesta sta tienden a incrementarse (Posner & Mitchell, 1967). Para estudiar los tres componentes de la atención, Posner y Boeis (1971) variaron el tiempo de presentación del par de letras, y alguna vez ocuparon una de ellas como una seña de advertencia de que la prueba había comenzado. Manipularon el intervalo de tiempo entre la señal de alerta y la presentación de las letras. Como puede esperarse, encontraron que una señal de alerta mejoraba el desempeño. También encontraron que el desempeño era mejor cuando las dos letras eran presentadas de manera secuencial y no simultáneamente. Una señal de alerta presentada 0,5 segundos antes del par de letras mostraba un beneficio óptimo en el desempeño. Las señales de alerta más tem tempran pranas as que que ‘,5 ‘,5 se segu gund ndo os en esta sta tare area no mejora joraba ban n el desempeño posterior. El descubrimiento de que el desempeño mejora con una señal de alerta apoya la existencia de un componente de alerta. La pres prese entac ntació ión n de las las dos dos letr letras as una una tras tras de otra otra tam también bién mejor ejora a el
desempeño. La mejora más grande ocurrió cuando la separación fue de 0,5 segundos. Manipulando sistemáticamente las combinaciones de intervalo entre la aparición de la señal de alerta, la primera letra, y la segunda letra, Posner y Boies demostraron que los efectos benéficos de estas separaciones eran aditivos. Esto es, el desempeño era óptimo cuando la señal de alerta era seguida 0,5 segundos después por la primera letra y 0,5 segundos por la segunda. Ellos creían que la alerta y preparación (la codificación selectiva de la primera letra) eran procesos diferentes que podían existir separadamente sin competir por los mismos recursos de procesamiento. Esto es, que estos procesos no eran afectados por posibles limitaciones en los recursos atencionales. Esta idea –que existen diferentes tipos de procesamiento atencional- es discutida a través de este capítulo. Atención Dividida [Divided Attention] Para examinar el tercer componente de la atención, un componente de capacidad limitada, Posner y Boeis introducieron una segunda tarea para ir junto a la tarea nominal. Esta tarea es un ejemplo del tercer tipo de tarea atencional, una tarea de atención dividida. En ésta se requiere que el sujeto divida la atención entre dos o más entradas de estímulos. Frecuentemente una tarea es designada como primaria y la otra como secundaria. Asumiendo que hay limitaciones en el procesamiento, una tarea de atención dividida resultaría en desempeños más pobres en una de las tareas cuando se presentan simultáneamente en vez de presentarlas en forma secuencial. Piensa en la tarea de conducir en una tormenta. Dividir tu atención entre conducir (la tarea primaria) y mantener una conversación con gente en el auto (una tarea secundaria) puede resultar difícil. Los sujetos en el estudio de Posner y Boeis debían realizar dos tareas de forma simultánea, la primaria (la tarea nominal) y la secundaria (una tarea de detección de señales). La tarea secundaria requería que los sujetos presionaran una tecla lo más rápido posible si escuchaban una explosión de ruido blanco en el audífono izquierdo. El ruido blanco no ocurría en cada prueba, pero cuando lo hacía, podía ocurrir en distintos puntos de éste (p.e., antes o después de la señal de alerta, cuando la primera letra era presentada, justo antes de que se presentara la segunda letra). Posner y Boeis encontraron que los sujetos en la tarea nominal eran lentos en detectar el ruido blanco cuando ocurría justo antes de que la segunda letra fuera presentada (ver la figura 2.3). El hecho de que los sujetos fueran capaces de detectar el ruido durante la fase de alerta sugería que no había un problema de capacidad limitada antes y mientras la primera letra era presentada. Solo cuando el sujeto se preparaba para el emparejamiento, comenzando 0,5 segundos antes de que la segunda
letra fuera presentada, sufría su desempeño. Parecía haber un limite en la capacidad de procesamiento cuando el sujeto estaba procesando la segunda letra para determinar si había una igualdad. Posner y Boeis (1971) concluyeron que había buena evidencia para los tres componentes de la atención. Trabajando con su tarea de emparejamiento específico, creían que el estado de alerta y la selectividad eran independientes entre sí y libres de límites de capacidad. Sólo era evidente el límite del procesamiento atencional al emparejar letras y preparar una respuesta. Mientras que las tareas previamente discutidas eran principalmente tareas visuales, también ha habido investigación sobre la atención de entradas auditivas. E. Colin Cheery (1953) planteó preguntas acerca de la atención selectiva en la comunicación oral. Preguntó cómo atendemos a lo que está diciendo una persona cuando otra gente también está hablando. Esto ha llegado a conocerse como el ‘problema del cocktail’. Y, ¿cómo filtramos a través de los mensajes que escuchamos para atender al que queremos? Audición Dicótica [Dichotic Listening] Una tarea común usada en entradas auditivas es la tarea de audición dicótica, el cuarto tipo de tarea. En una típica tarea de audición dicótica, un individuo usa audífonos y escucha una entrada auditiva diferente, frecuentemente un pasaje verbal, en cada oído. Se le instruye al individuo el atender o ‘seleccionar’ el mensaje de un oído. En algunos casos, se le pide que lo repita en voz alta. Este requisito de repetir el mensaje es llamado sombreamiento [shadowing]. Cherry (1953) encontró que los sujetos tienen poca dificultad escuchando un mensaje y rechazando el otro. Era de interés para Cherry lo que el sujeto era capaz de reportar sobre el mensaje rechazado o desatendido. Los sujetos eran capaces de detectar el otro mensaje como habla. Y, cuando el género de la persona hablante cambiaba en el mensaje rechazado, eran capaces de detectarlo. Sin embargo, usualmente eran incapaces de identificar palabras específicas o frases del mensaje rechazado. Los sujetos eran concientes de las características físicas del mensaje rechazado pero no de la información semántica (o significativa). Cherry también reportó que cuando el mismo mensaje es presentado en ambos oídos pero en uno de ellos es retrasado, los individuos presentaban diferencias en cuan corto debía ser el intervalo antes de que se dieran cuenta que el mismo mensaje era presentado. Algunos individuos notaban que los mensajes eran los mismos con seis segundos de intervalo entre ellos, mientras otros solo necesitaban de dos segundos.
Su trabajo y el de otros, notablemente el de Donald E. Boradbent, durante la década del 50, estableció un modelo de ‘filtro’ para la atención humana, y comenzamos la discusión de las teorías de atención con este modelo. Una pregunta principal para este y otros modelos de filtro posteriores es dónde se localiza el filtro o mecanismo para seleccionar un mensaje y no otro en el esquema del procesamiento. El filtrado, si es que ocurre, puede pasar muy temprano, cuando la información sensorial está disponible; después, cuando un individuo está tratando de interpretar y entender la información; o incluso después, cuando un individuo ha decidido actuar sobre la información sensorial.
LOS MODELOS DE FILTRO DE LA ATENCIÓN El Modelo del ‘Cuello de Botella’ – Selección temprana. Mucho del trabajo teórico actual en atención selectiva tiene sus orígenes en el trabajo de Donald Broadbent (1952ª, b; 1958). Su trabajo y el de otros (p.e., Cherry, 1953) estuvieron basados en estudios que involucraban la percepción del habla. La pregunta básica era sí el sujeto podía atender a ambos mensajes, y si no, donde ocurría la dificultad en atender. Esta investigación examinó factores que hacen que el seleccionar y el atender al mensaje sea más fácil. Por ejemplo, Broadbent (1952a) encontró que era más fácil para un sujeto atender a uno de dos mensajes si éstos eran hablados por diferentes personas y no por la misma. Y, separando espacialmente el origen del mensaje (p.e., usando parlantes que estaban separados) podía ayudar a la selección (Broadbent, 1954). Aunque es posible ayudar al auditor a seleccionar el mensaje variando las características físicas de los mensajes (p.e., la voz o la locación), es claro que algo del mensaje rechazado recibe atención. Como fue notado anteriormente, Cherry (1953) encontró que los sujetos reportaban algunas características del mensaje rechazado. Así, no era posible para el auditor el bloquear completamente el mensaje. Algo del mensaje pasaba a través del filtro (o quizás, el filtro alternaba ‘canales’ tan rápido que algunas veces muestraza información en otros canales aparte del primario). Antes de que nos introduzcamos en la discusión acerca del efecto del contenido de los mensajes, debe mencionarse que mientras Broadbent y otros estaban investigando la atención en dos mensajes auditivos presentados simultáneamente, había trabajo que involucraba distintas modalidades, una tarea visual y auditiva presentada simultáneamente. Mowbray (1953) usaba pasajes en prosa, uno de los cuales era presentado visualmente y el otro auditivamente. La habilidad para responder preguntas acerca del mensaje menos atendido no era mejor que lo esperado si el sujeto estuviese adivinando.
Esta línea de investigación llevo a Broadbent a concluir que los procesos de selección no son puramente sensoriales. Esto es, no nos focalizamos exclusivamente en las características físicas de la entrada (p.e, localización de un sonido, tamaño de las letras). El contenido del os mensajes es también importante. Por ejemplo, Poulton (1956) encontró que insertar información irrelevante en los mensajes podía empeorar la eficiencia del sujeto en ejecutar una tarea. Broadbent concluyó que debemos filtrar la información que percibimos. El filtro debe trabajar después de que la información es percibida en el nivel sensorial. Broadbent propuso un modelo (1957. 1958) que sugiere que el filtrado ocurre antes del procesamiento del significado de los mensajes. La Figura 2.4 es un diagrama del modelo. Toda la información que estimule nuestros sentidos alcanza una etapa en donde atendemos o seleccionamos una entrada particular. Esto quiere decir que toda la información es percibida, pero sólo atendemos a una porción de esa información. En el caso de la audición dicótica, atendemos solo un mensaje e ignoramos el otro. ¿Por qué filtramos? Presumiblemente debido a las limitaciones de procesamiento. No podemos procesar todo lo que sentimos. En algunos casos, cuando las entradas de estímulo son relativamente simples podemos ser capaces de atender a más información que cuando las entradas son complejas (requiriendo mucho procesamiento para entender o responder). Este sería el caso del ejemplo de la conducción al principio del capítulo. La mayoría de nosotros podrá recordar situaciones opuestas en las que necesitábamos concentrarnos para entender algo y otros sonidos o distracciones son muy molestos y decrece nuestra habilidad para concentrarnos. Por ejemplo, estudiar mientras se escucha música instrumental de fondo es frecuentemente más fácil que escuchar música con letra. Un examen más atento al modelo de Broadbent es necesario para entender los modelos posteriores que lo modificaron. Los canales múltiples de entrada pueden diferir en términos de características físicas tales como la locación, el género de la voz, y el volumen. Sin embargo, Broadbent no limita estos canales a características físicas exclusivamente. El también habla acerca de tipos de eventos definidos por las propiedades de éste. Por ejemplo, podemos pensar en dígitos y palabras como dos tipos diferentes de eventos. El canal que es seleccionado para procesar en el sistema ‘P’ (perceptual) no está determinado al azar. Broadbent sugiere que factores tales como la intensidad física de la información y el tiempo desde que esa información de ese canal entró al sistema ‘P’ puede influenciar el filtro selectivo. Esto explicaría, por ejemplo, los efectos tales como la atención continua a una voz femenina. Si se te dice que monitorees o sombrees [shadow] un mensaje hablado en una voz femenina, entonces ese canal
de información será el que pasará por el sistema ‘P’. Según Broadbent, el proceso selectivo es más fácil si la información de cada canal es distinto. El Modelo de Atenuación [The Attenuation Model] Un importante aspecto del modelo de Broadbent que recibió considerable atención fue el destino de la información de los canales desatendidos. Según el modelo de Broadbent, el filtro selectivo pasaba la información de un canal, y la información de los canales desatendidos era bloqueada por completo. En 1964, Anne Treisman propuso un cambio en el supuesto del bloque total del modelo de Broadbent. Y como veremos, ella no era la única en sugerir modificaciones. A Treisman le molestaba el hecho de que la información de los canales desatendidos apareciera para ser procesado en algunos casos. Por ejemplo, Cherry (1953) reportó que algunos sujetos, mientras atendían a un mensaje, notificaban un cambio en el género de la voz hablante en el mensaje desatendido. Y, hay evidencia considerable, tanto de laboratorio como anecdótica (Howarth & Ellis, 1961; Moray, 1959) de que la gente percibirá su nombre cuando ocurre en un mensaje desatendido. Por ejemplo, escuchando una conversación en una fiesta, la mención de tu nombre en otra conversación puede rápidamente cambiar tu atención hacia esa conversación. Es como si todavía estuvieses monitoreando otros canales de información, aunque con un nivel más bajo de atención. En un experimento de 1960, Treisman tuvo sujetos que monitoreaban dos mensajes, uno presentado en cada oído. Los sujetos debían sombrear [shadow] (repetir en voz alta) el mensaje enviado a un oído. Algunos de los mensajes eran narrativas de una novela mientras otras eran palabras sin sentido. Fue de particular interés el desempeño del sujeto cuando estaba sombreando un mensaje significativo. En algún punto (cuando se ha presentado entre 40% y 70% del mensaje), los mensajes eran cambiados al otro oído. Por ejemplo, puedes sombrear un mensaje en el oído izquierdo proveniente de una novela e ignorar un mensaje sin sentido en el oído derecho. En la palabra número veinticuatro el mensaje significativo cambiaba al oído derecho y el otro mensaje era presentado al izquierdo. Recuerda que la tarea era sombrear exclusivamente el mensaje del oído izquierdo. Lo que Treisman encontró fue que 15 de 18 sujetos repitió un par de palabras del mensaje significativo, que ahora estaba siendo ignorado, antes de corregirse a sí mismos sombreando el ahora sin sentido mensaje presentado al oído izquierdo. Según Broadbent, el filtro selectivo debería permitir solamente un canal de información, siendo en este caso el mensaje del oído izquierdo, llegar al sistema ‘P’. Si todos los otros canales estuviesen bloqueados, entonces cuando el mensaje era cambiado, los estudiantes deberían haber cambiado al mensaje sin sentido sin ninguna dificultad. Sin
embargo, aparece un breve período de tiempo en el cual el sujeto tiene dificultad en rechazar el mensaje presentado a la oreja derecha. Según Treisman, es como si el filtro selectivo hubiera permitido llegar al sistema ‘P’ a una o dos palabras del canal rechazado. Por esta razón, Treisman (1960, 1964) propuso que el filtro selectivo no bloqueaba completamente el acceso al sistema ‘P’ de las entradas de otros canales para procesamiento adicional. Más bien, sugirió, la entrada de los canales aparte del atendido son atenuados, ‘se les baja el volumen’. En muchos casos el umbral (o energía necesaria) para reconocer palabras en un canal atenuado (o ignorado) es alto, y la persona no tiene problemas atendiendo el mensaje atendido e ignorando el otro. Sin embargo, algunas palabras pueden tener umbrales bajos y ser fácilmente activados. Un ejemplo es tu nombre. Tu nombre es importante para ti. Así, aunque la mayoría de lo que atraviesa un canal atenuado puede ser ignorado, a energía necesaria para activar tu nombre en el sistema ‘P’ es suficientemente baja para que incluso en un nivel atenuado, pueda ser escuchado y atendido. ¿Cómo explica Treisman sus descubrimientos de 1960 acerca del mensaje que cambiaba de oídos? Sugirió que mientras el mensaje es atenuado cuando cambia del oído izquierdo al derecho, el umbral para palabras relacionadas con el mensaje significativo es reducido temporalmente. Mientras ocurre el cambio de mensaje, el sujeto brevemente atiende al mensaje que ahora debe ser ignorado. El cambio al otro canal no siempre ocurre, y cuando lo hace, sólo dura por una palabra o dos antes de que el sujeto retorne correctamente a monitorear el mensaje del oído izquierdo. Ese breve tiempo de error es sugerido por Treisman como evidencia de que el filtro selectivo no bloquea completamente todos los canales excepto uno. Una réplica y extensión del estudio de sombreamiento [shadowing] de E. Colin Cherry (Word & Cowan, 1995) provee evidencia que apoya el modelo de atenuación de Treisman. En este estudio, los estudiantes debían sombrear un pasaje de la novela ‘Las Uvas de la Ira’ de John Steinbeck en un oído, mientras un pasaje de ‘2001: Odisea del Espacio’, de Arthur C. Clarke, el mensaje irrelevante, era presentado al otro oído. En variados puntos durante la tarea, el pasaje en el canal irrelevante cambiaba de prosa normal a inglés reverso. Word y Cowan encontraron que los sujetos frecuentemente se daban cuenta del cambio; en éstos usualmente había un cambio en el desempeño de su sombreamiento, su tarea primaria. El empeoramiento del sombreamiento ocurría aproximadamente 15 a 18 segundos después de que el inglés reverso comenzara en el canal irrelevante. Esto sugirió a Word y Cowan que los individuos no cambian de manera intermitente y azarosa los canales para muestrear información. Si lo hacen, entonces uno no debería esperar el empeoramiento del desempeño en un período de 15 a 18 segundos. En vez, Word y Cowan creían que la información en el canal irrelevante hace
un contacto con la memoria a largo plazo, y puede causar un cambio en la atención a ese canal bajo las circunstancias correctas. Modelos de Selección Tardía [The Late-Selections Models] Mientras Treisman proponía sus modificaciones al modelo de Broadbent, otros estaban también examinando el modelo y ofreciendo cambios. Deutsch y Deutsch (1963) y Norman (1968) presentaron un modelo alternativo que es caracterizado de la mejor forma como un modelo de ‘atención tardía’. A diferencia de los modelos de Broadbent y Treisman, ellos propusieron separadamente que todas las entradas era n procesadas por un nivel más allá de sólo las características físicas antes de que la selección ocurra (Ver Tabla 2.2). Deutsch y Deutsch (1963) sugirieron que cuando estamos despiertos, todas las entradas están disponibles para ser procesadas pero escogemos una entrada para la atención. Propusieron que bajo situaciones de alta excitación se puede atender a más de una entrada o mensaje, una posición que difiera de la de Broadbent o Treisman. En la mayoría de los casos, sin embargo, la operación del sistema de alerta concentra la atención en un mensaje, lo que explicaría los resultados de los estudios de Broadbent. Si todas las entradas eran procesadas más allá de sus características físicas, entonces este modelo también podía explicar los descubrimientos de Treisman (1960) y otros (Chery, 1953; Moray, 1959), en los cuales la información de las entradas aparte del canal atendido podían ser procesadas. Los descubrimientos en estudios neuropsicológicos con animales también fueron usados para apoyar su modelo de procesamiento substancial de más de una entrada de estímulo. Donald Norman propuso en un paper de 1968 una teoría de la memoria y atención que apoyaba la perspectiva temprana de Deustch y Deutsch. Norman presentó su modelo en términos de operaciones cognitivas. Primero, sugirió que las entradas era ‘interpretadas’. Las entradas interpretadas eran procesadas más allá de sus características físicas para incluir un emparejamiento [match] con alguna representación almacenada en la memoria. Esto es, la selección no ocurre temprano en el procesamiento, sino más bien después de que una entrada ha sido emparejada con algo en la memoria. Norman propone que esta interpretación se realiza de forma automática. Puede no ser un procesamiento completo, sin embargo. Podemos escuchar algo y saber que es una palabra, por ejemplo, sin saber exactamente lo que la palabra significa. El hecho de que todas las entradas fueran procesadas más allá de un nivel sensorial es crucial para el modelo de Norman y su concepto de ‘pertinencia’. La ‘pertinencia’ es una función de (a) las expectativas del que percibe acerca de lo que se presenta, junto a (b) a qué se le está poniendo atención en el momento. Por ejemplo, una entrada con un alto
nivel de pertinencia sería un mensaje que continua en el mismo hilo conductor de un pensamiento y es presentado por la misma persona. Este mensaje cumpliría con las expectativas del sujeto, además de ser presentado en el mismo ‘canal’ físico que el que ha estado escuchando. Según Norman, si la pertinencia ocurre, entonces debe pasar antes del proceso de selección. Esto es, el sujeto que percibe debe seleccionar la entrada que mejor se acomoda a sus expectaciones para procesamiento adicional. La significatividad de las entradas debe ser una parte del proceso de selección. ¿Cómo podría el modelo de Norman explicar los descubrimientos de Treisman, acerca de que algunas veces atendemos al oído ‘equivocado’ cuando el mensaje cambia de oído? El argumentaría que la entrada que continúa el significado del mensaje que estamos sombreando tiene un alto nivel de pertinencia. Mientras el mensaje continúe en el oído atendido, la entrada encontrará ambos criterios de pertinencia; su significado cumple con nuestras expectativas futuras y es presentado en el canal atendido en el presente (el oído izquierdo, por ejemplo). Una vez que el mensaje se ha intercambiado en los oídos, el significado significativo en el oído izquierdo es seleccionado debido a su alta pertinencia, la continuación del mensaje significativo que esperamos. Este modelo no involucra el concepto de atención. Más bien, Norman sugiere que procesamos todas las entradas en algún nivel significativo y que entonces seleccionamos basados en lo que nos es pertinente en el momento. Explicando el hecho de que atendemos a nuestro nombre, Norman sugiere que podemos tener un nivel de pertinencia alto permanentemente para nuestro nombre. Las entradas no son igualmente pertinentes.
Los Modelos de Recurso de la Atención [Resource Models of Attention] Un número de investigadores ha abandonado la noción de un modelo de filtro y sugieren que necesitamos ver la atención en términos de esfuerzos cognitivos localizados o recursos de procesamiento. Mientras los modelos de filtro pueden ser vistos como modelos ‘estructurales’, en el que el fenómeno de la atención es descrito en términos de estructuras tales como ‘canales’ y ‘filtros’, los modelos de atención que fueron propuestos en los años setenta y ochenta pueden ser caracterizados como modelos de atención de ‘capacidad’ o ‘recursos’. En vez de entradas siendo bloqueadas o atenuadas, como los modelos de filtro, la atención es influenciada por la capacidad del individuo para dedicar recursos o esfuerzo en procesar entradas. Cuando poco esfuerzo o pocos recursos son necesitados, somos capaces de atender a más de una entrada de manera bastante fácil. Cuando más
esfuerzo es requerido, dedicaremos recursos considerables para atender a una entrada y, como resultado, seremos incapaces de procesar otras entradas de estímulos. En esta sección veremos tres modelos que han sido propuestos. Kahneman (1973) introduce la noción de esfuerzo en su teoría de la atención. Norman y Bobrow (1975) proponen que las limitaciones en los recursos y en la entra misma pueden influir en el desempeño. Y Wickens (1980) delinea la posibilidad de diferentes clases de recursos que pueden estar disponibles para el procesamiento atencional. El Modelo de Capacidad de Kahneman [Capacity Model] El modelo de Knowles (1963) propone que la persona posee una fuente de recursos atencionales. Este era una alternativa a los modelos de filtro que dominaban el campo en esa época. Después Moray (1967) enfatizó esta noción de capacidad como la controversia entre los modelos de atención temprana y tardía en los modelos de atención continua. También, investigadores como Neisser (1967) estaban sugiriendo que la atención era un proceso más activo que el supuesto por los modelos de filtro. Presentó el concepto de ‘análisis por síntesis’, en el cual la atención involucraba la construcción de información o segmentos de información que llevan entonces a una percepción conciente. El no creía que los canales ignorados de información fueran bloqueados o atenuados; simplemente no eran analizados por los procesos activos de atención que llevaban a la percepción. El impacto mayor en los modelos de capacidad ocurrió, sin embargo, cuando Daniel Kahneman introdujo su modelo en un libro publicado en 1973. Este libro resumía los descubrimientos empíricos de la psicología cognitiva e incluía un modelo que se desviaba marcadamente de los previos modelos de filtro. Su modelo, un modelo de capacidad, destaca los conceptos de esfuerzo y la asignación de recursos atencionales. Antes de la introducción de este modelo de capacidad, había habido una creciente insatisfacción con el modelo de filtro simple. Por ejemplo, el modelo de cuello de botella de Broadbent no permitía el procesamiento paralelo, esto es, el procesamiento de dos entradas simultáneamente. El modelo de cuello de botella podía explicar lo que parecía el modelo de procesamiento paralelo sólo si asumía que el filtro cambiaba entre canales de entrada de manera muy veloz. Esta rápida alternación entre canales proveía la impresión de que la persona estaba procesando dos entradas simultáneamente. El modelo de capacidad de Kahneman de atención y esfuerzo es presentado en la Figura 2.5. El aspecto ‘activo’ del modelo debería ser inmediatamente obvio por las flechas emanando de la ‘Política de Asignación’ [Allocation Policy] y el hecho de que la ‘Activación de
Unidades de Reconocimiento’ [Activation of Recognition Units] puede influenciar etapas tempranas (Formación de Unidad) al igual que etapas posteriores. Examinemos este modelo y su relación con algunos de los modelos de cuello de botella previos. Broadbent (1957) sugiere que el cuello de botella ocurre temprano, con un canal de entrada siendo atendido o seleccionado en la etapa de Formación de Unidad. Treisman (1960) no creía que todos los otros canales fueran completamente eliminados en esta etapa, sino más bien que algunos podían ser atenuados. Kahneman sugiere que en esta etapa la información de varios canales puede estar todavía disponible y ser enviada a la siguiente etapa. Los modelos de atención tardía de Deutsch y Deutsch (1963) y Norman (1968) pondrían a las entradas alcanzando al menos la etapa de Activacíon de Unidades de Reconocimiento antes de que la selección ocurra. El concepto de Norman de ‘interpretación’ presumiblemente tomaría lugar dentro de esta etapa de activación. El concepto de ‘pertinencia’, o lo que es significativo y esperado, se encontraría en la etapa de Selección de Interpretaciones y más allá. Por esto, en términos de una comparación del modelo de capacidad de Kahneman con los modelos de filtro, los modelos de selección temprana de Broadbent y Treisman permiten menos canales de entrada tempranamente. Y, en comparación con los modelos de selección tardía, Kahneman sugiere que algunos canales de entrada pueden ser perdidos antes que lo sugerido por Deustsch y Deutsch o Norman. La importante contribución de Kahneman descansa en la inclusión de la Política de Asignación. Lo que es asignado es la capacidad para hacer el trabajo mental. O, se puede utilizar el término esfuerzo cognitivo. Si estás envuelto en una tarea que requiere poco esfuerzo o trabajo mental, como manejar a través de un camino familiar con poco tráfico bajo condiciones climáticas ideales, entonces eres capaz de usar algo de esfuerzo en la tarea de conducir y asignar más esfuerzo en otra tarea, como llevar una conversación con otra persona o escuchar la radio. Cuando estas conduciendo por el mismo camino bajo condiciones climáticas peligrosas, sin embargo, puedes encontrarte necesitando dirigir más esfuerzo a la conducción y ser incapaz de escuchar la radio. Kahneman sugiere que asignamos esfuerzo en tareas dependiendo de nuestro nivel de excitación y la dificultad de la tarea. Los extremos en los niveles de excitación deben ser evitados. Un individuo puede no ajustar sus recursos apropiadamente en niveles extremadamente bajos de excitación. Por otro lado, en altos niveles de excitación un individuo puede estrechar su atención y estar menos concentrado para información relevante. Cuando las tareas son relativamente simples y rutinarias, un individuo puede atender a más de una entrada. Cuando una tarea es relativamente más complicada, más recursos de procesamiento se
requieren y menos estarán disponibles para otros estímulos. Esto es, la ‘capacidad de reserva’ [spare capacity] de esfuerzo disponible puede ser bastante pequeña o inexistente. Debiera ser obvio que estos conceptos de ‘capacidad limitada’ y ‘esfuerzo’ pueden ser definidos de muchas formas diferentes. Veamos un estudio entre muchos descritos por Kahneman (1973), que usa para apoyar su modelo. En este estudio (Kahneman, Beatty & Pollack, 1967), los sujetos ejecutaban dos tareas. La primera requería que el sujeto (a) escuchara secuencias de cuatro dígitos, a un ritmo de un dígito por segundo, (b) se detuvieran por un segundo y respondieran entonces de forma verbal sumando 1 a cada dígito. Los sujetos eran remunerados acorde a su desempeño. Sin embargo, para ser pagados también debían mantener un nivel adecuado de desempeño en una tarea distractora secundaria; esta consistía en una tarea de detección visual. Los participantes miraban una serie de letras destellando rápido una tras otra, y debían presionar una letra cuando la letra K apareciera. Los comportamientos medidos incluían el porcentaje de equivocaciones en cada una de las tareas. Además, Kahneman et al. (1967) incluyeron una medida fisiológica de dilatación de la pupila. La investigación previa indicaba que un buen índice fisiológico de un incremento en la excitación cognitiva o esfuerzo es el incremento en la dilatación de la pupila (Beatty, 1982; Colman & Paivio, 1969; Kahneman, Tursky, Shapiro & Crider, 1969). Los resultados de este estudio son mostrados en la Figura 2.6. Antes de discutir la figura, debiera notarse que el porcentaje de equivocación en la tarea primaria promediaba ligeramente bajo el 20 por ciento y que era relativamente uniforme para cada dígito de la secuencia (esto es, los errores ocurrían igualmente en cada uno de los dígitos). En la Figura 2.6, primero atiende a que el patrón de errores de la tarea secundaria recuerda a una curva de U invertida. Las fallas en detectar la letra K ocurrían más frecuentemente cuando la letra K aparecía cerca del final de la audición de la secuencia de 4 dígitos (mientras el sujeto se preparaba para responder), que cuando la secuencia comenzaba. Esto descubrimiento fue anticipado. La tarea de escuchar a la secuencia y sumar 1 digito a cada dígito se volvería más difícil mientras el sujeto escuchara más dígitos y no hubiera todavía a comenzar a agregar el 1 y verbalizarlos. Hay un incremento en la carga de la memoria, y los sujetos probablemente ya han comenzado a agregar 1 a los dígitos. Sin embargo, cuando la secuencia está recién comenzado o el sujeto está cerca del final de recordar los dígitos, la tarea no es tan difícil, y más esfuerzo puede ser asignado a la tarea secundaria de la detección de la letra. Con más esfuerzo asignado a la tarea, menos errores se cometen.
El índice fisiológico de la dilatación de la pupila muestra un incremento mientras la secuencia numérica se presenta. Se asume que este incremento en la dilatación indica un esfuerzo cognitivo mayor y corresponde al punto de vista de que la tarea primaria requiere más esfuerzo mientras los dígitos son presentados y deben ser mantenidos en la memoria. Fíjate que la dilatación alcanza su máximo cuando el segundo dígito de la secuencia es transformado y verbalizado por el sujeto. Mientras el sujeto recuerda los dígitos existe menos esfuerzo que debe ser asignado a mantener los dígitos en la memoria. Kahneman usó este estudio como un ejemplo de que el esfuerzo (a) podía ser medido (a través de la dilatación de la pupila), (b) está bajo el control del sujeto, y (c) puede ser asignado de manera diferenciada para tareas separadas. El último punto es importante, porque Kahneman muestra que no existe detrimento en la tarea al ponerse más difícil. Cuando más esfuerzo es asignado a la tarea primaria, menos esfuerzo puede ser asignado a la tarea de la detección de letras y el número de equivocaciones en esta tarea se incrementa. Un segundo estudio acerca de la noción de la limitada capacidad del esfuerzo fue realizada por Keele (1967). Los sujetos completaban dos tareas. Una involucraba apagar una serie de luces. La dificultad de la tarea era controlada por la distribución de los controles y las luces. Cuando no estaban distribuidos de forma compatible la tarea era más difícil. La segunda tarea requería que el sujeto contara en voz alta de manera inversa en uno, tres, o siete de un número dado de tres dígitos. Obviamente, contar hacia atrás de uno en uno es más fácil que en siete. Keele encontró que cuando las tareas son fáciles, los sujetos se desempeñaban mejor haciendo las dos tareas simultáneamente que secuencialmente. Kahnmean diría que en ete caso existe suficiente capacidad de esfuerzo para atender a las dos tareas de forma paralela. Sin embargo, cuando las tareas se volvían más difíciles y el sujeto trataba realizar ambas al mismo tiempo, su desempeño en cada una de las tareas empeoraba. En este caso, se asumía que demasiado esfuerzo era requerido para atender ambas tareas simultáneamente, y que la capacidad de reserva era insuficiente, lo que resultaba en un detrimento del desempeño. A medida que los investigadores comenzaron a investigar los modelos de capacidad atencional, algunos se centraron en la naturaleza de los recursos atencionales. Ahora nos volcaremos a esa área de estudio. Procesos limitados por Recursos e Información [Resource-Limited and Data-Limited Processes] Una importante distinción en la clasificación de los procesos humanos fue articulada por Norman y Bobrow (1975). Relacionada en parte con el trabajo de Kahneman (1973) recién expuesta y la de otros
(Garner, 1970; Garner & Morton, 1969), Norman y Bobrow delinearon dos categorías básicas de procesos, a saber, procesos limitados por recursos y limitados por información. Cada tipo de proceso puede influenciar en el desempeño. Veamos primero los procesos limitados por los recursos, ya que incluyen la noción de esfuerzo de procesamiento de Kahneman. Cuando el desempeño en una tarea puede ser mejorado asignado más esfuerzo o sumando mayores recursos de procesamiento a ella, diríamos que la tarea está limitada por recursos [resource-limited]. Esto es, el desempeño está limitado por la cantidad de recursos que le asignamos. Un supuesto razonable de Norman y Bobrow es que existe una relación entre recursos y desempeño. Para una tarea dada, el incremento en el desempeño puede ser atribuido a un incremento en los recursos. El gráfico de la Figura 2.7 es un ejemplo de este tipo de relación. Cuando la línea se curva hacia arriba tenemos evidencia de que el incremento de recursos asignados a la tarea resulta en un incremento del desempeño. En un sistema de capacidad limitada como el propuesto por Kahneman (1973), mientras existan recursos disponibles, podemos esperar un incremento en el desempeño. Y, si sobreexigimos al sistema requiriendo más recursos para variadas tareas simultáneas, el desempeño puede sufrir. El estudio por Kahneman et al. (1967) con la adición de dígitos y detección de letra, encaja perfectamente con el concepto de procesos limitados por recursos. Fue necesario un aumento en el esfuerzo cuando la secuencia numérica era presentada para mantener el desempeño en la tarea a la vez de poder detectar la letra objetivo K cuando aparecía. Cuando los requerimientos de la tarea exceden la cantidad de recursos disponibles, el desempeño sufría en la tarea secundaria. El otro tipo de procesos delineados por Norman y Bobrow se denominan procesos limitados por información; se dice de aquellas tareas en las cuales el desempeño es independiente de los recursos. Observamos que este tipo de proceso ocurre cuando el esfuerzo en un desempeño ha alcanzado un ‘techo’. Esto es, el incremento en el esfuerzo no mejora el desempeño. Podemos intentar más duro pero sin resultado. Un ejemplo ilustrará este concepto de procesos limitados por información. Imagina que se te pide encontrar la letra objetivo F en medio de un fondo que consiste en letras E destellando en la pantalla. Puedes incrementar tus procesos limitados por recursos aumentando tu esfuerzo en encontrar la F . Podemos ver un incremento en el desempeño en cuanto puedes volverte más rápido en encontrar la F mientras más te esfuerces. Ahora, cuando un nuevo muestreo es presentado se muestra sólo por una fracción de segundo. No importa cuán fuerte lo intentes, la presentación puede ser demasiado breve para que encuentres la letra F. Tu desempeño es independiente de tu estrategia o esfuerzo. En vez estás limitado por la información, ves el muestreo sólo por un breve tiempo. Otra forma de influenciar el desempeño en la misma tarea a través de un proceso
limitado por la información sería presentar letras desenfocadas, las cuales apenas pudieras distinguir. Un ejemplo del mundo real sería ser incapaz de ver a través del parabrisas muy bien bajo una tormenta. La visibilidad está limitada; esto es, el monto de información visual que puedes procesar está limitado. Según Norman y Bobrow, los procesos limitados por información están implicados cuando todos los procesos limitados por recursos que están disponibles han sido utilizados y el desempeño no mejora. Asignar procesos limitados por recursos adicionales a una tarea no mejora el desempeño. La influencia de los procesos limitados por información se muestra gráficamente en la Figura 2.7. En el extremo superior derecho no verás cambio en el desempeño, aunque más recursos están siendo usados. Norman y Bobrow son precavidos al asegurar que confiar en una única medida de respuesta, tal como la proporción de errores cometidos, no siempre será un índice de los recursos utilizados. Por ejemplo, la velocidad en responder puede ser lenta mientras la proporción de errores hechos puede no serlo. Para que la limitación por información sea eliminada, primero una tarea debe ser probada a través de un rango de asignación de recursos y, segundo, una relación empírica debe ser establecida entre los recursos utilizados y cambios relevantes en el desempeño. Por ejemplo, en la Figura 2.7 existe un rango en la región limitada por recursos durante la cual un incremento en los recursos no da por resultado un incremento en el desempeño (el segmento paralelo al eje x ). Sin embargo, incrementado recursos más allá de esa región, nuevamente encontramos un incremento en el desempeño (el segmento curvo). Si uno no ha probado con la asignación de un amplio rango de recursos, y se ha detenido cuando el desempeño se ha nivelado por vez primera, entonces uno puede concluir erróneamente que la región limitada por la información ha sido alcanzada. Esta distinción entre los procesos limitados por información y por recursos fue muy importante, especialmente en cuanto los investigadores dirigieron sus esfuerzos hacia una comprensión del rol del procesamiento limitado por recursos. Uno de los mayores empujes fue Chris Wickens, quien junto a sus estudiantes propuso y probó una teoría de la atención de recurso múltiple. Teoría de la Atención de Recurso Múltiple [Multiple Resource Theory of Attention] Si existe una fuente de recursos limitados para el procesamiento, entonces la pregunta lógica es, ¿son todos los recursos iguales? Esto es, cuando usamos estos recursos para procesamientos atencionales, ¿asumimos que todos los recursos son el mismo, o tenemos diferentes tipos de recursos que son especialmente asignados a diferentes tipos de tareas? Wickens (1980, 1984) junto con otros (Friedman, Polson, Gaskill &
Dafne, 1982; Kantowitz & Knight, 1976; Navon & Gopher, 1980) han postulado la existencia de múltiples tipos de recursos. Examinaremos la teoría propuesta por Wickens (1980, 1984), que ha recibido considerable atención. Para explicar la aproximación tomada por Wickens, comenzaremos por el concepto de Característica de Desempeño Operativo (POC) [Performance Operating Characteristic]. El POC es una representación gráfica del desempeño en dos tareas separadas. Un POC hipotético es mostrado en la figura 2.8ª. Cada eje representa el desempeño en una de las tareas. El punto A describe el caso en el que el desempeño es 100% en la Tarea Y y 0% en la tarea X. El punto B describe lo opuesto. Cada uno de estos casos describe la situación en cual una persona concentra todo su esfuerzo en una tarea e ignora por completo la otra. El punto C representa el caso en el cual el desempeño es perfecto en ambas tareas. Esto es, una persona que puede desempeñarse de manera perfecta en ambas tareas simultáneamente. La línea curva en el POC es llamada la Función DesempeñoRecurso (PRF) [Performance-Resource Function]. La PRF describe el caso en el cual existe una compensación en el desempeño mientras uno trata de ejecutar ambas tareas al mismo tiempo. Aunque existe un número de posibles explicaciones para este descubrimiento (véase Wickens, 1984), una obvia es el compartir los recursos entre las tareas. Si ambas tareas están retirando recursos limitados, entonces uno puede anticipar un detrimento en el desempeño en ambas tareas cuando son ejecutadas simultáneamente en vez de singularmente. En un nivel básico, si el fuente de recursos es el mismo para todas las tareas, entonces este tipo de PRF debería existir mientras ambas tareas sean influenciadas por procesos limitados por recursos y no por procesos limitados por información (Norman & Bobrow, 1975). Si encontramos un PRF como el mostrado en la Figura 2.8b, en el cual el desempeño en la tarea B mejora sin un desmejoramiento inicial en la tarea A, podemos explicar esto argumentado que la tarea A puede estar influenciada por procesos limitados por información. Por ejemplo, la tarea A es fácil debido a la cualidad de la información, entonces retirar recursos de ella hacia la tarea B no empeora su desempeño. Sólo cuando suficientes recursos han sido extraídos, para que esos recursos ahora estén en el rango de limitados por recursos, encontramos que el desempeño en la tarea A sufre para mejorar la tarea B. Otra explicación para este tipo de descubrimiento puede ser la existencia de separados fuente de recursos. Si existen distintos fuentes de recursos, entonces puede ser que retirar de uno de ellos no influencie el desempeño en otra tarea, ya que ésta puede extraer recursos de un fuente distinto. La figura 2.9 está basada en la perspectiva de Wickens de estos distintos fuentes.
El ejemplo de arriba representa el punto de vista de que ambas tareas comparten recursos del mismo fuente. El gráfico que lo acompaña muestra que mientras la dificultad de la tarea B se incrementa, el desempeño de la tarea A decae. Dados limitados recursos del fuente II, si la tarea B necesita mayores recursos para mantener el desempeño mientras más difícil se hace la tarea, entonces existirán menos recursos disponibles del fuente para la tarea A y el desempeño sufrirá. Por otro lado, si dos de las tareas extraen recursos de diferentes fuentes, se aplica el ejemplo inferior. Si las dos tareas están usando diferentes fuentes de recursos, entonces un incremento en la dificultad de la tarea B requerirá más recursos del fuente II. Sin embargo, ya que la tarea A no requiere recursos de este fuente. su desempeño no se verá afectado. Si dos tareas pueden acceder a diferentes fuentes de recursos, entonces deberemos observar ejemplos de la eficiencia de tiempo compartido [time-sharing effiency]. Esto es, que uno puede ejecutar dos tareas en menos tiempo si se trabaja en ellas simultáneamente que si se trabaja en ellas alternadamente o una después de otra. Allport, Antonis y Reynolds (1972) proveyeron de evidencia empírica para esta eficiencia de tiempo compartido con dos tareas, lectura de música y sombrear un pasaje presentado auditivamente. Los individuos eran capaces de tocar una pieza de música mientras repetían un pasaje presentado auditivamente sin pérdida en su desempeño. Wickens (1976) también mostró la eficiencia de tiempo compartido con dos tareas simultáneas, una tarea de detección de señal auditiva (el sujeto estuchaba para detectar un sonido particular) y una tarea basada en una respuesta generada por fuerza [response-based force-generated task]. Apoyo adicional para la noción de fuentes múltiples puede ser encontrado en estudios en los cuales un incremento en la dificultad de una tarea no causan un detrimento en el de otra (ver Figura 2.8b). Wickens (1984) cita una disertación de North (1977) en la cual los sujetos desempeñaban una tarea básica que involucraba operaciones mentales en dígitos presentados visualmente que resultaban en apretar una tecla manualmente. En una condición fácil, el sujeto presionaba una tecla correspondiente al dígito mostrado. La condición intermedia era una tarea de memoria corriente [running memory]. Mientras la serie de dígitos era presentada, el sujeto presionaba la tecla correspondiente al dígito previamente mostrado. En una condición difícil, el sujeto tenía que ejecutar una tarea de clasificación en el par de dígitos mostrados para responder. Cuando estas condiciones eran ejecutadas singularmente había evidencia de necesidad de gran esfuerzo (o más recursos) mientras aumentaba la dificultad. Cuando eran ejecutadas de manera simultánea con una tarea de seguimiento, el efecto de ella era el mismo sin importar la dificultad de la tarea del dígito. Por lo tanto, incrementar la dificultad en una tarea no influía en el desempeño de otra, exactamente como sería predicho si existen múltiples fuentes de recursos. Otros estudios
(Kantowitz & Knight, 1976; Wickens & Kessel, 1979) han demostrado casos en los cuales el desempeño en una tarea no se veía afectado adversamente por el incremento en la dificultad de otra. Kantowitz y Knight (1976), por ejemplo, pidieron a sus estudiantes ejecutar dos tareas simultáneamente. La primaria requería que el estudiante ejecutara una tarea visual-motora de golpear ligeramente objetivos generados aleatoriamente en la pantalla de un computador con n lápiz de luz. Los objetivos eran presentados cada 0,5 segundos y podían ser grandes o pequeños, siendo la tarea más difícil cuando eran pequeños. La tarea secundaria era auditiva-vocal. Los estudiantes escuchaban dígitos que debían repetir o transformar (sumando o restando un valor constante) antes de repetirlos en voz alta. Las dos tareas tenían diferentes modos de entrada, visual y auditiva, y diferentes modo de respuesta, vocal y manual. Si diferentes fuentes de recursos eran utilizadas, incrementar la dificultad en una de las tareas no debería influir en el desempeño de la otra. Esto es, no debería haber ninguna interacción estadística en términos de desempeño. Esto fue lo que encontraron. Wickens (1980, 1984), asumiendo que existían fuentes de recursos separados, propuso como diferían éstas. La Figura 2.10 presenta una estructura tridimensional. Hay etapas de procesamiento, yendo de izquierda a derecha. Los procesos de codificación incluyen el procesamiento perceptual de la entrada, y estos procesos, junto con los requeridos por el procesamiento central (manipulación de la información, etc.) son distintos de los recursos usados en producir una respuesta. Estos recursos son representados en la etapa responsiva [responding stage]. Nota que nuevamente se asumen fuentes distintas para las respuestas. Existen fuentes separadas para respuestas manuales, tales como apretar teclas, y respuestas vocales. En términos de codificación y procesamiento central, Wickens sugiere que la distinción entre codificación verbal y espacial se relaciona con las diferencias cortico-hemisféricas. En la mayoría de los individuos se asume que el hemisferio izquierdo es utilizado para el procesamiento verbal mientras el derecho muestra una tendencia para la habilidad del procesamiento espacial. Wickens (1984) se apoya en el trabajo de Kinsbourne (Kinsbourne & Hicks, 1978) y Brooks (1968) para validar su distinción entre codificación verbal y espacial. Esta distinción puede ser apropiada para tareas que requieren una respuesta simple (p.e., presionar una tecla cuando un ítem objetivo se presenta). Pashler y O’Brien (1993) cuestionan esta distinción hemisférica de los recursos cuando las respuestas a realizar en un paradigma de dos tareas son inciertas. Esto es, cuando la respuesta no es un simple apretar teclas, sino que se requiere que el sujeto seleccione de entre un número de opciones, el desempeño era el mismo si las dos tareas requerían el procesamiento del mismo hemisferio o de distinto. Esto es, construir tareas para que cada
hemisferio procesara una tarea no resultaba en un mejor desempeño que cuando las tareas eran ambas procesadas por el mismo hemisferio. Pashler (1993; 1995) recientemente ha propuesto que un importante cuello de botella en el procesamiento central de información ocurre en la etapa de selección de una respuesta. La investigación que ha manipulado la secuencia de dos tareas lleva a la conclusión de que los recursos están críticamente agravados cuando un individuo está en la etapa de determinar una respuesta apropiada. Pashler y O’Brien (1993) plantean este cuello de botella incluso cuando las dos tareas están diseñadas para ser procesadas en dos hemisferios cerebrales diferentes. Esta etapa de selección de respuesta es parte del procesamiento central y no debería ser confundida con la generación de una respuesta, que involucra la producción real de la respuesta. Regresaremos a este tópico cuando sean discutidas las perspectivas actuales de atención. La última división dentro de las estructuras propuestas por Wickens está basada en la modalidad de presentación. Las dos modalidades delineadas por Wickens son la visual y la auditiva. Extendió la división de estos modelos solo a través de la etapa de codificación. Aunque él cree que existe un beneficio en presentar la información de modos diferentes, está inseguro, en este punto, si el beneficio se transporta a la etapa del procesamiento central. Estos modos separados de codificar son, por supuesto, similares a las nociones tempranas de Broadbent de canales separados de entrada. Wickens (1980, 1984, 1991) cita estudios empíricos que proveen evidencia para este modelo. Este apoyo incluye estudios de cambios fisiológicos durante las tareas atencionales. Sin embargo, seguramente habrá cambios en este modelo. Por ejemplo, solo dos modalidades de entrada, visual y auditiva, son incluidas en el modelo actual. Esto resulta del hecho de que la vasta mayoría de los estudios de dos tareas se han concentrado en entradas visuales y auditivas. Si uno incluyera una tarea que involucrara entradas táctiles, entonces se podría suponer que se usaría diferentes recursos de codificación. Wickens (1984, 1991) menciona otros problemas sin resolver. Uno trata sobre la pregunta de si existe una jerarquía en las fuentes de recursos presentadas en la Figura 2.10. Como Wickens precisa, su modelo debería predecir un perfecto tiempo compartido si el proceso ocurre a través de dos fuentes de recursos diferentes. Sin embargo, este no es siempre el caso. Por ejemplo, Treisman y Davies (1973) encontraron interferencia entre las tareas que involucraban diferentes condiciones modales (auditiva y visual). Pareciera que si existe algo de cooperación. Las fuentes representadas en la Figura 2.10 pueden no ser completamente distintas. La eficiencia de recursos puede ser óptima cuando la información codificada verbalmente es presentada de modo auditivo y la información codificada espacialmente es presentada de
modo visual. Lo mismo puede ser sostenido para el encaje entre código y salida, manual o vocal. El perfecto tiempo compartido de recursos puede no ser posible cuando existe una desigualdad de recursos con los códigos. Wickens también postula la posibilidad de que una fuente general de recursos indiferenciados pueda existir, aunque la falta de claridad de lo que puedan ser estos recursos ha sido planteada por otros (Hirst & Kalmar, 1987). La distinción importante entre este modelo y el de otros (p.e., Kahneman, 1973), sin embargo, es que incluso si existe una fuente de recursos indiferenciados, es primario el concepto de múltiples recursos en la perspectiva de Wickens. Regresaremos a este modelo más tarde cuando discutamos los esfuerzos de investigación reciente en el área de atención. Procesamiento Automático [Automatic Processing] La discusión en este punto se ha centrado en recursos que frecuentemente involucran esfuerzo. Mientras mucho del trabajo que examinaba los recursos atencionales tomaba lugar (p.e., Norman & Bobrow, 1975; Wickens, 1980, 1984), había considerable trabajo dirigido a la influencia de procesamiento que parecía ser sin esfuerzo. Nos centraremos inicialmente en dos importantes artículos publicados por Schneider y Schiffrin (Schneider & Schiffrin, 1977; Schiffrin & Schneider, 1977). Propusieron una distinción entre procesamiento controlado y automático. Mucho del procesamiento que hemos discutido hasta este punto que involucra recursos atencionales, sea si son de una fuente específica o no, podrían ser clasificados como procesos controlados. El procesamiento controlado [controlled processing] involucra una secuencia de acciones que está bajo el control de un individuo y requiere su atención. Esto es, los procesos controlados están influenciados por las limitaciones del sistema atencional. Por otro lado, el procesamiento automático [automatic processing] involucran una secuencia de acciones que casi siempre ocurren cuando una entrada particular ocurre y la respuesta es activada sin el control activo o atención del individuo. Por ejemplo, cuando ves una letra destellar en una pantalla, puedes identificarla prácticamente sin esforzarte. El procesamiento automático puede ocurrir para una entrada presentada externamente tal como la presentación de una letra como con entradas internas (p.e., recordar tu nombre). Mientras que los procesos controlados se piensan seriales en su naturaleza (ocurriendo uno a la vez), se supone que los procesos automáticos operan de forma paralela (más de uno puede ocurrir simultáneamente). A la vez, los procesos controlados son vistos como mucho más lentos que los procesos automáticos. Para entender como Schneider y Schiffrin demostraron los diferentes procesos, es necesario describir el procedimiento básico que
usaron en muchos experimentos reportados en cada uno de sus papers (Schneider & Schiffrin, 1977; Schiffrin & Schneider, 1977). La Figura 2.11 es una reimpresión de sus estudios. Un sujeto participa en una tarea de detección en la cual, en cada prueba, debe ver un cierto número de cuadros [frames], cada uno presentado brevemente en un monitor de video. Un marco podía contener uno, dos o cuatro caracteres. Los caracteres podían ser dígitos o números, y podían aparecer en una de las cuatro esquinas del marco. Si el sujeto detectaba un objetivo, debía presionar una tecla lo más rápido posible. Los objetivos variaban en las pruebas. La Figura 2.11 muestra dos condiciones. En la superior, el tamaño del set de memoria, o número de objetivos, era 2. El sujeto debía presionar una tecla si uno de los objetivos ocurría en cualquiera de los marcos subsecuentes. EL inferior muestra un tamaño de set de memoria de 4. Obviamente, a mayor número de objetivos que el sujeto tiene que buscar, mayor carga de memoria. Hasta este punto, el procedimiento incluía la presentación del tamaño de set de memoria objetivo, que también variaba en uno, dos, o cuatro caracteres. Después de que el sujeto hubiera memorizado sus objetivos, presionaba un botón para empezar la presentación de cuadros. Eran presentados a una velocidad constante dependiendo del número de caracteres por cuadro. La mitad de las pruebas incluían el cuadro con el objetivo, la otra mitad no. La variable más importante en los experimentos tempranos era la diferencia en el ‘mapeo’ [mappings]. In las condiciones de Mapeo Variado [Varied Mapping], los ítems objetivo y los distractores eran de la misma categoría, letras. En la condición de Mapeo Consistente [Consistent Mapping], los ítems objetivos eran dígitos y los distractores letras. Debería ser obvio que la condición de Mapeo Variado buscas una letra o letras junto a otras letras. En el Mapeo Consistente buscas un dígito o dígitos junto a letras. Ya que sólo las letras eran usadas como distractores, sabías que cuando vieras un número, éste era de tu set objetivo. Si no veías dígitos, entonces el objetivo no estaba presente. Los descubrimientos del primer estudio reportado por Schneider y Schiffrin (1977) se muestran en la Figura 2.12. El porcentaje de hit refleja el porcentaje de situaciones en las que el sujeto detectó un objetivo cuando se le presentó. Las falsas alarmas representan el porcentaje en el cual el sujeto dijo que un objetivo estaba presente cuando no lo estaba. El panel en la izquierda presenta los resultados del Mapeo Consistente mientras el de la derecha muestra los resultados del Mapeo Variado. El eje x representa el tiempo de presentación por cuadro. Schneider y Schiffrin variaron el tiempo de presentación a través de las condiciones para asegurarse que el desempeño en las condiciones estuviese arriba del azar (0,5) pero no alcanzara la perfección.
La comparación importante entre los dos paneles es el desempeño como función del tamaño del set de memoria (las líneas sólidas versus las punteadas). Date cuenta que en el Mapeo Consistente, el set de memoria tiene poco impacto en el desempeño. Sin embargo, en la condición de Mapeo Variado, el tamaño del set de memoria tiene claramente su efecto. Mayores tiempos de cuadro eran requeridos para mantener el desempeño más allá del azar cuando el tamaño de set de memoria era 4, pero el desempeño era aún más bajo cuando el set de memoria era de 1. Scheider y Schiffrin sugirieron que los sujetos en la condición de Mapeo Consistente usaban ‘detección automática’. Los sujetos no debían ‘buscar’ en su memoria para determinar si el carácter presentado en un cuadro representaba un objetivo o comparar cada carácter con el tamaño del set de memoria. En vez, ellos veían los cuadros para detectar la ocurrencia de un digito en cualquier cuadro. En las condiciones de Mapeo Variado, Schneider y Schiffrin proponen que los sujetos hacen comparaciones individualmente y seriadamente. El proceso de comparación involucra seleccionar una letra del set de memoria y comprarlo entonces con cada letra del cuadro. Una vez que la letra ha sido comparada con todas las letras en el cuadro, otra letra es seleccionada (si el set de memoria era más grande de 1) y entonces es también comparada con las otras letras del cuadro, y así consecutivamente. Las comparaciones continuaban hasta que un match era encontrado y entonces la búsqueda terminaba. Ya que este proceso de búsqueda es hecho de manera serial en la condición de Mapeo Variado, tanto el tamaño del set de memoria como el tamaño del cuadro influencian el desempeño. En contraste, en la condición de Mapeo Consistente, los sujetos son capaces de procesar todos los caracteres en un cuadro de manera simultánea, esto es, paralelamente. Y, el sujeto sólo debe identificar si algún carácter es un dígito. Si es un dígito, entonces el sujet o sabe que el ítem objetivo ha sido encontrado. Aunque explicaciones alternativas han sido consideradas por Schneider y Schiffrin, ninguna ha sido encontrada satisfactoria. Así, Schneider y Schiffrin se sienten seguros de que la explicación anterior es la correcta. Antes de discutir los beneficios y costos involucrados en estos dos tipos de procesos, revisemos un estudio (Schneider & Schiffrin, 1977), que demuestra que la práctica puede cambiar un procesamiento controlado a uno automático. Los sujetos en el estudio participaron en la condición de Mapeo Variado con un tamaño de cuadro de 2 y un tamaño de set de memoria de 4. Para 2400 pruebas, las letras objetivos eran una de nueve letras de la primnera mitad del alfabeto mientras las letras distractoras eran siempre de la segunda mitad. Como muestra la Figura 2.13, el desempeño comenzó justo abajo del 60%. Al final de 2100 pruebas, el
desempeño de los sujetos era bastante bueno, siendo similar al de los sujetos que habían anteriormente servido en el Mapeo Consistente con dígitos como objetivos (el tiempo de presentación del cuadro fue reducido tras la prueba 1500 ya que los aciertos y falsas alarmas estaban alcanzado un efecto de techo; esto es, había poco espacio para mejorar). Schneider y Schiffrin creían que los sujetos habían aprendido los objetivos tan bien que para la prueba 2100 estaban usando procesamiento automático. Eran capaces de distinguir entre las letras de la primera mitad del alfabeto y las de la segunda de manera similar a distinguir entre letras y dígitos. Después de 2400 pruebas, los sets objetivos y distractores eran revertidos. Súbitamente, las letras objetivas eran ahora distractores y el sujeto debía detectar letras que antes habían sido distractores. Los reportes verbales de los sujetos indicaban que habían vuelto a procesos de búsqueda controlados. Y, como puede ser visto en la Figura 2.13, el desempeño caía dramáticamente. De hecho, el desempeño es más bajo que el de los sujetos en la prueba 1. Sin embargo, para la prueba 3900 (1500 desde la inversión) el desemepño había vuelto al nivel previo a la inversión. Schneider y Schiffrin usaron este estudio para apoyar la perspectiva de que la práctica puede ayudar a cambiar de una tarea que requiera procesos controlados a una que utilice procesos automáticos. En la vida cotidiana, una comparación puede ser hecha en cuanto la dificultad del individuo cuando aprende a manejar para después tener la habilidad de conducir y mantener una conversación al mismo tiempo. Los Beneficios del Procesamiento Controlado y Automático La Tabla 2.3 resume muchas de las diferencias entre procesamiento controlado y automático propuestas por Schneider y Schiffrin (1977). Ellos creen que frecuentemente combinamos estos procesos cuando interpretamos las entradas del ambiente. Y, argumentan, existe un beneficio considerable para nosotros debido a la utilización de ambos tipos en el procesamiento de la información. Por ejemplo, sugieren que cuando leemos utilizamos procesos controlados (determinando hacia donde concentramos nuestra atención visual) que entonces gatilla procesamiento automático (la traducción de las letras visuales a palabras significativas). Esta información es entonces utilizada por el procesamiento controlado para dirigir más atención y procesamiento. Puedes pensar la diferencia entre leer una novela y un texto como una en el que los procesos automáticos son los mismos, esto es, estás procesando palabras con poca o ninguna atención conciente. Sin embargo, la novela puede ser más fácil de leer y entender debido a la formación de conceptos y relaciones entre las palabras, realizada por los procesos controlados, que puede ser no tan complicada como lo sería para un texto.
Schneider y Schiffrin creen que alcanzamos un punto máximo de desempeño usando procesos controlados relativamente rápido. Y, cuando observamos una mejora en el desempeño de una tarea a medida que practicamos, debe ser atribuido al desarrollo de un procesamiento automático. Con práctica, el procesamiento controlado es reemplazo por el procesamiento automático. Aunque frecuentemente usamos ambos tipos de procesamiento al mismo tiempo, existen beneficios para cada uno. El procesamiento controlado nos permite encargarnos de entradas únicas y situaciones que pueden ser imprevistas. Ya que estos procesos se modifican fácilmente, podemos adaptarlos a la situación actual. Por supuesto, existe un sacrificio. El procesamiento controlado requiere atención, es más lento, y está sujeto a las limitaciones de capacidad. Sin embargo, si adquirimos práctica en una tarea particular, el procesamiento puede volverse automático. El procesamiento automático puede frecuentemente ser realizado de manera más rápido y en paralelo con otros procesos automáticos y controlados. Nos permite tener un uso eficiente del sistema limitado por capacidad para entradas que requieren procesos controlados. Existen numerosos estudios que apoyan mucho de estos conceptos (Schneider, Durmáis & Schiffrin, 1984). Otros (p.e., Posner, 1978) han propuesto conceptos similares en sus modelos de atención. Sin embargo, como veremos más adelante en este capítulo existen algunos desafíos a algunos conceptos listados en la Tabla 2.3 (p.e., Kahneman & Treisman, 1984; Yantis & Jonides, 1990).
ATENCIÓN THEORY ]
EN EL
CAMPO VISUAL: LA TEORÍA
DEL
FOCO [THE SPOTLIGHT
Algunos de los trabajos en el área de atención de las dos décadas pasadas han investigado la influencia del espacio visual. Se asume que los individuos sólo se centran en una porción del campo visual cuando ejecutan una tarea visual. Broadbent (1982) ha sugerido una explicación de ‘faro’ o ‘foco’. El atender a una porción del campo visual enciende esa área para procesamiento atencional. La información en la periferia fuera del foco recibe poca o ninguna atención. En un experimento previo, Eriksen y Eriksen (1974) solicitaron a individuos el focalizarse en un punto. Una letra se les presentaba justo sobre el punto de fijación. Si la letra era la H o la K , un botón era presionado; si era la S o la C otro botón era presionado. Cuando la letra objetivo era mostrada podía estar sola o acompañada por tres letras en cada lado. Las letras distractoras podían ser (a) la misma letra que la objetivo, (b) la otra letra del mismo par objetivo (p.e., K al lado de la H), (c) letras diferentes que la del objetivo pero similares en forma, (d) letras diferentes que la del ojetivo pero similares en forma a las letras de otros
pares, o (e) letras de otro par (p.e., S al lado de la H). La hipótesis era que el desempeño en la tarea estaría influenciado por las otras letras si ocurrían en el campo visual y no podían ser ignoradas. Cuando era comparado con el caso en el que la letra objetivo aparecía sola, la inclusión de otras letras alentaría el tiempo de respuesta. La respuesta más lenta ocurre cuando las letras que rodean al objetivo son del otro par objetivo. La aparición de otras letras en el campo visual de atención o foco resultaban en ser procesadas. Sospechamos que estas otras letras estaban siendo procesadas, ya que Eriksen y Eriksen (1974) han mostrado que el tipo de distractor puede influir en el desempeño. Si los distractores eran incompatibles con una respuesta correcta, como fue discutido anteriormente, entonces el tiempo de respuesta sería mayor. Sin embargo, si un distractor es compatible con una respuesta correcta, entonces la interferencia es menor. Otros también han apoyado la posición de que la atención visual se relaciona con el concepto de espacio visual (Posner, 1980; Treisman & Gelade, 1980). Sin embargo, existen estudios empíricos que han puesto problemas para esta propuesta de ‘foco’. Por ejemplo, siendo que un campo de 1º alrededor de un objeto ha sido sugerido como el área del foco (Broadbent, 1982), Lambert, Beard y Thompson (1988) reportaron atención a ítems a 4º del punto central. LaBerge (1983) propuso que el tamaño del foco podía ser variable. Eriksen y St. James (1986) han encontrado evidencia de la variabilidad del tamaño del foco. Propusieron un ‘lente de zoom’ [zoom lens] como una modificación al modelo de foco original. Con un lente de zoom, un individuo tendría la habilidad de ajustar el tamño de su foco. Pero como Eriksen y St. James demuestran, incrementar el tamaño tiene un costo; los recursos atencionales se esparcen a través del área incrementada y los tiempos de respuesta son más largos para determinar un objetivo que si los individuos hacen zoom en un área pequeña. Pan y Ericksen (1993) extendieron el concepto de flexibilidad más allá del área del foco a su forma. Reportaron dos estudios en los que indicaban que podía ser modificado desde un círculo a una elipse. Especularon que la forma del campo podía estar bajo el control del individuo a causa de la tarea actual. Alguna investigación fisiológica reciente también apoya la información conductual de un modelo de ‘lente de zoom’ (Heinze et al., 1994). Muchos otros (Driver & Baylis, 1989; Duncan, 1984; Prinzmetal, 1981) han sugerido que los principios organizativos de la Gestalt influyen en la atención más que el espacio visual en sì mismo. EL hecho de que la gente atienda entradas físicamente cercanas unas de otras puede ser una manifestación del principio de proximidad más que de la distancia física en sí misma. En una prueba a la teoría de foco, Driver y Baylis (1989) usaron el movimiento como un principio de agrupamiento. Una muestra de cinco
letras como la de la Figura 2.14 era presentada al sujeto. La letra objetivo era la del medio y, dependiendo de la identidad de los distractores, el sujeto debía presionar una o dos teclas. Las letras aledañas servían como distractores. Según la teoría de foco y los descubrimientos de Ekiksen y Eriksen (1974), las letras más cercanas a la letra objetivo (en la Figura 2.14 la letra T ) debían servir como distractores más que las letras alejadas (H). Si las letras más cercanas eran de una categoría objetivo distinta a la del centro, entonces se esperarían tiempos de respuesta más lentos que si los distractores estuviesen más lejos. Para probar esta hipótesis contra la hipótesis de que los principios de agrupación de la Gestalt son críticos y no la distancia física en sí misma, Driver y Baylis introdujeron movimiento en la presentación de las letras. En ciertas condiciones críticas, la letra objetivo del centro y las dos extremas se movían juntas ya fuese hacia arriba o abajo, mientras los otros dos distractores internos no. Las condiciones fueron arregladas para que aunque las letras estuviesen en movimiento, la distancia de la letra objetivo con las extremas fuera siempre más grande que la del objetivo con las internas. Driver y Baylis predijeron que si el espacio solo era crítico, como era postulado por la teoría de foco, entonces las letras internas leerían ser más distractoras porque estaban siempre más cerca de la letra objetivo. Por otro lado, si los principios de la Gestalt son los responsables, entonces las letras extremas deberían ser más distractoras porque serán asociadas con la letra objetivo debido al hecho de que esas tres letras se están moviendo juntas y serán agrupadas juntas. A través de una serie de condiciones y estudios, Driver y Baylis encontraron apoyo en la hipótesis basada en los principios de la Gestalt. Encontraron que las letras del extremo influenciaban más en el desempeño que las más cercanas al objetivo, cuando las letras extremas y la objetivo se movían juntas como un grupo de tres letras. Sin lugar a dudas, se realizarían más trabajos sobre el tema. Nos referiremos de nuevo a éste cuando discutamos el estado actual de atención y la importancia de los ‘objetos’. Antes de abandonar la discusión de los focos visuales, debemos notar que ha existido investigación similar acerca de la atención auditiva espacial. Los estudios han examinado si los individuos pueden asignar recursos atencionales a una cierta locación espacial para detectar objetivos auditivos. La investigación indica que existen similitudes entre la investigación de la atención visual y auditiva (Mondor & Zatorre, 1995). Brevemente, las señales auditivas pueden ayudar a los individuos a dirigir la atención a ciertas localizaciones espaciales para facilitar la detección de objetivos auditivos. También parece existir algo muy similar al modelo de lente de zoom, ya que la detección de objetivos auditivos son mejores
en objetivos localizados centralmente al punto de espacio focal que los de la periferia.
INVESTIGACIÓN FISIOLÓGICA Además del trabajo empírico con medición de conductas como el tiempo de reacción, porcentaje de aciertos y errores, y tasas de error, existe un número de estudios focalizados en evidencia fisiológica para conceptos y procesos atencionales. Robinson y Petersen (1986) delinean muchos métodos o técnicas que han sido utilizados en los estudios de atención neurobiológicos: •
estudios de neuronas simples y comportamiento
•
flujo sanguíneo en varias regiones de la corteza cerebral
•
potenciales relacionados a eventos basados en estudios de EEG
lesiones cerebral y su relación con funciones atencionales Estudios de Neuronas Únicas (Registro Unitario de la actividad de una neurona) Robinson y Petersen (1986) revisan un número de estudios que se centran en el monitoreo de neuronas en monos. Concentrándose en la atención y su relación con el procesamiento sensorial, concluyen que las porciones de la corteza posterior parietal y cerebelo juegan un rol central en la atención visual espacial (véase la Figura 2.15). Investigación adicional que involucra los cambios inducidos por drogas en una porción del cerebelo también apoyan la perspectiva de que influye en la atención visual selectiva (Robinson, Morris & Petersen, 1984). En términos de atención a un estimulo auditivo, Robinson y Peterson (1986) citan bastantes estudios que han usado monos entrenados en una tarea auditiva (p.e., Beaton & Millar, 1975; Benson & Hienz, 1978; Millar, Sutton, Pfingst, Ryan & Beaton, 1972). Estos estudios proveen evidencia para el involucramiento de la corteza auditiva primaria en la atención auditiva. Finalmente, los estudios en atención a estimulación táctil y tareas que requieren que los monos atiendan y discriminen entre estímulos táctiles sugiere que el proceso atencional para los estímulos somatosensoriales ocurre en la corteza somatosensorial primaria (Nelson, 1984) y en el cuerno dorsal de la médula (Bushnell, Duncan, Dubner & Fang, 1984). Flujo Sanguíneo y Actividad Metabólica en la Corteza Cerebral Dos técnicas de neuroimagen usadas frecuentemente son la tomografía por emisión de positrones (PET) [positron emisión tomography] y la resonancia funcional magnética (MRI) [functional magnetic resonance imaging]. Estas técnicas registran los cambios en el flujo sanguíneo y la actividad metabólica dentro del cerebro. Estos cambios son asociados con la actividad neuronal en el cerebro y permite a •
los investigadores mapear regiones tridimensionales del cerebro asociados con variadas actividades cognitivas. Por ejemplo, Roland (1982) fue capaz de mapear la actividad en la corteza cerebral a estímulos visuales, auditivos y somatosensoriales en una tarea atencional. Estas areas identificadas por Roland son mostradas en la Figura 2.16. Nótese que la corteza posterior parietal está nuevamente involucrada en la tención visual y la corteza somatosensorial primaria muestra actividad al estímulo somatosensorial. El patrón de actividad para el estímulo auditivo incluye la corteza auditiva primaria pero también una considerable actividad en otras regiones de la corteza. Potencial Relacionado a Eventos (ERPs) [Event Related Potential] Mucha de la investigación fisiología en atención se apoya en los cambios de la actividad sináptica de las neuronas y los patrones de disparo de la célula nerviosa [neural cell firing patterns]. Tales estudios examinan los potenciales relacionados a eventos (ERPs), los patrones de actividad cerebral de un individuo que ejecuta una tarea. Electrodos son puestos en el casco y registran actividad nerviosa de un gran número de neuronas en vez de una sola. Los análisis de computador se requieren para excluir el ruido nervioso e identificar patrones nerviosos subyacentes. Muchos registros de un individuo son hechos para poder determinar el patrón de actividad. La Figura 2.17 presenta un ERP para un estímulo presentado visualmente. Los ERPs son descritos en términos de cambio en polaridad, ya sea negativo (N) o positivo (P), y en el inicio temporal del cambio seguido por la presentación del estímulo (medido en milisegundos). Por ejemplo. N180 es una espina que es negativa en polaridad y que ocurre aproximadamente 180 ms después de la presentación del estímulo. La investigación en ERP nos ha provisto con algunos descubrimientos de la atención espacial. Hartner y Aine (1984) proponen que los ERP reflejan el procesamiento de diferentes características de los estímulos en diferentes locaciones corticales. En una revisión de la investigación de ERP, Hillyard et al. (1996) concluyen que ‘tempranos’ ERP reflejan la actividad nerviosa relacionada con la atención a lugar. Las características del estímulo, sean relevantes o no, no influencian en estos ERP. Sin embargo, lo que gatilla el ERP es la ocurrencia del estímulo en una locación atendida del campo visual. Estos ERP evocan amplitud positiva (en un rango de 80 a 110 ms) y negativas (en el rango de 140 a 190 ms). El ERP de P105 y N180 en la Figura 2.17 son ejemplos de estos ERP. Éstos tienden a reflejar el procesamiento de locación, lo que apoya las teorías de atencional de foco. Los ERP que ocurren después, más allá de los 200 ms, parecen reflejar el procesamiento de las características del estímulo y la identificación objetual. Investigaciones considerables han sido dedicadas al ERP P300 (Donchin, 1979; Donchin, Ritter & McCallum, 1978; Duncan-Johnson &
Donchin, 1982). El P300 es una respuesta nerviosa indicada por un cambio en el voltaje eléctrico hacia la polaridad positiva (P) que ocurre aproximadamente 300 ms después de que el evento que captura la atención ocurra. Se supone que esta respuesta es el indicador de la evaluación de un individuo acerca de un evento de estímulo. Posner ha mostrado que el intervalo de ocurrencia o latencia del P300 puede ser reducido en una tarea de emparejamiento de letras si la segunda letra calza con la primera. Los cambios en el P300 como una función de la carga de la tarea cognitiva (Israel, Chesney, Wickens & Donchin, 1980) y la asignación de recursos atencionales (Kramer, Wickens & Donchin, 1985) han también sido reportados. La amplitud (la altura de la ola) del P300 parece ser reducida cuando la carga de la tarea se incrementa. Sergeant, Geuze y van Winsum (1987) pidieron a sus sujetos en una tarea de búsqueda el mantener ya sea una a cuatro letras en la memoria y presionar una tecla si la letra objetivo era mostrada en una muestra de dos letras. En una condición, la muestra ocurría a un ritmo rápido, en un promedio de uno cada dos segundos (desde 1,7 a 2,5 segundos), y en la otra, las muestras promediaban una cada ocho segundos (en un rango de 6,2 a 9,8 segundos). Tanto el ritmo lento como la mayor carga en la memoria tuvieron una influencia en la amplitud del P300. La amplitud del P300 en la condición de rápida de cuatro ítems en la memoria es menor que la rápida de un ítem. Sergeant et al., argumentan que la magnitud del P300 refleja la asignación de recursos de procesos atencionales. A menor amplitud, menores recursos estarían disponibles de una fuente de recursos común (p.e., el modelo de asignación de recursos de Kahneman en 1973). Se presume que a mayor carga de memoria (cuatro ítems versus uno) y la mayor incertidumbre acerca de cuándo ocurrirá la muestra en una presentación lenta influencia la asignación de recursos. La condición lenta de cuatro ítems era la más difícil cognitivamente. Esta carga cognitiva fue manifiesta fisiológicamente en la ola P300 con una menor amplitud. El ERP P300 continúa siendo valioso hoy en los estudios de procesamiento de la información y tareas atencionales. Por ejemplo, ha sido utilizado en estudios de individuos con deficiencias cognitivas, incluyendo niños y adultos con dislexia (Duncan et al., 1994; Taylor & Keenan, 1990), niños con dificultad de procesamiento visual cognitivo (Ciesielski, 1989) y aquellos con problemas del aprendizaje (Ollo & Squires, 1986). La investigación del ERP ha sido extremadamente importante en proveer a los investigadores con información fisiológica par apoyar o refutar las teorías atencionales basadas en información de conductas, aunque una dificultad actual es la identificación de locaciones particulares en el cerebro como la fuente del ERP. El valor primordial en utilizar el ERP es el confirmar o rechazar los componentes de los modelos cognitivos de la atención.
Lesiones Cerebrales y Funciones Atencionales Mucho del trabajo con lesiones cerebrales y atención se ha centrado en el caso de individuos que sufren de un daño en una porción de su cerebro. Este daño o lesión frecuentemente ha sido localizado en un hemisferio de la corteza cerebral. El cerebro humano está organizado de tal forma que cada hemisferio controla el lado opuesto del cerebro. Esta función contralateral significa que el hemisferio izquierdo procesa la información presentado al derecho del cuerpo y en el campo visual derecho y viceversa. El término clínico negligencia visual ha sido usado para identificar déficit de atención causados por lesiones en el cerebro. Los daños a porciones de la corteza parietal muestran tener un impacto en la atención sensorial (Friedland & Weinstein, 1977; Hyvärinen, 1982). La corteza parietal ha sido el foco de mucho de este tipo de investigación. Cuando la información se presenta simultáneamente a ambos campos visuales, la información presentada contralateralmente, al lado opuesto del hemisferio dañado, es frecuentemente ignorada. Esto es especialmente verdad cuando el daño es en un hemisferio no dominante. Posner, Walter, Friedrich y Rafal (1984) estudiaron ha individuos con daños en la corteza parietal, y encontraron que la atención sufría cuando una señal era presentada al hemisferio completamente funcional y el objetivo al hemisferio dañado. Aparentemente, cambiar atención al hemisferio sano debido a la señal hacía difícil para el individuo atender al ítem objetivo presentado al hemisferio dañado. Si la señal era presentada al campo afectado, entonces los individuos ejecutaban la tarea bastante bien. Otra área de la corteza que ha sido relacionada con la ‘negligencia’ es el lóbulo frontal de la corteza en el hemisferio no dominante (Heilman & Valenstein, 1972). En esta conexión, Geschwind (1982) se ha centrado en los desordenes globales de la atención. Más que centrarse en la pérdida de atención en un hemisferio, Geschwind ha investigado el daño que causa en los individuos la pérdida de la coherencia normal del pensamiento. Estos individuos pueden ser incapaces de seleccionar desde el ambiente la información que desean atender. También tienden a distorsionar la información en la memoria, en un proceso llamado paramnesia. Los individuos no sufren de una pérdida de memoria o amnesia, pero recuerdan la información incorrectamente y actúan acorde a esta información errada. Geschwind provee el ejemplo de un paciente que se dirige a su médico como ‘Doctor’, pero que insiste en que éste es zapatero (1982). La porción dañada de la corteza parece ser el hemisferio derecho no dominante. Geschwind reporta que lesiones en las áreas parietales o frontales se asocian con el desorden global. Las únicas veces en el cual el hemisferio izquierdo se ha asociado con este desorden han
ocurrido cuando el daño de la corteza occipital izquierda se proyecta al hipocampo. Los descubrimientos de los estudios fisiológicos de la atención se han concentrado en las funciones de atención sensorial, mayoritariamente en el modo visual. Los estudios utilizando el registro de una neurona singular en monos, el flujo sanguíneo en la corteza, y los reportes clínicos de individuos con negligencia visual apuntan a la importancia de las cortezas parietales y frontales en la atención. Muchos de los estudios de negligencia visual indican que el daño en el hemisferio derecho no dominante tiene una influencia más pronunciada que el daño en el izquierdo. Los estudios con ERP, aunque no localizan el área de actividad, han sido relacionados al procesamiento atencional, especialmente en términos de selección de estímulo y asignación de recursos atencionales.
PERSPECTIVAS RECIENTES
EN
ATENCIÓN
Debiera ser obvio que existe una variedad de aproximaciones para explicar los procesos atencionales. Mientras exista progreso en la comprensión de las capacidades de atención humanas, ningún modelo teórico será aceptado como definitivo. Los componentes de varias aproximaciones, el estructural (filtro), el de capacidad, y el de recursos, tienen mérito en la explicación del fenómeno atencional. Un modelo teórico global que incorpore aspectos relevantes de variadas aproximaciones todavía no ha sido desarrollado y aceptado. Sin embargo, está claro que algunos supuestos de diferentes modelos han sido apoyados por más material empírico que otros. En las siguientes páginas, revisaremos algunas de las conclusiones que se han alcanzado. ¿Cuándo Ocurre el Filtrado? Los modelos de filtro (Broadbent, 1957; Deutsch & Deutsch, 1963; Norman, 1968; Treisman, 1964) asumen que una limitación importante en atender al estímulo es la existencia de un ‘cuello de botella’ estructural. El consenso en la literatura (p.e., Broadbent, 1982; Johnston & Dark, 1986) es que los modelos ‘radicales’ de selección previa y tardía no recibieron tanto apoyo como los modelos de atenuación. Es poco probable que un estímulo sea seleccionado tempranamente al costo de ignorar por completo cualquier otro, una posición radical de selección previa. Y también es improbable que la selección sea retrasada hasta que todos los estímulos sean procesados a un nivel semántico o significativo, una posición radical de selección tardía. Broadbent (1982) que defendía el modelo de selección previa en los cincuenta defiende ahora un modelo de tipo de atenuación, con el procesamiento de múltiples entradas extendiéndose más allá de la etapa sensorial. Desde entones, Yantis y Johnston (1990) postulan un sistema flexible, en el cual el individuo puede variar el lugar de selección de previo a tardío dependiendo de la tarea. Si una persona está envuelta en
una tarea de selección en la cual un estímulo debe ser atendido y el resto ignorado, entonces una selección previa en el proceso sería ventajosa. Y, seleccionar en base a las características sensoriales (p.e., color, lugar, o género) sería más fácil que si el foco estuviese puesto en características semánticas (p.e., repita los nombres de animales que puedas escuchar que son presentados dicóticamente en dos listas de palabras). Por otro lado, si la tarea es una de atención dividida, donde los sujetos ejecutan dos tareas a la vez, entonces la selección tardía puede ser crucial para el desempeño. La posición de Yantis y Johnston es que un modelo de atención debe ser flexible en términos del momento de la selección. Y, la flexibilidad puede ser muy aparente cuando las demandas de las tareas varían (p.e., una tarea de selección focal versus una tarea de atención dividida). Una alternativa a la perspectiva de Yantis y Johnston ha sido ofrecida por Lavie (1995). Según Lavie, un temprano ‘cuello de botella’ ocurre cuando la carga perceptual es pesada. Si la información del estímulo es compleja, entonces un individuo debe asignar más recursos atencionales al estímulo relevante tempranamente. Por lo tanto, el procesamiento atencional de estímulos irrelevantes no ocurrirá. Si, por otro lado, el estímulo relevante es relativamente simple (p.e., buscar por una letra objetivo única en vez de una serie de letras objetivo), la carga perceptual es liviana y la persona puede no evitar el atender a estímulos irrelevantes también. Bajo casos de baja carga perceptual, el ‘cuello de botella’ en el procesamiento puede ocurrir después. Esta perspectiva es atractiva intuitivamente porque sugiere que cuando no estamos perceptualmente sobrecargados, procesaremos información irrelevante adicional del ambiente. Solo después, cuando las demandas del procesamiento central se vuelven mayores nos encontramos con una elección en cuanto cuál estímulo recibe los recursos atencionales. También ha sido propuesto que el cuello de botella en tareas de atención divididas ocurre mayoritariamente en el procesamiento central, y no en alguna de las etapas perceptuales tempranas en las cuales la información del estímulo es codificado, o cuando una respuesta está siendo ejecutada (Pashler, 1993; 1995). En una larga revisión del estudio acerca del desempeño en tareas duales, Pashler es capaz de demostrar que la interferencia en el desempeño de una tarea por otra ocurre generalmente cuando un individuo está seleccionando una respuesta. El cree que un ‘cuello de botella’ atencional puede ocurrir cuando una persona está trabajando en dos tareas simultáneamente y ambas requieren que el individuo elija una respuesta apropiada. También sugiere que recuperar información de la memoria puede sobrecargar el sistema atencional y también causar un cuello de botella en la atención. Esta idea de Pashler es compatible con la de Lavie (1995) bajo condiciones de baja carga perceptual.
La habilidad de un individuo para controlar y cambiar los procesos atencionales incorpora algunos de los principios expresados por el modelo de capacidad de Kahneman (1973). Y, es consistente con la perspectiva de que la atención es influenciada por las expectativas de un individuo (Hochberg, 1978; Neisser, 1976). En términos de la revisión de Hohnston y Dark (1986) del trabajo empírico acerca de la atención selectiva, las propuestas de Yantis y Johnston (1990) apoyarían una teoría de la atención de ‘efecto’. Esta aproximación teórica postula que la selección es “… el subproducto pasivo de los efectos de la facilitación” [the passive by-product of priming effects] (Johnston & Dark, 1986, p.69). Nos hallamos en un ambiente en donde los estímulos están siendo procesados y nosotros seleccionamos o atendemos a ellos basados en nuestra experiencia perceptual previa. Atendiendo a Objetos: Una Teoría de Integración de Características. [Feature Integration Theory] Investigación considerable ha sido dirigida hacia las propiedades atencionales de ‘objetos’ como estímulos. Treisman y Gelade (1980) delinearon una teoría de la atención de integración de características, la cual proponía que la selección ocurría por ‘objetos’. Proponían dos etapas de procesamiento. Antes de que un objeto fuera atendido, sus ‘características’ eran procesadas en paralelo y automáticamente. Este tipo de procesamiento ha sido etiquetado como ‘preatento’. La unión de las características y la ‘selección’ de un objeto ocurren después y son parte de la atención ‘concentrada’. Por ejemplo, una T roja puede variar de otras letras coloreadas en la dimensión del color y segmentos de línea. Este estímulo tiene las características de ‘rojo’ y de ‘dos líneas unidas en un ángulo recto’. Si debes seleccionar una T roja entremedio de Gs cafés o Zs azules de una muestra, entonces la selección sería más fácil ya que puede ser basada en cualquiera de las características (rojo o T ) y no en la unión de estas dos en un objeto. Sin embargo, seleccionar una T roja entremedio de Ts cafés y Gs rojas requeriría que unieras ambas características para encontrar el objeto. Esto no sería realizado de manera automática y necesitaría de atención concentrada. Procesamiento Preatento. Considera los ejemplos de la Figura 2.18. En cuál muestreo es más fácil encontrar la letra X con una textura diagonal. Deberías notar que la letra objetivo ‘resalta’ en el muestreo izquierdo. Según el modelo de integración de características, el procesamiento preatento es lo único necesario para este muestreo. Las características del estímulo son procesadas en paralelo. La letra objetivo es el único estímulo que contiene uno o u otro de las dos características específicas. Los estudios de esta primera etapa han examinado la relación entre el número de no-objetivos y objetivos, como las características o las
dimensiones del estímulo que diferencian a los objetivos de los noobjetivos. En el paradigma usual, el resalto del estímulo ocurre cuando el objetivo difiere de los no-objetivos en dos dimensiones (p.e., en la Figura 2.18 el objetivo es una letra diferente y tiene una textura diferente) y las dimensiones del objetivo son conocidas por el individuo. Por lo tanto, un individuo puede entrar a un procesamiento top-down restringiendo la búsqueda a restricciones particulares. La pregunta de sí el estímulo ‘se mantenga’ [stands out] si la dimensión crítica es desconocida para el sujeto ha sido tratada. Si a un sujeto se le pregunta si todos los estímulos o si hay uno diferente (decisión de homogeneidad vs. de heterogeneidad) y el sujeto está inconciente de cuántos pueden diferir los estímulos, entonces tenemos una prueba de si el resalto de un estímulo ocurre cuando el procesamiento bottom-up ha sido utilizado. Ya que el sujeto no sabe previamente que dimensión del estímulo es crítica en diferenciar los objetivos de los no-objetivos, no existe la posibilidad de un procesamiento top-down ocurriendo en la tarea. Müller, Heller y Ziegler (1995) encontraron que este tipo de búsqueda visual que requiere de procesamiento bottom-up toma tiempos más largos que los casos más usuales en los que el sujeto conoce las dimensiones críticas y puede usar procesamiento top-down. En una condición de su investigación, el objeto (una pequeña línea inclinada de color gris) siempre difería de los no-objetivos (pequeñas líneas verticales de color gris) en una dimensión (orientación). En este caso, la detección del objetivo era más rápido que en otra condición en la cual las dimensiones variaban en más dimensiones de los no-objetivos. El objetivo, en cualquier prueba, puede variar de orientación, color, o tamaño. En esta condición, los sujetos se demoraban más en determinar si el estímulo objetivo estaba presente. Debemos mencionar que en ambas condiciones el número de no-objetivos daba lo mismo. Por lo tanto, se puede asumir que los estímulos eran buscados paralelamente, lo que es consistente con los supuesto de la etapa preatenta. Sin embargo, si la diferencia entre la dimensión del estímulo y la de los no-objetivos es desconocida, los procesos de búsqueda pueden tomar más tiempo. Müller et al. proponen que un sujeto puede ejecutar procesamiento top-down y restringir el procesamiento a una dimensión única cuando el sujeto sabe la dimensión relevante antes de que la muestra se presenta. Sin embargo, cuando la dimensión es desconocida, el sujeto procsa todas las dimensiones en paralelo y ‘muestrea’ [samples] dentro de estas dimensiones hasta que la dimensión relevante es encontrada. Este muestreo [sampling] toma tiempo y cuenta para la diferencia entre procesamiento top-down (sabiendo la dimensión del estímulo por adelantado) y el bottom-up (no sabiendo la dimensión en la que los objetivos difieren). Tenemos evidencia de la flexibilidad y el control de los
procesos en esta etapa preatenta de la Teoría de Integración de Características. La investigación ha extendido también este resaltar al concepto de familiaridad de estímulo. Wang, Cavanagh y Green (1994) usaron un fondo de letras familiares (N o S) con una letra invertida como la letra objetivo. Las características para el objetivo y los distractores eran idénticas (p.e., segmentos curvos o rectos). Sin embargo Wang et al. encontraron evidencia de procesamiento paralelo consistente con el procesamiento preatento. Por lo tanto, el procesamiento preatente podría estar limitado no sólo a las diferencias de las características del estímulo. Evidencia disponible indica que el procesamiento preatento ocurre cuando los objetivos y no objetivos contienen exactamente las mismas características pero en la que difiere su organización. Procesamiento enfocado [Focused Processing]. Para encontrar un objetivo en la muestra de la derecha de la Figura 2.18, el procesamiento serial de dos características, X y la textura diagonal eran necesario y, por lo tanto, más atención y tiempo se requerían. La unión de estas características (conjunción) requiere de un procesamiento serial y atención. Para detectar un objetivo, las características del estímulo deben ser procesadas y comparadas. Ya que los objetivos y no-objetivos comparten algunas características, el individuo no es capaz de identificar el objetivo en base a una sola característica. El procesamiento enfocado durante esta última etapa de la búsqueda visual requiere de procesamiento serial y es influida por el número de objetos en la muestra. A mayor número de distractores, más tiempo tomará la detección. Treisman y sus colegas (Treisman, 1993; Treisman & Gelade, 1980; Treisman & Sato, 1990; Treisman & Schmidt, 1982) presentan una serie de estudios que apoyan la teoría atencional de la integración de características. La investigación también muestra que los individuos que sufren de un desorden fisiológico particular conocido como desorden de atención visual (VAD), muestran procesamiento preatento equivalente a los de individuos normales, pero un detrimento en su desempeño cuando la tarea necesita de atención focalizada (Arguin, Joannete & Cavanagh, 1993). Alguna investigación posterior también ha demostrado flexibilidad en el procesamiento durante esta segunda etapa, la que requiere atención enfocada. Kaptein, Theeuwes y van der Heijden (1995) variaron las diferencias entre los objetivos y no-objetivos en varias dimensiones. Para ilustrar, qué pasaría si el muestreo de la derecha de la Figura 2.18 contuviera no-objetivos que tuvieran más tipos de textura o diferentes letras. ¿Influenciaría eso en el tiempo de búsqueda para el objetivo X con el relleno diagonal? La respuesta es sí. Kaptein et al. variaron el color de los no-objetivos. Una línea vertical de color rojo servía como objetivo. Los no-objetivos podían ser líneas rojas inclinadas, líneas verdes inclinadas, o líneas verdes verticales. Según la Teoría de Integración de Características
original (Treisman & Gelade, 1980), la variedad de los no-objetivos en una muestra no debería importar. El procesamiento serial en la etapa de atención enfocada involucra una búsqueda estímulo por estímulo. Kaptein et al. encontraron que los sujetos eran capaces de restringir su búsqueda serial a una subcategoría de no-objetivos. Por ejemplo, encontraron que los tiempos de búsqueda eran mayores cuando habían más no-objetivos rojos en el muestreo. Concluyeron que en la segunda etapa de atención enfocada, los individuos tienen la habilidad de restringir la búsqueda a subcategorías de ítems dentro de una dimensión, en este caso, color. Por lo tanto, nuevamente encontramos evidencia del control del individuo y la flexibilidad en el procesamiento en ambas etapas de la Teoría de Integración de Características. Aspectos Adicionales del Reconocimiento de Objetos. Otros se han concentrado en cómo los objetos capturan nuestra atención. Por ejemplo, los objetos dentro del ‘foco’ de atención probablemente se procesan (LaBerge, 1983). Y, señalar a una persona hacia dónde mirar por un objetivo es probablemente una señal atencional efectiva (Nissen, 1985; Posner, Zinder & Davidson, 1980). Y, como fue discutido anteriormente (Driver & Baylis, 1989), los principios de agrupación de la Gestal pueden influenciar en el procesamiento atencional. Neisser & Becklem (1975) presentan simultáneamente dos situaciones de acción filmadas, una de un juego de pelota sobrepuesta en otra, una juego de manos, que entonces sirven como objetos en la misma pantalla de video. Se encontró que los individuos podían seleccionar un juego y procesarlo, mostrando poco conocimiento o conciencia de lo que pasaba en el otro. La información conflictiva era ignorada con éxito. Algunas veces, la información conflictiva en el mismo objeto puede interferir con el desempeño. La tarea de Stroop (Stroop, 1995) es un buen ejemplo. En ella, la persona debe nombrar el color de una palabra impresa. Si la palabra es el nombre del color que difiere del color de la pintura, el sujeto tiene dificultad en nombrar el color (en contraposición al color de una palabra neutra). Por ejemplo, el color azul se demora más en ser identificado si la palabra impresa en letras azules es rojo opuesto a triste. El objeto rojo en letras azules tiene información conflictiva para el individuo. La respuesta correcta es ‘azul’, sin embargo la persona tiene dificultades en ignorar o suprimir la palabra incompatible. Kahneman y Treisman (1984) revisan un número de estudios en los cuales a los individuos se les presenta un estímulo al estilo de Stroop. Los individuos deben nombrar el color de una palabra presentada en un círculo (a diferencia del color de la palabra presentada en un cuadrado). Los dos objetos, la palabra dentro de un círculo y la palabra dentro de un cuadrado, son presentadas brevemente en la pantalla. El individuo debe primero seleccionar el objeto correcto, la palabra en el círculo, y luego nombrar el color. Lamentablemente, si la palabra es incongruente, el
usuario es incapaz de ignorarla y su desempeño se ve afectado (Kahneman & Henik, 1981). Kahneman y Treisman concluyeron que la evidencia indica que si un objeto es seleccionado, entonces las características irrelevantes serán procesadas. En el caso de la tarea de Stroop, estas características pueden causar un detrimento en el desempeño.
PROCESOS ATENCIONALES: REVISIÓN Se asume que los procesos limitados han sido y permanecen como un principio aceptado en la atención. El modelo tridimensional de recursos múltiples (Wickens, 1980, 1984, 1991) ha sido basado en estudios empíricos (p.e., Brooks, 1968; Kantowitz & Knight, 1976; Wickens, Sandra & Vidulich, 1983). Sin embargo, Wickens (1984) avisa de que el modelo fue creado específicamente para explicar los descubrimientos de tareas duales. Pueden existir otras fuentes de recursos y la relación entre ellos puede requerir mayor investigación para otras tareas atencionales. Wickens (1991) ha tratado tanto el cambio de recursos mientras se ejecutan dos tareas como el manejo de los efectos de interferencia (conocidos como confusión) cuando se decide cual de las dos respuestas competentes realizar. Más trabajo empírico se requiere claramente antes de que una decisión pueda ser hecha en cuanto a la total adecuación del modelo de Wickens. La flexibilidad en la asignación de recursos atencionales también aparece como posible. Los estudios en los cuales un individuo es señalizado del lugar de un posible objetivo han resultado en tiempos de detección más rápidos que cuando ninguna señal es dada o el objetivo está en un lugar diferente al señalado. La pregunta es si el efecto de facilitación por señalar el lugar es resultado de que la persona es capaz de designar más recursos a ese lugar en particular o bien porque puede ignorar los estímulos de otros lugares, lo que reduce la cantidad de estímulos a ser examinados (Palmer, Ames & Lindsey, 1993). En una serie de estudios en los cuales los lugares de potenciales objetivos eran señalados, Luck, Hillyard, Mouloua y Hawkins (1996) proveyeron evidencia adicional sobre la designación de recursos. Específicamente, cuando una persona sabe el sitio probable donde será presentado el objetivo, el individuo puede dirigir más recursos atencionales a ese lugar. Sin embargo, esta reasignación ocupa tiempo, al menos 100 ms, según Luck et al. Debe notarse que este tiempo es consistente con el obtenido en investigación obtenida en ERPs, específicamente con los hallazgos justo después de la presentación del estímulo (Hillyard et al, 1996). La atención se ve de mejor manera de una forma compleja, y no unitaria. Usando un paradigma de tareas duales, Johnston, McCann y Remington (1995) han propuesto dos diferentes tipos de atención, de entrada y central, La atención de entrada involucra procesos de localización de objetos y estímulos, y se propone que los mecanismos de
procesamiento y localización fisiológica para este tipo de atención son diferentes para la atención central. Ésta, alternativamente, involucra decisiones más complejas para el procesamiento, como pueden ser el recuperar de la memoria y la selección de respuesta. Cuando las tareas múltiples están ordenadas de forma que existe una oportunidad para que los diferentes tipos de atención procesen sin competencia, pueden ser completadas con pequeña o ninguna interferencia. La noción de un sistema de atención complejo está en el núcleo del sistema de Control Interactivo de Proceso Ejecutivo (EPIC) [ExecutiveProcess Interactive Control] propuesto por Meyer y Kieras (1997). EPIS es un modelo computacional de la atención que supone flexibilidad en la ejecución de los procesos atencionales al nivel de sistema ejecutivo, en el cual el procesamiento cognitivo y el control ocurren. Su modelo propone que no ocurre un ‘cuello de botella’ de procesamiento central en la percepción. En vez, los procesos atencionales son gobernados por reglas de producción (si-entonces). Los individuos adoptan estrategias para el desempeño de tareas que son flexibles y determinadas por las prioridades de la tarea. Esta flexibilidad en el uso de estrategias atencionales es uno de los mayores ‘tenets’ del modelo. Su modelo también sugiere la existencia de limitaciones basadas en los mecanismos perceptualesmotores. Las capacidades motoras están limitadas y cuando las respuestas a una tarea motora entran en conflicto, existirá un detrimento en el desempeño. Trabajos de computación tempranos apoyan los supuestos del EPIC. Más trabajo se requiere, sin embargo, para determinar la viabilidad a largo plazo de éste como un descriptor de la atención humana. También el trabajo en el procesamiento atencional continúa en ser dirigido a la plena comprensión del procesamiento automático. Los supuestos de una posición ‘radical’ en el procesamiento automático fueron presentados en la Tabla 2.3, basados en el trabajo de Schneider y Schiffrin (1977; Schiffrin & Schneider, 1977). Mientras el trabajo en esta posición radical para el procesamiento automático continua (véase, Schneider, 1985; Schneider et al., 1984), también ha habido desafíos para ella (Jonides, Naveh-Benjamin & Palme, 1985; Kahneman & Treisman, 1984; Pashler, 1995). Por ejemplo, Kahneman & Treisman (1984) proveen evidencia en contra de una posición radical de lo automático mostrando que la inclusión de palabras neutrales (p.e. bonito o mayoría) a la tarea de Stroop afecta el desempeño del sujeto. Según una posición radical de lo automático la lectura de palabras nuetras no debería interferir para nada con el desempeño de la tarea; sin embargo, lo hizo. Jonides et al. (1985) listan dos criterios que son frecuentemente citados en la definición de un proceso automático. Tal proceso debe estar libre de limitaciones de capacidad y debe ser inflexible, en cuánto el
control voluntario sobre ellos debe ser nulo o mínimo. Estos criterios son obviamente menos restringidos que los provistos en la Tabla 2.3. Mantis y Jonides (1990) probaron estos criterios, defiendo la posición de que una presentación visual abrupta de un estímulo ‘automáticamente’ llamaría la atención. En series de estudios en los cuales el inicio del estímulo variaba, fue concluido que el atender a una presentación abrupta de estímulos cumplía con el primer criterio de que el proceso debía estar libre de limitaciones de procesamiento. Sin embargo, cuando una persona está muy concentrada en otro estímulo, la atención puede ser voluntariamente retrasada a otro estímulo que fue presentado abruptamente. Este hallazgo violaba el segundo criterio ya que el proceso sí era flexible y bajo el control del individuo. También es relevante el trabajo de Pashler (1995), quien se concentró en la influencia de la práctica en el desarrollo de los procesos automáticos. Pashler argumenta que la eficiencia en el procesamiento no significa que el procesamiento sea automático. Más bien, la práctica hace que sea más fácil para el individuo el cambiar la atención entre tareas de manera mucho más fácil, o le permite el prepararse para una tarea particular (en términos de respuestas en secuencia, p.e., los pasos necesarios para presionar el pedal del freno cuando la luz del semáforo está en rojo). La literatura actual apoya la distinción entre procesos controlados y automáticos. Sin embargo, la definición de los procesos automáticos y los criterios para que un proceso sea denominado automático no han llegado a consenso (véase Kahneman & Treisman, 1984 y Schneider et al., 1984, para perspectivas distintas). Hasta que los criterios sean claramente definidos, la distinción entre procesamiento controlado y automático podrá ser fruto de diferentes interpretaciones. Obviamente más trabajo se requiere en este tema.
REPRISE El estudio de la atención involucra diferentes tareas. Éstas requieren que los individuos se concentren en un estímulo particular, tales como las tareas de búsqueda visual o audición dicótica, o bien que atiendan a más de un estímulo, las tareas de atención dividida. Ya que el desempeño sufre de forma predecible, se asume que el procesamiento atencional es limitado. La naturaleza de las limitaciones ha sido el foco del trabajo empírico y teórico. Una aproximación ‘estructural’ a la atención coloca filtros o cuellos de botella en el sistema de procesamiento. Broadbent (1957) sugiere que el filtrado ocurre de manera temprana en el sistema, mientras otros (Deutsch & Deutsch, 1963; Norman, 1968; Treisman, 1964) sugieren que ocurre después. El trabajo actual se opone a modelos radicales de selección previa o tardía y apoya la posición de que la selección está en control del individuo. El cuello de botella aparece estar influenciado por la