5. LA FONÉTICA PERCEPTIVA
MARTA HERNANDEZ LOPEZ
5.LA FONÉTICA PERCEPTI PERCEPTIVA VA
5.1 El mecanismo de percepción. 5.2 Cualidades perceptivas de los sonidos.
5.3 Invariación acústica y percepción categorial. 5.4 Teorías sobre la percepción. 5.5. La comprensión: reconocimiento de palabras y comprensión de oraciones y pragmática.
5.1. El mecanismo de percepción. Ya sabemos cómo se producen los sonidos del habla humana y también cómo se tr tran ansm smit iten en,, pe pero ro en el pr proc oces eso o de co comu muni nica caci ción ón or oral al in inte terp rper erso sona nall fa falt lta a un elemento: la percepción. La fonética perceptiva es la rama de la fonética que estudia los mecanismos de audición y percepción el habla humana y busca elaborar modelos de percepción del habla. En el esquema de comunicación se centra en el receptor.
La audición humana es un proceso complejo: – Comienza en el oído, con la captación de las ondas sonoras, órgano muy – Comienza sofisticado pero bien conocido por todos vosotros. – Se pr prod oduc uce e la tr tran ansm smis isión ión de lo los s im impu puls lsos os ne nervi rvios osos os de desd sde e el ap apar arato ato auditivo hasta las zonas adecuadas del cerebro. A partir de esta transmisión empieza el proceso más importante. – Culmina en el cerebro, donde se produce un complicadísimo proceso de tratamiento de la información que supone la percepción e interpretación de los sonidos. Es justamente el proceso más interesante y el más desconocid desconocido. o.
Si la audición consiste fundamentalmente en la captación de los sonidos y su conversión a impulsos nerviosos, la percepción es el mecanismo por el cual el cerebro interpreta el mensaje que le llega a partir de los impulsos nerviosos que le envía el nervio auditivo. El oído humano se forma entre la cuarta y la octava semana del periodo embrionario. A medida que los huesecillos del oído medio se desarrollan, las conexiones del sistema nervioso central se establecen en la cóclea y las estructuras vestibulares. La mielinización de las fibras auditivas tiene lugar entre las 24 y 28 semanas en el útero y la percepción auditiva se desarrolla lentamente desde ese momento en adelante. En este momento el oído está sintonizado específicamente con los sonidos que se escuchan en el útero, pero el feto responderá también a algunos estímulos auditivos externos. El nivel de sonidos en el interior del útero nunca está por debajo de los 28 dB y puede subir hasta los 84 dB cuando la madre canta. Los sonidos que pueden llegar al feto deben ser m´sa intensos que los propios del medio intrauterino y de baja frecuencia, porque la frecuencia alta es amortiguada por el medio materno.
Durante los primeros días después del nacimiento los oídos siguen llenos de líquido superfluo, de manera que el niño habita un mundo entre sonidos uterinos y extrauterinos. Una vez que se haya aclarado el líquido, los oídos del neonato pasan a ser receptivos a un gran número de frecuencias de sonidos alrededor de 20.000 Hz. La fisiología del oído no nos ayuda a comprender cómo se produce la percepción, Su estudio se lleva a cabo de la única forma que se conoce: indirectamente a través de test perceptivos a numerosos grupos de individuos. A través de estas pruebas de percepción se ha establecido que el ser humano es capaz de percibir una banda de frecuencias muy amplia que va desde los 16 Hz hasta los 20.000 Hz. Por debajo de los 16 Hz se encuentran los infrasonidos (es decir, sonidos cuya frecuencia de vibración se halla por debajo de los 16 ciclos por segundo), insuficiente para ser percibida por el oído. En cambio por encima delos 20.000 Hz se sitúan los ultrasonidos. Igualmente no perceptibles por el oído humano
La frecuencia percibida y su intensidad están íntimamente relacionadas porque unas frecuencias necesitan más intensidad que otras para ser percibidas. Por convención, se ha establecido que un sonido de 1000Hz se empieza a oír a o dB, sería el umbral de audición, y se sigue oyendo hasta 120 dB aproximadamente (umbral del dolor). A continuación observamos la llamada curva de Wegel, que representa la intensidad que necesita cada frecuencia para ser percibida por el oído humano. Siguiendo esta curva, que además ofrece el área de audición humana que cubre la música y el lenguaje, comprobamos la afirmación anterior, un sonido de 1000Hz se empieza a oír a los 0 dB, y se deja de oír aproximadamente a los 120 dB. Un sonido de 90 Hz necesita, en cambio, 40 dB para empezar a oírse. Se puede observar que en la región de frecuencias medias llegamos a percibir sonidos de baja intensidad; en cambio, para frecuencias especialmente graves o agudas necesitamos más intensidad (sobre todo para las graves).
Todo ello se resume en que el campo de audibilidad humano tiene aproximadamente la forma de ojo abierto que puede apreciarse en el gráfico. Está contenido entre cuatro límites: los infrasonidos, los ultrasonidos, el umbral de audición (curva negra), y el umbral del dolor (curva blanca).
El interior de estas fronteras fisiológicas comprende todo aquello que es audible por una persona oyente. La parte central de este campo (elipse azul) representa la zona de la conversación, aquella más privilegiada en que se emite la parte más significativa de los sonidos del habla humana. Audición y fonación están relacionadas en lo que se refiere a frecuencia e intensidad: Producimos oralmente aquello que podemos oír bien. Cuánto mayor sea el grado de pérdida auditiva de una persona sorda, más arriba estará situado su umbral de audición, es decir que necesitará más intensidad de sonido para tener una muy leve sensación auditiva. Si dicho umbral (línea negra) se desplaza tan hacia arriba que interfiere la zona de las frecuencias conversacionales, la persona en cuestión no oirá de manera efectiva las que queden por debajo de esa línea, y tendrá por consiguiente dificultades para entender qué le están diciendo.
Fases de la Percepción Sonora
•
• • • •
La percepción auditiva se da en cinco fases: Detección. Discriminación. Identificación. Reconocimiento.= repetir lo que escuchas Comprensión.
5.2. CUALIDADES PERCEPTIVAS DE LOS SONIDOS Desde el punto de vista perceptivo destacamos tres cualidades de los sonidos
a) Tono b) Sonoridad perceptiva c) Timbre TONO: Cuando hablamos de tono desde este punto de vista nos estamos refiriendo a nuestra percepción del tono fundamental de un sonido complejo o, de lo que es lo mismo, a su primer armónico. Nuestro cerebro interpreta les frecuencias bajas como “sonidos graves”, y las frecuencias altas como “sonidos agudos”. El tono fundamental medio en las voces masculinas (más graves) se sitúa alrededor de los 120 Hz y, en cambio, el patrón femenino (más agudo) suele localizarse sobre los 220 Hz.
En el punto en el que desarrollamos las unidades suprasegmentales, ya vimos que en palabras aisladas la sílaba tónica presenta un tono fundamental algo más agudo, más elevado, que las sílabas átonas adyacentes. Por tanto, la percepción del tono puede ser un indicador del acento en la palabra. De todas formas, también sabemos que en una cadena fónica el problema es más complicado y que no se puede desligar completamente el acento de la entonación general de la frase. La entonación es la sensación perceptiva de las variaciones del tono a través de un enunciado.
LA SONORIDAD PERCEPTIVA: Conocemos como sonoridad perceptiva nuestra percepción de la intensidad de un sonido, su amplitud media global, acústicamente hablando.
El nivel de sonoridad perceptiva tiene su propia unidad de medida: el fon. Es una unidad de sensación perceptiva frente al dB que es una medida de intensidad física, acústica. El fon es la unidad que mide el nivel de sonoridad perceptiva de un sonido. Para relacionar el nivel de intensidad física con el nivel de sonoridad perceptiva se partió de un hecho convencional: un sonido de 1000 Hz posee 0 dB y también 0 fones. A partir de aquí, las demás frecuencias se miden en relación con esta medida. Todo el umbral de audición poseerá 0 fones, aunque no todas las frecuencias en él necesiten la misma intensidad física para empezar a ser percibidas.
EL TIMBRE: El timbre corresponde a nuestra percepción de la particular distribución frecuencial de los formantes o de las resonancias de los diferentes sonidos . Dado que la resonancia es la mayor amplitud de uno o unos de los armónicos en una frecuencia concreta, el timbre es nuestra percepción de una relación entre la amplitud y la frecuencia de los armónicos que componen los formantes (espectro). En las vocales el timbre viene determinado por sus tres primeros formantes. Pero no solamente los sonidos armónicos (como las vocales) poseen timbre, los inarmónicos también. La diferente composición frecuencial de los inarmónicos les proporciona su timbre característico. En función de su timbre un sonido se percibe como más claro (predominio de frecuencias altas) o más oscuro (predominio de frecuencias bajas).
5.3. INVARIACIÓN ACÚSTICA Y PERCEPCIÓN CATEGORIAL La información acústica de los sonidos es muy abundante, pero contiene elementos de diferente consideración respecto a su percepción. El hecho de que al hablar por teléfono se pierdan algunas bandas frecuenciales con información importante y que, a pesar de ello, se comprenda el mensaje, hace pensar que no todos los elementos de las ondas sonoras son imprescindibles para la percepción. Los llamados índices acústicos son la información acústica más relevante, la que como oyentes utilizamos para distinguir unos sonidos de otros. Si se trata de que estos índices acústicos constituyan la pista que nos oriente acerca de cuál es el sonido en cuestión, parece de sentido común pensar que esos índices sean invariantes, es decir, que no cambien en diferentes contextos, individuos o situaciones; sin embargo este concepto de invariación acústica es controvertido.
Los seres humanos somos capaces de percibir una cantidad impresionante de diferencias entre estímulos; pero nos vemos mucho más limitados a la hora de etiquetarlos. Sin embargo, en ocasiones muy determinadas, nuestra capacidad para discriminar se acerca mucho a nuestra capacidad para identificar: es lo que ocurre en un modo muy concreto de percepción, que se ha calificado como categorial , pero también como fonética o psicolingüística, por oposición al modo más común de percepción, que sería el c o n t i n u o , auditivo o sensorial . En general, categorizar significa colocar y ordenar objetos y eventos diferentes en un conjunto limitado de tipos o categorías; los elementos incluidos en cada una de ella se caracterizan por compartir una propiedad (que puede ser un rasgo físico evidente, o puede ser una distinción muy sutil, o el resultado de una convención), aunque difieran entre sí en propiedades que, a efectos de esta clasificación, resultan irrelevantes.
Cuando se aplica al campo de la percepción, el adjetivo categorial alude al fenómeno por el cual grandes cambios físicos en un rango determinado (de tiempos, de frecuencias) no producen diferencias perceptivas (todos los estímulos se incluyen en la misma categoría, y esas diferencias son inexistentes para el oyente), mientras que unas diferencias muy pequeñas en otro rango provocan un cambio drástico en la percepción: se identifica el estímulo como una unidad nueva. Veámoslo con algunos ejemplos. En las notas musicales, los tonos puros o algunos elementos del lenguaje como la entonación o las vocales, a medida que cambia el estímulo vamos variando nuestra percepción sobre él: en el paso de [a] a [i] podemos detectar elementos intermedios, con un timbre que comparte características de ambas vocales. Sin embargo, hay otro tipo de estímulos (consonantes, fundamentalmente) cuyas diferencias, aunque físicamente sean graduales, se perciben de forma abrupta, sólo tras alcanzar un punto crítico.
Podemos manipular -mediante síntesis de voz- las transiciones que dan lugar a la percepción de [b] o [d], variándolas paulatinamente. Esas modificaciones progresivas no producen ningún efecto en el oyente mientras no se alcanza un punto crítico; a partir de él dejaremos bruscamente de identificar el estímulo como [b] y comenzaremos a identificarlo como [d], sin pasos intermedios entre ambos estadios (es el “efecto de frontera fonológica”): sólo percibimos dos unidades (las mismas que podemos etiquetar, identificar), pero no toda la secuencia de matices intermedios, que “desaparecen”, por irrelevantes, de nuestra conciencia. Las diferencias físicas entre los distintos subtipos de [b] o [d] pueden ser mayores que las que nos llevan a saltar de una categoría a otra, pero sin embargo, no producen efecto hasta que no alcanzan ese determinado punto al que somos más sensibles: la discriminación se basa en etiquetas de los sonidos, en categorías funcionales, no en propiedades acústicas de los sonidos, que resultan difíciles de recuperar conscientemente.
¿Es la percepción categorial una forma “empobrecida” de descodificar? Aunque a primera vista pudiera parecerlo -es una forma simplificada de percibir, en el sentido de que desecha características de la señal que se consideran sutiles-, sin embargo, se trata más bien de una forma de aumentar la eficiencia y velocidad del procesamiento del habla, conservando sólo los contrastes que nos ayudan a identificar unidades, y minimizando incontables diferencias no pertinentes. Es un mecanismo de optimización: nos permite distinciones muy rápidas, que son las más útiles en el discurso continuado. Sin ella, la conversación normal no existiría (Handel, 1993: 285).
La percepción categorial se consideró, durante los años 60 y 70, característica de los sonidos lingüísticos , frente al modo de percepción más general, que sería el continuo. Como explicación unos recurrían a las consonantes, como hemos dicho, que se articulan de modo discontinuo. Otros (Pisoni) consideraban que los rasgos acústicos que diferenciaban esos estímulos, pertenecientes a una misma categoría, se perdían en el momento en el que la información se convertía en representación fonética (lo cual se veía reforzado por experimentos en los que un mismo estímulo se percibía de forma continua cuando no se consideraba lingüístico, y de forma categorial cuando el sujeto era informado de que se trataba de habla sintética). Al mismo tiempo, los experimentos con bebés de Eimas y sus colaboradores mostraban que desde los primeros meses de vida, los niños percibían esas sutiles diferencias.
Todo ello llevaba a la conclusión de que se trataba de una dotación innata en el hombre, que le predisponía hacia el lenguaje desde antes de nacer, por medio de un “detector de rasgos distintivos” presente en el sistema auditivo. Sin embargo, desde entonces han ido apareciendo datos contrarios a estas hipótesis: - Ha habido muestras de percepción categorial en animales, como chinchillas, codornices o monos; aunque es cierto que han necesitado un periodo de entrenamiento, y presentan capacidades más limitadas que las de los bebés (Jusczyk, 1997: 57). - También se han encontrado casos de percepción categorial en sonidos musicales, en tonos puros o en vocales (Handel, 1993: 275). - El tipo de tarea al que nos enfrentemos también influye: si se requiere un almacenamiento mayor en la memoria a corto plazo, que tiene unas limitaciones de espacio importantes, y quizá sea
esto, y no el tipo de estímulo, lo que imponga la necesidad de simplificar la representación (O’Shaughnessy, 1990). -
Por último, cada rasgo distintivo puede depender de múltiples claves acústicas, y variar según los contextos. Todo ello introduciría una variedad de detectores muy costosa e improbable A la vista de lo anterior, se ha puesto de relieve, como alternativa, el papel de las discontinuidades auditivas para explicar la percepción categorial: las propiedades temporales del sistema neuronal auditivo generan una cierta sensibilidad natural hacia determinados cambios en puntos temporales o frecuenciales; serían precisamente esas “fronteras perceptivas innatas” las que utilizaran los recién nacidos para categorizar contrastes lingüísticos, sin equivalencia con categorías fonológicas de ningún sistema lingüístico concreto: los contrastes que en alguna lengua coincidan con esos límites serán bien percibidas por los bebés, mientras que los más alejados requerirán un reajuste de fronteras que se haría durante la adquisición del lenguaje:
“los niños poseen cierta capacidad innata para discriminar muchas clases diferentes de contrastes verbales. En realidad, esta clase de descubrimientos nos lleva a considerar que los niños nacen con la capacidad de discriminar contrastes que puedan aparecer potencialmente en cualquiera de las lenguas del mundo [...]. Sin embargo, los resultados también indican que la experiencia contribuye a la fijación de fronteras perceptivas para los hablantes fluidos de una lengua” (Jusczyk, 1997: 56).
Como vemos en la cita anterior, la explicación puramente biologicista también encuentra bastantes argumentos contrarios: si las discontinuidades auditivas son iguales para todos los seres humanos, ¿cómo se explica que los hablantes de ciertas lenguas puedan percibir continuadamente sonidos que para otros sólo se identifican de modo categorial? Un caso especialmente significativo en este sentido es el de los sujetos multilingües: parece probado que son capaces de variar las fronteras perceptivas según el código que estén empleando (lo cual sería imposible si esos límites fueran impuestos por el sistema nervioso).
En definitiva, parece que más que hablar de sonidos categoriales
/ sonidos continuos, podemos considerar que las fronteras entre unos y otros no son rígidas , sino un continuo en el que sería adecuado considerar que algunos, como las vocales, son “débilmente” categoriales, y otros, como las oclusivas, son “fuertemente” categoriales. Así pues, la percepción categorial puede ser entendida como el resultado de un complejo conjunto de procesos perceptivos, en parte innatos, unidos a una disposición adquirida durante el desarrollo del lenguaje (en la cual la atención también jugaría un papel importante: Handel,1993; Jusczyk, 1997); una respuesta adaptativa a un mundo perceptivo cambiante e impredecible, en el que muchas veces no es necesario afinar en ciertas percepciones, si no tienen correlatos significativos. Quizá la relación entre sonidos lingüísticos y percepción categorial pueda entenderse en el sentido inverso: no es que ésta haya sido desarrollada en función de aquéllos, sino que los sonidos favorecidos a lo largo de la historia del lenguaje hayan sido los que mejor aprovechaban las características del sistema nervioso auditivo, lo cual les dotaba de mayor perceptibilidad.
5.4 Teorías sobre la percepción El mecanismo que utiliza el ser humano para extraer la información de las ondas sonoras e interpretar el mensaje es todavía hoy desconocido. Por ello se postulan diferentes modelos que pretenden explicarlo, activos y pasivos. Tenemos que retomar aquí el concepto de variabilidad porque es el eje sobre el que giran las diferencias entre las principales teorías sobre la percepción del habla: los autores que conceden poca importancia a las diversas fuentes de variación sobre la señal, proponen modelos directos, en los que el estímulo sonoro proporciona toda la información necesaria para su identificación; se centran en la búsqueda de invariantes acústicos: son los llamados modelos pasivos. En cambio, para los investigadores que consideran muy condicionante la variabilidad, resulta imprescindible la existencia de mecanismos intermedios que compensen esas distorsiones: es el caso de los modelos activos de la percepción del lenguaje.
En ocasiones, esos mecanismos se consideran articulatorios (es el caso de la teoría motora); en otras, se atribuyen a las características del sistema auditivo. En relación con lo anterior, si la señal acústica contiene suficiente información para identificar una unidad, sea lingüística, sea musical, es innecesario postular la existencia de un descodificador especial para el lenguaje. Pero si partimos de que el oyente tiene que actuar sobre esa señal, para homogeneizarla y poderla comparar con los modelos almacenados, el paso siguiente es definir el mecanismo capaz de hacerlo, y dotarlo de especificidad para una función: el análisis del lenguaje.
Así pues, los modelos activos se suelen caracterizar por considerar que el ser humano dispone de mecanismos especializados para analizar los sonidos del habla, mientras que los modelos pasivos sostienen que utiliza con ese fin capacidades generales para el procesamiento de estímulos sonoros complejo (ven la percepción del habla como un proceso sensorial) .
Teorías activas: Podemos distinguir diferentes teorías dentro de este bloque: a) La teoría motora
En esta propuesta, formulada inicialmente por Liberman, mantiene que todo hablante/oyente de una lengua dispone de unos patrones articulatorios que utiliza tanto para la producción de los sonidos como para su percepción. Hay un acoplamiento (mapping , cartografiado) entre fonemas y gestos articulatorios: para identificar perceptivamente un estímulo tendríamos que identificarlo antes articulatoriamente. Los gestos articulatorios se convierten así en las unidades mínimas de procesamiento, y se consideran abstracciones obtenidas a partir de los rasgos invariables que se necesitan para la articulación de un sonido. Si esos gestos articulatorios se pierden durante la comunicación (por coarticulación, solapamiento, etc), los oyentes los reponemos, a un nivel cognitivo más elevado, gracias a la intervención de un módulo innato y especializado: el “descodificador fonético”, cuya entrada es la señal hablada, y cuya
salida es el conjunto de gestos articulatorios que idealmente lo originaron. La percepción categorial se considera también una prueba de la existencia de esta teoría, y de las relaciones entre percepción y producción: como la articulación de las consonantes es discontinua (no se pasa gradualmente de [b] a [d]; la intervención de articuladores diferentes –en un caso los labios y en otro la lenguapermite el paso rápido de uno a otro) su percepción también es discontinua. Hay sonidos percibidos como un mismo fonema partiendo de características acústicas diferentes y sonidos percibidos como fonemas diferentes teniendo características acústicas comunes. La teoría motora es la que mejor explica fenómenos como el intercambio de sonidos o la coarticulación (la superposición de rasgos correspondientes a sonidos sucesivos). Sin embargo, desde muy pronto fue criticada en uno de sus presupuestos básicos: los análisis electromiográficos de los órganos fonadores (indicadores de su actividad muscular) indicaban que las contracciones
articulatorias también variaban en función del contexto en el que apareciera un sonido: la invarianza de las órdenes motoras quedaba en entredicho. b) La teoría del análisis por síntesis Propuesta de Halle, Stevens y House 1972. Propone también un proceso motor intermedio en la percepción del habla, pero considera la información acústica proporcionada por la señal física. El oyente produce inconscientemente una “versión sintética” de la señal, basado en un análisis basto, poco detallado, de la misma. Si ese modelo simplificado coincide con alguno previamente almacenado, se da por finalizado el proceso de identificación. Si no es así, se realiza un análisis más fino, más pormenorizado: los detalles de la señal sólo se tienen en cuenta si resulta imprescindible. La teoría del análisis por síntesis se ha esforzado en explicar las diferencias inter e intraindividuales. Sin embargo, como hemos visto, la descomposición que el sistema auditivo realiza sobre la señal dista mucho de ser simple e imprecisa: este modelo no da
Teorías pasivas: a) Análisis acústico directo:= solo necisitar conocer los rasgos del sonido para recibirlas
Fant (1960) asume que en la codificación del habla no es necesario hacer referencia a ningún tipo de mecanismo motor articulatorio. La información acústica que proporciona la señal es suficiente para llegar al reconocimiento de los sonidos del habla. • Este análisis es en forma de características acústicas distintivas, que permiten reconocer fonemas, sílabas y palabras. Desde esta teoría, el proceso de percepción se ve como un proceso paralelo al de producción, no integrado en ella. b) Detección de rasgos: Klatt, el autor de esta propuesta, mantiene que el oyente no segmenta la señal en fonemas para descodificarla, sino que genera directamente, desde el espectro sonoro, un “candidato” a palabra,
Tendríamos un diccionario de espectros prototípicos disponible en nuestro almacén mental. Almacenamos las combinaciones de sonidos (CV, por ejemplo) existentes en la lengua. Cuando el oyente descodifica la señal de habla, busca el camino que mejor corresponde al espectro recibido, ponderando ciertos factores significativos, como la variación de la frecuencia fundamental según el hablante, las diferencias entre los estados estables y los variables (transiciones), etc. El diccionario se compara con el análisis auditivo de la señal sonora que llega al oído.
Se ha criticado a esta propuesta por su alto coste de procesamiento, y la dificultad para probarlo experimentalmente. Sin embargo, los hallazgos recientes de modelos conexionistas para explicar la adquisición del lenguaje (cfr. Aguirre y Mariscal, 2001) podrían proporcionar algunos apoyos a este tipo de hipótesis.
El modelo WRAPSA ( W o rd R ec o g n it io n an d Ph o n et ic s S t r u c t u r e A c q u i s i t io n ), o cómo los niños aprenden a entender. Es la más reciente de todas las explicaciones sobre la percepción (fue presentada por primera vez en 1989, aunque su formulación actual es de 1997), y se encuentra muy ligada a los estudios sobre las sorprendentes capacidades tempranas para percibir el lenguaje desde el nacimiento. Su autor es Peter W. Jusczyk. Su sistema se compone de cuatro etapas: 1) Análisis auditivo: proporciona una descripción de los rasgos espectrales y temporales de la señal de entrada (sea o no sea habla, los analizadores son los mismos); los rasgos extraídos reflejan la organización inherente del sistema auditivo humano y son independientes de la lengua: se trata de elementos innatos. Los analizadores están sintonizados por frecuencias, y extraen información sobre la presencia de ruido en esa banda, y su clase, duración e intensidad, así como sus cambios temporales; las
unidades temporales son de tipo silábico (aunque puedan no coincidir exactamente con la sílaba del modelo); sin embargo, esta información desaparece rápidamente si no se graba; y en la selección de lo que tiene que grabarse sí puede influir la lengua materna del niño. 2) Calibrado (weighting ): dirige la atención del niño hacia los rasgos identificados por los analizadores que son necesarios para procesar los contrastes entre palabras en una lengua particular. Se trata, en cierta forma, de una distorsión del espacio perceptivo, estrechando o ensanchando las distancias entre sonidos para ajustarlas a las características fonológicas de la lengua materna (propiedades, frecuencia y distribución de las unidades). El desarrollo de este sistema de calibrado permite al niño empezar a almacenar patrones de sonidos, y también proporciona el marco para percibir categorialmente el habla fluida.
3) El principal componente del modelo tiene que ver con el proceso de extracción de patrones desde la señal, que tiene lugar en la salida
del esquema de calibrado. Este proceso refina la descripción de la señal e intenta la segmentación en unidades del tamaño de una palabra (lo cual depende de cada lengua). El resultado es una descripción que agrupa los rasgos prominentes en unidades silábicas marcadas prosódicamente (pero sin descender a segmentos fonéticos). 4) Comparación y almacenamiento de la representación. Las representaciones anteriores (consideradas una prueba para la construcción del lexicón) se comparan con otras, previas, de palabras conocidas; si se obtiene un parecido grande entre la prueba y un subconjunto de rasgos almacenados correspondientes a una palabra del lexicón, entonces la prueba se clasifica como esa unidad; si no, es necesario un reprocesamiento.
5.5. LA COMPRENSIÓN: RECONOCIMIENTOS DE PALABRAS Y COMPRENSIÓN DE ORACIONES La comprensión de palabras habladas implica la transformación del input auditivo en formas cada vez más abstractas hasta la activación del significado. El proceso de comprensión de un palabra se inicia cuando la información auditiva, en forma e ondas sonoras, llega a nuestros oídos. De estas ondas sonoras, nuestro cerebro, en un primer momento analiza características como la frecuencia, la intensidad o el timbre, que es lo que permite diferenciar unos sonidos de otros. A este proceso inicial se le denomina análisis acústico y a él están sometidos todos los sonidos, sean verbales o no. La percepción del lenguaje requiere que tras el análisis de las características del sonido se realice un proceso de categorización de tales sonidos. Para ello primero se realiza un análisis de rasgos fonéticos, en el que se establece si un sonido
Sonoro, bilabial, nasal... Y a partir de esta información se categoriza el sonido como alguno de los fonemas del idioma. Este segundo proceso se conoce con el nombre de análisis fonológico ( o fonémico). A medida que se van identificando los fonemas parece que vamos activando en el léxico de input fonológico (input auditivo), en el que se encuentran almacenadas las representaciones de las palabras que hemos oído algunas veces, aquellas representaciones que más fonemas compartan con la palabra que se está oyendo. Hemos dejado los patrones sonoros en la corteza auditiva. Pero estamos lejos de terminar la descodificación del mensaje; de hecho, no hemos hecho más que comenzar, no hemos traspasado el nivel periférico del procesamiento; aún quedan por delante los niveles intermedios (procesos léxicos, sintácticos y semánticos) y el nivel central (interpretación pragmática e integración discursiva)
Reconocimiento y comprensión de palabras Para asignar significado a los primeros patrones sonoros, podemos utilizar tres fuentes de información: la que proviene del estímulo (el propio patrón sonoro), la que proviene del contexto (para lo cual entra en juego la memoria inmediata), y la que tenemos almacenada previamente en nuestro cerebro (en este caso, la información léxica).
En cuanto pensamos en ese almacén léxico, tendemos a imaginar una especie de“diccionario” mental, en el que a cada entrada tendrían que corresponderle un conjunto de rasgos: fonológicos (y ortográficos, si consideramos la lectura), morfológicos, de significado, etc.
La comprensión de oraciones Descifrar una oración, obviamente, no equivale a sumar sus componentes, sino que requiere descubrir el modo en que éstos se relacionan, su estructura interna. Para ello, algunos modelos