Curiosos principios universales del lenguaje

¿Por qué necesitamos hace runa pausa y decir «mmm» o «eeh» cuando hablamos?

A veces estamos hablando y quedamos fuera de juego durante un instante, porque tenemos que buscar las palabras adecuadas o sencillamente pensar.

Pero en vez de quedarnos callados solemos hacer algún ruido como «mmm» o «eeh» (nunca otro, como «aah»), para ralentizar la conversación, pero no detenerla.

Parece que estos sonidos hacen una función similar a la del clásico reloj de arena de Windows: indican que necesitamos nuestro tiempo pero que estamos en ello.

Una investigación publicada en “Proceedings of the National Academy of Sciences” ha averiguado que estos sonidos son más frecuentes en el habla cuando van delante un nombre, y más raros cuando les sigue un verbo.

Científicos de la Universidad de Zúrich y de Ámsterdam han rastreado estas pausas del discurso en varias lenguas, con el fin de averiguar cómo trabaja el cerebro durante el habla.

Creen que esta ralentización está relacionada con dificultades a la hora de decir nombres, porque son palabras que suelen aportar nueva información.

"Descubrimos que en una diversa colección de lenguas hay una clara tendencia a la ralentización delante de nombres", explican en el estudio los autores, Frank Seifart y Balthasar Bickel, investigadores en las universidades de Ámsterdam y Zúrich, respectivamente.

"La razón es que los nombres son más difíciles de planificar porque normalmente solo se usan cuando representan nueva información", explican. Si no, son reemplazados por pronombres o sencillamente omitidos.

Ambos investigadores analizaron miles de grabaciones de conversaciones espontáneas en diversas poblaciones de todo el mundo, incluyendo charlas en inglés y holandés, y también a personas procedentes del Amazonas, Siberia, el Himalaya y el desierto del Kalahari.

Allí buscaron los efectos de la ralentización antes de ciertos nombres, como la palabra «amigo», y de verbos, como «venir».

Midieron la velocidad de articulación de sonidos y apuntaron si las personas que hablaban hacían sonidos para indicar pausas.

Así captaron que la ralentización es más frecuente antes de los nombres que de los verbos.

El reto de los nombres

El motivo está, según han sugerido, en que si se usa el nombre es porque suele aportar nueva información.

De hecho, cuando no hace referencia a algo nuevo, puede ser sustituido por un pronombre, y a veces hasta omitido, como se ve en estos ejemplos: «Mi amigo volvió. Él (mi amigo) se sentó».

O, incluso: «Mi amigo volvió y se sentó».

Sin embargo, los verbos no pueden ser omitidos, normalmente.

Este descubrimiento subraya, según los autores, varias cosas fundamentales: en primer lugar que es necesario que la neurociencia haga estudios sistemáticos del lenguaje en un entorno natural y con datos mucho más masivos.

En segundo lugar, consideran que el inglés no debe ser una referencia tan importante, porque ellos han constatado que tiene un comportamiento excepcional y, por tanto, no representativo, en comparación con los otros idiomas estudiados.

Además, han explicado que esta ralentización asociada con los nombres puede tener su reflejo en el lenguaje y la gramática: por ejemplo, consideran que esto lleva a que sea más difícil que los nombres se contraigan con las palabras que les preceden, como a veces pasa con los verbos.

En alemán, recuerdan, es mucho más común que los prefijos acompañen a verbos que a los nombres.

Los investigadores también se han preguntado cómo afectan las nuevas tecnologías al lenguaje humano si, por ejemplo, las pausas naturales delante de los nombres ya no son necesarias al chatear o escribir mensajes de Whastapp.

La comprensión del lenguaje activa zonas del cerebro comunes a todos los hablantes

No es ningún secreto que idiomas como el inglés, el hebreo, el chino y el castellano se escriben, leen y hablan de formas muy dispares.

Sin embargo, un equipo de investigadores del Basque Center on Cognition, Brain and Language (BCBL), la Universidad de Yale (EEUU), la Universidad Hebrea de Jerusalén (Israel) y la Universidad Nacional Yang - Ming de Taipei (Taiwan), sostiene que en los cerebros de sus hablantes se activan áreas comunes tanto para descifrar lenguaje escrito como el oral.

En concreto, los datos de esta investigación, publicadas igualmente en el PNAS, sugieren "que se trata de un principio universal de organización cerebral", en palabras de Kepa Paz-Alonso, investigador del centro vasco y autor de este estudio.

Se ha demostrado que tanto al leer como al escuchar palabras se activan áreas cerebrales comunes.

Pese a que cuando leemos un texto o escuchamos una voz percibimos esos estímulos a través de sentidos distintos (la vista y el oído, respectivamente), hay zonas de nuestro cerebro que se activan cuando llevamos a cabo cualquiera de esas dos tareas.

Ese solapamiento entre las redes neuronales de lectura y comprensión de la lengua se ha observado en los cerebros de los hablantes de las cuatro lenguas analizadas, por lo cual los investigadores consideran que se trata de otro principio universal.

Una investigación con 84 voluntarios

Para llegar a estas conclusiones los investigadores han estudiado los cerebros de 84 voluntarios, 21 por idiomas.

Mientras se les hacía leer o escuchar diversas palabras, se analizó su actividad cerebral mediante una técnica conocida como resonancia magnética funcional, gracias a la cual se pueden observar las regiones cerebrales implicadas en una tarea determinada.

Como ha explicado el investigador Paz-Alonso, “escogimos unos idiomas tan diferentes entre sí porque de este modo podíamos observar mejor si la manera en que se lee, y se comprende el lenguaje oral en cada uno tiene más o menos similitudes en términos de las redes cerebrales encargadas de procesar esa información”.

Este científico ha añadido que “dado que el español se lee igual que se escribe y en inglés o en hebreo no, se podría pensar que en un hablante de estas últimas lenguas se deberían activar redes cerebrales diferentes, y sin embargo no es así: se activan las mismas regiones en todos los idiomas, también en el chino, que sigue un sistema totalmente diferente”.

Red neuronal

Los investigadores interpretan que el proceso natural del aprendizaje nos lleva a desarrollar, a partir de los primeros meses de vida, la red neuronal encargada de comprender el lenguaje oral, y que sobre ella se apoya la red que se ocupa de descifrar el lenguaje escrito cuando aprendemos a leer, hacia el final de la primera infancia.

El investigador español ha añadido que, de esta forma, “se produce una convergencia entre ambas redes, ya que la red cerebral dedicada a la comprensión de la lengua hablada sirve como andamio para la lectura. Dado que este fenómeno se ha observado en los hablantes de lenguas tan dispares como las citadas”.

En este sentido, los investigadores capitaneados por Paz Alonso, sostienen que han descubierto “un principio universal de organización cerebral del lenguaje”.

Todo esto implica una cierta economía en la organización cerebral: seguramente sería poco eficiente tener dos sistemas de lenguaje totalmente separados o con poca convergencia entre sí para la comprensión y la lectura, especialmente cuando uno de ellos aparece en una fase del desarrollo más temprana.

A raíz de estos hallazgos, a los investigadores se les plantean nuevas cuestiones.

Por ejemplo, si pese a que en los distintos idiomas se activan zonas cerebrales comunes, estas se comunican de manera similar o diferente, o en qué medida afecta a la capacidad de lectura la manera en que esté establecida la red cerebral dedicada a la comprensión, la cual se establece antes en el desarrollo del lenguaje.

Es evidente que aún nos queda mucho por aprender sobre cómo hablamos y sobre todo por qué hablamos de la forma en que lo hacemos.

Entrada preparada a partir de artículos publicados en ABC

Deja un comentario