Un nuevo estudio perteneciente al Basque Center on Cognition, Brain and Language (BCBL) en San Sebastián (España), reveló que existe un mecanismo universal para procesar el lenguaje, independientemente de si la información llega por el oído o la vista. Además, la investigación amplía la red lingüística a nuevas áreas cerebrales, mostrando que la capacidad de sintonización se vuelve más precisa con la experiencia. Los hallazgos fueron publicados en Proceedings of the National Academy of Sciences (PNAS).
Cuando se escucha a alguien hablar, el cerebro se logra sincronizar con el ritmo de la voz del interlocutor en pos de comprender el mensaje. Este mecanismo, conocido como cortical tracking, no es exclusivo del oído. Según este nuevo estudio, el cerebro también se "sintoniza" con los movimientos de la lengua de signos, aunque con una frecuencia distinta.
Mecanismos universales
El estudio aporta evidencia sólida de que el cerebro humano utiliza mecanismos universales para procesar el lenguaje, más allá de si la información llega a través del canal auditivo, como el habla, o del canal visual, como los signos.
“Nuestros resultados confirman que la sincronización entre cerebro y lenguaje es una característica fundamental del procesamiento lingüístico y que va más allá del dominio auditivo”, explicaron los expertos.
Para desarrollar el trabajo, el equipo midió la complejidad de la señal visual. A diferencia de habla, donde el ritmo es marcado por las sílabas, la lengua de signos transmite información a través del movimiento simultáneo de manos, torso y cabeza.
Así, el equipo usó sistemas de captura de movimiento similares a los que se usan en videojuegos y cine, junto a magnetoencefalografía (MEG), en pos de registrar la actividad cerebral. Con este método, se comparó a dos grupos de oyentes: personas expertas en Lengua de Signos Española (LSE) y participantes sin conocimiento previo de este idioma.
Los resultados mostraron una diferencia clara respecto al lenguaje oral. Mientras que en el habla el cerebro se sincroniza con ritmos rápidos, en la lengua de signos la actividad neuronal se ajusta a una frecuencia más lenta, conocida como banda delta (0,5–2,5 Hz).
Los científicos proponen imaginar al cerebro como una radio: “Para el lenguaje hablado, el sintonizador busca ritmos rápidos. En cambio, para la lengua de signos, el cerebro utiliza un sintonizador más lento que se fija en los ritmos amplios de los movimientos corporales”.
El papel del hemisferio derecho
Por otra parte, la investigación indica que esta capacidad de sintonización no es automática, sino que depende del conocimiento y la experiencia con el idioma: “Expusimos a los participantes a vídeos en LSE, conocida por el grupo de expertos, y en Lengua de Signos Rusa, desconocida para todas las personas. En quienes sabían signar, la sincronización resultó mucho más fuerte y precisa en los movimientos que transmiten información lingüística”.
Asimismo, las personas con conocimiento de LSE mostraron una sincronización más intensa en la corteza temporal derecha. Según los investigadores, este resultado sugiere que, al aprender lengua de signos, el cerebro recurre a áreas del hemisferio derecho especializadas en el procesamiento de la información espacial para descifrar el mensaje lingüístico.
Este hallazgo resulta especialmente relevante, ya que el lenguaje se ha asociado tradicionalmente casi de forma exclusiva al hemisferio izquierdo. El estudio indica que la naturaleza visual y espacial de la lengua de signos modifica la forma en que el cerebro procesa la información y amplía la red lingüística a nuevas áreas.
“Nuestro trabajo devuelve un valor científico y social a estas lenguas minoritarias, al demostrar que comparten procesos neuronales complejos al mismo nivel que las lenguas habladas”, concluyeron.
Fuente: SINC.