
Un nuevo estudio de la Universidad de California en San Francisco desafía la visión tradicional de cómo el cerebro encadena los sonidos para formar palabras y orquesta los movimientos para pronunciarlas.
Hablar es una de las cosas más complicadas que puede hacer un ser humano. Antes incluso de pronunciar una palabra, el cerebro tiene que traducir lo que se quiere decir en un conjunto de instrucciones perfectamente secuenciadas para las docenas de músculos que se utilizan para hablar.
Durante más de un siglo, los científicos pensaron que toda esta planificación y coordinación -llamada secuenciación motora del habla- se producía en una parte del lóbulo frontal llamada área de Broca.
Ahora, un nuevo estudio de la Universidad de California en San Francisco demuestra que se basa en una red mucho más amplia de neuronas de muchas áreas cerebrales. Esta red se centra en una zona llamada giro precentral medio, o mPrCG, que los científicos pensaban que sólo controlaba la laringe, una parte del tracto vocal que nos ayuda a emitir sonidos agudos o graves.
«It turns out that this part of the brain has a much more interesting and important role,» afirma el Dr. Edward Chang, catedrático de Neurocirugía y autor principal del estudio. «It strings together the sounds of speech to form words, which is crucial to being able to pronounce them.»
El estudio, que aparece en Nature Human Behaviourpodría inspirar nuevas formas de estudiar los trastornos del habla, contribuir al desarrollo de dispositivos que permitan comunicarse a los paralíticos y ayudar a preservar la capacidad de hablar de un paciente tras una operación cerebral.
Más allá del área de Broca
Se cree que el área de Broca, llamada así por el fisiólogo Pierre Paul Broca, que la descubrió en 1860, se encarga de la mayor parte del procesamiento del lenguaje. Esto incluye tanto la forma en que entendemos el lenguaje que oímos o leemos como la forma en que producimos las palabras que queremos decir.
Pero hace varios años, Chang, que es miembro del Instituto Weill de Neurociencias de la UCSF y lleva más de una década estudiando cómo produce el habla el cerebro, empezó a sospechar que intervienen otras áreas además de la de Broca.
En un raro estudio de caso, había visto que cuando a un paciente se le extirpaba un tumor de la mPrCG, desarrollaba apraxia del habla, un trastorno en el que las personas saben lo que quieren decir pero les cuesta coordinar los movimientos necesarios para decirlo con claridad. No ocurría lo mismo con operaciones similares en el área de Broca.
Chang y la entonces estudiante de posgrado Jessie Liu también observaron actividad asociada a la planificación del habla en la mPrCG mientras desarrollaban un dispositivo que permitiera comunicarse a las personas con parálisis.
Para investigar lo que ocurría, Chang, Liu y el doctor Lingyun Zhao, becario postdoctoral, trabajaron con 14 voluntarios sometidos a cirugía cerebral como parte de su tratamiento contra la epilepsia. A cada paciente se le colocó una fina malla de electrodos en la superficie del cerebro, que podía registrar las señales cerebrales que se producían justo antes de que pronunciaran sus palabras.
Los neurocirujanos como Chang utilizan habitualmente estos electrodos para determinar en qué parte del cerebro del paciente se producen los ataques. Si hay zonas del habla cercanas, el cirujano las cartografiará también para evitar dañarlas durante la intervención.
Liu y Zhou pudieron aprovechar la tecnología para ver qué ocurría en el mPrCG cuando los pacientes hablaban.
Mostraron a los voluntarios conjuntos de sílabas y palabras en una pantalla y luego les pidieron que emitieran los sonidos en voz alta. Algunos conjuntos eran simples sílabas repetidas, como «ba-ba-ba,» mientras que otros incluían secuencias más complejas, como «ba-da-ga,» que contienen una variedad de sonidos.
Los investigadores observaron que cuando daban a los participantes secuencias más complejas, la mPrCG estaba más activa que cuando les daban secuencias sencillas. El equipo también descubrió que el aumento de actividad en esa región predecía la rapidez con la que los participantes empezaban a hablar después de leer las palabras.
«Seeing this combination—working harder to plan more complex sequences and then signaling muscles to put the plan into action—tells us that even though the mPrCG is outside of Broca’s area, it’s critical to orchestrating how we speak,» Dijo Liu.
Conectar la intención con la acción
El equipo también utilizó los electrodos para estimular la mPrCG en cinco de los participantes en el estudio mientras pronunciaban secuencias fijas de sílabas.
Si las secuencias eran bastante sencillas, los participantes no tenían ningún problema. Pero cuando se les daban secuencias más complejas, la estimulación hacía que los participantes cometieran errores parecidos a la apraxia del habla que Chang observó en su estudio de caso.
Esto añade más pruebas de que la mPrCG es fundamental para coordinar múltiples sonidos diferentes del habla y actúa como un puente que conecta lo que una persona quiere decir con las acciones necesarias para decirlo.
«It’s playing this vital role that had been thought to belong to Broca’s area but didn’t quite fit there,» Dijo Liu. «This points us in a new research direction, where learning how the mPrCG does this will lead us to a new understanding of how we speak.»
Más información: Jessie R. Liu et al, Secuenciación del habla en la circunvolución precentral humana, Nature Human Behaviour (2025). DOI: 10.1038/s41562-025-02250-1
Cita: Cómo el cerebro convierte nuestras palabras intencionadas en los sonidos del habla (2025, 16 de julio) recuperado el 16 de julio de 2025 de https://medicalxpress.com/news/2025-07-brain-words-speech.html
Este documento está sujeto a derechos de autor. Queda prohibida la reproducción total o parcial de este documento sin autorización escrita reproducción total o parcial sin autorización escrita. El contenido se facilita únicamente con fines informativos.