Avances en inteligencia artificial permiten a mujer con parálisis hablar casi en tiempo real
Un innovador dispositivo de la Universidad de California permite a una mujer con tetraplejia recuperar la capacidad de hablar después de 18 años de silencio.
- Momento en el que los investigadores conectan el implante cerebral a la computadora sintetizadora de voz. ( )
En un avance revolucionario en la tecnología de neuroprótesis del habla, un equipo de científicos de las universidades de California en Berkeley y San Francisco ha desarrollado un dispositivo que traduce la actividad del habla en el cerebro en palabras habladas casi en tiempo real.
Este dispositivo ha permitido a una mujer de 47 años con tetraplejia, que no había podido hablar durante 18 años debido a un accidente cerebrovascular, hablar por primera vez desde su lesión.
Lea: ¿Creaste imágenes al estilo Ghibli con ChatGPT? Este es el costo ambiental y desperdicio de agua
Un avance en la neuroprótesis del habla

La clave de este avance es eliminación de la latencia, o el tiempo que transcurre entre la intención de hablar y el sonido real de las palabras, que había sido un obstáculo importante en los dispositivos anteriores. Gopala Anumanchipalli, co-investigador principal del estudio, explica que su tecnología utiliza un algoritmo de inteligencia artificial similar a los utilizados por asistentes virtuales como Siri o Alexa, permitiendo una decodificación rápida y eficiente de las señales cerebrales para generar habla casi simultáneamente con la intención vocal del usuario.
Este avance se describe en el artículo publicado en Nature Neuroscience, donde se detalla cómo el nuevo sistema de transmisión sincroniza la actividad neuronal con la producción de voz, resultando en un habla más natural y fluida.
¿Cómo funciona el dispositivo?
El dispositivo funciona mediante la implantación de electrodos en la corteza sensomotora del habla, la parte del cerebro encargada de controlar la producción del habla. Durante el proceso de entrenamiento, la paciente, conocida como Ann, miraba frases escritas en una pantalla y trataba de pronunciarlas en su mente sin vocalizar.
Los investigadores entrenaron un algoritmo de inteligencia artificial con las señales cerebrales obtenidas mientras Ann intentaba hablar internamente, y luego usaron este modelo para generar audio imitando su voz.
El equipo también demostró que el sistema podía generar palabras que no habían sido parte del vocabulario de entrenamiento, como las palabras del alfabeto fonético de la OTAN, demostrando la capacidad de la IA para aprender los componentes básicos de los sonidos del habla.
Un futuro prometedor para personas con parálisis
Este avance tiene un enorme potencial para cambiar la vida de personas con parálisis severas o discapacidades relacionadas, permitiéndoles recuperar una forma de comunicación más natural y fluida. Edward Chang, otro de los científicos principales del proyecto, destacó que este trabajo abre nuevas posibilidades para que las personas con parálisis graves mejoren su calidad de vida y recuperen la capacidad de interactuar con el mundo de una manera más efectiva.
En conclusión, este avance marca un paso significativo hacia la mejora de las interfaces cerebro-computadora, acelerando la aplicación práctica de estos sistemas en el futuro cercano para ayudar a personas con discapacidades motoras graves.
Lea también: Neo: el robot humanoide que ayuda en las tareas del hogar y cuida a los niños
Recomendadas