

Un implante cerebral convierte los pensamientos en habla casi en tiempo real
Un implante cerebral que utiliza inteligencia artificial logró convertir casi simultáneamente en habla los pensamientos de una mujer paralizada, indicaron investigadores estadounidenses este lunes.
Aunque hasta ahora solo se ha probado en una persona, este nuevo logro con un implante que conecta ondas cerebrales a un ordenador generó esperanzas de que otras personas que han perdido por completo la capacidad de comunicarse puedan recuperar su voz.
El equipo de investigadores, basado en California, había utilizado previamente una interfaz cerebro-ordenador (BCI, por sus siglas en inglés) para decodificar los pensamientos de Ann, una mujer de 47 años con cuadriplejía, y traducirlos en habla.
Sin embargo, había un retraso de ocho segundos entre la generación de pensamientos y la producción del habla leída en voz alta por una computadora.
Esto significaba que mantener una conversación fluida estaba fuera del alcance para Ann, una profesora de matemáticas de secundaria que no ha podido hablar desde que sufrió un accidente cerebrovascular hace 18 años.
Pero el nuevo modelo del equipo, presentado en la revista Nature Neuroscience, transformó los pensamientos de Ann en una versión de lo que era su voz con apenas un retraso de 80 milisegundos.
"Nuestro nuevo enfoque en tiempo real convierte las señales cerebrales en su voz personalizada casi inmediatamente, en menos de un segundo desde que intenta hablar", dijo a AFP el principal autor del estudio, Gopala Anumanchipalli, de la Universidad de California, en Berkeley.
Anumanchipalli agregó que la meta final de Ann es convertirse en consejera universitaria.
"Aunque todavía estamos lejos de lograr eso para Ann, este avance nos acerca más a mejorar drásticamente la calidad de vida de las personas con parálisis vocal", indicó.
- "Emocionada al escuchar su voz" -
Durante la investigación Ann podía ver oraciones en una pantalla —del tipo "Entonces me amas"— que ella pronunciaba para sí misma en su mente.
Estas señales cerebrales eran rápidamente convertidas en su voz, que los investigadores reconstruyeron a partir de grabaciones previas a su lesión.
Ann estaba "muy emocionada al escuchar su voz, y reportó una sensación de corporalidad", dijo Anumanchipalli.
El modelo utiliza un algoritmo basado en una técnica de inteligencia artificial (IA) llamada aprendizaje profundo, que fue entrenado previamente a partir de miles de frases que Ann intentó pronunciar silenciosamente.
El modelo no es totalmente exacto, y el vocabulario es limitado por el momento a 1.024 palabras.
Patrick Degenaar, experto en neuroprótesis de la Universidad de Newcastle en Reino Unido, quien no participó en el estudio, destacó que esta investigación es una "prueba muy temprana" de la efectividad del método.
Aun así, es "genial", comentó.
Degenaar señaló que este sistema utiliza una serie de electrodos que no penetran en el cerebro, a diferencia del BCI usado por la empresa Neuralink de Elon Musk.
El método para instalar estos electrodos es relativamente común en hospitales donde se diagnostica la epilepsia, lo que significa que esta tecnología podría implementarse fácilmente a gran escala, añadió.
S.Mohideen--DT