Un equipo de científicos de la Universidad de California en Berkeley y San Francisco ha desarrollado un innovador dispositivo que traduce la actividad del habla en el cerebro en palabras habladas casi en tiempo real. Este avance ha permitido que una mujer de 47 años con tetraplejia pueda hablar después de 18 años de no poder hacerlo. La investigación fue publicada el 31 de marzo en la revista Nature Neuroscience.
Solucionando la latencia
Este trabajo aborda «el viejo problema» de la latencia en las neuroprótesis del habla. Esto se refiere al tiempo que pasa entre el momento en que una persona intenta hablar y el momento en que se produce el sonido. Gracias a los recientes avances en inteligencia artificial (IA), los investigadores han desarrollado un método de transmisión que sintetiza las señales cerebrales en habla audible casi en tiempo real.
Comentarios de los investigadores
Gopala Anumanchipalli, co-investigador principal del estudio, comentó: «Nuestro enfoque de streaming lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis». Por su parte, Edward Chang, otro de los científicos principales, destacó que esta nueva tecnología «tiene un enorme potencial» para mejorar la calidad de vida de las personas con parálisis severas que afectan su capacidad de hablar.
Detalles del ensayo clínico
Como parte de un ensayo clínico, los equipos de Chang y Anumanchipalli implantaron la interfaz cerebro-computadora en una mujer de 47 años con tetraplejia. Esta mujer no había podido hablar o vocalizar durante 18 años tras sufrir un accidente cerebrovascular. Para recopilar los datos necesarios para entrenar su algoritmo, los investigadores hicieron que la participante mirara una indicación en la pantalla y luego intentara pronunciar esa frase en silencio.
Los autores del estudio entrenaron una red neuronal utilizando la actividad cerebral registrada mediante electrodos implantados sobre su corteza sensomotora del habla. Posteriormente, se utilizó este modelo para descodificar el habla en línea y producir audio que imita su voz. Cheol Jun Cho explicó que la neuroprótesis funciona tomando muestras de datos neuronales de la corteza motora y utiliza IA para convertirlos en habla.
Mejoras en la tecnología
En investigaciones anteriores sobre este tipo de dispositivos, los científicos encontraron una latencia de descodificación de aproximadamente ocho segundos para una sola frase. Con el nuevo método, la salida audible puede generarse casi en tiempo real mientras el sujeto intenta hablar. Para probar la eficacia de su tecnología, los investigadores eligieron 26 palabras y comprobaron que su modelo podía sintetizarlas correctamente.
Resultados del estudio
Anumanchipalli concluyó: «Descubrimos que nuestro modelo lo hace bien, lo que demuestra que, efectivamente, está aprendiendo los componentes básicos del sonido o la voz». Este avance representa un paso significativo hacia el desarrollo de dispositivos que puedan ayudar a las personas con dificultades para comunicarse debido a condiciones neurológicas.