Devolver el habla a personas que la perdieron es una meta cada vez más factible gracias a los avances realizados con implantes cerebrales. La tecnología que trata de devolverles la capacidad de comunicarse traduciendo la actividad cerebral en palabras ha desarrollado un nuevo tipo de implante que hace más rápido, preciso y variado ese proceso.

Una investigación publicada en la revista Nature demostró cómo a través de una novedosa interfaz cerebro-ordenador (BCI) se logró sintetizar palabras habladas y expresiones faciales a partir de señales cerebrales, algo que podría ayudar a las personas que no pueden hablar a causa de accidentes cerebrovasculares o afecciones como la parálisis cerebral y la esclerosis lateral amiotrófica.

El caso testigo es el de Ann Johnson, una profesora de 48 años que en 2005 sufrió un ictus paralizante que la privó de la capacidad de hablar. 

¿Cómo es el sistema que permite recuperar el habla?

El BCI es responsabilidad de un equipo liderado por Edward Chang, de la Universidad de California en San Francisco.

El sistema genera una media de 78 palabras por minuto, con un 28 % de error para un vocabulario de más de 39.000 palabras.

El equipo implantó un rectángulo fino como un papel con 253 electrodos en la superficie del cerebro de Ann, en zonas fundamentales para el habla, los cuales interceptan las señales cerebrales que, de no haber sido por el ictus, habrían ido a parar a los músculos de la lengua, la mandíbula, la laringe y la cara.

Un cable, conectado a un puerto fijado a su cabeza (el equipo de investigación ya se encuentra trabajando en el desarrollo de versiones inalámbricas), conectaba a su vez los electrodos a un banco de ordenadores.

El siguiente paso fue entrenar un modelo de aprendizaje profundo para reconocer las señales cerebrales únicas de Ann relacionadas con el habla mientras ella intentaba pronunciar frases completas en silencio.

Esta inteligencia artificial no reconoce palabras, sino los 39 fonemas que componen el inglés hablado, lo que mejoró la precisión del sistema y lo hizo tres veces más rápido.

Pero el equipo no se limitó a descodificar las señales del habla en texto, porque la comunicación no son solo palabras. “Nuestra voz y expresiones faciales forman parte de nuestra identidad”, recalcó Chang en el encuentro con la prensa.

Así, crearon un algoritmo para sintetizar el habla, que personalizaron para que sonara como la voz de Ann antes de la lesión, utilizando una grabación de la mujer en su boda, explicó Sean Metzger, de la Universidad de California.

El sistema se completa con un avatar en la pantalla del ordenador animado por un software que simula los movimientos musculares de la cara al hablar y además reproduce expresiones como felicidad, sorpresa o tristeza.

Metzger precisó que este avatar es una prueba de concepto preliminar, pero creen que “podría ser una tecnología potente para comunicarse sin hablar activamente”.

"Oír una voz parecida a la tuya es emocionante", expresó Ann la primera vez que pudo comunicarse a a través del sistema de inteligencia artificial. Ella y su marido, William, incluso pudieron entablar una pequeña conversación.

"Es un sistema lento, que le permite generar 14 palabras por minuto. Pero aún así es más rápido que ordenar en un tablero con letras de plástico", destacó William, el marido de Ann.

Seguí leyendo