Mujer vuelve a comunicarse tras un ictus con inteligencia artificial

Una mujer que perdió el habla tras sufrir un ictus recupera la capacidad de comunicarse gracias a un implante cerebral y un avatar digital que permiten sintetizar el habla o las expresiones faciales a partir de señales cerebrales.
Concepto de inteligencia artificial

24/08/2023

La inteligencia artificial (IA) despierta nuestros recelos, en parte por las apocalípticas predicciones de muchas películas de ciencia ficción que alertan de que algún día no muy lejano las máquinas se harán con el control y someterán al ser humano. Sin embargo, por el momento se ha convertido en un elemento clave en el desarrollo de tecnologías que proporcionan una gran ayuda en ámbitos como la medicina.

PUBLICIDAD

Ahora, una nueva tecnología desarrollada por científicos estadounidenses que se basa en un implante cerebral y un avatar digital ha permitido que una mujer que sobrevivió a un ictus, pero perdió el habla, haya recuperado la capacidad de comunicarse a través de sus expresiones faciales por primera vez en 18 años.

Los investigadores de la Universidad de California en San Francisco (UCSF) y la Universidad de California Berkeley (UC Berkeley) crearon un sistema que, por primera vez, ha sintetizado el habla o las expresiones faciales a partir de señales cerebrales, y que también puede decodificar estas señales en texto a casi 80 palabras por minuto, una importante mejora en comparación con otros dispositivos comercializados.

“Nuestro objetivo es restaurar una forma de comunicación plena y personalizada, que es la forma más natural para nosotros de hablar con los demás”

El Dr. Edward Chang, presidente de cirugía neurológica de la UCSF, que ha trabajado en esta tecnología conocida como interfaz cerebro-computadora o BCI durante más 10 años espera que este último avance de la investigación conducirá a un sistema aprobado por la FDA (Agencia de Alimentación y Medicamentos de Estados Unidos) que permitirá el habla a partir de señales cerebrales en un futuro próximo. Los resultados del trabajo se han publicado en Nature.

PUBLICIDAD

Decodificar las señales del habla y lograr una comunicación natural

Ann, la paciente en la que se ha probado la novedosa tecnología, sufrió un derrame cerebral cuando tenía 30 años a consecuencia del cual perdió el control de todos los músculos de su cuerpo. Tras años de fisioterapia pudo volver a mover los músculos faciales lo suficiente como para reír o llorar, pero los músculos necesarios para hablar continuaron inmóviles. En la actualidad, esta mujer ayuda a investigadores de UC San Francisco y UC Berkeley a desarrollar una nueva tecnología cerebro-computadora que en el futuro podría permitir que personas como ella se comuniquen de manera más natural a través de un avatar digital que se parezca a una persona.

“Nuestro objetivo es restaurar una forma de comunicación plena y personalizada, que es la forma más natural para nosotros de hablar con los demás”, ha declarado Chang. “Estos avances nos acercan mucho más a hacer de esta una solución real para los pacientes”.

PUBLICIDAD

El objetivo del equipo de Chang era decodificar las señales del cerebro de Ann en la riqueza del habla, junto con los movimientos que animan el rostro de una persona durante una conversación. Para ello, implantaron un rectángulo delgado como un papel de 253 electrodos en la superficie de su cerebro sobre áreas que sabían que resultaban clave para el habla.

Los electrodos interceptaron las señales cerebrales que, si no fuera por el derrame cerebral, habrían llegado a los músculos de los labios, la lengua, la mandíbula y la laringe de Ann, así como a su cara. Un cable, conectado a un puerto fijado a la cabeza de Ann, conectaba los electrodos a un banco de computadoras.

Ann trabajó con el equipo durante semanas para entrenar los algoritmos de inteligencia artificial del sistema para que reconocieran sus señales cerebrales únicas para el habla, y para conseguirlo repitieron diferentes frases de un vocabulario conversacional de 1.024 palabras una y otra vez hasta que la computadora reconoció los patrones de actividad cerebral asociados con todos los sonidos básicos del habla.

PUBLICIDAD

En lugar de entrenar a la inteligencia artificial para que reconozca palabras completas, los investigadores crearon un sistema que decodifica palabras a partir de componentes más pequeños llamados fonemas. Estas son las subunidades del habla que forman palabras habladas de la misma manera que las letras forman palabras escritas. Por ejemplo, ‘Hola’ contiene cuatro fonemas: ‘HH’, ‘AH’, ‘L’ y ‘OW’.

De esta manera, la computadora solo necesitaba aprender 39 fonemas para descifrar cualquier palabra en inglés, lo que mejoró la precisión del sistema y triplicó su velocidad. “La precisión, la velocidad y el vocabulario son cruciales”, ha destacado Sean Metzger, que desarrolló el decodificador de texto con Alex Silva, ambos estudiantes graduados en el Programa conjunto de Bioingeniería de UC Berkeley y UCSF. “Es lo que le da a Ann el potencial, con el tiempo, de comunicarse casi tan rápido como nosotros y de tener conversaciones mucho más naturalistas y normales”.

PUBLICIDAD

El equipo ideó un algoritmo para sintetizar el habla, que personalizaron para que sonara como la voz que tenía Ann antes de la lesión utilizando una grabación de ella hablando en su boda. El equipo animó el avatar de Ann con la ayuda de un software que simula y anima los movimientos musculares de la cara, desarrollado por Speech Graphics, una empresa que realiza animaciones faciales basadas en IA.

Los investigadores crearon procesos personalizados de aprendizaje automático que permitieron que el software de la compañía se combinara con las señales enviadas desde el cerebro de Ann mientras intentaba hablar y las convirtiera en movimientos en la cara de su avatar, haciendo que la mandíbula se abriera y se cerrara, los labios sobresalieran y se fruncieran y la lengua subiera y bajara, y se reprodujeran los movimientos faciales de alegría, tristeza y sorpresa.

PUBLICIDAD

Un siguiente paso fundamental para el equipo es crear una versión inalámbrica que no requiera que Ann esté conectada físicamente a la BCI. “Dar a personas como Ann la capacidad de controlar libremente sus propias computadoras y teléfonos con esta tecnología tendría efectos profundos en su independencia e interacciones sociales”, ha concluido el coautor principal David Moses, profesor adjunto de cirugía neurológica.

Actualizado: 24 de agosto de 2023

PUBLICIDAD

PUBLICIDAD