Mujer con parálisis pudo “hablar” por primera vez tras un derrame cerebral a través de un avatar digital

Tras un derrame cerebral hace 18 años, una mujer con parálisis pudo “hablar” casi en tiempo real a través de un avatar digital. Esto fue gracias a un implante cerebral y a tecnología que tradujo sus señales cerebrales en habla y expresiones faciales. Lee los detalles ¡acá!

No debería ser ninguna sorpresa que el crecimiento de las nuevas tecnologías está dando como resultados grandes avances científicos. Uno de estos se dio a conocer recientemente y está relacionado con los implantes cerebrales, y no, no vamos a hablar ni de Elon Musk ni de Neuralink. ¿Qué pasó? Una mujer de 47 años, que sufrió un derrame cerebral hace más de 18 años que la dejó paralizada, pudo volver a “hablar” mediante un avatar digital.

En 2005, Ann Johnson sufrió a sus 30 años un derrame cerebral que la dejó gravemente paralizada e incapaz de hablar. Si bien podía emitir algunos sonidos, Johnson tenía dificultades a la hora de comunicarse, ya sea en el habla como en lo escrito. Por esto, normalmente usaba tecnología de seguimiento de movimiento que le permitía seleccionar letras lentamente, hasta 14 palabras por minuto. Sin embargo, gracias a un implante cerebral que traduce las señales de su cerebro en palabras audibles, ahora pudo comunicarse a través de un avatar digital casi en tiempo real.

Esta tecnología experimental, desarrollada por investigadores de la Universidad de California en San Francisco y la Universidad de California en Berkeley, se basa en un implante colocado en la superficie del cerebro (en regiones asociadas con el lenguaje y los movimientos faciales) que contiene 253 electrodos que interceptan señales cerebrales que, de no ser por el derrame cerebral, habrían controlado los músculos de la lengua, la mandíbula, la laringe y la cara. Estas señales se traducen directamente en el habla y las expresiones faciales de un avatar digital, ya sea una sonrisa, fruncir el ceño o sorprenderse.

Después de la cirugía, Ann Johnson trabajó con el equipo de investigadores para entrenar el algoritmo de inteligencia artificial del sistema y que así detecte sus señales cerebrales para varios sonidos del habla repitiendo diferentes frases una y otra vez. De esta manera, la computadora aprendió 39 sonidos distintivos y utilizó un modelo de lenguaje, estilo Chat GPT, para traducir las señales en oraciones inteligibles.

Luego, toda esa información recopilada se usó para que un avatar digital pueda pronunciar las oraciones en voz alta. Los investigadores utilizaron una grabación de Johnson hablando en su boda para personalizar la voz del avatar y que suene similar a ella. Entonces, cuando Johnson intentó decir una frase como “Qué bueno verte de nuevo“, el avatar en una pantalla cercana dijo esa oración en voz alta.

El Dr. Edward Chang, autor del trabajo en la Universidad de California, en San Francisco, dijo que estaba “absolutamente emocionado” de ver a Johnson comunicarse a través del avatar. “No hay nada que pueda transmitir lo satisfactorio que es ver que algo como esto realmente funcione en tiempo real”. Además, Chang agregó que estos avances “nos acercan mucho más a hacer de esta una solución real para los pacientes”.

Dar a las personas la capacidad de controlar libremente sus propias computadoras y teléfonos con esta tecnología tendría profundos efectos en su independencia e interacciones sociales”, dijo el Dr. David Moses, profesor asistente de cirugía neurológica en la UCSF y coautor de la investigación.

Ahora bien, según los resultados del experimento, que fueron publicados en la revista Nature, esta última tecnología es más rápida que los sintetizadores que dependen del seguimiento ocular o pequeños movimientos faciales. Es más, el nuevo sistema convirtió los intentos de discurso de Johnson en palabras a casi 80 palabras por minuto, en comparación con las 110 a 150 que se pronuncian normalmente en una conversación natural.

Sin embargo, la tecnología no era perfecta, ya que decodificaba palabras incorrectamente el 28% de las veces en una prueba que incluía más de 500 frases de Johnson y un vocabulario de 1.024 palabras. A pesar de esta precisión media, los científicos dijeron que esta tecnología está ahora en un punto de ser prácticamente útil para los pacientes.

En una encuesta de retroalimentación, Johnson escribió que se emocionó al escuchar al avatar hablar con una voz similar a la de ella y que esto podría ayudarla a cumplir su objetivo de convertirse en consejera y hablar con los clientes. “Creo que el avatar los haría sentir más cómodos”, escribió.

Posteos relacionados

Jake Gyllenhaal sobre Road House: “usamos una nueva técnica en la que realmente se puede ver el impacto de un golpe en la cara y en el cuerpo”

Superman: James Gunn compartió la primera imagen de David Corenswet como Kal-EL

Doctor Who: te contamos todo lo que tenés que saber sobre el esperado regreso del personaje