El desarrollo de la inteligencia artificial puede ser un beneficio para la ciencia y la medicina. Así lo comprobó una investigación de la Universidad de Texas en Austin, que logró con un decodificador traducir la actividad cerebral en texto sin necesidad de implementar un método invasivo para el cuerpo.
Este dispositivo sería capaz de reconstruir el habla de una persona, a través de imágenes con resonancia magnética (fMRI) mientras escuchan una historia o imaginan una en silencio.
Lo anterior, sería una alternativa para aquellos que sufrieron un accidente cerebrovascular o una enfermedad de la neurona motora y no pueden comunicarse.
“Nos sorprendió un poco que funcione tan bien como lo hace. He estado trabajando en esto durante 15 años, así que fue impactante y emocionante cuando finalmente funcionó”, afirmó el doctor Alexander Huth, director de la investigación.
Antes de la llegada de la inteligencia artificial, este proyecto tenía un inconveniente: las exploraciones de una resonancia magnética miden la respuesta del flujo sanguíneo a la actividad cerebral y eso genera un retraso inminente, ocasionando que la interpretación de la actividad tuviera mucha información al mismo tiempo.
Pero con la implementación de tecnologías como GPT de OpenAI llegó la solución. Con esta herramienta se representa en números el significado semántico del habla, lo que es útil para los científicos al observar patrones de actividad neuronal que correspondan a palabras con un significado.
Para alcanzar estos resultados, la investigación pidió a tres voluntarios estar acostados durante 16 minutos para escanearlos mientras escuchaban algunos podcast Mientras tanto, el decodificador fue entrando para hacer coincidir la actividad cerebral con el significado utilizado en el modelo de lenguaje GPT-1.
La segunda parte fue poner a los participantes a escuchar una historia o imaginando contar una y de esa forma el decodificar generó texto a partir de esa actividad cerebral. Los resultados fueron una compatibilidad de la mitad de las veces, algunas con precisión, con el significado de las palabras previas.
Por ejemplo, en un momento un voluntario pensó: “Todavía no tengo mi licencia de conducir” y el decodificador lo tradujo como: ”Ella ni siquiera ha comenzado a aprender a conducir todavía”.
Otro caso fue cuando un participante pensó: “No sabía si gritar, llorar o salir corriendo. En lugar de eso, dije: ‘¡Déjame en paz!’”, y el dispositivo lo tradujo como: “Empecé a gritar y llorar, y luego ella simplemente dijo: ‘Te dije que me dejaras en paz’”.
“Nuestro sistema funciona a nivel de ideas, semántica y significado. Esta es la razón por la que lo que sacamos no son las palabras exactas, es la esencia”, explicó Huth sobre las diferencias entre lo que pasó por la mente del voluntario y lo que tradujo el decodificador.
Este avance no implica que el dispositivo no tuviera problemas, porque durante el proceso encontraron fallos en el entendimiento de aspectos como los nombres al no identificar si era una mujer, un hombre o si era en tercera o primera persona.
Además, aseguraron que saben de las implicaciones de este hallazgo y los riesgos que puede tener al caer en manos equivocadas.
“Nos tomamos muy en serio las preocupaciones de que podría usarse para malos propósitos y hemos trabajado para evitarlo. Queremos asegurarnos de que las personas solo usen este tipo de tecnologías cuando quieran y que les ayuden”, aseguró Jerry Tang, uno de los investigadores que participaron en el estudio.
Tras conseguir estos resultados, ahora el equipo espera evaluar si la técnica podría aplicarse a otros sistemas de imágenes cerebrales más portátiles.