jueves 13  de  junio 2024
SALUD

Inteligencia artificial ayuda a recuperar capacidad del habla tras accidente cerebral

Un implante cerebral entrenado con inteligencia artificial interpreta las palabras del paciente en tiempo real y las convierte en texto en una pantalla

Por Yolanda Ojeda

MIAMI.- Por primera vez, un implante cerebral ayuda a una persona bilingüe que no podía articular palabras a comunicarse mediante un sistema de inteligencia artificial (IA) acoplado a un dispositivo que decodifica, en tiempo real, lo que el individuo intenta decir, ya sea en español o en inglés.

Los hallazgos de la Universidad de California fueron publicados en la revista Ingeniería Biomédica de la Naturaleza (NBE, por su sigla en inglés).

Científicos del Centro de Ingeniería Neural y Prótesis de la universidad han trabajado durante varios años para diseñar un sistema de decodificación que pudiera convertir la actividad cerebral en oraciones en ambos idiomas y mostrarlas en una pantalla lo que además podría cambiar radicalmente el enfoque hacia la rehabilitación del habla.

El estudio ofrece una idea de cómo este tipo de tecnología tiene el “potencial de restaurar una comunicación más natural” entre hablantes bilingües con parálisis.

Este nuevo reporte es una contribución importante para el campo emergente de las neuroprótesis de restauración del habla, señala el estudio. Bajo el liderazgo del doctor Edward Chang, un neurocirujano que se desempeña como codirector del Centro de Prótesis e Ingeniería Neural de Universidad de California en San Francisco (UCSF, por su sigla en inglés) el paciente recibió un implante neuronal en febrero de 2019, lo que permitió desde ese momento a los científicos comenzar a rastrear su actividad cerebral.

Implante restaurador del habla

El paciente, que fue identificado como Pancho, sufrió un derrame cerebral a los 20 años que paralizó gran parte de su cuerpo. Como resultado, podía gemir y gruñir pero no podía hablar. Cuando tenía treinta años se asoció con el especialista Edward Chang para investigar los efectos duraderos del derrame cerebral el cual sufrió.

En un estudio innovador publicado en 2021 el equipo de Chang implantó quirúrgicamente electrodos en la corteza de Pancho, para registrar la actividad neuronal, que se tradujo en palabras en una pantalla.

La primera frase del paciente registrada fue: “Mi familia está afuera”, fue interpretada al inglés. Pero la persona es un hablante nativo de español y esa lengua la había aprendido después. Es el español lo que todavía evoca en él sentimientos de familiaridad y pertenencia. "Los idiomas que habla alguien en realidad están muy vinculados a su identidad", dice Chang. El especialista destaca el desarrollo de una neuroprótesis del habla bilingüe que decodifica la actividad cortical en oraciones en inglés y español en una persona con parálisis.

Embed - https://publish.twitter.com/oembed?url=https://x.com/ChangLabUcsf/status/1792619515362332922&partner=&hide_thread=false

Para lograr este objetivo, el equipo desarrolló un sistema de inteligencia artificial para descifrar el habla bilingüe de esta persona. Este esfuerzo, dirigido por el estudiante de doctorado de Chang, Alexander Silva, implicó entrenar el sistema mientras el paciente intentaba decir casi 200 palabras. Sus esfuerzos por formar cada una de ellas crearon un patrón neuronal distinto que fue registrado por los electrodos.

Luego, los autores aplicaron su sistema de IA, que tiene un módulo en español y otro en inglés

Palabra por palabra

A partir de ahí, ambos módulos intentan construir una frase. Cada uno elige la segunda palabra basándose no sólo en la coincidencia del patrón neuronal sino también en si es probable que siga a la primera. Por lo tanto, "yo soy" obtendría una puntuación de probabilidad más alta que "yo no". El resultado final produce dos oraciones, una en inglés y otra en español, pero la pantalla que enfrenta Pancho muestra solo la versión con la puntuación de probabilidad total más alta.

Los módulos pudieron distinguir entre inglés y español basándose en la primera palabra con un 88% de precisión y decodificaron la oración correcta con una precisión del 75%. Pancho podría llegar a tener conversaciones sinceras y espontáneas con el equipo de investigación, dijo Silva.

Dos idiomas, un área del cerebro

Los hallazgos revelaron aspectos inesperados del procesamiento del lenguaje en el cerebro. Algunos experimentos previos que utilizan herramientas no invasivas han sugerido que diferentes idiomas activan distintas partes del cerebro.

Pero el examen de las señales registradas directamente en la corteza por parte de los autores encontró que "gran parte de la actividad tanto en español como en inglés procedía en realidad de la misma área", enfatizó Silva.

En conjunto, estos hallazgos sugieren a los investigadores que diferentes idiomas comparten al menos algunas características neurológicas y que podrían generalizarse a otras personas. Además del estudio se desprende cómo las interfaces cerebro-computadora están emergiendo como una tendencia en las innovaciones médicas.

FUENTE: Ingeniería Biomédica de la Naturaleza / Universidad de California / Redacción Diario las Américas

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar