Redacción
Una interfaz entrenada con IA (Inteligencia Artificial) registra su actividad cerebral cuando intenta decir las palabras y las reproduce con la voz sintetizada de la paciente, que sufrió un derrame
Ann tenía 30 años cuando tuvo un derrame en el tronco encefálico, la base cerebral que conecta con la médula espinal. Dejó de mover las piernas, los brazos y hasta los músculos que accionan sus cuerdas vocales. Ahora, tras años de entrenamiento con inteligencia artificial (IA), una interfaz cerebro máquina (BCI, por sus siglas en inglés) le permite comunicarse casi en tiempo real con su propia voz sintetizada.
Para lograrlo, su cabeza tiene que estar conectada a una máquina que registra su actividad neuronal mediante una malla de 253 electrodos que le ponen directamente en el cerebro. Pero es la primera vez que puede hablar, aunque sea como un robot y enchufada, en más de dos décadas.
Ann, que ya ha pasado la cincuentena, no piensa las palabras, las intenta decir. La región de la corteza motora que se dedica al habla no está dañada. Ahí es donde empieza el trabajo del grupo de neurocientíficos, ingenieros y programadores de IA y ahí reside una de las diferencias con otros intentos de devolverle la capacidad de comunicarse a los que no puede hablar.
Otros BCI actúan sobre el área específica del lenguaje mientras los pacientes piensan en una palabra o imaginan que la escriben. Este nuevo sistema registra lo que pasa en su cerebro cuando quiere decir “hola”.
Lo explica en un correo Gopala Anumanchipalli, profesor de ingeniería eléctrica e informática en la Universidad de California en Berkeley (Estados Unidos) y coautor sénior de esta investigación, recién publicada en Nature Neuroscience: “Es cuando ella intenta decir ‘hello’, sin pensarlo. Debido a la parálisis de Ann, no puede articular ni vocalizar nada. Sin embargo, la señal neuronal de su intención es potente, lo que la convierte en una pista fiable para decodificar”, explica Anumanchipalli.
ELECTRODOS
La decodificación empieza con los electrodos colocados en la corteza motora del habla. En una persona sana, desde aquí parten las conexiones neuronales que llegan, a través del tronco encefálico, hasta los músculos que controlan el tracto vocal.
Con esta conexión perdida, una veintena de científicos de Berkeley y la Universidad de California en San Francisco, apoyados en varios trabajos previos, diseñaron un sistema de aprendizaje basado en algoritmos que decodificaban la actividad neuronal específica de Ann cuando quería articular una palabra.
Interceptamos la señal donde el pensamiento se convierte en articulación
CHEOL JUN CHO
Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, “básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade: “Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”.
Ann guardaba el vídeo de su boda, algo que les vino muy bien. Con él, pudieron elegir la voz del sintetizador como se elige la de un navegador o la de Siri. Ann dijo a los investigadores que oír su propia voz le ayudaba a conectar con la máquina.
Fuente: elpais.com y lavanguardia.com