Sign Up To The Newsletter

Lorem ipsum dolor sit amet, consectetuer adipiscing elit, sed diam nonummy nibh euismod tincidunt ut laoreet

    Implantes cerebrales para que quienes han perdido la capacidad de hablar puedan comunicarse

    Las tecnologías leen, interpretan y traducen a palabras señales cerebrales con una velocidad y precisión inéditas hasta ahora

    Redacción

    Dos mujeres estadounidenses aquejadas de una parálisis que les impide hablar han podido volver a comunicarse con su entorno gracias a unos implantes cerebrales que descodifican la actividad neuronal y la traducen a palabras. Se trata de dos tecnologías presentadas este miércoles en sendos artículos de la revista Nature, que facilitan la comunicación con una velocidad, precisión y riqueza de lenguaje inéditas hasta el momento.

    Un equipo de la Universidad de California, San Francisco (USCF), en Estados Unidos, demostró que era posible descodificar las señales cerebrales que una persona produce al intentar hablar y transformarlas en texto. Su primer intento permitió que un hombre con parálisis severa se comunicara con un vocabulario de 50 palabras.

    El sistema demostró que la traducción era posible, pero era limitado: se equivocaba una de cada cuatro veces y transcribía las señales a un ritmo de 18 palabras por minuto, mucho más lento que en una conversación normal, donde la velocidad es de unas 160.

    Los implantes presentados por la propia UCSF y la Universidad de Stanford, ambas en Estados Unidos, multiplican la velocidad y riqueza de la comunicación. Los primeros han logrado un ritmo de 78 palabras por minuto formulando frases con un vocabulario de más de 1.000 términos diferentes, mientras que los segundos han llegado a las 62 palabras por minuto, pero con un vocabulario amplísimo, de 125.000 vocablos. Los resultados acercan la posibilidad de que personas que han perdido la voz puedan mantener conversaciones fluidas con su entorno y “son un verdadero hito en el campo”, valora Edward Chang, neurocirujano de la UCSF y líder de una de las investigaciones.

    Ambas tecnologías recogen la actividad neuronal que debería activar los músculos de lengua, faringe, mandíbula y cara de las pacientes, permitiendo que hablaran si no sufrieran parálisis, y usan una inteligencia artificial para transformar estas señales en palabras. Sin embargo, los grupos difieren en el modo de recoger los datos y entrenar a la IA.

    El mensaje más importante es que hay esperanza

    EDWARD CHANG
    MÉTODOS DIFERENTES

    Mientras los científicos de la Universidad de California han leído la actividad neuronal del conjunto de células de la superficie del cerebro, el equipo de Stanford ha insertado electrodos en el interior del córtex cerebral de la paciente para leer la actividad neurona a neurona. El hecho de que ambas aproximaciones hayan dado resultados similares llena de optimismo a los investigadores. “El mensaje más importante es que hay esperanza, que esto continuará mejorando y que proveerá una solución en los próximos años”, concluye el neurocirujano de la UCSF. Por ahora, ambas tecnologías son puramente experimentales.

    Para traducir la señal a palabras, equipos de investigación y pacientes entrenaron durante centenares de horas a sendas inteligencias artificiales. La Universidad de Stanford pidió a su voluntaria que, a lo largo de 25 días, repitiera más de 10.000 frases diferentes, sacadas aleatoriamente de conversaciones telefónicas. El algoritmo fue capaz de traducir los impulsos neuronales en palabras de un vocabulario amplísimo, de más de 125.000 términos, errando el 24% de ellas. Pese a que la tasa de fallos es elevada, es la misma que dos años atrás se daba con un lenguaje mucho más pobre, de sólo 50 palabras. La nueva tecnología se equivocó sólo una de cada diez veces con este vocabulario tan reducido.

    Fuente: lavanguardia.com