Un descodificador lee los pensamientos grabados por un escáner cerebral | Ciencia

A tres sujetos les hicieron oír un podcast del New York Times y monólogos de un popular software anglosajón mientras les escaneaban el cerebro. Con un descodificador diseñado por ellos, científicos estadounidenses lograron convertir las gráficas del escáner cerebral no solo en frases completas, sino en textos que reproducían con gran fidelidad lo que habían oreja. Según sus resultados, publicados hoy en la revista científica Nature Neuroscience, este descodificador que han llamado “semántico” fue capaz igualmente de verbalizar lo que pensaban y, aún más, lo que les pasaba por la comienzo mientras veían cine afásico.
Desde comienzos de siglo, y en singular en la última división, se han producido grandes avances en el diseño de interfaces cerebro máquina (ICB). La mayoría buscaban que personas incapaces de charlar o de mover incluso todos sus músculos pudieran comunicarse. Pero la anciano parte de estos sistemas necesitan desplegar el cráneo y colocar una serie de electrodos directamente en el cerebro. Otro enfoque, menos invasivo, se apoya en la técnica de imagen por resonancia magnética práctico (fMRI). Aquí, la interfaz acaba en un barretina ahíto de electrodos que se coloca sobre la comienzo. Este barretina no registra la actividad neuronal directa, sino los cambios en el nivel de oxígeno en crimen que esta provoca. Esto planteaba problemas de resolución. Por un banda, por el llegada desde fuera y, por el otro, los cambios en aquel nivel se producen en intervalos de hasta 10 segundos y en ese período se pueden sostener muchas palabras.
Para solventar estos problemas, un género de investigadores de la Universidad de Texas (Estados Unidos) se han apoyado en un sistema de inteligencia sintético que sonará accesible a muchos: GPT, el mismo en el que se apoya el bot ChatGPT. Este maniquí de habla, desarrollado por el laboratorio de inteligencia sintético OpenAI, usa enseñanza profundo para difundir texto. En esta investigación, lo entrenaron con las imágenes fMRI del cerebro de tres personas a las que hicieron oír 16 horas de audios de un consultorio del New York Times y del software The Moth Radiodifusión Hour. De esta modo pudieron corresponder lo que veían con su representación en la comienzo. La idea es que, cuando volvieran a oír otro texto, el sistema pudiera ir anticipándolo basándose en los patrones de lo ya aprendido.
“Se negociación del GPT llamativo, no como el nuevo [ChatGPT se apoya en la última versión de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este maniquí, que predice las respuestas cerebrales a las historias”, dijo en una conferencia vía web la pasada semana Alexander Huth, neurocientífico de la universidad tejana. Con este procedimiento, el descodificador propone secuencias de palabras “y para cada una de esas palabras que pensamos que podrían venir a continuación, podemos evaluar como de correctamente suena esa nueva secuencia y, al final, vemos si coincide con la actividad cerebral que observamos”, detalla.
A este descodificador lo han llamado semántico y con tiento. Anteriores interfaces registraban la actividad cerebral en las áreas motoras que controlan la pulvínulo mecánica del palabra, es sostener, los movimientos de boca, glotis o argot. “Lo que pueden descodificar es cómo la persona está tratando de mover la boca para sostener poco. Nuestro sistema funciona a un nivel muy diferente. En zona de fijarnos en el ámbito motor de bajo nivel, trabaja en el nivel de las ideas, de la semántica, del significado. Por eso no registra las palabras exactas que alguno escuchó o pronunció, sino su sentido”, explica Huth. Para esto, aunque las resonancias registraban la actividad de varias zonas cerebrales, se centraron más en las relacionadas con la recital y el habla.

Una vez entrenado el maniquí, los científicos lo probaron con media docena de personas que tuvieron que oír textos diferentes a los usados en el entrenamiento del sistema. La máquina descodificó las imágenes fMRI con una gran enfoque a lo que contaban las historias. Para confirmar que el ingenio operaba en el nivel semántico más que en el motor, repitieron los experimentos, pero esta vez pidiendo a los participantes que imaginaran ellos una historia y posteriormente la escribieran. Encontraron una gran correspondencia entre lo descodificado por la máquina y lo escrito por los humanos. Aún más difícil todavía, en una tercera tanda, los sujetos tuvieron que ver escenas de cine afásico. Aunque aquí el descodificador semántico falló más en las palabras concretas, seguía captando el sentido de las escenas.
El neurocientífico Christian Herff lidera la investigación en interfaces cerebro máquina en la Universidad de Maastricht (Países Bajos) y hace casi una división creo una ICB que permitió convertir en texto, giro a giro, las ondas cerebrales. Herff, que no ha participado en este nuevo ingenio, destaca la incorporación del predictor de habla GPT. “Esto es en realidad formidable, ya que las aportaciones de GPT contienen la semántica del palabra, no las propiedades articulatorias o acústicas, como se hacía en anteriores ICB”, dice. Por otra parte, añade: “Muestran que el maniquí entrenado en lo que se oye puede descodificar la semántica de películas mudas y igualmente en el palabra imaginada”. Este estudiado está “absolutamente convencido de que la información semántica se utilizará en las interfaces cerebro máquina para charlar en el futuro”.
“Sus resultados no son aplicables hoy en día, necesitas un equipo de resonancia magnética que ocupa una sala de un hospital. Pero lo que han conseguido no lo había rematado nadie antaño”
Arnau Espinosa, neurotecnólogo de la fundación Wyss Center de Suiza
Arnau Espinosa, neurotecnólogo de la fundación Wyss Center (Suiza), publicó el año pasado un trabajo sobre una ICB con un enfoque totalmente diferente que permitió comunicarse a un enfermo de ELA. Sobre la presente, recuerda que “sus resultados no son aplicables hoy en día a un paciente, necesitas un equipo de resonancia magnética que vale millones y que ocupa una sala de un hospital; pero lo que han conseguido no lo había rematado nadie antaño”. La interfaz en la que intervino Espinosa era distinta. “Nosotros íbamos a una señal con pequeño resolución espacial, pero mucha resolución temporal. Fuimos capaces de enterarse en cada microsegundo qué neuronas se activan y entonces pudimos ir a fonemas y a como crear una palabra”, añade. Para Espinosa, al final habrá que combinar varios sistemas, cogiendo distintas señales. “Teóricamente, sería posible; mucho más complicado, pero posible”.
El neurobiólogo gachupin de la Universidad de Columbia de Nueva York (Estados Unidos) Rafael Yuste lleva tiempo alertando de los peligros que comportan los avances de su propia disciplina. “Esta investigación, y el estudio de Facebook, demuestran la posibilidad de descodificar el palabra usando neurotecnología no invasiva. Ya no es ciencia ficción”, opina en un correo. “Estos métodos tendrán enormes aplicaciones científicas, clínicas y comerciales, pero, al mismo tiempo, presagian la posibilidad de descifrar los procesos mentales, ya que el palabra interna se usa a menudo para pensar. Este es un argumento más para la protección urgente de la privacidad mental como un derecho humano fundamental”, añade.
Anticipándose a estos temores, los autores de los experimentos quisieron comprobar si podían usar su sistema para interpretar la mente de otros sujetos. Por fortuna, comprobaron que el maniquí entrenado con una persona no acertaba a descifrar lo que oía o veía otra. Para comprobar, realizaron una última serie de ensayos. Esta vez pidieron a los participantes que contaran de siete en siete, pensaran y nombraran animales o se inventaran una historia en su comienzo mientras oían los relatos. Aquí, la interfaz apoyada en GPT, con toda la tecnología que lleva una máquina de resonancia magnética y todos los datos manejados por la IA, falló más que una escopeta de feria. Para los autores, esto mostraría que para interpretar la mente se necesita la cooperación de su dueño. Pero igualmente advierten de que su investigación se apoyó en los patrones de media docena de personas. Quizá con los datos de decenas o centenares, el peligro, reconocen, sea verdadero.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aquí para admitir nuestra newsletter semanal.
Creditos a Miguel Encanto Criado
Fuente