/

¿Podrá la IA leer nuestra mente?

Si hacemos caso a las principales compañías tecnológicas, la IA será capaz de todo en un futuro a corto plazo, pero ¿qué opinan los neurocientíficos especializados en nuevas tecnologías? ¿La inteligencia artificial llegará tan lejos como se nos está prometiendo? ¿Y si la IA pudiera, por ejemplo, leer la mente? ¿Ciencia ficción o realidad? 

A continuación, acudimos a dos estudios recientes que abordan la posibilidad de que la inteligencia artificial sea capaz de representar imágenes del cerebro humano y traducir la actividad cerebral en un flujo continuo de texto. Por último, comentamos la última promesa de Meta, la nueva cara de Facebook, acerca del uso de la IA para decodificar el habla a partir de la actividad cerebral. 

Leer la mente con un decodificador semántico 

Una persona con una proyección de números en el rostro - Fuente: Pexels
Una persona con una proyección de números en el rostro – Fuente: Pexels

Ya en 2013, la revista Wired se hacía eco de uno de los primeros trabajos del por entonces estudiante de Ciencia Computacional y Neurociencia Alexander Huth, junto a su profesor Jack Gallant en el que presentaban una infografía que mostraba cómo las categorías de palabras comunes se almacenan en nuestro cerebro.  

Antes de que la “revolución” de la IA acaparase la atención mediática, los investigadores ya batallaban con la posibilidad de “leer la mente”: cinco voluntarios fueron colocados en una máquina fMRI —resonancia magnética funcional— que escaneó sus cerebros mientras miraban tráileres de películas durante tres horas. “Cada vez que el voluntario veía un sustantivo o verbo específico, recuperamos la ubicación en el cerebro que se iluminaba al mismo tiempo”. 

Casi una década después de este estudio, Huth, ya como profesor de la Universidad de Texas, ha presentado un estudio en la misma línea que incluye el uso de las nuevas tecnologías procedentes de la IA, particularmente el modelo de lenguaje GPT que es el motor del popular chat de libre acceso. 

En este caso, el decodificar semántico fue “entrenado” a través de la actividad cerebral de tres voluntarios que permanecieron acostados en una máquina de fMRI durante 16 horas cada uno. Tras el entrenamiento, los mismos participantes fueron escaneados escuchando o imaginando nuevas historias y el decodificador intervino para generar texto solamente a partir de la actividad cerebral

En declaraciones que recogen medios como The Guardian, Huth afirmó que su sistema “funciona a nivel de ideas, de semántica, de significado, aunque no logramos sacar las palabras exactas, sí obtuvimos la esencia”. Y no está nada mal, ¿verdad? 

Por ejemplo, cuando a un voluntario se le reprodujeron las palabras “todavía no tengo mi carné de conducir”, el decodificador lo tradujo como “ella ni siquiera ha comenzado a aprender a conducir todavía”.  

A pesar de no lograr la “exactitud” que persigue el equipo de Huth, el profesor de la Universidad de Texas afirma que se trata de un verdadero avance para un método no invasivo. Y es que, hasta ahora, para lograr resultados similares se necesitaban implantes quirúrgicos.  

No obstante, el reto de este decodificador semántico es “leer” cualquier mente, ya que, de momento, el sistema no puede entrenar con una persona y después ejecutarlo con otra, además de que, y esto es importante, no puede reproducir las palabras del sujeto sin la cooperación de este. Así que, de momento, podemos estar tranquilos: ninguna máquina adivinará nuestros pensamientos si no queremos que lo haga.  

Reconstruir imágenes cerebrales con IA 

Imágenes y diagramas del estudio
Imágenes y diagramas del estudio

A la hora de valorar el experimento precedente, el profesor de neurociencia Shinji Nishimoto lo catalogó como un avance significativo celebrando la posibilidad de que pueda ser la base del desarrollo de interfaces “cerebro-computadora”.  

Y es que Nishimoto sabe bien de lo que habla porque también ha presentado recientemente un estudio muy prometedor en este ámbito, aunque optando por la reconstrucción de imágenes en vez de la traducción de los pensamientos en palabras.  


Los investigadores de la Universidad de Osaka presentaron a varios voluntarios una serie de fotos y les pidieron que se concentraran en ellas mientras se les practicaba una resonancia magnética cerebral. Para reconstruir las imágenes partiendo de la actividad cerebral fijada en la fMRI, los investigadores usaron un modelo de difusión latente conocido como Stable Diffusion de alto rendimiento generativo

El resultado de la prueba fue altamente satisfactorio como se muestra en las imágenes: “Mostramos que nuestro método propuesto puede reconstruir imágenes de alta resolución con alta fidelidad de manera sencilla, sin necesidad de capacitación adicional y ajuste de modelos complejos de aprendizaje profundo”.

Meta y su decodificador semántico 

Cerebro
Escáner de un cerebro en una tablet

Facebook, ahora conocido como Meta, lleva años buscando una nueva tecnología para volver a liderar el sector. Y es evidente que la inteligencia artificial se presenta como el medio adecuado para lograr sus objetivos. La última promesa del imperio de Mark Zuckerberg es la aplicación de la IA para decodificar el habla a partir de la actividad cerebral, algo que ya hemos visto en los experimentos precedentes, pero en este caso con un objetivo comercial.  

En un comunicado difundido en agosto del año pasado, Meta señalaba como cada año casi 70 millones de personas sufren lesiones cerebrales traumáticas que dejan a muchas de ellas incapaces de comunicarse mediante el habla, los gestos o la escritura. “La vida de estas personas podría mejorar drásticamente si los investigadores desarrollaran una tecnología para decodificar el lenguaje directamente a partir de grabaciones cerebrales no invasivas”. 

En colaboración con la Universidad de Nueva York, la de Míchigan, el Trinity College de Dublín y la Universidad de Rochester, Meta patrocinó una investigación para identificar las representaciones complejas del habla en los cerebros de voluntarios que escuchaban audiolibros. 

Para ello usaron el denominado wave2vec 2.0, un modelo de reconocimiento de voz que aprende la estructura del habla a partir de audio sin procesar. Apoyándose en la electroencefalografía y magnetoencefalografía que son capaces de tomar aproximadamente 1.000 instantáneas de actividad cerebral macroscópica cada segundo, el sistema fue entrenado para inferir las palabras que la persona (probablemente) ha escuchado

Meta señaló que su modelo puede “decodificar los segmentos de voz correspondientes con una precisión de hasta el 73% de los diez principales de un vocabulario de 793 palabras, es decir, una gran parte de las palabras que normalmente usamos en un día”. 



Dejar una respuesta

Your email address will not be published.