Una IA capaz de reconstruir los pensamientos humanos

Una IA ha sido capaz de replicar las imágenes que está viendo una persona a partir de sus ondas cerebrales. Decodifica sus pensamientos y los reconstruye fuera del cerebro en tiempo real.

Decodifica las imágenes cerebrales y las replica en tiempo real

Investigadores rusos han desarrollado una interfaz cerebro-ordenador que es capaz de dibujar lo que una persona está mirando porque decodifica sus ondas cerebrales con la ayuda de la Inteligencia Artificial.

La interfaz se basa en redes neuronales artificiales y en electroencefalografía o EEG, una técnica que registra ondas cerebrales a través de electrodos colocados de manera no invasiva en el cuero cabelludo.

Al analizar la actividad cerebral, el sistema de Inteligencia Artificial es capaz de reconstruir en tiempo real las imágenes vistas por una persona sometida a EEG.

Se trata de toda una proeza tecnológica porque hasta ahora se pensaba que los procesos cerebrales observados mediante EEG eran insuficientes para obtener información precisa de lo que realmente está viendo o pensando una persona.

Pero esta tecnología, desarrollada en el Instituto de Física y Tecnología de Moscú (MIPT) y la empresa rusa Neurobotics, ha confirmado que es posible reconstruir en tiempo real una imagen que está siendo observada por una persona.

Metodología

Los científicos lo comprobaron colocando una capa de electrodos en el cuero cabelludo de los participantes en el experimento, con la finalidad de registrar sus ondas cerebrales.

A continuación propusieron a los voluntarios que miraran fragmentos de video, de 10 segundos de duración, durante 20 minutos.

Ejemplos de diferentes tomas de los  videos utilizados para el experimento.

El equipo seleccionó cinco categorías de videos arbitrarios: formas abstractas, cascadas, rostros humanos, mecanismos de movimiento y deportes de motor.

Al analizar los datos EEG, los investigadores observaron que los patrones de ondas cerebrales son distintos para cada categoría de videos. Esto permitió al equipo conocer la reacción del cerebro a los diferentes videos.

Redes neuronales

En la segunda fase del experimento, los investigadores se centraron solamente en tres de las cinco categorías de videos y entrenaron a dos redes neuronales para dos cometidos específicos.

La primera red neuronal tenía que generar imágenes aleatorias a partir del “ruido” de las imágenes de los vídeos seleccionados. Este proceso se refiere a la granulación que ocasionalmente aparece en las imágenes cuando pierden nitidez.

La segunda red neuronal no trabajaba con los vídeos, sino con las imágenes EEG obtenidas en la fase anterior. Su función era generar un “ruido” similar a las imágenes de los vídeos, a partir de los datos proporcionados por la electroencefalografía.

El experimento desembocó en la fase decisiva: ambas redes fueron entrenadas para colaborar y convertir las imágenes EEG en imágenes reales, similares a las que habían observado los voluntarios en la primera fase y que habían sido procesadas por la primera red neuronal.

 


 

Pensar en una IA que sea capaz de reproducir las imágenes que está viendo una persona a partir de sus ondas cerebrales a más de uno seguramente no les caerá en gracia. Pero seguro habrá muchos usos útiles para esta tecnología en un futuro. Eso sí,  habría que protegerse por si acaso cuando se introduzcan claves bancarias. Pero por ahora a no preocuparse, no son más que experimentos.

 

 

Hasta la próxima

 

David (10% Nori-El)
foto-perfil-300

 

«Hay mayor realidad que nuestra mayor ficción»

Maestro Nori-El

 


 

Mas Información y Fuentes:

Tendencias21.net
Biorxiv.org