Su metodología se basa en examinar los cerebros de los participantes, dentro de una maquina de resonancia magnética (MRI) mientras se expone una colección variedad de 160 mil imágenes diferentes desde animales, alimentos, edificios y actividades humanas diversas.
De acuerdo al investigador del proyecto y estudiante de doctorado, Jiaxin Qing de la Universidad China de Hong Kong (CUHK IE), las habilidades de lectura mental la han bautizado como MinD-Vis, qué establece conexiones entre los escaneos cerebrales y las imágenes, originando un nuevo modelo de IA personalizado para cada individuo.
También menciona qué, así como ChatGPT puede comprender el lenguaje natural de los humanos, esta inteligencia artificial (IA) tiene la capacidad de captar las actividades cerebrales para luego traducirlas a un lenguaje comprensible para Stable Diffusion (IA de código abierto que transforma texto en imágenes).
El profesor asociado Juan Helen Zhou, perteneciente a la Escuela de Medicina Yong Loo Lin de la Universidad Nacional de Singapur (NUS Medicine) explicó que durante el proceso los participantes observan una secuencia de imágenes, con una duración de 9 segundos cada una y para el intervalo de descanso es de 9 segundos entre cada una de ellas.
Por lo tanto, la decodificación mental se activa cuando el participante ingresa al escenario y es sometido a la visualización de determinadas imágenes mientras permanece bajo una resonancia magnética. De este modo la IA pueda descifrar los patrones de ondas cerebrales y generar la representación visual de lo qué en su opinión es lo qué el participante está observando.
Sin embargo, los investigadores reconocen que existen riesgos potenciales cómo, la posibilidad de que los datos empleados por la IA sean evaluados sin el debido consentimiento y la falta de legislación en la investigación de la inteligencia artificial, lo cual sería un obstáculo para el avance de esta tecnología.