
그림: 옥스퍼드 대학교
네이처 에 따르면, 과학자들은 뇌 활동을 기반으로 사람이 머릿속에서 보고 상상하는 것을 정확하게 묘사할 수 있는 '마인드 캡셔닝'이라는 새로운 기술을 개발했습니다.
이 방법은 비침습적 기능적 자기공명영상(fMRI)을 사용하며 인간의 뇌가 세상을 해석하는 방식을 이해하는 데 새로운 길을 열어줄 수 있습니다.
사이언스 어드밴시스 (Science Advances) 저널에 발표된 이 연구는 이 시스템이 참가자들이 보고 있는 이미지나 장면을 "읽어내고" 이를 완전한 의미를 지닌 문장으로 번역할 수 있음을 보여주었습니다. 전문가들은 이 기술이 뇌졸중이나 신경 질환으로 인해 말을 할 수 없는 사람들이 더 효과적으로 소통하는 데 도움이 될 수 있다고 말합니다.
이 실험에서 과학자 호리카와 도모야스(일본 NTT 통신 과학 연구소) 팀은 심층 언어 모델을 사용하여 2,000개가 넘는 비디오 클립을 분석하고 각 설명을 디지털 "의미 서명"으로 전환했습니다.
그런 다음 연구진은 참가자들이 비디오를 시청하는 동안 각 서명에 해당하는 뇌 활동 패턴을 인식하도록 또 다른 모델을 훈련시켰습니다.
완전히 훈련되면, 이 모델은 새로운 영상을 시청하는 사람의 fMRI 데이터를 읽고 그 영상의 내용을 예측할 수 있습니다. 또 다른 텍스트 생성 모델은 이 "의미적 특징"과 가장 잘 일치하는 문장을 찾습니다.
한 예로, 참가자들은 폭포에서 뛰어내리는 사람의 장면을 시청했습니다. 여러 차례의 반복 후, AI는 묘사를 "급류"에서 "산비탈의 깊은 폭포를 뛰어넘는 사람"으로 점차 개선했습니다.
실험에서는 참가자들이 단순히 본 영상을 기억해냈을 때에도 시스템이 여전히 정확한 설명을 생성할 수 있음을 보여주었으며, 이는 뇌가 보는 것과 기억하는 것 사이의 유사한 메커니즘을 사용하여 이미지를 저장하고 재생성한다는 것을 보여줍니다.
연구자들은 이 기술이 뇌-컴퓨터 인터페이스를 사용하는 사람들의 의사소통을 개선하고, 이식형 장치가 필요 없이 생각을 직접 언어로 번역할 수 있다고 말합니다.
그러나 전문가들은 이 기술을 오용할 경우 사생활 침해의 위험도 경고합니다. 현재 이 방법은 참여자의 동의가 있어야만 작동하며 "개인적인 생각"을 읽을 수 없습니다.
출처: https://tuoitre.vn/dot-pha-ai-doc-suy-nghi-ghi-phu-de-cho-nao-nguoi-20251107071355395.htm






댓글 (0)