AI 거대 기업의 40명 이상의 연구자들은 AI가 생각을 모니터링하는 능력이 사라지고 있으며, 인간이 완전히 통제력을 잃을 수도 있다고 경고했습니다.
Báo Khoa học và Đời sống•27/07/2025
OpenAI, Google DeepMind, Meta, Anthropic의 연구원 40명 이상이 AI에 대한 통제력을 상실할 경우 발생할 수 있는 위험에 대해 전례 없는 경고를 발표했습니다. 현대의 모델은 언어로 '생각'하기 시작하여 사람이 기계의 내부 논리를 따를 수 있게 했지만, 이는 매우 취약합니다.
아키텍처나 훈련 방법을 약간만 바꿔도 AI가 마음을 읽는 능력은 완전히 사라질 수 있습니다. OpenAI 연구원인 보웬 베이커는 "현재의 감시 능력은 매우 취약하고 쉽게 가려질 수 있다"고 경고했습니다.
그는 미래의 AI가 강화 학습이나 비언어적 추론 아키텍처를 적용할 때 특히 인간에게 생각을 숨기는 법을 배울 수 있다고 우려합니다. 실제로 투명성이 요구됨에도 불구하고 허위 정당성을 만들고 실제 목표를 숨기는 모델이 많이 기록되었습니다. 전문가들은 투명성을 평가하기 위한 표준을 개발하고 이를 AI 훈련의 핵심 요소로 만들 것을 요구합니다.
우리가 신속하게 행동하지 않으면 인간은 자신이 만든 게임에서 뒤처질 수 있습니다. AI가 "생각"은 하지만 아무도 이해하지 못하는 게임에서 말입니다. 독자 여러분, 더 많은 영상을 시청해 주세요 : AI 쓰레기 청소 | 하노이 18:00
댓글 (0)