SGGP
유럽이 세계 최초로 인공지능(AI)에 관한 법안을 초안하고 곧 시행한 이후, 미국의 4대 인터넷 데이터 마이닝 "거대 기업"이 프론티어 모델 포럼이라는 그룹을 출범시켰습니다.
프론티어 모델 포럼의 핵심 목표는 책임감 있는 AI를 장려하는 것입니다. 사진: THINKWITHNICHE |
당사자들이 함께 모인다
Anthropic, Google, Microsoft, 그리고 ChatGPT의 소유주인 OpenAI가 포함된 이 그룹은 프론티어 모델 포럼의 핵심 목표가 AI 플랫폼으로 인한 위험을 줄이고 산업 표준을 개발하는 것이라고 밝혔습니다. 프론티어 모델 포럼은 다음과 같은 주요 목표를 가진 새로운 포럼을 설립할 예정입니다. AI 개발을 지원하고, 위험을 줄이며, 안전성 평가 및 수준을 표준화하기 위한 AI 안전성 연구를 촉진합니다. 모델 개발 및 배포를 위한 모범 사례를 파악하고, 대중이 해당 기술의 특성, 기능, 한계 및 영향을 이해하도록 지원합니다. 또한 정책 입안자, 학계, 시민 사회, 기업과 협력하여 위험 및 안전성에 대한 지식을 공유합니다.
기술 대기업들은 전통적으로 규제 강화에 저항해 왔지만, 이번에는 기술 업계가 AI로 인한 위험에 대한 입장을 크게 바꾸었습니다. 프론티어 모델 포럼(Frontier Model Forum) 이니셔티브에 참여한 기업들은 기업 간 모범 사례를 공유하고 정부 와 시민 사회에 정보를 공개하겠다고 약속했습니다.
특히, 프론티어 모델 포럼은 AI를 새로운 차원의 정교함으로 끌어올리는 대규모이지만 아직 초기 단계인 머신러닝 플랫폼에 초점을 맞출 것입니다. 이는 잠재적 위험 요소이기도 합니다. 또한, 프론티어 모델 포럼은 기후 변화 완화 및 적응, 조기 암 발견 및 예방, 사이버 위협 보호와 같은 주요 사회적 과제를 해결하는 애플리케이션 개발도 지원할 것입니다.
잠재적 파괴의 여지
미국 기업들이 프론티어 모델 포럼(Frontier Model Forum)을 발표한 것은 7월 25일 미국 상원 법사위원회 소위원회 청문회에서 미국 상원의원들이 AI가 생물 공격에 사용될 위험성을 경고한 지 며칠 만에 나온 것입니다. 최근 OpenAI, Alphabet, Meta 등 7개 주요 기술 기업들이 백악관에 자발적으로 AI가 생성하는 텍스트, 이미지, 오디오, 비디오 등 모든 콘텐츠에 라벨을 붙이는 시스템을 개발하겠다고 약속했습니다. 이는 사용자에게 정보 투명성을 제공하고 AI 기술의 안전성을 보장하기 위한 것입니다.
AI가 아직 생물학 무기를 개발할 수준은 아니지만, 향후 2~3년 안에 미국 국가 안보에 심각한 위협이 될 수 있는 "중기적" 위험이라고 AI 앤트로픽의 CEO 다리오 아모데이는 지적했습니다. 대규모 생물학 공격을 감행하는 주체가 더 이상 해당 분야의 전문 지식을 가진 자들로 제한되지 않기 때문입니다.
전 세계는 생성적 AI 기술로 제작된 콘텐츠의 폭발적인 증가에 직면해 있습니다. 미국에서 유럽, 아시아에 이르기까지 규제 조치가 점차 강화되고 있습니다. CNN에 따르면, 미국 상원은 9월부터 의원들을 대상으로 AI가 일자리, 국가 안보, 그리고 지식재산권에 미치는 영향에 대해 논의하는 9개의 워크숍을 추가로 개최할 예정입니다. 미국보다 앞서, 합의가 도출될 경우 유럽 연합은 내년에 세계 최초의 AI 관리법을 제정하여 2026년에 발효될 예정입니다.
AI가 사회에 가져다주는 이점은 부인할 수 없지만, 이 새로운 기술의 잠재적 위험에 대한 경고가 점점 커지고 있습니다. 6월, 안토니오 구테흐스 유엔 사무총장은 국제원자력기구(IAEA)와 유사한 국제 AI 감시기구를 설립하자는 여러 AI 관련 임원들의 제안을 지지했습니다.
프론티어 모델 포럼에서 마이크로소프트 사장 브래드 스미스는 이 이니셔티브가 기술 기업들을 하나로 모아 모든 인류의 이익을 위한 AI의 책임 있는 사용을 장려하는 중요한 단계라고 말했습니다. 마찬가지로, OpenAI 글로벌 담당 부사장 안나 마칸주는 첨단 AI 기술이 사회에 심오한 혜택을 가져올 잠재력을 가지고 있으며, 이를 위해서는 감독과 거버넌스가 필요하다고 말했습니다.
[광고_2]
원천
댓글 (0)