OpenAI 공식 블로그에 따르면, 안전보안위원회는 이사회 산하의 독립적인 감독 그룹이 될 예정입니다. 카네기 멜론 대학교의 지코 콜터 교수가 위원회 의장을 맡고, Quora CEO인 애덤 댄젤로, 은퇴한 미국 육군 장군인 폴 나카소네, 전 소니 부사장인 니콜 셀리그먼 등이 위원으로 참여합니다. 이 모든 회원은 현재 OpenAI 이사회의 이사입니다.
알트만이 사임한 후, 위원회는 회사의 최신 AI 모델인 o1에 대한 안전성 평가를 완료했습니다. 해당 팀은 OpenAI의 안전 및 보안 팀으로부터 계속해서 브리핑을 받을 것이며, 안전 문제가 해결되지 않을 경우 공개를 연기할 권리를 보유합니다.
OpenAI에 따르면, 위원회는 현재 및 미래 모델에 대한 기술적 감독을 제공하는 중요한 역할을 유지할 것이며, 모델이 출시된 후에도 후속 조치를 취할 것입니다. 이 회사는 모든 AI 모델이 안전하게 배포되도록 명확한 평가 기준을 갖춘 내장형 안전 프로세스를 구축하는 데 전념하고 있습니다.
알트만이 위원회를 떠나기로 결정한 것은 5명의 미국 상원의원이 OpenAI에 안전 정책을 명확히 하라고 요청하는 서한을 보낸 후에 나온 것입니다. 지난해, AI의 장기적 위험을 연구하는 데 주력하던 OpenAI 직원의 절반 가까이가 회사를 떠났습니다. 전 OpenAI 연구원들은 알트만이 강력한 AI 규제를 옹호하지 않고 대신 회사의 상업적 목표를 증진하는 정책을 선호한다고 비판했습니다.
이미지 출처: Justin Sullivan / Getty Images
또한 OpenAI는 미국 의회 로비에 대한 지출을 크게 늘렸습니다. 이 회사는 2023년 전체 예산인 26만 달러에 비해 2024년 상반기 예산은 80만 달러로 책정했습니다. 알트만은 또한 국토안보부 인공지능 안전보안위원회 위원으로 활동하며, 국가의 중요 인프라 전반에 걸쳐 AI와 관련된 권고안을 만드는 데 기여하고 있습니다.
알트만은 보안 및 개인정보 보호 위원회를 떠났지만, 이 위원회가 OpenAI의 상업적 경로를 심각하게 방해할 수 있는 결정을 내릴 것이라는 징후는 거의 없어 보인다. 5월에 OpenAI는 이 위원회를 통해 자사 작업에 대한 "타당한 비판"을 해결하고자 한다고 밝혔지만, "타당한 비판"은 대체로 검토자의 관점에 따라 달라집니다.
5월 The Economist에 실린 사설에서, OpenAI의 전 이사회 멤버인 헬렌 토너와 타샤 맥콜리는 회사의 자체 통치 능력에 대한 우려를 표명했습니다. 그들은 OpenAI가 현재 이윤의 압박으로 인해 책임을 질 수 없다고 주장합니다.
OpenAI의 수익은 점점 더 중요한 동력이 되고 있습니다. 이 회사는 새로운 자금 조달 라운드에서 65억 달러를 모금하는 과정에 있으며, OpenAI의 기업 가치는 1,500억 달러를 넘습니다. 투자자를 유치하기 위해 OpenAI는 인류의 공동선을 위한 AI 개발이라는 목표를 위해 투자자 수익을 제한하도록 설계된 하이브리드 비영리 구조를 포기하는 것을 고려할 수도 있습니다.
Hung Nguyen (TechCrunch에 따르면)
[광고_2]
출처: https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
댓글 (0)