일론 머스크의 정부 효율부(DOGE)는 AI를 활용해 비용 절감 결정을 내릴 예정이라고 합니다. 이러한 전략은 보안, 편견, 오류에 대한 우려를 불러일으킨다.
일론 머스크는 미국 예산 적자를 최소 1조 달러 이상 신속하게 줄이는 것이 목표라고 밝혔습니다.
익명의 소식통을 인용한 언론 보도에 따르면, DOGE부는 비용 절감 결정을 가속화하기 위해 AI를 활용하고 있는 것으로 보인다.
메타의 책임 AI 부서에서 근무했던 AI 전문가 데이비드 에반 해리스는 이를 "끔찍한 생각"이라고 부릅니다.
전문가들은 이러한 접근 방식이 머스크가 2년 전 트위터에서 채택했던 "먼저 잘라내고 나중에 수정"이라는 사고방식을 반영한 것이라고 말한다. 그로 인해 수천 건의 일자리 감소, 기술적 결함, 소송 및 논란이 발생하여 소셜 네트워크가 침식되었다.
그러나 정부 기관, 시스템, 서비스를 해체하면 기술 회사의 해체보다 훨씬 더 심각한 결과가 초래될 것입니다.
AI를 사용하여 비용 절감 결정 안내
워싱턴 포스트에 따르면, 2월 초 DOGE 위원들은 교육부 의 민감한 데이터를 AI 소프트웨어에 입력해 교육부의 프로그램과 지출을 분석했습니다.
Wired는 DOGE 직원들이 총무청(GSA)을 위해 GSAi라는 AI 챗봇을 개발했다고 보도했습니다. 이 챗봇은 방대한 양의 계약 및 조달 데이터를 분석하는 데 도움이 됩니다.
NBC 뉴스 의 또 다른 보도에 따르면 DOGE는 연방 직원의 직무 피드백을 분석하여 더 이상 필요하지 않은 직책을 파악하기 위해 AI를 사용하는 것을 고려하고 있다고 합니다.
2월에 Wired는 DOGE가 국방부 의 AutoRIF 소프트웨어를 수정하여 해고 목적으로 인원의 순위를 자동으로 매겼다고 보도했습니다.
지난주, 미국 디지털 서비스 기관(USDS) 직원 21명이 항의의 표시로 사임했습니다. 그들은 DOGE 직원들이 민감한 데이터를 잘못 처리하고 중요 시스템을 방해했다고 비난했습니다.
AP에 따르면 백악관 대변인 캐럴라인 리빗은 "항의, 소송 또는 법적 조치가 트럼프 대통령을 막을 수 있다고 생각하는 사람은 누구나 지난 몇 년 동안 아무것도 몰랐을 것"이라고 주장했다.
머스크는 X에서 이런 사람들을 사무실로 복귀하기를 거부하는 "보수주의자"라고 불렀습니다.
디지털 도구를 개발하고 정부를 위한 기술 역량을 구축하는 비영리 단체인 Code for America의 CEO 아만다 렌테리아에 따르면, 문제 중 하나는 효과적인 AI 도구를 구축하려면 훈련에 사용되는 데이터에 대한 깊은 이해가 필요한데, DOGE 팀은 그런 이해가 부족하다는 것입니다.
AI 도구가 생성하는 결과가 쓸모없을 수도 있고, 기술적으로 올바른 결정을 내리는 데 필요한 정보와 맥락이 부족할 수도 있습니다. 환각 증상이 있을 수도 있습니다.
많은 통신사에 따르면 DOGE 직원들은 머스크의 다른 회사에서 온 20대 청년들로 구성되어 있습니다.
DOGE의 AI 활용을 둘러싼 우려
전문가들은 AI가 인간에게서 흔히 나타나는 편견을 복제할 수 있다고 우려한다. 예를 들어, 일부 AI 채용 도구는 다른 후보자보다 백인 남성 후보자를 선호합니다.
AI를 이용해 어떤 직위나 프로젝트를 없애야 할지 결정한다면, 단지 외모나 서비스를 제공하는 사람 때문에 중요한 사람이나 일자리 중 일부가 없어질 수 있다는 것을 의미합니다.
해리스는 연방 직원들의 피드백을 평가하기 위해 AI를 사용하는 사례를 분석했습니다. 모국어가 영어가 아닌 재능 있는 직원은 AI에 의해 영어 사용자보다 열등하다고 판단될 수 있습니다.
이런 우려는 새로운 것이 아니지만, 정부에서 문제가 생기면 더 심각한 결과를 초래할 수 있습니다. 머스크 자신도 DOGE가 실수를 할 수 있다는 것을 인정했으며 에볼라 예방과 같은 일부 중요한 활동에서 손을 뗐습니다.
이러한 의사결정에 AI가 관여했는지는 불분명하다.
AI가 업무 효율성을 높이고, 방대한 양의 정보를 종합하고 분석하는 데 도움이 된다는 것은 부인할 수 없는 사실입니다. 하지만 주의해서 사용하지 않으면 민감한 정부 데이터나 개인의 개인 정보가 위험에 처할 수 있습니다.
적절한 보호 조치와 시스템에 접근할 수 있는 사람에 대한 제한이 없다면 AI 프로그램에 입력된 데이터가 다른 요청에 대한 응답으로 예기치 않게 나타나서 알 필요가 없는 사람들의 손에 들어갈 수 있습니다.
해리스는 DOGE의 인사 기록 처리 방식에 대해 특히 우려를 표명했는데, 그는 이를 "모든 조직에서 가장 민감한 문서" 중 하나로 묘사했습니다.
그러나 전문가들에 따르면 가장 시급한 문제는 DOGE의 AI 활용과 관련된 투명성이 부족하다는 것입니다. 부처에서 어떤 도구를 사용하고 있는지, 어떻게 모니터링하고 있는지, 결과를 확인하고 평가하는 사람이 있는지 등은 아직 밝혀지지 않은 문제입니다.
뉴욕 대학교 컴퓨터 과학과 조교수이자 책임 있는 AI 센터 소장인 줄리아 스토야노비치는 AI가 효과적이려면 사용자가 기술에 대한 목표를 명확히 하고 AI 시스템이 해당 요구 사항을 충족하는지 철저히 테스트해야 한다고 주장합니다.
그녀 는 "DOGE 팀이 성과를 어떻게 측정하고 결과의 정확성을 어떻게 평가하는지 자세히 들어보고 싶어요." 라고 말했습니다.
(CNN에 따르면)
[광고_2]
출처: https://vietnamnet.vn/hiem-hoa-khi-bo-doge-cua-elon-musk-ra-quyet-dinh-dua-tren-ai-2377729.html
댓글 (0)