Vietnam.vn - Nền tảng quảng bá Việt Nam

“AI는 왜 위험한가요?”

Báo Quân đội Nhân dânBáo Quân đội Nhân dân04/04/2023

[광고_1]

사실, 과학자들이 인공지능이 인간에게 위험해질 수 있다는 전망을 경고한 것은 이번이 처음이 아니다. 2014년, 유명한 영국 이론 물리학자 스티븐 호킹은 "인공지능이 완전히 개발되면 인류가 파괴될 수 있다"고 말했습니다. 그는 또한 인간이 이 위험한 기술의 연구와 개발에 신중하지 않다면 앞으로 500년 안에 인공지능에 의해 완전히 대체될 것이라고 말했습니다. 8년 전인 2015년 7월, 스티븐 호킹, 일론 머스크, 노암 촘스키 등 인공지능 기술 연구 전문가 1,000여 명이 군사 AI 분야의 군비 경쟁 위험을 경고하고 자율 무기에 대한 포괄적 금지를 요구하는 청원에 서명했습니다. OpenAI가 2022년 11월에 Chat GPT 애플리케이션을 출시하면서 인공지능으로 인한 실존적 위험에 대한 경각심이 다시 한번 커졌습니다. 사실, Chat GPT가 하는 일은 AI가 인간이 생각했던 것보다 훨씬 더 위험하다는 것을 보여줍니다.

인공지능의 잠재적 위험은 인공지능을 어떻게 사용하는지에 따라 달라집니다. 원래 AI는 인간의 업무를 돕기 위해 개발되었으며, 특히 이미지 분류, 정보 검토 등 지루하고 반복적인 작업을 돕기 위해 개발되었습니다. 그러나 최근 AI가 급속도로 발전하면서 과학자 와 기술 전문가들은 통제 불가능하게 개발되거나 잘못된 목적으로 프로그래밍될 경우 인공 지능이 인간과 사회에 심각한 결과를 초래할 수 있다는 우려를 표명했습니다.

불안의 위험

인공지능은 국가 안보와 개인의 안전에 위협이 될 수 있습니다. 일론 머스크는 AI가 전쟁에서 무서운 도구가 될 수 있다고 경고했습니다. 어떤 나라가 우수한 인공지능 시스템을 개발한다면, 이를 이용해 다른 나라를 공격할 수도 있다. 캘리포니아 대학의 컴퓨터 과학 교수인 스튜어트 러셀은 수십 년 동안 인공지능을 연구해 왔습니다. 그는 AI가 제기하는 보안 위협에 대해 경고하며, 기존 기술을 통합하고 소형화함으로써 자율 공격 무기를 생산할 수 있다고 말했습니다.

이 실험은 스튜어트 러셀 교수와 미래생명연구소(FLI)가 킬러 로봇(슬로터봇)을 사용하여 수행했습니다. 슬로터봇은 카메라, 센서, 영상 처리 소프트웨어, 얼굴 인식 기능, 3그램 폭발물, 고속 마이크로프로세서 등을 장착한 미세한 비행 장치로, 인간의 뇌보다 100배 빠르게 데이터를 분석하고 반응할 수 있습니다. 프로그래밍 매개변수에 따르면, 킬러 로봇은 클라우드 데이터에 지속적으로 액세스하여 대상에 대한 정보를 검색하고 접근 방법을 찾습니다. 발견되면 빠른 속도로 목표물을 향해 돌진하여 3그레인 폭발물을 작동시키고, 두개골 깊숙이 구멍을 뚫어 눈 깜짝할 새에 피해자를 죽입니다.

그것은 단지 가장 단순한 수준의 AI에 대한 실험이었습니다. AI를 활용해 새로운, 더욱 정교한 공격 방법을 개발한다면 공격자의 공격 역량이 향상되고 기존 공격보다 더 심각한 결과를 초래할 수도 있습니다. AI가 주변 환경의 변화에 ​​대처하거나 대체 대상을 찾거나 대상 범위를 확장하기 위해 스스로 결정을 내릴 수 있는 수준으로 발전하면 인간은 더 이상 안전하지 않을 수 있습니다. 이 분야의 많은 동료들은 스튜어트 러셀 교수의 의견에 동의하며, 이처럼 암울한 미래를 막을 수 있는 기회는 여전히 있지만, 남은 시간이 많지 않다고 주장합니다.

AI가 조직화되고 자율화되며 시스템을 제어하게 될 위험

AI는 부적절하게 설계되거나 머신 러닝을 통해 부적절하게 "훈련"될 수 있으며, 원치 않는 작업을 수행하여 사람과 환경에 피해를 줄 수 있습니다. 구체적인 예를 들면 다음과 같습니다. 머신러닝을 통해 AI는 점점 더 지능화되고 있습니다. 인공지능이 전기, 교통, 의료 , 금융 등과 같은 중요한 시스템을 지원하는 수준을 넘어서면, 이러한 모든 시스템을 마스터하고 제어하며 비상 상황에서 결정을 내리고 실행할 수 있습니다. AI가 추가적인 "의도적인" 목적(잘못된 설계)을 "갖추게" 되면 신호등 시스템을 비활성화하여 교통 시스템을 교란시키거나 도시 철도 운영 시스템의 전원을 차단하고, 일련의 사고를 일으키거나, 광범위한 정전을 일으키는 등 많은 심각한 결과를 초래할 수 있습니다.

이 시나리오를 바탕으로 한 할리우드와 국제 영화가 많이 나왔습니다. 하지만 현대의 AI 기술을 이용하면 이는 더 이상 먼 미래 일이 아니라 완전히 현실이 될 수 있습니다. 일론 머스크는 AI가 인간의 개입 없이도 결정을 자동화할 수 있을 정도로 통제 없이 발전하도록 허용한다면, 인간의 생존에 위협이 될 수 있다고 생각합니다. 그래서 그와 수천 명의 기술 전문가들은 AI 개발을 투명하게 중단하고 엄격하게 통제할 것을 요구하는 서한에 서명했습니다. 일론 머스크에 따르면 인공지능 시스템은 복잡하고, 이해하기 어렵고, 제어하기가 매우 어렵습니다. 투명성이 없다면, 인공 지능을 인간에게 해를 끼치는 비윤리적인 목적으로 사용하는 것은 불가피합니다.

일자리 상실, 개인정보 침해 위험

개인정보를 수집하는 데 사용되는 인공지능 기술은 사생활을 침해하고, 허위 정보 유포 활동을 수행하고, 사회적 상황과 정치적 안정에 영향을 미치는 허위 정보를 퍼뜨리는 데 이용될 수 있습니다. 미국 정부 인사관리국(OPM) 네트워크 시스템이 해커의 공격을 받은 사건은 2,150만 명의 현직 및 은퇴한 미국 공무원의 세부적이고 매우 민감한 개인 데이터, 배우자에 대한 정보, 건강 상태, 거주지, 직업, 지문 및 재정 정보 등 정부 직책에 지원한 사람들의 데이터가 해커의 손에 넘어갔다는 점에서 어느 국가나 조직에나 주목할 만한 일입니다. 하지만 CIA가 OPM 데이터 도둑이 인공지능 기술을 사용해 개인 정보를 스캔하고, 위조하고, 가상 스파이를 만들어 데이터를 훔쳤다는 사실을 발견했을 때, 훨씬 더 무서운 현실이 드러났습니다. 도난당한 정보는 빅데이터 기술을 통해 분석, 분류되고 특정 목적에 맞게 활용될 것입니다. 인공지능 기술은 정보 도둑이 정보를 악용하는 데 걸리는 시간을 단축하는 데 도움이 됩니다. 인간은 그렇게 짧은 시간 안에 엄청난 양의 정보를 처리할 수 없기 때문입니다.

위에서 언급한 기존의 위험 외에도 AI 기술은 다음과 같은 다른 위험도 발생시킵니다. AI에 지나치게 의존하게 되면 인간이 상황을 통제할 수 없게 되고 의사 결정 능력이 저하되는 결과를 초래합니다. 인공지능으로 인해 수백만, 수억 명의 사람들이 일자리를 잃을 수도 있는데, 특히 지식이 거의 없는 순전히 수동적인 노동 직종에서는 그럴 가능성이 큽니다. 그 결과, 실업, 범죄, 빈부격차 등의 심각한 사회 문제가 더욱 심화될 것입니다. 또한, 신뢰성도 고려해야 할 문제입니다. 의학, 형사사법 등 고도로 전문화된 분야에서 내리는 결정의 신뢰성은 매우 중요합니다. AI가 기술이 신뢰할 수 없는 분야에서 의사 결정을 내리는 데 사용되거나, 특정 개인이나 집단에 편향된 데이터를 기반으로 운영되거나, 의도적으로 왜곡된 경우, 그러한 의사 결정은 심각한 결과를 초래할 가능성이 있습니다.

어떻게 예방할 수 있나요?

위와 같은 위험 때문에 엘론 머스크와 기술 전문가들은 AI의 통제되지 않은 발전에 대해 우려를 표명하고 유엔과 국제기구에 AI 개발을 엄격히 통제하고 안전과 윤리를 보장할 것을 촉구하는 서한을 보냈습니다. AI 기술이 사람과 사회에 이로운 방향으로 활용되도록 국제 협력을 강화합니다. 식별할 수 있는 구체적인 조치는 다음과 같습니다.

- 시스템 신뢰성 제어: AI는 엄격하고 정기적이며 지속적인 품질 테스트, 제어 및 모니터링 방법을 통해 안전성과 신뢰성을 보장하도록 설계 및 개발되어야 합니다. 이를 통해 AI 시스템이 인간의 기대에 따라 작동하고 신뢰성 부족으로 인해 원치 않는 영향이 발생하지 않도록 해야 합니다.

- 인공지능 기술은 윤리적 가치와 사회적 규범에 따라 작동하도록 프로그래밍되어야 합니다. 이러한 규칙과 기준은 명확하게 확립되어야 하며, 사람이나 조직에 해롭거나 나쁜 영향을 미치지 않는지 확인하기 위해 모니터링되어야 합니다. AI 시스템의 운영을 분석, 영향 평가, 모니터링하는 과정도 표준 운영을 보장하고, 사회 전체의 공통 가치를 위반하거나 침식하지 않으며, 부정적인 영향을 유발하지 않고, 올바른 지식과 가치의 전달을 보장하기 위해 정기적으로 수행되어야 합니다.

왼쪽 센터 오른쪽 델
저널리즘은 인공지능의 영향을 가장 많이 받는 산업 중 하나입니다. 미래에는 라디오 프로그램에서 MC가 OFF를 진행할 필요가 없어지고, TV 프로그램에서는 가상 MC가 ON을 진행하는 경우도 많아질 것입니다.

- 인공지능 시스템이 전체 문제를 다시 평가할 수 있도록 최소 6개월 동안 "훈련"을 일시 중단합니다. 이러한 중단은 공개적이고 통제되어야 하며, 이 교육에 참여하는 모든 주요 인물이 참여해야 합니다. 필요한 경우 정부는 일시적인 금지령을 내려야 합니다. 이는 AI 개발을 완전히 중단한다는 의미가 아니라, 다른 개발 모델로 옮겨가기 위한 위험한 경쟁에서 잠시 멈춰 서서 AI 시스템을 더욱 정확하고, 안전하고, 이해하기 쉽고, 투명하고, 관련성 있고, 신뢰할 수 있고, 충성스럽게 만든다는 의미입니다. 이는 일론 머스크와 그의 동료들이 공개서한에서 요구한 포괄적인 해결책이지만 실현 가능성은 높지 않습니다. 모든 독립 연구소가 이처럼 구속력이 없고 국제적인 요구에 따르는 것은 어렵습니다.

- AI가 미래에도 안전하게 개발되고 활용될 수 있도록 국가와 독립적인 AI 연구 기관 간의 협력과 정보 공유를 강화합니다. 협력과 정보 공유는 앞으로 발생할 수 있는 위험에 대해 신속하게 경고하고 예방하기 위한 조치이기도 합니다.

일반적으로 AI는 우리 주변 어디에나 존재해 왔고 지금도 존재하며, 인공지능이 시, 음악, 기사를 쓴다는 이야기는 현실이 되었고 더 이상 공상과학 소설이 아닙니다. 이 기사의 저자는 컴퓨터와 휴대전화의 인공지능 기술을 직접 활용하여 글쓰기 과정을 더욱 편리하고 빠르게 만들었습니다. 구체적으로, 이 기사의 머리말과 몇 가지 아이디어는 AI가 제안한 것이며, 더 구체적으로, 이 기사에 사용된 모든 사진은 AI가 생성했습니다. 인공지능 기술은 업무의 질과 인간의 삶을 개선하는 데 매우 유용하지만, 이론 물리학자 스티븐 호킹이 예측한 것처럼 통제 불능 상태가 되어 미래에 인간을 대체할 위험이 생기지 않도록 엄격하게 통제할 필요가 있습니다.

기사 및 사진: HUU DUONG

[광고_2]
원천

댓글 (0)

No data
No data

같은 카테고리

응우치선 섬의 불타는 듯한 붉은 일출 풍경
10,000개의 골동품이 당신을 옛 사이공으로 데려갑니다
호 삼촌이 독립 선언서를 낭독한 곳
호치민 대통령이 독립선언서를 낭독한 곳

같은 저자

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품