우리는 4차 산업 혁명 시대에 살고 있으며, 인공지능(AI)은 사회생활의 여러 영역에서 점차 필수적인 요소로 자리 잡고 있습니다. 대중과 사건을 연결하는 정보의 다리 역할을 하는 미디어 또한 이러한 흐름에서 벗어날 수 없습니다.
AI 기술 워크숍에 참석한 베트남 언론인 협회 저널리즘 교육 센터장 응우옌 티 하이 반 씨 (출처: 베트남 언론인 협회) |
AI가 가져다주는 이점을 최대한 활용하려면, 커뮤니케이터는 정보 전송에 있어 신뢰성과 윤리를 보장하는 동시에 AI를 효과적으로 사용할 수 있는 지식을 갖춰야 합니다.
AI의 '열'로부터
AI(인공지능)가 오늘날 가장 인기 있는 키워드 중 하나라는 것은 분명합니다. 2024년 9월, 구글 검색에서 "AI" 키워드를 0.3초 만에 검색했을 때 159억 건의 결과가 나왔고, "AI 도구" 키워드를 검색했을 때는 0.4초 만에 34억 건 이상의 결과가 나왔습니다. 이러한 엄청난 수치는 AI와 AI 기반 도구에 대한 전 세계적인 관심과 관심을 보여줍니다.
현재 미디어 산업을 포함한 다양한 분야에서 AI 도구가 점점 더 많이 등장하고 있습니다. 널리 알려진 ChatGPT 외에도 전문화된 작업을 위해 특화된 방향으로 개발된 많은 AI 애플리케이션이 있습니다. 예를 들어, 챗봇 작업 그룹을 위한 Bing AI, Clause, Zapier Central, 콘텐츠 제작 작업을 위한 Jasper, Copy.ai, Anyword, 비디오 제작 및 편집 작업을 위한 Descript, Wondershare, Runway, 이미지 제작 작업을 위한 DALL-E3, Midjourney, Stable Diffusion, 오디오 콘텐츠 작업을 위한 Murf, AIVA 등이 있습니다. 최근 아마존도 "창의성을 고취하고 더 많은 가치를 창출"한다는 목표로 자체 개발한 AI 도구인 Video Generator와 Image Generator를 출시했습니다.
AI 도구는 규모와 전문화 수준이 매우 다양하지만, 이 기술에는 본질적으로 두 가지 공통점이 있습니다. AI 도구는 AI 도구를 "훈련"시키기 위한 알고리즘과 데이터를 기반으로 개발됩니다.
미디어에서 AI 사용에 대한 윤리적 통제
AI 도구가 가져다주는 이점은 부인할 수 없으며, 기술 발전의 빠른 속도와 함께 미디어 산업의 단순한 작업부터 복잡한 작업까지 모든 분야에 특화된 AI 도구가 점점 더 많이 등장할 것입니다. 이러한 엄청난 발전과 함께 미디어 산업에서 AI 도구의 개발 및 사용에 대한 윤리적 통제 문제에 대한 많은 의문이 제기되고 있습니다. AI 도구의 알고리즘과 데이터가 커뮤니티에 해로운 방식으로 조작된다면 어떻게 될까요? AI 도구가 학습에 사용하는 입력 데이터의 지적 재산권은 누가 보장할까요? AI 도구가 초래하는 피해 수준을 평가하는 사람은 누구일까요?
동일한 작업에 AI 도구를 이용할 수 있는 사람과 이용할 수 없는 사람 사이에 불평등이 존재할까요? 특히 미디어나 소셜 네트워크처럼 많은 사람에게 대규모로 영향을 미칠 수 있는 민감한 분야에서 AI 도구로 인한 통제 불가능한 피해 가능성에 대한 의문이 제기되기도 했습니다.
이러한 우려를 인식하고, AI 도구를 개발하는 많은 기관, 협회, 정부, 심지어 기업과 법인들까지도 AI 기술의 윤리적 통제 문제와 관련된 권고안, 설명, 그리고 행동 강령을 발표했습니다. 2021년 193개국이 채택한 '인공지능 윤리 선언 - 유네스코(유네스코) 권고안'은 "인공 지능 (AI)의 급속한 발전은 의료 진단 지원부터 소셜 미디어를 통한 인간 연결, 자동화된 작업을 통한 노동 효율성 증대에 이르기까지 전 세계적으로 많은 기회를 창출해 왔다"고 명시하고 있습니다.
그러나 이러한 급격한 변화는 심각한 윤리적 우려를 불러일으킵니다. AI와 관련된 이러한 위험은 기존의 불평등을 심화시켜 이미 소외된 계층에게 더 큰 피해를 입히고 있습니다…”. 또한 “유네스코는 회원국을 지원하는 도구, 즉 각국 정부가 모든 시민을 위해 윤리적이고 책임감 있게 AI를 도입할 준비가 되었는지에 대한 포괄적인 그림을 그릴 수 있도록 하는 도구인 준비성 평가 방법론(Readiness Assessment Methodology)을 개발해 줄 것을 요청했습니다.
유네스코는 이러한 글로벌 접근 방식의 일환으로 글로벌 AI 윤리 및 거버넌스 관측소(Global AI Ethics and Governance Observatory)를 출범시켰습니다. 이 관측소는 "각국의 AI 윤리 및 책임감 있는 도입 준비도에 대한 정보를 제공합니다."라고 설명하며, "AI 윤리 및 거버넌스 랩(AI Ethics and Governance Lab)"도 운영하고 있습니다. 이 랩은 다양한 AI 윤리 문제에 대한 기여, 영향력 있는 연구, 툴킷, 그리고 긍정적인 실천 사례를 모아…
유네스코와 같은 국제 기구 외에도 많은 전문가 협회들이 자체 행동 강령을 개발하기 위해 노력하고 있습니다. 예를 들어, 전 세계 수천 명의 회원을 보유한 국제 비즈니스 커뮤니케이션 협회(IABC)는 커뮤니케이션 전문가의 AI 윤리적 사용을 위한 일련의 원칙을 개발했습니다. 이 원칙은 IABC 회원들에게 IABC 윤리 강령과 AI의 연관성을 안내하는 것을 목표로 합니다. 이러한 지침은 AI 기술의 발전에 따라 지속적으로 업데이트되고 보완될 수 있습니다. 이 원칙에는 커뮤니케이션 전문가가 따라야 할 구체적인 사항들이 포함되어 있으며, 다음과 같습니다.
긍정적이고 투명한 경험을 창출하여 미디어 업계에 대한 존중과 신뢰를 구축하기 위해서는 AI 리소스가 인간 중심적이어야 합니다. AI 도구가 제공하는 전문적인 기회와 위험에 대해 지속적으로 정보를 얻는 것이 중요합니다. 정보를 정확하고 객관적이며 공정하게 전달하는 것도 중요합니다. AI 도구는 많은 오류, 불일치 및 기타 기술적 문제에 노출될 수 있습니다. 따라서 AI가 생성한 콘텐츠의 정확성, 투명성, 그리고 표절 여부를 독립적으로 검증하기 위해서는 인간의 판단력이 필요합니다.
타인의 개인 정보 및/또는 기밀 정보를 보호하고, 타인의 동의 없이는 해당 정보를 사용하지 않습니다. AI 결과물은 인간의 참여와 서비스를 제공하고자 하는 커뮤니티에 대한 이해를 바탕으로 평가합니다. 편견을 최대한 배제하고 타인의 문화적 가치와 신념을 존중합니다.
제3자 문서, 정보 또는 참고 자료가 정확하고, 필요한 출처 표시 및 검증을 거쳤으며, 적절한 라이선스 또는 사용 허가를 받았는지 확인하기 위해 필요한 전문적인 엄격성을 바탕으로 자체적으로 사실 확인을 수행하고 검증해야 합니다. 전문적인 결과물에서 AI 사용을 은폐하거나 위장하려고 시도해서는 안 됩니다. AI의 오픈 소스적 특성과 허위, 오해의 소지가 있거나 기만적인 정보 입력을 포함한 기밀 유지 관련 문제를 인지해야 합니다.
AI 도구를 소유, 개발, 판매하는 기업은 누구보다 AI 도구의 모든 것을 잘 이해하고, AI 도구가 작동하는 기본 알고리즘과 AI 도구가 학습되는 데이터를 잘 알고 있습니다. 따라서 이러한 기업들은 AI 개발 윤리 원칙과 관련된 정보도 제공해야 합니다. 실제로 이 문제에 관심을 갖는 기업들이 있습니다.
Google은 심각한 위해 위험이 있는 지역에서는 AI 도구를 개발하지 않을 것을 약속하며, 이점이 위험보다 훨씬 크다고 판단되고 적절한 안전 장치가 구축된 경우에만 개발할 것입니다. 주된 목적 또는 배치가 인명 피해를 유발하거나 직접적으로 조장하는 무기 또는 기타 기술. 국제적으로 인정된 규범을 위반하는 감시 목적으로 정보를 수집하거나 사용하는 기술. 일반적으로 인정된 국제법 및 인권 원칙을 위반하는 목적을 가진 기술.
보안 및 안전 측면에서 구글은 다음과 같이 약속합니다. "의도치 않은 결과로 인한 피해 위험을 방지하기 위해 강력한 보안 및 안전 조치를 지속적으로 개발하고 구현할 것입니다. AI 시스템을 적절히 신중하게 설계하고 AI 안전 연구 모범 사례에 따라 개발하기 위해 노력할 것입니다. 또한, AI 기술 개발 및 사용에 개인정보 보호 원칙을 반영할 것입니다. 고지 및 동의 기회를 제공하고, 개인정보 보호 아키텍처를 장려하며, 데이터 사용에 대한 적절한 투명성과 통제를 제공할 것입니다."
구글과 마찬가지로 마이크로소프트도 AI 원칙 및 접근 방식에 대한 성명을 발표하며 "우리는 AI 시스템이 책임감 있게, 그리고 사람들의 신뢰를 보장하는 방식으로 개발되도록 최선을 다하고 있습니다..."라고 강조했습니다. 또한, 아마존과 오픈AI처럼 AI 도구 개발에 막대한 투자를 하고 있는 대형 기술 기업들 역시 다양한 방식으로 이에 대한 의지를 밝혔습니다.
역사 속 수많은 사례들은 기술의 이중성을 증명해 왔습니다. 긍정적 요소와 부정적 요소가 공존하는 것이죠. AI는 매우 "첨단" 기술 플랫폼이지만, 여전히 인간이 개발하고 수집한 알고리즘과 데이터에 기반합니다. 동시에 대부분의 AI 제품은 해당 기업의 사업 계획에 포함되어 있습니다.
따라서 기술적인 측면뿐 아니라 제품 개발 및 관리 팀에도 잠재적인 위험이 항상 존재합니다. 여기서 문제는 AI 도구가 대다수, 심지어 사회경제적 차원에서도 미칠 수 있는 영향의 규모입니다. 유엔과 같은 대규모 국제기구나 정부, 그리고 업계 협회, 그리고 무엇보다도 기술 개발 부서의 참여를 통해 AI 기술 사용 시 윤리적 통제에 대한 시의적절한 관심은 환영할 만한 신호입니다.
그러나 AI 도구 목록이 이전 버전보다 더욱 정교하고 복잡한 새로운 버전을 끊임없이 출시하는 것처럼 규정, 원칙 또는 지침도 시기적절하게 업데이트되고 보완되어야 하며, 더 나아가 AI 기술 전반과 특히 미디어 종사자의 윤리적 통제를 준수하는 능력을 최대한 발휘할 수 있는 프레임워크 내에서 제품 개발 단위와 사용자를 예방, 제한 및 통제하기 위해 적극적으로 나서야 합니다.
[광고_2]
원천
댓글 (0)