이 문제를 더 잘 이해하기 위해 저널리스트 & 여론 신문의 기자들은 커뮤니케이션과 소셜 네트워크 분야 전문가이자 VTVcab 프로그램 제작 센터의 부국장인 응우옌 카오 꾸엉 기자와 대화를 나누었습니다.
AI 제품은 사용 시 라벨을 붙여야 합니다.
+ 선생님, 최근 텍스트에서 비디오를 만들 수 있는 기능을 갖춘 Sora(OpenAI 회사의 ChatGPT 형제)라는 또 다른 애플리케이션이 등장했는데, 특히 현재 AI 기술의 발전을 어떻게 평가하시나요?
- 미디어 분야에 적용된 AI 기술은 눈부신 발전을 이루었습니다. 이전에는 AI를 주로 정적 이미지나 단순한 이미지를 제작하는 데 사용했지만, 이제는 비디오 제작에도 활용되고 있습니다. OpenAI의 Sora 애플리케이션은 텍스트를 최대 1분 미만의 짧은 비디오로 변환하는 기능을 제공합니다. Sora는 생생한 이미지, 부드러운 움직임, 정교한 배경을 통해 사실감을 더하는 비디오를 제작합니다. 이는 기술 기업, 미디어 전문 기업, 심지어 언론 및 미디어 기관에게도 클립 형태의 움직이는 이미지를 활용하여 미디어 제품을 홍보할 수 있는 좋은 기회를 제공합니다.
기자 응우옌 카오 꾸엉(Nguyen Cao Cuong) - VTVcab 프로그램 제작 센터 부국장이 미디어 교육 세션에 참석한 모습입니다.
그러나 모든 AI 제품의 사용은 여전히 모든 당사자에 의해 신중하게 고려되고 있으며, 많은 국가는 저널리즘 분야에서 AI 사용에 대한 명확한 법적 근거를 마련하기 위해 관련 규정 제정을 고려하고 있습니다. 언론 종사자들에게는 매우 유용하고 유용한 도구이지만, 특히 저널리즘 분야에서는 어떻게 적용할지에 대한 진지한 고민이 필요합니다. 저널리즘 분야 자체는 객관적 진실을 존중하는 측면이 있습니다. 반면, 우리가 사용하는 인공지능 제품은 기계가 만든 결과물이자 합성물일 뿐이므로, 그 결과물은 단지 예시일 뿐입니다.
+ 기회에는 항상 위험이 따릅니다. AI 애플리케이션이 발전할수록 위험도 커집니다. 이 말에 대해 어떻게 생각하시나요?
- 기술이 발전함에 따라 AI가 실제 사람처럼 보이는 수많은 가짜 사물을 만들어낼 위험이 있습니다. 사람의 이미지는 인터넷에서 실제 사람처럼 보이는 활동을 합니다. 이는 과거에 우리가 알고 있던 정보 불안을 야기하는데, 바로 딥페이크가 온라인 사기를 저지르기 위해 이미지와 음성을 위조하는 상황입니다. 실제로 이러한 상황은 꽤 흔합니다. 딥페이크와 AI의 단점은 우리 스스로의 우려를 불러일으키며, 점차 사람들은 AI가 만든 이미지를 믿지 않게 될 것입니다.
현재 언론사나 국가기관에는 AI 관련 규정이 없습니다. 따라서 언론사는 AI 기술을 사용할 때, AI 제품에 어느 정도 표시를 해야 합니다. 이는 대중에게 AI 제품이 인간이 만든 것이 아니라 인공지능의 산물임을 알리기 위한 것입니다. 동시에, 이러한 이미지는 실제가 아닌 예시 이미지임을 강조하여 대중의 오해를 방지해야 합니다.
저널리스트 응우옌 카오 꾸옹이 학생들에게 미디어 제작 실습을 지도하고 있습니다.
저널리즘에서 AI를 활용할 때는 매우 신중하고 능숙해야 합니다.
+ 가까운 미래에 언론사는 AI가 가져다주는 이점을 어떻게 활용할 수 있을까요?
- 언론사는 AI가 생성한 일러스트를 사용하는데, 이는 그래픽, 광고, 소개 또는 설명용 사진일 수 있으므로 절대적인 정확성에 대한 요구가 높지 않아 사용할 수 있습니다. 그러나 탐사 기사, 보도 기사 또는 일반 뉴스 기사의 경우, 대중이 실제 이미지와 AI가 생성한 이미지를 혼동할 수 있으므로 AI 이미지 사용은 절대 허용되지 않습니다.
따라서 저널리즘 분야에서 AI를 활용할 때는 매우 신중하고 능숙해야 합니다. 미디어 기업, 즉 기업 광고, 판매, 고객 안내 등 미디어 제품 제작을 전문으로 하는 부서의 제품이라면 AI 적용이 충분히 가능합니다. AI는 매력적이고 창의적인 일러스트레이션 이미지를 빠르게 제작하는 데에만 사용됩니다. 미디어 작업의 목적에 따라 AI의 명칭이 붙을 수도 있고 그렇지 않을 수도 있습니다. 하지만 저는 AI가 새로운 현상이며, 마땅히 명칭이 붙어야 한다고 생각합니다.
예를 들어, 수십 년 또는 수백 년 전에 일어난 사건에 대한 그림을 그리는 도구가 있다면 AI를 활용하여 지원할 수 있습니다. 하지만 그 도구가 그리는 내용은 기자의 지식에 크게 좌우됩니다. 기자는 AI에게 전달하기 위해 그 해의 사건과 AI에 전송된 텍스트 및 명령을 이해해야 합니다. 예를 들어, 기자가 AI를 사용하여 쩐 왕조 시대 사람들이 등장하는 전쟁 장면을 담은 그림을 재현한다고 가정해 보겠습니다. 하지만 기자가 쩐 왕조 병사들의 모습, 그들의 복장과 무기에 대한 지식이 부족하다면 다른 시대로 오해받기 쉽습니다.
OpenAI의 Sora는 복잡한 장면, 카메라 움직임, 그리고 감정이 풍부한 여러 캐릭터를 포함하여 최대 1분 길이의 비디오를 생성합니다. Sora 앱에서 생성한 클립의 스크린샷입니다.
+ AI가 제작했거나 상당 부분 AI가 생성한 저널리즘 작품이 고품질 저널리즘으로 선정되거나 저널리즘 상에 출품될 경우 법적으로 어떻게 판단하시겠습니까?
- 현재 정보통신부나 베트남기자협회 의 저널리즘 작품 내 AI 활용 규정에는 구체적인 지침이나 규정이 없습니다. 하지만 어떤 부분이나 섹션에서 AI를 사용하는 언론사는 이를 명확하게 표시해야 합니다. 공모전 출품 여부와 관계없이 대중에게 공개되는 작품인 만큼 기자들은 매우 신중해야 하며, 특히 광범위하고 포괄적인 지식을 바탕으로 명확하게 구분해야 한다고 생각합니다. AI가 결과물을 만들어낼 때 혼란이 덜하도록 정보를 정확하게 입력해야 합니다. AI로 결과물을 만들어낸 후에는 다시 확인해야 하는 상황이 발생합니다. 이때 기자들은 편집자의 사고방식을 통해 표준에 맞는지 확인해야 합니다. AI가 등장한 초기에는 입력 데이터가 부족하고 혼란이 발생할 가능성이 매우 높기 때문에 이에 더욱 주의를 기울여야 합니다.
OpenAI는 텍스트 명령으로 사실적인 비디오를 생성할 수 있는 AI 애플리케이션인 Sora를 공개했습니다.
+ 귀하의 의견으로는 언론사가 기자와 언론인을 대상으로 AI, 특히 새로 출시된 기능을 활용할 수 있도록 교육과 개발을 늘려야 한다고 생각하십니까?
- 물론입니다. AI 영상 콘텐츠, 세로형 영상, 오디오 또는 텍스트 콘텐츠 제작, 사진 등 저희 기자들은 항상 독자와 시청자의 관심을 끌고 싶어 하기 때문에 새로운 지식을 업데이트해야 합니다. 가장 중요한 것은 도구를 어떻게 활용하는지, 그리고 우리의 편집, 편집, 검증 사고가 얼마나 뛰어난지입니다. 전문 분야에 대한 기자들의 이해는 충분한가요? 간단히 말해, 모든 기자, 기자, 편집자는 다음 사항에 유의해야 합니다. AI 도구에 쉽게 접근할 수 있을수록 실수할 가능성이 높아집니다.
저널리즘이나 텔레비전 작품에서는 내용과 이미지가 당시의 맥락과 비교했을 때 사건에 대한 논리, 진정성, 그리고 정확성을 만들어낸다면 얼마든지 사용할 수 있습니다. 이는 중요합니다. AI가 제작한 저널리즘 제품이 잘 관리되고, 진정성이 있으며, 적절하다면 아무런 문제가 없을 것이라고 생각합니다. 역사적 재구성을 담은 사진, 그림, 영상의 경우, 대중이 맥락을 알 수 있도록 라벨을 붙일 수 있습니다. 재구성된 이미지가 AI에 의해 어떤 시기에, 어떤 시간에, 어떤 내용으로 만들어졌는지...
+ 여전히 법적, 안전적 문제가 있기 때문에 언론사가 AI 제품을 사용하여 소셜 네트워킹 플랫폼에만 게시되는 보도자료를 만들어야 할까요?
- 소셜 미디어 플랫폼에 업로드하기 위해 AI 제품을 만드는 데 너무 많은 노력이 든다면, 다시 생각해 봐야 한다고 생각합니다. 너무 많은 노력이 든다면, 그 제품들은 언론사 웹사이트에 올려야 합니다. 페이스북, 틱톡, 유튜브 같은 플랫폼은 여전히 서드파티 플랫폼이며, 이러한 채널에서도 수익을 창출할 수 있지만, 장기적인 전략은 여전히 우리가 소유한 채널을 개발하는 것이어야 합니다. 따라서 가장 가치 있고 노동 집약적인 콘텐츠는 소유주의 공식 채널에 올려야 합니다.
+ 정말 감사합니다!
르탐 (공연)
[광고_2]
원천
댓글 (0)