스타트업 OpenAI가 2022년 말 첫 AI 애플리케이션인 ChatGPT를 출시한 후, AI 애플리케이션, 특히 생성 AI를 개발하기 위한 경쟁이 치열해졌습니다. 이는 삶의 모든 영역에 많은 편리함을 가져다주었지만, 동시에 많은 위험도 수반했습니다.
사생활 침해
최근 몇 년 동안 사이버 범죄자들이 AI를 사용하여 실제 사람의 이미지와 목소리를 위조한 영상 클립을 제작하면서 많은 조직과 개인이 손실을 입었습니다. 딥페이크(Deepfake) 기술이 그 예입니다.
Sumsub이 2023년 11월 말 발표한 신원 사기 보고서에 따르면, 딥페이크 사기는 2022년에서 2023년 사이에 전 세계적으로 10배 증가했습니다. 이는 인공지능 애플리케이션이 전 세계적 으로 폭발적으로 성장한 시기이기도 합니다.
Status Labs는 딥페이크가 문화, 프라이버시, 그리고 개인의 평판에 큰 영향을 미쳤다고 지적합니다. 딥페이크를 둘러싼 뉴스와 관심은 대부분 유명인 포르노, 리벤지 포르노, 허위 정보, 가짜 뉴스, 협박, 그리고 사기에 집중되어 왔습니다. 예를 들어, 2019년 한 미국 에너지 회사는 해커에게 24만 3천 달러를 사기당했습니다. 해커는 회사 임원들의 사진과 음성을 위조하고 직원들에게 파트너에게 돈을 송금하도록 요구했습니다.
로이터 통신은 2023년에 전 세계 소셜 네트워크를 통해 약 50만 개의 딥페이크 영상과 오디오가 공유되었다고 보도했습니다. 재미를 위한 딥페이크 외에도, 악당들이 커뮤니티를 속이기 위해 만든 속임수도 있습니다. 소식통에 따르면, 2022년 전 세계적으로 딥페이크 사기로 인한 피해액은 최대 1,100만 달러에 달한 것으로 추산됩니다.
많은 기술 전문가들은 AI의 부정적 영향, 즉 지적 재산권 및 진위 여부, 그리고 AI가 만든 "작품" 간의 지적 재산권 분쟁에 대해 경고해 왔습니다. 예를 들어, 어떤 사람은 AI 애플리케이션에 특정 주제의 그림을 그려 달라고 요청하지만, 다른 사람은 AI에게 동일한 그림을 그려 달라고 요청하여 결과적으로 유사한 그림이 많이 나오는 경우가 있습니다.
이는 소유권 분쟁으로 이어질 가능성이 매우 높습니다. 그러나 현재까지 세계는 AI 제작 콘텐츠에 대한 저작권 인정(창의적인 AI를 주문하는 개인이나 AI 애플리케이션을 개발하는 기업의 저작권 인정)에 대한 결정을 내리지 않았습니다.
AI 애플리케이션이 생성한 이미지
진짜와 가짜를 구별하기 어렵다
그렇다면 AI가 생성한 콘텐츠가 저작권을 침해할 수 있을까요? 기술적인 측면에서 AI가 생성한 콘텐츠는 학습된 데이터를 기반으로 알고리즘을 통해 합성됩니다. 이러한 데이터베이스는 AI 애플리케이션 개발자들이 다양한 출처, 특히 인터넷 지식 기반에서 수집합니다. 이러한 저작물 중 상당수는 저작권 소유자에게 저작권이 있습니다.
2023년 12월 27일, 뉴욕타임스(미국)는 OpenAI(ChatGPT 포함)와 마이크로소프트를 상대로 소송을 제기했습니다. 자사의 수백만 건의 기사가 두 회사의 AI 챗봇과 AI 플랫폼을 훈련하는 데 사용되었다고 주장했습니다. 사용자의 요청에 따라 챗봇이 생성한 콘텐츠 중 기사 내용과 동일하거나 유사한 콘텐츠가 있다는 증거가 있습니다. 본지는 자사의 "지식 재산"이 기업에 의해 영리 목적으로 사용되는 것을 간과할 수 없습니다.
뉴욕 타임스는 AI와 관련된 저작권 소송을 제기한 최초의 미국 주요 신문입니다. 특히 뉴욕 타임스의 성공 이후, 앞으로 다른 신문사들도 이에 동참할 가능성이 있습니다.
이전에 OpenAI는 2023년 7월에 Associated Press 통신사와 저작권 라이선스 계약을 체결했고, 2023년 12월에는 Politico와 Business Insider라는 두 신문의 소유주인 독일 출판사 Axel Springer와 저작권 라이선스 계약을 체결했습니다.
배우 사라 실버먼 또한 2023년 7월 두 건의 소송에 참여하여 메타(Meta)와 오픈AI(OpenAI)가 자신의 회고록을 AI 프로그램의 학습 자료로 사용했다고 비난했습니다. AI 시스템이 수만 권의 책을 데이터베이스에 저장했다는 사실이 밝혀지자 많은 작가들이 우려를 표명했으며, 이는 조너선 프랜즌과 존 그리샴 같은 작가들의 소송으로 이어졌습니다.
한편, 사진 서비스인 게티이미지(Getty Images)도 회사의 저작권이 있는 영상 자료를 무단으로 사용했다는 이유로 텍스트 프롬프트를 기반으로 이미지를 생성한 AI 회사를 고소했습니다.
사용자가 AI 도구에 "제작"을 요청한 "저작물"을 "부주의하게" 사용하면 저작권 문제가 발생할 수 있습니다. 전문가들은 AI 도구를 검색, 데이터 수집, 참고 목적의 제안 용도로만 사용할 것을 권장합니다.
반면, AI 애플리케이션은 사용자가 특정 콘텐츠의 진실과 거짓을 구분하지 못해 혼란을 야기합니다. 출판사와 신문사는 원고를 받을 때 혼란을 겪을 수 있습니다. 교사 또한 학생들의 작품에 AI가 사용되었는지 여부를 파악하는 데 어려움을 겪습니다.
이제 커뮤니티는 무엇이 진짜이고 무엇이 가짜인지 알 수 없기 때문에 더욱 경계해야 할 것입니다. 예를 들어, 일반 사람은 사진이 AI에 의해 "마법화"되었는지 아니면 편집되었는지 구분하기 어려울 것입니다.
AI 활용에 대한 법적 규제가 필요하다
AI 개입을 감지할 수 있는 애플리케이션 도구가 등장할 때까지, 관리 기관들은 이 기술을 사용하여 개인 콘텐츠를 제작하는 것에 대한 명확하고 구체적인 법적 규정을 조속히 마련해야 합니다. 법적 규정은 콘텐츠와 저작물이 AI에 의해 개입되었음을 모든 사람에게 명시해야 합니다. 예를 들어, AI에 의해 조작된 이미지에는 기본적으로 워터마크를 부착해야 합니다.
[광고_2]
출처: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
댓글 (0)