중부 지역의 장기간 홍수로 인해 AI가 생성한 가짜 콘텐츠가 소셜 미디어에 다수 유포되었습니다. 이러한 영상 의 내용은 주로 갇힌 사람들, 홍수로 휩쓸려 간 집, 응급 구조 현장 등의 이미지에 초점을 맞추고 있으며, 심지어 상황을 왜곡하고 당국을 공격하기도 합니다.
이러한 가짜 영상은 동정심을 불러일으키고 강렬한 감정을 불러일으키기 때문에 수십만에서 수백만 건의 조회수와 공유를 유도합니다. 물바다 한가운데 지붕 위에서 개를 껴안고 있는 소년의 장면, 홍수 속에서 고군분투하는 사람들의 모습 등이 그 예입니다. 많은 계정에서 동정심을 이용해 상호 작용을 "유도"하거나, 제품을 판매하거나, 여론을 선동합니다.
출처가 불분명한 이미지를 공유하는 사용자로 인해 가짜 뉴스가 빠르게 퍼지고 실제 상황에 대한 심각한 오해가 발생합니다.
주목할 점은 이것이 AI 제품임에도 불구하고 소셜 네트워크에 게시되면 플랫폼에서 AI라는 라벨이 붙지 않는다는 것입니다.

AI가 생성한 동영상이 소셜 미디어에 게시되었지만 AI가 생성한 것으로 표시되지 않은 경우
하라반 테크놀로지 주식회사의 고객 솔루션 이사인 레 안 방 씨는 많은 동영상이 AI로 제작되거나 AI에 개입했지만 TikTok과 Facebook 플랫폼에서 "AI 생성"이라는 라벨이 표시되지 않는 것은 플랫폼에서 콘텐츠를 식별하고 분류하는 방식이 바뀌었기 때문일 수 있다고 말했습니다.
방 씨에 따르면, 영상이 전적으로 AI에 의해 제작된다면 탐지 및 분류될 가능성이 여전히 높습니다. 그러나 실제 이미지와 영상을 사용하고 AI의 편집, 장면 편집 또는 동작 생성에 의존하는 등 인간의 참여가 필요한 콘텐츠의 경우, 시스템은 "AI 생성 콘텐츠"와 "AI 지원 콘텐츠"의 경계를 구분하기 어렵습니다.
이러한 모호성 때문에 AI 요소가 포함된 많은 비디오가 아무런 경고 없이 일반 클립으로 표시되는 경우가 많습니다.
방 씨에 따르면, AI 기술은 현재 매우 빠른 속도로 발전하고 있는 반면, 플랫폼에서는 알고리즘을 업데이트하고 새로운 인식 기준을 구축할 시간이 필요합니다.
오늘날 디지털 환경의 대부분 콘텐츠에 AI가 참여하고 있지만, 법적 체계는 아직 완성 단계에 있어 완전한 통제가 매우 어렵습니다.
따라서 각 소셜 네트워크 사용자는 정보를 수신하고 공유할 때 더욱 신중해야 합니다. 검증되지 않은 클릭은 의도치 않게 가짜 뉴스가 퍼지는 데 도움이 될 수 있기 때문입니다.
미국의 조사 회사인 HostingAdvice의 연구에 따르면 18~43세 미국인의 58%가 AI가 생성한 콘텐츠에 속은 적이 있는 것으로 나타났습니다. 이는 가짜 뉴스의 위험성이 커지고 플랫폼 정보에 대한 신뢰가 약해지고 있음을 보여줍니다.
출처: https://nld.com.vn/ly-do-khien-video-bao-lu-gia-duoc-tao-boi-ai-co-the-qua-mat-facebook-tiktok-196251124122152335.htm






댓글 (0)