이에 따라 5월 22일 미국 소셜 미디어에는 인공지능(AI)이 만든 펜타곤 인근 폭발 장면 사진이 공유되면서 단기간에 주가가 폭락하는 사태가 발생했습니다. AI에서 비롯된 가짜 뉴스에 대한 우려가 제기된 것입니다.
AI가 생성한 펜타곤 근처 폭발의 가짜 사진. |
온라인 팩트체킹 그룹인 벨링캣(Bellingcat)의 닉 워터스(Nick Waters)는 사진의 몇 가지 주목할 만한 문제점을 지적했습니다. 첫째, 사건을 뒷받침할 목격자가 없습니다. 사진 속 건물 또한 펜타곤처럼 보이지 않습니다. 눈에 띄는 가로등과 보도 위로 튀어나온 검은 기둥과 같은 몇 가지 특이한 점들은 사진이 실제가 아니라는 것을 보여줍니다.
Midjourney, Dall-e 2, Stable Diffusion과 같은 많은 인공지능(AI) 재구성 도구가 실물과 같은 이미지를 생성할 수 있습니다. 하지만 이러한 도구들은 데이터가 부족할 때 부족한 부분을 채워줄 수 있습니다.
알자지라는 주요 행사의 사진이 인터넷에 게시될 때 AI가 생성한 사진과 실제 사진을 구분하기 위한 몇 가지 방법을 제시했습니다. 그 내용은 다음과 같습니다.
- 폭발이나 다른 주요 사건이 발생할 경우, 여러 사람과 다양한 관점에서 사실 정보가 나오는 경우가 많습니다.
- 누가 콘텐츠를 게시하나요? 게시자의 위치와 이벤트 장소는 어디인가요? 게시자가 팔로우하는 계정과 팔로우하는 사람은 누구인가요? 게시자에게 연락하거나 이야기를 나눌 수 있나요?
- 이미지와 주변 환경 분석: 근처 위치, 교통 표지판 등 이미지에서 단서를 찾아 이벤트가 언제 또는 어디서 발생할지 파악하는 데 도움을 줍니다.
- 인물 이미지의 경우, 눈, 손, 그리고 전반적인 자세에 주의하세요. 딥페이크라고 불리는 AI가 인간을 모방한 영상은 눈 깜빡임에 문제가 있는 경향이 있습니다. 대부분의 학습 데이터에 눈을 감은 얼굴이 포함되어 있지 않기 때문입니다. 손은 물체를 제대로 잡기 어렵습니다.
- AI가 생성한 이미지에 나오는 사람들의 피부는 대부분 매끈하고, 심지어 머리카락과 치아도 초현실적으로 완벽해 보입니다.
[광고_2]
원천
댓글 (0)