이에 따라 인공지능(AI)이 만든 펜타곤 인근 폭발 장면 사진이 5월 22일 미국 소셜네트워크에 공유되면서 단기간에 주가가 폭락하는 사태가 벌어지면서 AI에서 나오는 가짜뉴스에 대한 우려가 커지고 있다.
| AI가 생성한 펜타곤 근처 폭발의 가짜 사진. |
온라인 팩트체킹 그룹인 벨링캣의 닉 워터스는 사진의 주요 문제점을 재빨리 지적했습니다. 첫째, 사건을 뒷받침할 목격자가 없습니다. 사진 속 건물 또한 펜타곤처럼 보이지 않습니다. 눈에 띄는 가로등과 보도 위로 튀어나온 검은 기둥과 같은 몇 가지 특이한 디테일은 사진이 실제가 아니라는 것을 보여줍니다.
Midjourney, Dall-e 2, Stable Diffusion과 같은 많은 인공지능(AI) 재구성 도구가 실물과 같은 이미지를 생성할 수 있습니다. 하지만 이러한 도구들은 데이터가 부족할 때 부족한 부분을 채워줄 수 있습니다.
알자지라는 주요 행사의 실제 사진과 AI가 생성한 이미지를 인터넷에 게시할 때 구분하기 위한 몇 가지 방법을 제시했습니다. 그 내용은 다음과 같습니다.
- 폭발이나 대규모 사건이 발생하면 일반적으로 여러 사람과 다양한 관점에서 사실 정보가 제공됩니다.
- 누가 콘텐츠를 게시하나요? 게시자의 위치와 이벤트 장소는 어디인가요? 게시자가 팔로우하는 계정과 팔로우하는 사람은 누구인가요? 게시자에게 직접 연락하거나 이야기를 나눌 수 있나요?
- 이미지와 주변 환경 분석: 근처 위치, 교통 표지판 등 사진에서 단서를 찾아 이벤트가 언제 또는 어디서 발생할지 파악하는 데 도움을 줍니다.
- 인물 이미지의 경우, 눈, 손, 그리고 전반적인 자세에 주의하세요. 딥페이크라고 불리는 AI가 인간을 모방한 영상은 눈 깜빡임에 문제가 있는 경향이 있습니다. 대부분의 학습 데이터에 눈을 감은 얼굴이 포함되어 있지 않기 때문입니다. 손은 물체를 제대로 잡기 어렵습니다.
- AI가 생성한 이미지에 나오는 사람들의 피부는 대부분 매끈하고, 심지어 머리카락과 치아까지도 초현실적으로 완벽해 보일 것입니다.
[광고_2]
원천






댓글 (0)