가짜 연예인 사진이 만연하다
믿을 수 없을 만큼 사실적으로 보이지만 사실은 가짜인 이미지를 만드는 것이 그 어느 때보다 쉬워졌습니다. 인터넷에 연결되어 있고 AI 기반 도구를 사용할 수 있는 사람이라면 누구나 몇 초 만에 사진처럼 사실적인 사진을 만들어 엄청난 속도로 소셜 미디어에 퍼뜨릴 수 있습니다.
AI가 생성한 가짜 사진에는 엘론 머스크가 GM CEO 메리 바라와 "데이트"하는 모습이 담겨 있습니다.
최근 들어 이러한 이미지 중 다수가 바이러스처럼 퍼졌습니다. 예를 들어, 전 대통령 도널드 트럼프와 블라디미르 푸틴 대통령이 가짜로 체포되거나 억만장자 일론 머스크가 제너럴 모터스(GM) CEO 메리 바라와 "어울리는" 모습 등이 있습니다.
문제는 AI 이미지가 모두 실제로 일어나지 않은 사건을 묘사하고 있다는 것입니다. 전문가들에 따르면, 이러한 이미지 중 일부는 웃기고 비현실적으로 보일 수 있지만, 여전히 잘못된 정보를 제공할 수 있고 심지어 가짜 뉴스를 퍼뜨릴 위험도 있어 실제적인 위험을 초래할 수 있습니다.
전 미국 대통령 도널드 트럼프를 비롯한 정치인의 체포 이미지는 사용자가 평판이 좋은 미디어 출처를 확인하면 상당히 빠르게 확인할 수 있습니다. 하지만 AI 전문가 헨리 아이더는 DW와의 대화에서 사진 속 인물이 그다지 유명하지 않은 경우 등 다른 이미지는 인식하기 더 어렵다고 말했습니다.
가짜 행사 사진의 위험성
아이데르에 따르면, 잘못된 정보를 퍼뜨릴 수 있는 것은 AI가 생성한 사람 이미지뿐만이 아닙니다. 그는 2001년에 미국과 캐나다를 강타한 것으로 알려진 강진과 같이 실제로 발생하지 않은 사건을 사용자가 만들어낸 사례도 있다고 말했습니다.
하지만 이 지진은 결코 일어나지 않았고, Reddit에 공유된 이미지는 모두 AI가 생성한 것입니다. 그리고 아이더에 따르면, 이것이 문제입니다. "AI가 풍경 장면을 생성하면 감지하기가 더 어려울 수 있습니다."라고 그는 설명했습니다.
하지만 AI 도구는 빠르게 발전하고 있지만 여전히 실수를 합니다. 2023년 4월 현재 Midjourney, Dall-E, DeepAI와 같은 프로그램은 모두 결함이 있는데, 특히 사람이 나오는 이미지에 결함이 있습니다.
AI가 생성한 이미지를 검증하기 위한 몇 가지 팁을 알려드리겠습니다. 하지만 전문가들은 인공지능 도구가 매일, 매시간 진화하고 있기 때문에 이러한 팁은 현재 상황만을 반영한다고 빠르게 경고했습니다.
확대하여 이미지 소스를 찾으세요
AI가 생성한 이미지 중 다수는 언뜻 보기에 사실적으로 보인다. 그래서 전문가들은 첫 번째로 사진을 자세히 살펴보라고 제안합니다. 이렇게 하려면 가능한 가장 높은 해상도의 이미지를 찾은 다음 세부 사항을 확대하세요.
이미지를 확대해 보면 처음에는 발견하지 못했던 불일치와 오류가 드러납니다.
이미지가 실제인지 AI가 생성한 것인지 확실하지 않다면 출처를 찾아보세요. 다른 사용자가 이미지 아래에 게시한 댓글을 읽으면 해당 이미지가 처음 게시된 위치에 대한 정보를 볼 수 있습니다.
혹은 역방향 이미지 검색을 할 수도 있습니다. 이를 위해 Google 이미지 역검색, TinEye 또는 Yandex와 같은 도구에 이미지를 업로드하면 이미지의 원본 출처를 찾을 수 있습니다.
이러한 검색 결과에는 평판이 좋은 미디어 매체에서 수행한 사실 확인에 대한 링크가 표시되어 추가적인 맥락을 제공할 수도 있습니다.
신체 비율과 디스플레이 오류에 주의하세요
AI가 생성한 이미지에 크기에 차이가 있는 것은 드문 일이 아닙니다. 손이 너무 작거나 손가락이 너무 길 수도 있습니다. 아니면 머리와 다리가 몸통과 일치하지 않는 경우도 있습니다.
현재 Midjourney나 DALL-E와 같은 AI 비전 프로그램에서 발생하는 오류의 주요 원인은 손입니다. 교황 프란치스코의 가짜 사진에서 볼 수 있듯이, 사람들은 종종 손가락이 없거나 여분의 손가락을 가지고 있습니다.
AI가 만든 프란치스코 교황의 가짜 사진.
AI가 생성한 이미지에서 흔히 나타나는 오류로는 사람의 이가 너무 많거나 안경테가 이상하게 변형되었거나 귀 모양이 비현실적이라는 점 등이 있습니다. 헬멧 바이저와 같은 반사 표면도 AI 프로그램에 문제를 일으킵니다.
하지만 AI 전문가 헨리 아이더는 Midjourney와 같은 최신 버전의 프로그램이 손을 생성하는 능력이 점점 향상되고 있다고 경고했습니다. 즉, 사용자는 이런 종류의 오류를 더 이상 기대할 수 없게 될 것이라는 뜻입니다.
이미지가 가짜스럽고 매끄럽게 보입니까?
특히 Midjourney 앱은 아름답고 완벽에 가까운 이미지를 많이 만들어내기 때문에, 시청자는 질문을 던질 필요가 있습니다. 독일 AI 연구 센터의 안드레아스 덴겔은 "얼굴은 너무 순수하고, 원단은 너무 조화롭다"고 말했습니다.
많은 AI 이미지 속 사람들의 피부는 매끄럽고 잡티가 없으며, 심지어 머리카락과 치아도 완벽합니다. 현실에서는 이런 일이 일어날 수 없습니다.
많은 사진이 예술적이고, 반짝거리고, 반짝이는데, 이런 사진은 전문 사진작가조차도 스튜디오에서 촬영할 때 달성하기 어려워하는 것입니다.
AI 도구는 종종 완벽하고 가능한 한 많은 사람을 만족시키는 이상적인 이미지를 디자인하는 것처럼 보입니다.
문맥과 결론을 확인하세요
이미지의 배경을 보면 그것이 가짜인지 아닌지 알 수 있는 경우가 많습니다. 예를 들어 가로등과 같은 물체는 변형될 수 있습니다. 어떤 경우에는 AI 프로그램이 사람과 사물을 복제하여 반복적으로 사용하기도 합니다. AI 사진의 배경이 흐릿한 경우도 드물지 않습니다.
하지만 이러한 흐릿함에도 오류가 포함될 수 있습니다. 오스카 시상식에서 화가 난 윌 스미스를 보여주기 위한 한 가지 사례처럼요. 배경이 초점이 맞지 않을 뿐만 아니라 인위적으로 흐릿해집니다.
AI가 생성한 이미지 중 상당수는 이제 조금만 생각해 보면 감지할 수 있습니다. Hugging Face와 같은 AI 감지 도구도 가짜를 발견하는 데 도움이 될 수 있습니다. 하지만 기술이 발전하면서 AI 이미지의 오류는 줄어들 가능성이 높아져 오류를 감지하기가 더 어려워질 것입니다.
황하이 (DW에 따르면)
[광고_2]
원천
댓글 (0)