구글은 AI가 잘못된 정보의 원천이 될 수 있다는 경고에 따라, AI가 생성한 이미지를 식별하는 데 도움이 되는 새로운 도구를 출시했습니다. 이제 구글 이미지 사용자는 이미지와 함께 "추가적인 맥락"을 볼 수 있으며, 여기에는 이미지가 구글에 처음 게재된 시점과 관련 뉴스가 포함됩니다. 이 도구는 사용자가 오도되지 않도록 가짜 이미지에 대한 정보를 제공하는 것을 목표로 합니다.
구글은 인터넷에 진짜처럼 보이는 일련의 가짜 사진이 퍼지자 '이 이미지에 대하여'를 공개했습니다. 여기에는 전 미국 대통령 도널드 트럼프가 체포된 사진도 포함되었습니다.
Midjourney, Stable Diffusion, DALL-E와 같은 도구를 사용하면 단 몇 개의 명령, 단어, 구문만으로 전혀 발생하지 않은 상황을 초현실적인 이미지로 구현할 수 있습니다. 영국 사이버 보안 책임자인 제레미 플레밍 경을 비롯한 일부 관계자들은 이러한 AI 도구가 심각한 결과를 초래할 수 있다고 경고했습니다.
AI가 생성한 이미지의 가장 유명한 사례 중 하나는 3월에 화제가 된 교황이 하얀 깃털 코트를 입은 사진입니다. 이 사진을 찍은 시카고 건설 노동자 파블로 자비에르는 재밌는 것을 찾다가 이 사진을 만들었다고 주장했습니다.
올해 초 경찰에 체포되는 트럼프 대통령의 사진도 널리 공유되었습니다. 탐사 보도 웹사이트 벨링캣(Bellingcat)의 공동 창립자인 엘리엇 히긴스(Eliot Higgins)는 미드저니(Midjourney)를 사용하여 이 사진을 제작했습니다.
Google의 검색 제품 관리자인 코리 던튼은 "이미지에 대한 배경 정보를 통해 사람들은 사진의 신뢰성 여부를 판단할 수 있다"고 말했습니다.
(가디언에 따르면)
[광고_2]
원천
댓글 (0)