펜타곤 폭발의 가짜 이미지
뉴욕 포스트 스크린샷
펜타곤 폭발 장면을 담은 가짜 영상이 짧은 시간 안에 급속도로 퍼져나가며 5월 22일(현지 시간) 미국 주식 시장에 약 10분간 영향을 미쳤습니다.
AFP에 따르면, 이 사건으로 인해 인공지능(AI)이 사회에 많은 문제를 일으킬 수 있다는 우려가 커졌습니다.
많은 사람이 AI가 만든 것으로 의심하는 이 사진은 여러 계정을 통해 유포되었고, 이로 인해 미국 국방부는 그러한 폭발이 없었다는 것을 확인하게 되었습니다.
미국 국방부 대변인은 "이것은 거짓 정보이며, 오늘 펜타곤이 공격을 받지 않았다는 것을 확인할 수 있다"고 밝혔습니다.
버지니아주 알링턴 소방국도 소셜 미디어를 통해 펜타곤이나 주변 지역에서는 폭발이나 사고가 없었다고 밝혔습니다.
이전에도 AI는 최근 논란을 일으킨 많은 가짜 사진을 만드는 데 활용된 적이 있습니다. 예를 들어, 전 미국 대통령 도널드 트럼프의 가짜 체포 사진이나, 유명 디자이너 다운 재킷을 입은 프란치스코 교황 사진 등이 있습니다.
정부, AI 도구 규제 경쟁
첨단 AI 기술 덕분에 전문가가 포토샵과 같은 프로그램을 사용하지 않고도 비전문가도 몇 초 만에 설득력 있는 이미지를 쉽게 만들 수 있습니다.
펜타곤 폭발 장면을 담은 가짜 영상은 미국 주식 시장에 잠시 영향을 미쳐, S&P 500 지수는 5월 19일 종가 대비 0.29% 하락한 후 회복되었습니다.
Briefing.com의 팻 오헤어는 "(거래) 기계가 정보를 감지함에 따라 가짜 뉴스가 감소하고 있지만, 그 감소 폭이 가짜 뉴스의 겉보기에 나쁜 본질과는 일치하지 않는다고 생각합니다."라고 말했습니다.
[광고_2]
소스 링크
댓글 (0)