ด้วยเหตุนี้ ภาพถ่ายการระเบิดใกล้เพนตากอนที่สร้างขึ้นโดยปัญญาประดิษฐ์ (AI) จึงถูกแชร์บนโซเชียลมีเดียของอเมริกาเมื่อวันที่ 22 พฤษภาคม ส่งผลให้ตลาดหุ้นร่วงลงอย่างรวดเร็ว ทำให้เกิดความกังวลเกี่ยวกับข่าวปลอมที่เกิดจาก AI
ภาพปลอมที่สร้างโดย AI ของการระเบิดใกล้เพนตากอน |
นิค วอเทอร์ส จาก Bellingcat ซึ่งเป็นกลุ่มตรวจสอบข้อเท็จจริงออนไลน์ ได้รีบชี้ให้เห็นถึงปัญหาสำคัญบางประการเกี่ยวกับภาพถ่ายดังกล่าว ประการแรกคือไม่มีพยานบุคคลยืนยันเหตุการณ์ที่เกิดขึ้น อาคารในภาพก็ไม่ได้มีลักษณะเหมือนเพนตากอนเช่นกัน รายละเอียดบางอย่างที่ผิดปกติ เช่น เสาไฟที่โดดเด่นและเสาสีดำที่ยื่นออกมาจากทางเท้า เป็นสัญญาณที่บ่งบอกว่าภาพถ่ายดังกล่าวไม่ใช่ของจริง
มีเครื่องมือสร้างภาพด้วยปัญญาประดิษฐ์ (AI) มากมาย เช่น Midjourney, Dall-e 2 และ Stable Diffusion ที่สามารถสร้างภาพที่เหมือนจริงได้ อย่างไรก็ตาม เครื่องมือเหล่านี้จะช่วยเติมเต็มช่องว่างเมื่อข้อมูลไม่เพียงพอ
Al Jazeera ได้นำเสนอมาตรการบางประการเพื่อแยกความแตกต่างระหว่างภาพถ่ายที่สร้างโดย AI และภาพถ่ายจริงของเหตุการณ์สำคัญที่ปรากฏบนอินเทอร์เน็ต ดังนี้
- ในกรณีที่เกิดการระเบิดหรือเหตุการณ์สำคัญอื่นๆ มักจะมีข้อมูลเชิงข้อเท็จจริงจากหลายๆ คนและจากมุมมองที่หลากหลาย
- ใครเป็นผู้โพสต์เนื้อหานี้? พวกเขาอยู่ที่ไหน และอีเวนต์จัดขึ้นที่ไหน? พวกเขากำลังติดตามบัญชีใด และใครกำลังติดตามพวกเขาอยู่ คุณสามารถติดต่อหรือพูดคุยกับพวกเขาได้หรือไม่?
- วิเคราะห์ภาพและสภาพแวดล้อม: มองหาเบาะแสในภาพ เช่น สถานที่ใกล้เคียง ป้ายจราจร ฯลฯ เพื่อช่วยให้คุณกำหนดได้ว่าเหตุการณ์อาจเกิดขึ้นที่ใดหรือเมื่อใด
- สำหรับภาพบุคคล ให้ใส่ใจกับดวงตา มือ และท่าทางโดยรวม วิดีโอ ที่สร้างโดย AI ซึ่งเลียนแบบมนุษย์ หรือที่เรียกว่า Deep Fake มักมีปัญหาเรื่องการกระพริบตา เนื่องจากชุดข้อมูลการฝึกส่วนใหญ่ไม่มีใบหน้าที่หลับตาอยู่ มือจะไม่สามารถจับวัตถุได้อย่างถูกต้อง
- ผิวของผู้คนในภาพที่สร้างโดย AI มักจะเรียบเนียน และแม้กระทั่งเส้นผมและฟันของพวกเขาก็จะดูสมบูรณ์แบบอย่างเหนือจริง
แหล่งที่มา
การแสดงความคิดเห็น (0)