ผู้ใช้อินเทอร์เน็ตใช้ AI สร้างภาพผู้ต้องสงสัยในคดีฆาตกรรมของชาร์ลี เคิร์ก ภาพ: CBC |
สำนักงานสอบสวนกลางแห่งสหรัฐอเมริกา (FBI) ได้เผยแพร่ภาพถ่ายสองภาพของผู้ต้องสงสัยที่เกี่ยวข้องกับการยิงสังหารชาร์ลี เคิร์ก นักเคลื่อนไหว เนื่องจากภาพถ่ายค่อนข้างเบลอ ชุมชนออนไลน์จึงรีบตอบกลับอย่างรวดเร็วด้วยภาพถ่ายเวอร์ชัน "อัปเกรด" โดยใช้ปัญญาประดิษฐ์ (AI)
ภาพเหล่านี้ดูคมชัดและชัดเจนกว่าภาพต้นฉบับ แต่จริงๆ แล้วเป็นเพียงการคาดเดาเท่านั้น AI ไม่มีความสามารถในการ " ค้นพบ " รายละเอียดที่ซ่อนอยู่ในภาพเบลอๆ เครื่องมือนี้จะทำการทำนายและเติมเต็มส่วนที่ขาดหายไปโดยอิงจากข้อมูลที่เรียนรู้ ซึ่งอาจหมายถึงการสร้างรายละเอียดที่ไม่มีอยู่จริงขึ้นมา
![]() |
ภาพถ่ายผู้ต้องสงสัยในคดียิงชาร์ลี เคิร์กที่ปรับปรุงด้วย AI แต่ใบหน้าของแต่ละคนไม่เหมือนกัน ภาพ: Grok |
มีการโพสต์รูปภาพเวอร์ชันปรับปรุงหลายภาพภายใต้โพสต์ของ FBI บางภาพอาจสร้างขึ้นโดยใช้เครื่องมือ Grok บน X ขณะที่บางภาพเชื่อว่าสร้างขึ้นโดยใช้แพลตฟอร์มอย่าง ChatGPT และ Gemini อย่างไรก็ตาม ความแม่นยำของภาพเรนเดอร์เหล่านี้แตกต่างกันอย่างมาก บางภาพยังแสดงให้เห็นถึงความไม่แม่นยำที่เห็นได้ชัด เช่น การเปลี่ยนสีเสื้อ หรือการทำให้ใบหน้าของตัวละครดูแตกต่างออกไปด้วยคางที่ใหญ่เกินจริง
ดูเหมือนว่าภาพเหล่านี้จะถูกแชร์เพื่อ "ช่วย" ให้ชุมชนระบุตัวผู้ต้องสงสัย แต่ในความเป็นจริงแล้ว ภาพเหล่านี้กลับกลายเป็นเครื่องมือดึงดูดความสนใจ เพิ่มยอดไลก์และยอดแชร์บนโซเชียลมีเดีย
ผู้เชี่ยวชาญเตือนว่าภาพ AI เหล่านี้ไม่น่าจะมีประโยชน์มากกว่าภาพต้นฉบับของ FBI อันที่จริง ในบางกรณีที่ผ่านมา ภาพที่ได้รับการปรับปรุงด้วย AI ก็ได้ให้ผลลัพธ์ที่น่าถกเถียง
ตัวอย่างเช่น ภาพถ่ายความละเอียดต่ำของอดีตประธานาธิบดีบารัค โอบามา ได้รับการ "อัปเกรด" โดย AI เพื่อแสดงภาพชายผิวขาว ในอีกกรณีหนึ่ง ภาพถ่ายของประธานาธิบดีโดนัลด์ ทรัมป์ มีเนื้องอกที่ไม่มีอยู่จริงถูกเพิ่มเข้าไปในศีรษะโดย AI
ความคลาดเคลื่อนเหล่านี้ชี้ให้เห็นว่า AI กำลังคาดการณ์จากข้อมูลที่มีอยู่ แทนที่จะสร้างภาพซ้ำที่หายไปในภาพเบลออย่างแม่นยำ แม้ว่าเทคโนโลยีนี้อาจมีประโยชน์ในบางบริบท แต่ภาพที่สร้างโดย AI ไม่ควรถือเป็นหลักฐานที่ชี้ชัดในการสืบสวนคดีอาญา
ในประกาศของ FBI เองนั้น มีเพียงการเผยแพร่ภาพถ่ายต้นฉบับ และขอให้สาธารณชนแจ้งข้อมูลหากสามารถระบุตัวบุคคลในภาพได้ อย่างไรก็ตาม กระแส "ภาพถ่ายที่อัปเดตตัวเองได้" บนโซเชียลมีเดียได้ดึงดูดความสนใจอย่างรวดเร็ว ก่อให้เกิดคำถามเกี่ยวกับความรับผิดชอบในการใช้เครื่องมือ AI ในกรณีละเอียดอ่อนที่เกี่ยวข้องกับความปลอดภัยและชีวิตมนุษย์
เมื่อปัญญาประดิษฐ์ถูกนำมาใช้อย่างแพร่หลายมากขึ้น เหตุการณ์นี้จึงเน้นย้ำถึงปัญหาหนึ่ง นั่นคือ ปัญญาประดิษฐ์สามารถสร้างภาพที่ดูเหมือนจริงจนทำให้เข้าใจผิดได้ แต่ไม่ได้หมายความว่าภาพเหล่านั้นจะน่าเชื่อถือ โดยเฉพาะอย่างยิ่งในการก่ออาชญากรรม ข้อมูลที่ไม่ถูกต้องอาจนำไปสู่ผลลัพธ์ที่ร้ายแรง
ที่มา: https://znews.vn/hinh-anh-nghi-pham-am-sat-charlie-kirk-bi-lam-gia-post1584664.html











การแสดงความคิดเห็น (0)