ภาพปลอมของดารามีแพร่หลาย
ไม่เคยง่ายอย่างนี้มาก่อนในการสร้างรูปภาพที่ดูสมจริง แต่แท้จริงแล้วกลับเป็นของปลอม เพราะใครก็ตามที่มีการเชื่อมต่ออินเทอร์เน็ตและสามารถเข้าถึงเครื่องมือที่ขับเคลื่อนด้วย AI สามารถสร้างภาพถ่ายที่สมจริงได้ภายในไม่กี่วินาที และเผยแพร่บนโซเชียลมีเดียได้ด้วยความเร็วสูง
ภาพปลอมที่ถูกสร้างขึ้นโดย AI แสดงให้เห็นว่า Elon Musk กำลัง “คบหาดูใจ” กับ Mary Barra ซึ่งเป็น CEO ของ GM
ในช่วงไม่กี่ครั้งที่ผ่านมา ภาพเหล่านี้แพร่ระบาดไปทั่ว เช่น อดีตประธานาธิบดีโดนัลด์ ทรัมป์และประธานาธิบดีวลาดิมีร์ ปูติน ถูกจับปลอมๆ หรือมหาเศรษฐีอีลอน มัสก์ "ออกไปเที่ยว" กับแมรี่ บาร์รา ซีอีโอของเจนเนอรัลมอเตอร์ส (GM)
ปัญหาคือภาพ AI ทั้งหมดแสดงเหตุการณ์ที่ไม่เคยเกิดขึ้นมาก่อน แม้ว่าภาพบางภาพอาจจะดูตลกและดูไม่สมจริง แต่ก็ยังคงเป็นอันตรายในแง่ของข้อมูลที่ผิดพลาดได้ ซึ่งอาจเสี่ยงต่อการแพร่กระจายข่าวปลอมได้ ตามที่ผู้เชี่ยวชาญกล่าว
ภาพการจับกุมนักการเมือง เช่น อดีตประธานาธิบดีสหรัฐฯ โดนัลด์ ทรัมป์ สามารถตรวจสอบได้โดยผู้ใช้งานค่อนข้างเร็ว หากตรวจสอบแหล่งสื่อที่มีชื่อเสียง อย่างไรก็ตาม ผู้เชี่ยวชาญด้าน AI Henry Ajder กล่าวในการสนทนากับ DW ว่ารูปภาพอื่น ๆ ยากต่อการจดจำมากกว่า เช่น รูปภาพที่บุคคลในภาพไม่ได้มีชื่อเสียงมากนัก
อันตรายจากภาพงานปลอม
ตามที่ Ajder กล่าว ไม่ใช่แค่ภาพผู้คนที่สร้างโดย AI เท่านั้นที่สามารถแพร่กระจายข้อมูลที่ผิดพลาดได้ เขากล่าวว่ามีตัวอย่างผู้ใช้สร้างเหตุการณ์ที่ไม่เคยเกิดขึ้นมาก่อน เช่น แผ่นดินไหวรุนแรงที่สั่นสะเทือนสหรัฐอเมริกาและแคนาดาเมื่อปี 2544
แต่แผ่นดินไหวครั้งนี้ไม่เคยเกิดขึ้น และภาพที่แชร์บน Reddit ก็ล้วนสร้างขึ้นโดย AI และตามที่อัจเดอร์กล่าว นี่คือปัญหา “หาก AI สร้างฉากภูมิทัศน์ขึ้นมา คุณอาจตรวจจับได้ยากขึ้น” เขาอธิบาย
อย่างไรก็ตามเครื่องมือ AI ยังคงเกิดข้อผิดพลาดได้ แม้ว่าจะมีการพัฒนาอย่างรวดเร็วก็ตาม ในปัจจุบัน ณ เดือนเมษายน พ.ศ. 2566 โปรแกรมต่างๆ เช่น Midjourney, Dall-E และ DeepAI ต่างประสบปัญหา โดยเฉพาะภาพที่แสดงภาพมนุษย์
ต่อไปนี้เป็นเคล็ดลับบางประการสำหรับการตรวจยืนยันภาพที่สร้างโดย AI แต่ผู้เชี่ยวชาญได้ออกมาเตือนอย่างรวดเร็วว่าเคล็ดลับเหล่านี้สะท้อนถึงสถานการณ์ปัจจุบันเท่านั้น เนื่องจากเครื่องมือปัญญาประดิษฐ์มีการพัฒนาอย่างต่อเนื่องทุกวัน ทุกชั่วโมง:
ซูมเข้าและค้นหาแหล่งที่มาของภาพ
รูปภาพที่สร้างโดย AI หลายภาพดูสมจริงเมื่อมองครั้งแรก ดังนั้นคำแนะนำแรกจากผู้เชี่ยวชาญคือการดูภาพถ่ายอย่างใกล้ชิด ในการดำเนินการนี้ ให้ค้นหารูปภาพที่มีความละเอียดสูงสุดเท่าที่จะเป็นไปได้ จากนั้นจึงซูมเข้าไปที่รายละเอียด
การซูมเข้าไปในภาพจะทำให้เห็นความไม่สอดคล้องและข้อผิดพลาดที่อาจตรวจไม่พบในตอนแรก
หากคุณไม่แน่ใจว่ารูปภาพนั้นเป็นภาพจริงหรือสร้างโดย AI ให้ลองค้นหาแหล่งที่มา คุณสามารถดูข้อมูลบางส่วนเกี่ยวกับตำแหน่งที่โพสต์รูปภาพเป็นครั้งแรกได้จากการอ่านความคิดเห็นที่ผู้ใช้รายอื่นโพสต์ไว้ใต้รูปภาพ
หรือคุณสามารถค้นหารูปภาพย้อนกลับได้ ในการดำเนินการนี้ ให้อัปโหลดรูปภาพไปยังเครื่องมือ เช่น Google Image Reverse Search, TinEye หรือ Yandex และคุณจะสามารถค้นหาแหล่งที่มาดั้งเดิมของรูปภาพได้
ผลการค้นหาเหล่านี้อาจแสดงลิงก์ไปยังการตรวจสอบข้อเท็จจริงที่ดำเนินการโดยสื่อที่มีชื่อเสียงซึ่งจะให้บริบทเพิ่มเติม
ใส่ใจสัดส่วนร่างกายและการแสดงผลผิดพลาด
ไม่ใช่เรื่องแปลกที่รูปภาพที่สร้างโดย AI จะมีขนาดที่แตกต่างกัน มืออาจจะเล็กเกินไปหรือว่านิ้วยาวเกินไป หรือส่วนหัวและขาไม่สอดคล้องกับส่วนอื่นของร่างกาย
ขณะนี้มือเป็นสาเหตุหลักของข้อผิดพลาดในโปรแกรม AI Vision เช่น Midjourney หรือ DALL-E ผู้คนมักจะมีนิ้วเกินหรือหายไป ดังเช่นในรูปถ่ายปลอมของพระสันตปาปาฟรานซิสเหล่านี้
ภาพปลอมของพระสันตปาปาฟรานซิสที่สร้างโดย AI
ข้อผิดพลาดทั่วไปอื่นๆ ในภาพที่สร้างโดย AI ได้แก่ คนที่มีฟันมากเกินไป หรือกรอบแว่นตาที่ผิดรูปอย่างประหลาด หรือหูที่มีรูปร่างไม่สมจริง พื้นผิวสะท้อนแสง เช่น แผ่นบังตาหมวกกันน็อค ยังก่อให้เกิดปัญหาสำหรับโปรแกรม AI อีกด้วย
อย่างไรก็ตาม ผู้เชี่ยวชาญด้าน AI อย่าง Henry Ajder ออกมาเตือนว่าโปรแกรมเวอร์ชันใหม่ ๆ เช่น Midjourney นั้นมีความสามารถในการสร้างมือได้ดีขึ้น ซึ่งหมายความว่าผู้ใช้จะไม่สามารถพึ่งให้โปรแกรมสามารถตรวจจับข้อผิดพลาดประเภทนี้ได้ในระยะยาว
รูปภาพจะดูปลอมและเรียบเนียนไหม?
โดยเฉพาะอย่างยิ่ง แอป Midjourney สร้างภาพที่สวยงามและสมบูรณ์แบบได้มากมาย ทำให้ผู้ชมต้องถามคำถาม Andreas Dengel จากศูนย์วิจัย AI แห่งเยอรมนี กล่าวว่า “ใบหน้าดูบริสุทธิ์เกินไป เนื้อผ้าดูกลมกลืนเกินไป”
ผิวของผู้คนในภาพ AI จำนวนมากมักจะเรียบเนียนและไม่มีตำหนิใดๆ แม้แต่ผมและฟันก็ยังสมบูรณ์แบบ นี่ไม่สามารถทำได้ในชีวิตจริง
ภาพถ่ายจำนวนมากมีศิลปะ มันวาว และเป็นประกาย ซึ่งแม้แต่ช่างภาพมืออาชีพเองก็ยังพบว่าทำได้ยากเมื่อถ่ายในสตูดิโอ
บ่อยครั้งเครื่องมือ AI ดูเหมือนจะออกแบบภาพที่สมบูรณ์แบบและน่าพึงพอใจมากที่สุดเท่าที่จะเป็นไปได้
ตรวจสอบบริบทและข้อสรุป
พื้นหลังของรูปภาพมักจะบอกได้ว่าภาพนั้นเป็นของปลอมหรือไม่ วัตถุอาจเสียรูปได้ เช่น ไฟถนน ในบางกรณี โปรแกรม AI จะโคลนผู้คนและวัตถุ และนำมาใช้ซ้ำแล้วซ้ำเล่า และไม่ใช่เรื่องแปลกที่พื้นหลังของภาพ AI จะเบลอ
แต่แม้แต่การทำให้เบลอนี้ก็ยังมีข้อผิดพลาดได้ เหมือนกรณีหนึ่งที่ตั้งใจจะแสดงให้เห็นวิล สมิธที่กำลังโกรธในงานออสการ์ พื้นหลังไม่เพียงแต่หลุดโฟกัส แต่ยังเบลอโดยไม่เป็นธรรมชาติอีกด้วย
ปัจจุบันสามารถตรวจจับภาพที่สร้างโดย AI ได้หลายภาพด้วยความคิดเพียงเล็กน้อย เครื่องมือตรวจจับ AI เช่น Hugging Face สามารถช่วยให้คุณตรวจจับของปลอมได้เช่นกัน ถึงอย่างนั้น เทคโนโลยีก็พัฒนาไปเรื่อยๆ และข้อผิดพลาดในภาพ AI ก็มีแนวโน้มจะน้อยลง ทำให้ตรวจจับได้ยากขึ้น
ฮวงไห่ (ตาม DW)
แหล่งที่มา
การแสดงความคิดเห็น (0)