รูปดาราปลอมระบาดหนัก
การสร้างภาพที่ดูสมจริงอย่างเหลือเชื่อแต่แท้จริงแล้วกลับเป็นของปลอมนั้นไม่เคยง่ายอย่างนี้มาก่อน ใครก็ตามที่มีอินเทอร์เน็ตและสามารถเข้าถึงเครื่องมือที่ขับเคลื่อนด้วย AI สามารถสร้างภาพที่ดูสมจริงได้ภายในไม่กี่วินาที แล้วเผยแพร่สู่โซเชียลมีเดียด้วยความเร็วสูง
ภาพปลอมที่สร้างโดย AI แสดงให้เห็นว่า Elon Musk กำลัง "คบหากับ" Mary Barra ซึ่งเป็น CEO ของ GM
ในช่วงไม่กี่ครั้งที่ผ่านมา ภาพเหล่านี้กลายเป็นไวรัลอย่างมาก เช่น อดีตประธานาธิบดีโดนัลด์ ทรัมป์และประธานาธิบดีวลาดิมีร์ ปูติน ที่ถูกจับกุมปลอมๆ หรือมหาเศรษฐีอีลอน มัสก์ "ออกไปเที่ยว" กับแมรี บาร์รา ซีอีโอของเจนเนอรัลมอเตอร์ส (GM)
ปัญหาคือภาพ AI นำเสนอเหตุการณ์ที่ไม่เคยเกิดขึ้นจริง และแม้ว่าภาพบางภาพอาจดูตลกและดูไม่สมจริง แต่ผู้เชี่ยวชาญกล่าวว่าภาพเหล่านี้ยังคงก่อให้เกิดอันตรายร้ายแรงในแง่ของข้อมูลที่ผิดพลาด แม้กระทั่งการเผยแพร่ข่าวปลอม
ภาพการจับกุม นักการเมือง อย่างอดีตประธานาธิบดีโดนัลด์ ทรัมป์ ของสหรัฐฯ สามารถตรวจสอบได้อย่างรวดเร็วโดยผู้ใช้งาน หากตรวจสอบแหล่งข้อมูลสื่อที่น่าเชื่อถือ อย่างไรก็ตาม เฮนรี อัจเดอร์ ผู้เชี่ยวชาญด้าน AI บอกกับ DW ว่าภาพอื่นๆ ระบุตัวตนได้ยากกว่า เช่น ภาพบุคคลที่ไม่ได้มีชื่อเสียงมากนัก
อันตรายจากภาพเหตุการณ์ปลอม
อัจเดอร์กล่าวว่า ไม่ใช่แค่ภาพคนที่สร้างขึ้นโดย AI เท่านั้นที่สามารถเผยแพร่ข้อมูลเท็จได้ เขากล่าวว่าเคยมีตัวอย่างผู้ใช้ที่สร้างเหตุการณ์ที่ไม่เคยเกิดขึ้นมาก่อน เช่น แผ่นดินไหวครั้งใหญ่ที่คาดว่าจะเขย่าสหรัฐอเมริกาและแคนาดาในปี 2001
แต่แผ่นดินไหวไม่เคยเกิดขึ้นจริง และภาพที่แชร์บน Reddit ทั้งหมดล้วนสร้างขึ้นโดย AI และ Ajder บอกว่านั่นคือปัญหา “ถ้า AI สร้างภาพทิวทัศน์ขึ้นมา การสังเกตก็จะยากขึ้น” เขาอธิบาย
อย่างไรก็ตาม เครื่องมือ AI ก็ยังทำผิดพลาดได้ แม้ว่าจะพัฒนาอย่างรวดเร็วก็ตาม ณ เดือนเมษายน 2023 โปรแกรมอย่าง Midjourney, Dall-E และ DeepAI ล้วนมีปัญหา โดยเฉพาะภาพที่แสดงมนุษย์
ต่อไปนี้เป็นเคล็ดลับบางประการสำหรับการตรวจยืนยันภาพที่สร้างโดย AI แต่ผู้เชี่ยวชาญได้ออกมาเตือนอย่างรวดเร็วว่าเคล็ดลับเหล่านี้สะท้อนถึงสถานการณ์ปัจจุบันเท่านั้น เนื่องจากเครื่องมือปัญญาประดิษฐ์มีการพัฒนาอย่างต่อเนื่องทุกวัน แม้กระทั่งทุกชั่วโมง:
ซูมเข้าและค้นหาแหล่งที่มาของภาพ
ภาพที่สร้างโดย AI หลายภาพดูสมจริงตั้งแต่แรกเห็น นั่นเป็นเหตุผลที่ผู้เชี่ยวชาญแนะนำให้ลองมองภาพให้ละเอียดขึ้น โดยมองหาความละเอียดสูงสุดที่เป็นไปได้ แล้วซูมเข้าไปดูรายละเอียด
การซูมเข้าไปในภาพจะเผยให้เห็นความไม่สอดคล้องและข้อผิดพลาดที่อาจตรวจไม่พบในตอนแรก
หากคุณไม่แน่ใจว่ารูปภาพนั้นเป็นของจริงหรือสร้างโดย AI ลองค้นหาแหล่งที่มา คุณสามารถดูข้อมูลเกี่ยวกับแหล่งที่มาของรูปภาพได้จากการอ่านความคิดเห็นที่ผู้ใช้รายอื่นโพสต์ไว้ใต้รูปภาพ
หรือคุณสามารถค้นหารูปภาพแบบย้อนกลับได้ โดยอัปโหลดรูปภาพไปยังเครื่องมืออย่าง Google Image Reverse Search, TinEye หรือ Yandex แล้วคุณจะพบแหล่งที่มาของรูปภาพ
ผลการค้นหาเหล่านี้อาจแสดงลิงก์ไปยังการตรวจสอบข้อเท็จจริงที่ดำเนินการโดยสื่อที่มีชื่อเสียงซึ่งให้บริบทเพิ่มเติม
ใส่ใจสัดส่วนร่างกายและการแสดงผลผิดพลาด
ไม่ใช่เรื่องแปลกที่ภาพที่สร้างโดย AI จะมีสัดส่วนที่แตกต่างกัน มืออาจเล็กเกินไปหรือนิ้วอาจยาวเกินไป หรือศีรษะและขาอาจไม่ตรงกับส่วนอื่นของร่างกาย
ปัจจุบัน มือเป็นแหล่งที่มาหลักของข้อผิดพลาดในโปรแกรมสร้างภาพด้วย AI เช่น Midjourney หรือ DALL-E ผู้คนมักมีนิ้วเกินหรือหายไป เช่น ในภาพถ่ายปลอมของสมเด็จพระสันตะปาปาฟรานซิส
ภาพปลอมของสมเด็จพระสันตปาปาฟรานซิสที่สร้างโดย AI
ข้อผิดพลาดที่พบบ่อยอื่นๆ ในภาพที่สร้างโดย AI ได้แก่ คนที่มีฟันเยอะเกินไป แว่นตารูปทรงแปลก หรือหูรูปทรงไม่สมจริง พื้นผิวสะท้อนแสง เช่น บังตาหมวกกันน็อค ก็เป็นปัญหาสำหรับโปรแกรม AI เช่นกัน
อย่างไรก็ตาม ผู้เชี่ยวชาญด้าน AI อย่าง Henry Ajder ออกมาเตือนว่าโปรแกรมเวอร์ชันใหม่ ๆ เช่น Midjourney มีความสามารถในการสร้างมือได้ดีขึ้น ซึ่งหมายความว่าผู้ใช้จะไม่สามารถพึ่งให้โปรแกรมตรวจจับข้อผิดพลาดประเภทนี้ได้นานนัก
รูปภาพดูปลอมและเนียนมั้ย?
โดยเฉพาะอย่างยิ่ง แอป Midjourney สร้างภาพที่สวยงามและสมบูรณ์แบบมากจนผู้ชมต้องตั้งคำถาม “ใบหน้าดูบริสุทธิ์เกินไป เนื้อผ้าดูกลมกลืนเกินไป” อันเดรียส เดนเกล จากศูนย์วิจัยปัญญาประดิษฐ์แห่งเยอรมนีกล่าว
ผิวของผู้คนในภาพ AI จำนวนมากมักจะเรียบเนียนไร้รอยตำหนิ แม้แต่เส้นผมและฟันก็ยังดูสมบูรณ์แบบ ซึ่งเป็นไปไม่ได้ในชีวิตจริง
ภาพถ่ายจำนวนมากมีศิลปะ มันวาว และแวววาว ซึ่งแม้แต่ช่างภาพมืออาชีพก็ยังพบว่าทำได้ยากเมื่อถ่ายภาพในสตูดิโอ
ดูเหมือนว่าเครื่องมือ AI มักจะออกแบบภาพที่สมบูรณ์แบบในอุดมคติและน่าจะทำให้คนพอใจมากที่สุด
ตรวจสอบบริบทและข้อสรุป
พื้นหลังของภาพมักบ่งบอกได้ว่าภาพนั้นถูกปลอมแปลงหรือไม่ วัตถุต่างๆ อาจบิดเบี้ยวได้ เช่น ไฟถนน ในบางกรณี โปรแกรม AI จะคัดลอกบุคคลและวัตถุแล้วนำมาใช้ซ้ำแล้วซ้ำเล่า และพื้นหลังของภาพ AI มักจะเบลอ
แต่แม้แต่ภาพเบลอแบบนี้ก็ยังมีข้อบกพร่องอยู่ อย่างเช่นภาพที่ตั้งใจจะแสดงให้เห็นวิล สมิธที่กำลังโกรธในงานออสการ์ ฉากหลังไม่เพียงแต่หลุดโฟกัส แต่ยังเบลอแบบไม่ได้ตั้งใจอีกด้วย
ปัจจุบันภาพที่สร้างโดย AI จำนวนมากสามารถตรวจจับได้เพียงแค่คิดเล็กน้อย เครื่องมือตรวจจับ AI อย่าง Hugging Face ก็สามารถช่วยให้คุณตรวจจับภาพปลอมได้เช่นกัน แต่เมื่อเทคโนโลยีพัฒนาขึ้น ข้อบกพร่องในภาพ AI อาจมองเห็นได้ยากขึ้น ทำให้ตรวจจับได้ยากขึ้น
ฮวงไห่ (ตาม DW)
แหล่งที่มา
การแสดงความคิดเห็น (0)