เมื่อมองดูอีกครั้ง เธอจึงรู้ว่านี่เป็นเพียงภาพ AI ที่เพจเฟซบุ๊กใช้ประกอบโพสต์ซึ้งๆ เท่านั้น และที่สำคัญ นี่เป็นครั้งที่สองที่เธอ “เกือบ” โดน AI หลอก ก่อนหน้านั้น เธอยังเข้าใจผิดคิดว่า วิดีโอ “‘คนเกษียณ’ เจอ ‘นักท่องเที่ยวช่วงฤดูร้อน’” เป็นบุคคลจริงและเหตุการณ์จริงอีกด้วย
เนื่องจากทำงานในวงการสื่อและต้องสัมผัสกับเนื้อหา AI เป็นประจำ คุณลินห์จึงต้องยอมรับว่าเทคโนโลยีนี้พัฒนาอย่างรวดเร็วและซับซ้อนมากจนยากที่จะแยกแยะระหว่างของจริงและของปลอม

ผู้เชี่ยวชาญก็เห็นด้วยกับมุมมองนี้เช่นกัน เครื่องมืออย่าง Google Veo 3, Kling AI, DALL·E 3, Midjourney... ได้สร้างภาพและวิดีโอที่สมจริงอย่างเหลือเชื่อ
คุณโด้ นู ลัม ผู้อำนวยการฝ่ายฝึกอบรม สถาบันเทคโนโลยีบล็อคเชนและปัญญาประดิษฐ์ ABAII ชี้ให้เห็นว่าด้วยเทคโนโลยีหลายโหมดและโมเดลภาษาขั้นสูง เครื่องมือเหล่านี้สามารถซิงโครไนซ์ภาพ เสียง การแสดงออกทางใบหน้า และการเคลื่อนไหวตามธรรมชาติ เพื่อสร้างผลิตภัณฑ์ที่น่าเชื่อถืออย่างยิ่ง

คุณแลมให้ความเห็นว่าความก้าวหน้าของ AI เปิดโอกาสให้เกิดศักยภาพมหาศาลในด้านต่างๆ เช่น การสร้างสรรค์คอนเทนต์ การโฆษณา ความบันเทิง และ การศึกษา อย่างไรก็ตาม ความสามารถในการสร้างซ้ำที่ "เหมือนจริง" นี้ยังก่อให้เกิดความท้าทายมากมายในด้านจริยธรรม การควบคุม และความปลอดภัยของข้อมูล เนื่องจากเส้นแบ่งระหว่างความเป็นจริงและโลกเสมือนนั้นพร่าเลือนลงเรื่อยๆ
โพสต์เฟซบุ๊กที่คุณลินห์เห็นมียอดการโต้ตอบเกือบ 300,000 ครั้ง และความคิดเห็นมากกว่า 16,000 รายการ ผู้ใช้จำนวนมากรีบแสดงความยินดีหรือแสดงความรู้สึกโดยไม่รู้ว่านี่เป็นเพียงภาพประกอบจาก AI บางคนที่ "มีสติ" กว่านั้นวิจารณ์ว่า "ชาวเน็ตไร้เดียงสาเกินไป" ที่ปล่อยให้ AI หลอกพวกเขา
ในกลุ่มและฟอรัม Facebook การดูวิดีโอ AI ที่สร้างและแชร์โดยผู้ใช้นั้นไม่ใช่เรื่องยาก โดยเฉพาะอย่างยิ่ง รูปลักษณ์ของ Google Veo 3 ได้ยกระดับคุณภาพของวิดีโอขึ้นอย่างมาก โดยเฉพาะเสียงที่เข้ากับรูปปากของตัวละคร หากไม่สังเกตและสังเกตให้ดี ผู้ชมอาจสับสนได้ง่าย
การรักษาสติในยุค AI
ภาพถ่ายและวิดีโอที่สร้างด้วย AI นั้นแยกแยะได้ยาก ก่อให้เกิดความเสี่ยงอย่างมากต่อผู้ใช้ โดยเฉพาะกลุ่มเปราะบางที่ไม่เชี่ยวชาญด้านเทคโนโลยี คุณหวู่ ถั่นห์ ทัง ผู้อำนวยการฝ่ายปัญญาประดิษฐ์ (CAIO) ของบริษัท SCS Cyber Security Joint Stock Company ระบุว่า AI กำลังถูกอาชญากรไซเบอร์ใช้ในการฉ้อโกง (เช่น การหลีกเลี่ยงระบบไบโอเมตริกซ์ eKYC เป็นต้น) ปลอมตัวเป็นบุคคลที่มีชื่อเสียงเพื่อเผยแพร่ข้อมูลเท็จ ก่อให้เกิดความสับสนแก่สาธารณชน มีหลายกรณีที่อาชญากรไฮเทคใช้ประโยชน์จาก AI เพื่อสร้างภาพถ่ายแบบดีปเฟก ปลอมตัวเป็นญาติเพื่อโทรวิดีโอคอลเพื่อหลอกลวงเงิน

คุณทังกล่าวว่า ธุรกิจต่างๆ ก็เป็นเป้าหมายที่อาชญากร AI มักมองข้าม พวกเขาสามารถใช้ AI Deepfake เพื่อปลอมตัวเป็นพนักงาน หลบเลี่ยงระบบรักษาความปลอดภัยเพื่อปลดล็อกการเข้างาน และปลอมตัวเป็นผู้นำธุรกิจเพื่อทำลายชื่อเสียง
นายโด นู ลัม จาก ABAII ซึ่งมีความคิดเห็นตรงกัน ได้ชี้ให้เห็นถึงผลกระทบสามประการต่อผู้ใช้รายบุคคลที่เกิดจาก AI ได้แก่ การฉ้อโกงทางการเงิน การหมิ่นประมาทชื่อเสียง และการแสวงหาประโยชน์จากข้อมูลส่วนบุคคล สำหรับภาคธุรกิจ บริษัท Arup สูญเสียเงิน 25 ล้านดอลลาร์สหรัฐ หลังจากพนักงานสาขาในฮ่องกงถูกหลอกให้เข้าร่วมการประชุมทางวิดีโอแบบดีปเฟกและโอนเงินตามที่ร้องขอ
ความเสี่ยงที่ร้ายแรงอีกประการหนึ่งก็คือ เมื่อผู้คนไม่สามารถแยกแยะระหว่างของจริงและของปลอมได้ ความไว้วางใจของสาธารณชนที่มีต่อสื่อและแหล่งข่าวอย่างเป็นทางการก็จะลดลง
นายลัมอ้างอิงรายงานของสถาบัน Reuters ในปี 2024 ซึ่งระบุว่าเปอร์เซ็นต์ของผู้ใช้ทั่วโลกที่เชื่อถือข่าวสารบนแพลตฟอร์มสื่อลดลงสู่ระดับต่ำสุดในรอบ 10 ปี ซึ่งส่วนใหญ่เป็นผลมาจากการเกิดขึ้นของเนื้อหาที่เป็น Deepfake
ผู้เชี่ยวชาญ หวู่ ถั่นห์ ทัง กล่าวว่า “เราอยู่ในยุคที่ข้อมูลทุกอย่างสามารถปลอมแปลงได้ และไม่ใช่ ‘ความเสี่ยง’ อีกต่อไป” ดังนั้น จึงจำเป็นต้องสร้างความตระหนักรู้ และใช้มาตรการป้องกันส่วนบุคคล รวมถึงเรียนรู้เกี่ยวกับ AI เพื่อใช้ชีวิต อย่างสันติ
ผู้เชี่ยวชาญทั้งสองท่านแนะนำว่าผู้ใช้ควรตรวจสอบและรับรองความถูกต้องของข้อมูลก่อนตัดสินใจเสมอ เตรียมความพร้อมให้ตนเองด้วยความรู้เพื่อระบุเนื้อหาปลอม จำกัดการแชร์ข้อมูลส่วนบุคคลทางออนไลน์ และรายงานการกระทำที่ก่อให้เกิดการเผยแพร่เนื้อหาปลอม “การที่ผู้ใช้มีความกระตือรือร้นและมีความรู้เท่านั้นที่จะสามารถปกป้องตนเองได้อย่างแท้จริงและมีส่วนร่วมในการสร้างโลกไซเบอร์ที่ปลอดภัยยิ่งขึ้นในยุคดิจิทัล” คุณแลมกล่าว

ที่มา: https://vietnamnet.vn/anh-ai-tran-ngap-facebook-tuong-vo-hai-nhung-cuc-nguy-hiem-2408883.html










การแสดงความคิดเห็น (0)