คนร้ายสามารถใช้ AI เพื่อรวมรูปภาพและ วิดีโอ ที่ละเอียดอ่อนเพื่อใส่ร้ายและแบล็กเมล์ผู้อื่น - รูปภาพ: ภาพวาด AI
ในอดีต เมื่อพูดถึงเทคนิคการตัดและวางใบหน้าของบุคคลหนึ่งลงบนร่างกายของอีกคนหนึ่ง ผู้คนมักใช้ Photoshop หรือซอฟต์แวร์แก้ไขภาพเฉพาะทาง ซึ่งเป็นงานที่ต้องใช้ความประณีตและจดจำได้ง่ายด้วยตาเปล่า
ในปัจจุบันนี้ ด้วยเครื่องมือ AI ผู้คนสามารถทำสิ่งนั้นได้อย่างง่ายดายหลังจาก "จดบันทึกเพียงเล็กน้อย" แต่การจะตรวจจับด้วยตาเปล่านั้นไม่ใช่เรื่องง่าย
วิดีโอเซ็กส์สลับหน้าเพื่อแบล็กเมล์
เนื่องจากมีความสัมพันธ์ในการทำงาน คุณ H. (ผู้อำนวยการของบริษัทแห่งหนึ่งในนครโฮจิมินห์) จึงมักโต้ตอบผ่านเครือข่ายสังคมออนไลน์
ครั้งหนึ่ง เขาได้เป็นเพื่อนกับเด็กสาวคนหนึ่งที่ถามถึงเรื่องงานของเขา หลังจากที่ถามถึงกัน พูดคุย และแบ่งปันเรื่องงานและชีวิตส่วนตัว ทั้งสองก็เริ่มสนิทกันมากขึ้น
นอกจากนี้ ยังมีข้อความระหว่างทั้งคู่มากมายที่มีเนื้อหาซาบซึ้งใจ พร้อมทั้งมีการส่งรูปภาพไปมาและวิดีโอคอลหากันอีกด้วย
วันหนึ่ง นาย H. ได้รับโทรศัพท์จากชายคนหนึ่งที่อ้างว่าเป็นสามีของหญิงสาว โดยหลังจากที่เขาโจมตีนาย H. ล่วงหน้าแล้ว "สามี" ก็ได้เรียกร้องให้เขาโอนเงินค่าชดเชยหากเขาไม่ต้องการให้ส่งภาพการสนทนาและวิดีโอเซ็กส์ระหว่างทั้งสองคนไปให้ญาติและคู่รัก
จากนั้น นายเอช. ได้ดูวิดีโอเซ็กส์ของเขากับผู้หญิงอีกคนโดย "สามี" ของเขา พร้อมด้วยวิดีโอการสนทนาทางโทรศัพท์ระหว่างทั้งคู่ และข้อความส่วนตัวที่บันทึกไว้ได้...
“ผมไม่เคยเจอผู้หญิงคนนั้นเลย ดังนั้นผมจึงมั่นใจว่าวิดีโอเซ็กส์เป็นเวอร์ชั่นที่ผ่านการตัดต่อ” นาย H. ยืนยัน อย่างไรก็ตาม รูปหน้าของหญิงสาวในวิดีโอเซ็กส์และหญิงสาวในวิดีโอคอลของเขาเป็นภาพเดียวกัน รวมถึงภาพข้อความแสดงความรักด้วย ซึ่งทำให้นาย H. ต้องโอนเงินให้ “สามี” ของเขาหลายครั้งเพื่อรักษาชื่อเสียงของเขาเอาไว้
จากการสืบสวนของ Tuoi Tre นาย H. ถูกหลอกลวงอย่างเป็นระบบตามสถานการณ์ที่สมบูรณ์แบบ ในการหลอกลวงครั้งนี้ นาย H. ถูกหลอกด้วย Deepfake สองครั้ง ครั้งแรกเป็นวิดีโอคอล และครั้งที่สองเป็นวิดีโอเซ็กส์
ที่น่าสังเกตคือในวิดีโอเซ็กส์ ใบหน้าของนาย H. ถูกปลูกถ่ายอย่างชำนาญจนผู้ชมแทบไม่เชื่อว่าเป็นวิดีโอปลูกถ่ายใบหน้า ผู้เชี่ยวชาญด้าน AI ยืนยันกับ Tuoi Tre ว่าคนร้ายใช้เครื่องมือ AI ใหม่ที่สามารถปลูกถ่ายใบหน้าลงในวิดีโอได้อย่างสมบูรณ์แบบ... เหมือนของจริง
มีเครื่องมือ AI สำหรับการสลับหน้าอยู่มากมาย
ปัจจุบันมีเครื่องมือแอปพลิเคชัน AI หลายตัวที่มีฟีเจอร์ต่างๆ เช่น การสร้างบุคคลที่มีใบหน้าตามต้องการ และผสานใบหน้าตามต้องการเข้ากับร่างกายของบุคคลอื่น
ในจำนวนนี้ มีเครื่องมือที่มีฟีเจอร์ที่ทำหน้าที่ไม่ดี เช่น เปลี่ยนภาพธรรมดาให้กลายเป็นภาพเปลือยด้วยการ "ถอดเสื้อผ้า" บุคคลในภาพ หรือแทนที่ใบหน้าของบุคคลในวิดีโอด้วยใบหน้าที่ต้องการ...
เครื่องมือ AI ส่วนใหญ่เหล่านี้มีให้ทดลองใช้งาน แต่การจ่ายเงินเพื่อใช้จะทำให้คุณได้รับฟีเจอร์ครบถ้วนพร้อมระยะเวลาในการเปลี่ยนแปลงที่รวดเร็วมาก
ตัวอย่างเช่น ด้วยคุณสมบัติการรวมใบหน้าเข้ากับร่างกายของคนอื่นๆ ผู้ใช้เพียงแค่ต้องอัปโหลดรูปถ่ายที่ตรงกันสองรูปและรอไม่กี่วินาทีเพื่อดูผลลัพธ์
หรือด้วยฟีเจอร์สร้างภาพเปลือยจากภาพธรรมดา เครื่องมือ AI ก็สามารถทำได้อย่างรวดเร็ว ภายในเวลาเพียงไม่กี่สิบวินาที ทำเอาผู้ชมต้องตะลึงเลยทีเดียว
แม้แต่ฟีเจอร์การแทนที่ใบหน้าในวิดีโอเซ็กส์ เครื่องมือ AI ก็สามารถทำได้อย่างรวดเร็ว โดยใช้เวลาเพียงไม่ถึงหนึ่งนาทีสำหรับวิดีโอที่มีความยาวเพียงไม่กี่วินาที
ในการพูดคุยกับ Tuoi Tre นาย Nguyen Kim Tho หัวหน้าทีมวิจัยและพัฒนาของบริษัทรักษาความปลอดภัยทางไซเบอร์ VNetwork ได้วิเคราะห์คำว่า Deepfake ที่ใช้เรียกวิดีโอและรูปภาพปลอมที่สร้างขึ้นโดย AI เพื่อทำให้ผู้ชมคิดว่าเป็นของจริง
เทคโนโลยี Deepfake ใช้โมเดลการเรียนรู้เชิงลึก เช่น เครือข่ายประสาท เพื่อวิเคราะห์ข้อมูลใบหน้าและเสียงของบุคคล และสร้างเนื้อหาปลอมที่มีลักษณะเหมือนกับบุคคลนั้นทุกประการ
"ด้วยอัลกอริทึมที่มีประสิทธิภาพ ผู้ร้ายสามารถใส่ใบหน้าของเหยื่อลงในวิดีโอที่มีความละเอียดอ่อน (เช่น วิดีโอเรื่องบนเตียง สื่อลามก) หรือแก้ไขรูปภาพเพื่อสร้างภาพเปลือยปลอมได้
ซอฟต์แวร์และแอปพลิเคชัน Deepfake ได้รับความนิยมอย่างมากบนอินเทอร์เน็ต แม้แต่ในแอปพลิเคชันมือถือ โค้ดโอเพ่นซอร์ส หรือบริการออนไลน์ฟรี ทำให้ทุกคนสามารถเข้าถึงเครื่องมือต่างๆ เพื่อสร้างวิดีโอและภาพถ่ายปลอมได้อย่างง่ายดาย ดังนั้นผู้คนจึงต้องระมัดระวัง" นายโธกล่าว
อยู่ให้ห่างจาก "การแชทเรื่องเซ็กส์"
การหลอกลวงส่วนใหญ่มักเริ่มจากการหาเพื่อนออนไลน์แล้วหลอกล่อเหยื่อให้ "แชทเรื่องเซ็กส์" หรือส่งรูปภาพที่ละเอียดอ่อน ดังนั้นผู้ใช้ไม่ควรส่งรูปภาพหรือวิดีโอส่วนตัวให้กับบุคคลที่พบเห็นทางออนไลน์ ไม่ว่าพวกเขาจะสัญญาหรือขู่ไว้มากเพียงใดก็ตาม
โปรดจำไว้เสมอว่าเนื้อหาใดๆ ที่แบ่งปัน (แม้กระทั่งผ่านข้อความส่วนตัว) อาจถูกบันทึก (ภาพหน้าจอ วิดีโอ) และแก้ไขและนำไปใช้กับคุณได้
หากคุณวิดีโอคอล ควรระวังคนแปลกหน้าที่ขอเนื้อหาที่ละเอียดอ่อน ซึ่งอาจเป็นหน้าจอปลอมหรือพวกเขากำลังบันทึกอยู่
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์แนะนำให้ผู้ใช้ไม่ไว้วางใจใคร ๆ ผ่านทางการติดต่อออนไลน์เพียงอย่างเดียว และให้ตรวจสอบตัวตนและความตั้งใจของอีกฝ่ายก่อนที่จะแบ่งปันสิ่งที่ละเอียดอ่อนใด ๆ
นอกจากนี้หากคุณได้รับข้อความหรือโทรศัพท์ขู่ว่าจะเปิดเผยภาพ "ร้อนๆ" เพื่อแบล็กเมล์ ผู้ใช้ไม่จำเป็นต้องกลัวและรีบโอนเงินทันที
การจ่ายเงินไม่ได้เป็นการรับประกันว่าคนร้ายจะลบวิดีโอนั้นออก ผู้เชี่ยวชาญกล่าวว่าพวกเขาอาจจะยังคงเรียกร้องเพิ่มเติมหรือโพสต์เนื้อหานั้นออนไลน์ต่อไปอยู่ดี
แทนที่จะปฏิบัติตามคำขอของอาชญากร ผู้ใช้ควรรวบรวมหลักฐาน (ข้อความ หมายเลขโทรศัพท์ บัญชีติดต่อ เนื้อหาที่คุกคาม...) และรายงานไปยังหน่วยงานตำรวจที่ใกล้ที่สุดทันที หรือรายงานเหตุการณ์ผ่านแอปพลิเคชัน VNeID ของ กระทรวงความมั่นคงสาธารณะ เพื่อการสนับสนุนที่ทันท่วงที
จะระบุตัวตนได้อย่างไร?
นายเหงียน คิม โท กล่าวว่า การแยกแยะระหว่างภาพและวิดีโอจริงกับภาพดีปเฟกกำลังกลายเป็นเรื่องยากขึ้นเรื่อยๆ แต่ยังคงมีสัญญาณบางอย่างที่สามารถระบุตัวตนได้และมีเครื่องมือสนับสนุนอยู่
ผู้ใช้สามารถสังเกตด้วยตนเองได้ เนื่องจากเนื้อหา Deepfake บางครั้งอาจมีความผิดปกติของภาพและเสียง
ตัวอย่างเช่น รูปภาพผสมอาจแสดงสัญญาณรบกวนและความแตกต่างของสีระหว่างใบหน้าผสมและร่างกาย วิดีโอปลอมอาจมีความไม่ตรงกันของเสียงและวิดีโอ (การเคลื่อนไหวของริมฝีปากที่ไม่ตรงกับคำพูด) หรือการแสดงออกทางสีหน้าที่ดูแข็งทื่อและไม่เป็นธรรมชาติ
ก่อนหน้านี้ วิดีโอ Deepfake บางตัวทำให้ตัวละครไม่กระพริบตา หรือแสงและเงาบนใบหน้าไม่ตรงกับบริบท ซึ่งเป็นสัญญาณว่าวิดีโอนั้นถูกตัดต่อ
แม้ว่าเทคโนโลยีจะได้รับการพัฒนา (เช่น Deepfake ใหม่ๆ ได้เพิ่มการเคลื่อนไหวการกระพริบตาที่ดูสมจริง) ผู้ชมที่สังเกตก็ยังสามารถสังเกตเห็นรายละเอียดที่ไม่สมเหตุสมผลบางอย่างในวิดีโอและภาพถ่ายได้
ปัจจุบันนักวิจัยกำลังพัฒนาอัลกอริทึมต่างๆ มากมายเพื่อตรวจจับร่องรอยของ Deepfake โดยอัตโนมัติ
เนื้อหาที่สร้างโดย AI มักจะทิ้ง "ลายนิ้วมือดิจิทัล" ที่เป็นเอกลักษณ์ไว้ในแต่ละพิกเซล ซึ่งเครื่องจักรสามารถจดจำได้
ตัวอย่างเช่น Intel ได้เปิดตัวเครื่องตรวจจับ deepfake แบบเรียลไทม์ตัวแรก ซึ่งสามารถวิเคราะห์วิดีโอและระบุได้ว่าตัวละครในภาพเป็นบุคคลจริงหรือสร้างขึ้นโดย AI
นอกจากนี้ เว็บไซต์บางแห่งอนุญาตให้ผู้ใช้อัปโหลดวิดีโอและรูปภาพเพื่อตรวจสอบความถูกต้องของรูปภาพ (เช่น Deepware, Sensity AI เป็นต้น) ระบบเหล่านี้ได้รับการอัปเดตอย่างต่อเนื่องเพื่อให้ทันกับเทคนิค Deepfake ใหม่ๆ
โดยเฉพาะอย่างยิ่ง ผู้ใช้สามารถตรวจสอบแหล่งที่มาของโพสต์และบริบทเมื่อพบวิดีโอหรือภาพที่มีความละเอียดอ่อน เนื่องจากวิดีโอ Deepfake จำนวนมากแพร่กระจายผ่านบัญชีปลอมหรือบอทบนเครือข่ายโซเชียล
"หากเนื้อหาที่ละเอียดอ่อนเกี่ยวกับบุคคลใดบุคคลหนึ่งมาจากแหล่งที่ไม่เป็นทางการหรือบัญชีที่ไม่ระบุชื่อ ให้สงสัยเกี่ยวกับความถูกต้องของเนื้อหานั้น คุณอาจลองติดต่อบุคคลที่ปรากฏในเนื้อหานั้นโดยตรงเพื่อยืนยันว่าพวกเขาเป็นผู้ลงมือจริง
นอกจากนี้ ยังมีโครงการต่างๆ เช่น การส่งเสริมการฝังข้อมูลยืนยันตัวตน (ลายเซ็นดิจิทัล) ลงในภาพถ่ายและวิดีโอตั้งแต่วินาทีที่สร้าง เพื่อช่วยแยกแยะเนื้อหาต้นฉบับจากเนื้อหาที่ผ่านการตัดต่อ ในอนาคต ผู้ใช้สามารถใช้สัญลักษณ์ยืนยันตัวตนเหล่านี้เพื่อระบุเนื้อหาที่น่าเชื่อถือได้” นายโธกล่าว
5 เคล็ดลับปกป้องตัวเอง
1. จำกัดการแชร์รูปภาพและวิดีโอส่วนตัวที่ละเอียดอ่อน (โดยเฉพาะภาพเปลือย ภาพครอบครัว ภาพเด็กๆ)
2. ตั้งค่าบัญชีโซเชียลมีเดียให้เป็นแบบส่วนตัว (แชร์เฉพาะกับบุคคลที่เชื่อถือได้)
3. อย่าให้ข้อมูลส่วนตัว (ชื่อนามสกุล, หมายเลขโทรศัพท์, ที่อยู่...) มากเกินไปในเครือข่ายสังคมออนไลน์สาธารณะ
4. ตั้งรหัสผ่านที่แข็งแกร่งและเปิดใช้งานการตรวจสอบสองขั้นตอนสำหรับบัญชีของคุณเพื่อหลีกเลี่ยงการถูกแฮ็ก
5. ค้นหาชื่อและรูปภาพของคุณบน Google เป็นประจำ (หรือใช้เครื่องมือค้นหารูปภาพย้อนกลับเช่น Google Image, TinEye) เพื่อดูว่ามีรูปภาพของคุณถูกโพสต์โดยไม่ได้รับอนุญาตหรือไม่ และขอให้ลบรูปภาพดังกล่าวออกทันที
ที่มา: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm
การแสดงความคิดเห็น (0)