
ผู้ไม่ประสงค์ดีสามารถใช้ AI ในการดัดแปลงภาพและ วิดีโอ ที่มีความละเอียดอ่อนเพื่อใส่ร้ายหรือข่มขู่ผู้อื่นได้ - ภาพ: ภาพวาดโดย AI
ก่อนหน้านี้ เมื่อพูดถึงเทคนิคการซ้อนภาพใบหน้าของคนคนหนึ่งลงบนร่างกายของอีกคนหนึ่ง ผู้คนมักใช้โปรแกรม Photoshop หรือซอฟต์แวร์แก้ไขภาพเฉพาะทางอื่นๆ ซึ่งเป็นกระบวนการที่ต้องใช้แรงงานมากและสังเกตเห็นได้ง่ายด้วยตาเปล่า
ปัจจุบัน ด้วยเครื่องมือ AI ผู้คนสามารถทำเช่นนั้นได้อย่างง่ายดายใน "เวลาเพียงไม่กี่นาที" แต่ไม่สามารถตรวจจับได้ง่ายด้วยตาเปล่า
การสลับใบหน้าในวิดีโอโป๊เพื่อแบล็กเมล์
เนื่องจากความสัมพันธ์ในการทำงาน คุณฮ. (กรรมการบริษัทแห่งหนึ่งในนครโฮจิมินห์) จึงมีปฏิสัมพันธ์บนสื่อสังคมออนไลน์อยู่บ่อยครั้ง
ครั้งหนึ่ง หญิงสาวคนหนึ่งเข้ามาทำความรู้จักกับเขาเพื่อสอบถามเกี่ยวกับงานของเขา หลังจากพูดคุยและแลกเปลี่ยนเรื่องราวเกี่ยวกับงานและชีวิตส่วนตัวกันสักพัก พวกเขาก็สนิทสนมกันมาก
นอกจากนี้ทั้งสองยังส่งข้อความหากันมากมาย เต็มไปด้วยถ้อยคำแสดงความรัก พร้อมทั้งส่งรูปภาพไปมา และมีการสนทนาทางวิดีโอเพื่อให้เห็นหน้ากันด้วย
วันหนึ่ง นายเอช. ได้รับโทรศัพท์จากบุคคลที่อ้างว่าเป็นสามีของหญิงสาว หลังจาก "การเตือน" แล้ว "สามี" คนนั้นก็เรียกร้องให้นายเอช. โอนเงินค่าชดเชย มิฉะนั้นจะเสี่ยงที่ภาพหน้าจอการสนทนาและวิดีโอเซ็กซ์ของพวกเขาจะถูกส่งไปยังญาติและหุ้นส่วนทางธุรกิจของเขา
จากนั้น นายเอช. ก็ได้รับชมวิดีโอเซ็กซ์ของเขากับผู้หญิงคนอื่นโดย "สามี" ของเขา พร้อมกับวิดีโอการสนทนาทางโทรศัพท์และภาพหน้าจอข้อความส่วนตัวของพวกเขา...
นายเอช. ยืนยันว่า "ผมไม่เคยเจอผู้หญิงคนนั้นมาก่อน ดังนั้นผมมั่นใจว่าวิดีโอเซ็กซ์นั้นถูกตัดต่อ" อย่างไรก็ตาม ใบหน้าของหญิงสาวในวิดีโอเซ็กซ์และหญิงสาวในวิดีโอคอลของเขานั้นเหมือนกันทุกประการ รวมทั้งภาพหน้าจอข้อความรัก ทำให้คุณเอช. ต้องโอนเงินให้ "สามี" ซ้ำแล้วซ้ำเล่าเพื่อปกป้องชื่อเสียงของตนเอง
จากการตรวจสอบของ หนังสือพิมพ์ต๋วยเตร พบว่า นายฮ. ตกเป็นเหยื่อของการฉ้อโกงที่วางแผนมาอย่างดี โดยนายฮ. ถูกหลอกด้วยเทคโนโลยีดีพเฟคถึงสองครั้ง ครั้งแรกเป็นการสนทนาทางวิดีโอ และครั้งที่สองเป็นวิดีโออนาจาร
ที่น่าประหลาดใจคือ ในคลิปวิดีโออนาจารนั้น ใบหน้าของนายฮ. ถูกซ้อนทับอย่างแนบเนียนจนผู้ชมแทบไม่เชื่อว่าเป็นวิดีโอปลอม ผู้เชี่ยวชาญด้าน AI ยืนยันกับ หนังสือพิมพ์ตุ่ยเจี้ย ว่า ผู้กระทำผิดใช้เครื่องมือ AI ใหม่ที่สามารถซ้อนทับใบหน้าลงในวิดีโอได้อย่างสมบูรณ์แบบ...ทำให้ดูสมจริงอย่างเหลือเชื่อ
มีเครื่องมือ AI สำหรับสลับใบหน้ามากมายนับไม่ถ้วน
ปัจจุบันมีเครื่องมือที่ใช้ปัญญาประดิษฐ์ (AI) มากมายที่มีคุณสมบัติ เช่น การสร้างรูปทรงมนุษย์ที่มีใบหน้าตามต้องการ หรือการซ้อนใบหน้าตามต้องการลงบนร่างกายของบุคคลอื่น
ในบรรดาเครื่องมือเหล่านี้ มีบางเครื่องมือที่มีคุณสมบัติที่ใช้เพื่อจุดประสงค์ที่เป็นอันตราย เช่น การเปลี่ยนภาพถ่ายธรรมดาให้กลายเป็นภาพเปลือยโดยการ "ถอดเสื้อผ้า" ของบุคคลในภาพ หรือการแทนที่ใบหน้าของบุคคลในวิดีโอด้วยใบหน้าที่ต้องการ...
เครื่องมือ AI ส่วนใหญ่เหล่านี้มีช่วงทดลองใช้งานฟรี เวอร์ชันเสียเงินจะให้ฟังก์ชันการทำงานเต็มรูปแบบและเวลาในการแปลงข้อมูลที่รวดเร็วมาก
ตัวอย่างเช่น ฟีเจอร์ที่ใช้สลับใบหน้าไปใส่บนร่างกายของผู้อื่น ผู้ใช้เพียงแค่อัปโหลดรูปภาพที่ตรงกันสองรูป แล้วรอเพียงไม่กี่วินาทีก็จะได้ผลลัพธ์
หรือด้วยฟีเจอร์การสร้างภาพเปลือยจากภาพถ่ายปกติ เครื่องมือ AI สามารถทำได้อย่างรวดเร็วภายในเวลาเพียงไม่กี่สิบวินาที ทำให้ผู้ชมตกตะลึง
แม้แต่ฟีเจอร์การเปลี่ยนใบหน้าในวิดีโอโป๊ก็สามารถทำได้อย่างรวดเร็วด้วยเครื่องมือ AI โดยใช้เวลาน้อยกว่าหนึ่งนาทีสำหรับวิดีโอที่มีความยาวเพียงไม่กี่วินาที
นายเหงียน คิม โถ หัวหน้าทีมวิจัยและพัฒนาของบริษัทรักษาความปลอดภัยทางไซเบอร์ VNetwork ให้สัมภาษณ์กับ หนังสือพิมพ์ตุ่ยเจี้ยน โดยวิเคราะห์คำว่า "ดีปเฟค" ซึ่งหมายถึงวิดีโอและภาพปลอมที่สร้างขึ้นโดยใช้ปัญญาประดิษฐ์ (AI) เพื่อหลอกลวงผู้ชมให้เชื่อว่าเป็นของจริง
เทคโนโลยีดีพเฟค (Deepfake) ใช้โมเดลการเรียนรู้เชิงลึก เช่น โครงข่ายประสาทเทียม ในการวิเคราะห์ข้อมูลใบหน้าและเสียงของบุคคล และสร้างเนื้อหาปลอมที่ดูเหมือนบุคคลนั้นทุกประการ
"ด้วยอัลกอริทึมที่ทรงพลัง ผู้ไม่ประสงค์ดีสามารถซ้อนภาพใบหน้าของเหยื่อลงบนวิดีโอที่มีเนื้อหาอ่อนไหว (เช่น วิดีโอเกี่ยวกับเพศสัมพันธ์ ภาพยนตร์ลามก) หรือแก้ไขภาพเพื่อสร้างภาพเปลือยปลอมได้"
นายโทกล่าวว่า "ปัจจุบันซอฟต์แวร์และแอปพลิเคชันดีพเฟค (Deepfake) แพร่หลายมากบนอินเทอร์เน็ต รวมถึงแอปพลิเคชันบนมือถือ ซอฟต์แวร์โอเพนซอร์ส หรือบริการออนไลน์ฟรี ทำให้ทุกคนสามารถเข้าถึงเครื่องมือในการสร้างวิดีโอและภาพถ่ายปลอมได้ง่าย ดังนั้นทุกคนจึงต้องระมัดระวัง"
อย่าเข้าไปยุ่งเกี่ยวกับ "แชทเรื่องเพศ"
การหลอกลวงหลายรูปแบบเริ่มต้นด้วยการทำความรู้จักกับผู้คนทางออนไลน์ แล้วล่อลวงเหยื่อให้เข้าสู่ "การสนทนาเรื่องเพศ" หรือส่งภาพถ่ายส่วนตัว ดังนั้น ผู้ใช้ไม่ควรส่งภาพหรือวิดีโอส่วนตัวให้กับคนที่รู้จักกันทางออนไลน์เท่านั้น ไม่ว่าจะมีคำสัญญาหรือการข่มขู่ใด ๆ ก็ตาม
โปรดจำไว้เสมอว่า เนื้อหาใดๆ ที่คุณแชร์ (แม้แต่ผ่านข้อความส่วนตัว) สามารถถูกบันทึก (เช่น ภาพหน้าจอ วิดีโอ) จากนั้นถูกตัดต่อและนำไปใช้เป็นหลักฐานต่อต้านคุณได้
หากคุณกำลังสนทนาผ่านวิดีโอ โปรดระวังคนแปลกหน้าที่เสนอเนื้อหาที่ไม่เหมาะสม – อาจเป็นหน้าจอปลอมหรือพวกเขากำลังบันทึกภาพคุณอยู่
ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์แนะนำให้ผู้ใช้หลีกเลี่ยงการเชื่อใจใครก็ตามโดยอาศัยเพียงแค่การติดต่อสื่อสารทางออนไลน์ และควรตรวจสอบตัวตนและเจตนาของอีกฝ่ายก่อนที่จะแบ่งปันข้อมูลที่ละเอียดอ่อนใดๆ
นอกจากนี้ หากคุณได้รับข้อความหรือโทรศัพท์ข่มขู่เกี่ยวกับการเผยแพร่ภาพ "เปลือย" เพื่อแบล็กเมล์ คุณไม่จำเป็นต้องกลัวหรือรีบโอนเงิน
ผู้เชี่ยวชาญกล่าวว่า การจ่ายเงินไม่ได้เป็นการรับประกันว่าผู้กระทำผิดจะลบวิดีโอ พวกเขาอาจเรียกร้องเงินเพิ่มหรืออาจยังคงอัปโหลดเนื้อหาดังกล่าวขึ้นออนไลน์ต่อไป
แทนที่จะทำตามข้อเรียกร้องของอาชญากร ผู้ใช้ควรเก็บรวบรวมหลักฐาน (ข้อความ หมายเลขโทรศัพท์ บัญชีติดต่อ เนื้อหาที่ข่มขู่ ฯลฯ) และรายงานไปยังสถานีตำรวจที่ใกล้ที่สุดทันที หรือรายงานเหตุการณ์ผ่านแอปพลิเคชัน VNeID ของ กระทรวงความมั่นคงสาธารณะ เพื่อขอความช่วยเหลืออย่างทันท่วงที
เราจะระบุพวกมันได้อย่างไร?
นายเหงียน คิม โถ กล่าวว่า การแยกแยะระหว่างภาพและวิดีโอจริงกับภาพและวิดีโอปลอม (deepfake) นั้นยากขึ้นเรื่อยๆ แต่ก็ยังมีสัญญาณและเครื่องมือบางอย่างที่ช่วยในการระบุได้
ผู้ใช้สามารถตรวจสอบสิ่งนี้ได้ด้วยตนเอง เนื่องจากเนื้อหา deepfake บางครั้งอาจมีสิ่งผิดปกติทั้งด้านภาพและเสียง
ตัวอย่างเช่น ภาพตัดต่ออาจเผยให้เห็นสัญญาณรบกวนและความคลาดเคลื่อนของสีระหว่างใบหน้าและร่างกายที่ซ้อนทับกัน วิดีโอปลอมอาจมีเสียงและภาพที่ไม่ตรงกัน (การขยับริมฝีปากไม่ตรงกับคำพูด) หรือการแสดงออกทางสีหน้าที่ดูแข็งทื่อและไม่เป็นธรรมชาติ
ก่อนหน้านี้ วิดีโอ deepfake บางส่วนแสดงให้เห็นตัวละครที่ไม่กระพริบตา หรือแสงและเงาบนใบหน้าไม่ตรงกับฉากหลัง ซึ่งเป็นสัญญาณบ่งบอกว่าวิดีโอนั้นถูกตัดต่อ
แม้ว่าเทคโนโลยีจะพัฒนาขึ้น (ตัวอย่างเช่น เทคโนโลยี deepfake รุ่นใหม่ๆ ได้เพิ่มการกระพริบตาที่สมจริง) แต่ผู้ชมที่ช่างสังเกตก็ยังสามารถสังเกตเห็นรายละเอียดที่ไม่สมเหตุสมผลบางอย่างในวิดีโอและภาพถ่ายได้
ขณะนี้นักวิจัยกำลังพัฒนาอัลกอริธึมต่างๆ เพื่อตรวจจับร่องรอยของดีพเฟคโดยอัตโนมัติ
เนื้อหาที่สร้างโดย AI มักทิ้ง "ลายนิ้วมือดิจิทัล" ที่ไม่ซ้ำกันไว้บนแต่ละพิกเซล ซึ่งเครื่องสามารถจดจำได้
ตัวอย่างเช่น อินเทลได้เปิดตัวเครื่องตรวจจับ deepfake แบบเรียลไทม์ตัวแรก ซึ่งสามารถวิเคราะห์วิดีโอและระบุได้ว่าตัวละครในวิดีโอนั้นเป็นคนจริงหรือสร้างขึ้นโดยปัญญาประดิษฐ์
นอกจากนี้ เว็บไซต์บางแห่งยังอนุญาตให้ผู้ใช้อัปโหลดวิดีโอและรูปภาพเพื่อตรวจสอบความถูกต้อง (ตัวอย่างเช่น Deepware, Sensity AI...) ระบบเหล่านี้ได้รับการอัปเดตอย่างต่อเนื่องเพื่อให้ทันกับเทคนิค deepfake ใหม่ๆ
โดยเฉพาะอย่างยิ่ง ผู้ใช้สามารถตรวจสอบแหล่งที่มาและบริบทเมื่อพบเจอกับวิดีโอหรือภาพที่มีความอ่อนไหว เนื่องจากวิดีโอ deepfake จำนวนมากถูกเผยแพร่ผ่านบัญชีปลอมหรือบอทบนโซเชียลมีเดีย
"หากเนื้อหาที่ละเอียดอ่อนเกี่ยวกับบุคคลใดบุคคลหนึ่งมาจากแหล่งที่ไม่เป็นทางการหรือบัญชีนิรนาม ควรตั้งข้อสงสัยในความถูกต้องของเนื้อหานั้น อาจคุ้มค่าที่จะลองติดต่อบุคคลที่ปรากฏในเนื้อหานั้นโดยตรงเพื่อตรวจสอบว่าพวกเขาเป็นผู้กระทำจริงหรือไม่"
นอกจากนี้ โครงการต่างๆ เช่นนี้ ยังส่งเสริมการฝังข้อมูลการตรวจสอบความถูกต้อง (ลายเซ็นดิจิทัล) ลงในรูปภาพและวิดีโอตั้งแต่ขั้นตอนการสร้าง ซึ่งจะช่วยแยกแยะระหว่างเนื้อหาต้นฉบับและเนื้อหาที่ถูกแก้ไข ในอนาคต ผู้ใช้อาจสามารถใช้เครื่องหมายการตรวจสอบความถูกต้องเหล่านี้เพื่อระบุเนื้อหาที่น่าเชื่อถือได้” นายโทกล่าว
5 เคล็ดลับเพื่อการป้องกันตนเอง
1. จำกัดการแชร์รูปภาพและวิดีโอที่มีความละเอียดอ่อนและเป็นส่วนตัว (โดยเฉพาะรูปภาพเปลือย รูปภาพครอบครัว และรูปภาพเด็ก)
2. ตั้งค่าบัญชีโซเชียลมีเดียของคุณเป็นส่วนตัว (แชร์เฉพาะกับคนที่ไว้ใจได้เท่านั้น)
3. หลีกเลี่ยงการให้ข้อมูลส่วนตัวมากเกินไป (ชื่อเต็ม เบอร์โทรศัพท์ ที่อยู่ ฯลฯ) บนสื่อสังคมออนไลน์สาธารณะ
4. ตั้งรหัสผ่านที่ปลอดภัยและเปิดใช้งานการตรวจสอบสิทธิ์แบบสองขั้นตอนสำหรับบัญชีของคุณเพื่อป้องกันการแฮ็ก
5. ค้นหาชื่อและรูปภาพของคุณบน Google เป็นประจำ (หรือใช้เครื่องมือค้นหารูปภาพย้อนกลับ เช่น Google Image หรือ TinEye) เพื่อดูว่ามีรูปภาพของคุณถูกนำไปเผยแพร่โดยไม่ได้รับอนุญาตหรือไม่ และขอให้ลบออกโดยทันที
ที่มา: https://tuoitre.vn/dung-ai-ghep-hinh-anh-nhay-cam-de-tong-tien-20250317075948373.htm






การแสดงความคิดเห็น (0)