Deepfake กลายเป็นประเด็นน่ากังวลในปัจจุบัน เนื่องจากจำนวนการหลอกลวงทางเทคโนโลยีมีเพิ่มมากขึ้นอย่างต่อเนื่อง
หลังจากทำการวิจัยบนฟอรัม Darknet ซึ่งเป็นแหล่งที่อาชญากรทางไซเบอร์มักเข้าไปใช้ ผู้เชี่ยวชาญด้านความปลอดภัยพบว่ามีอาชญากรจำนวนมากที่ใช้ Deepfake เพื่อการฉ้อโกง ซึ่งส่งผลให้มีความต้องการเกินกว่าจำนวนซอฟต์แวร์ Deepfake ที่มีอยู่ในตลาด ณ ปัจจุบันอย่างมาก
เนื่องจากความต้องการมีมากกว่าอุปทาน ผู้เชี่ยวชาญของ Kaspersky คาดการณ์ว่าจำนวนการหลอกลวงแบบ Deepfake จะเพิ่มขึ้น โดยมีรูปแบบที่หลากหลายและซับซ้อนมากขึ้น ตั้งแต่การให้วิดีโอเลียนแบบคุณภาพสูงไปจนถึงการใช้รูปภาพคนดังในไลฟ์สตรีมปลอมบนโซเชียลมีเดีย โดยสัญญาที่จะจ่ายเงินเป็นสองเท่าของจำนวนเงินที่เหยื่อส่งมาให้
จากข้อมูลอ้างอิงระบบ Regula พบว่าธุรกิจทั่วโลก 37% ประสบปัญหาการฉ้อโกงด้วยเสียงแบบ Deepfake และ 29% ตกเป็นเหยื่อของวิดีโอแบบ Deepfake
เทคโนโลยีนี้กลายเป็นภัยคุกคามต่อความปลอดภัยทางไซเบอร์ในเวียดนาม ซึ่งผู้ก่ออาชญากรรมทางไซเบอร์มักใช้การโทรวิดีโอปลอมเพื่อปลอมตัวเป็นบุคคลอื่นเพื่อขอยืมเงินจากญาติหรือเพื่อนของตนเอง
การสนทนาทางวิดีโอแบบ Deepfake อาจใช้เวลาเพียงหนึ่งนาที ทำให้เหยื่อยากที่จะแยกแยะระหว่างของจริงและของปลอม
Deepfake กำลังกลายเป็น “ฝันร้าย” ท่ามกลางการหลอกลวงทางออนไลน์ที่ซับซ้อน
“ Deepfakes กำลังกลายเป็นฝันร้ายสำหรับผู้หญิงและสังคม อาชญากรทางไซเบอร์กำลังใช้ประโยชน์จากปัญญาประดิษฐ์ (AI) เพื่อซ้อนใบหน้าของเหยื่อลงในรูปภาพและวิดีโอลามกอนาจาร รวมถึงในแคมเปญโฆษณาชวนเชื่อ”
แบบฟอร์มเหล่านี้มีจุดมุ่งหมายเพื่อบิดเบือนความคิดเห็นของสาธารณะโดยการเผยแพร่ข้อมูลเท็จ แม้กระทั่งทำลายชื่อเสียงขององค์กรหรือบุคคล ” นางสาว Vo Duong Tu Diem ผู้อำนวยการภูมิภาคเวียดนามของ Kaspersky กล่าว
แม้ว่า AI กำลังถูกอาชญากรใช้ในทางที่ผิดเพื่อจุดประสงค์ที่เป็นอันตราย แต่บุคคลทั่วไปและธุรกิจต่าง ๆ ยังคงใช้ปัญญาประดิษฐ์เพื่อระบุ Deepfakes ได้ ซึ่งจะลดโอกาสที่จะเกิดการหลอกลวงสำเร็จ
ด้วยเหตุนี้ ผู้ใช้จึงมีวิธีแก้ไขที่มีประโยชน์ในการป้องกันตนเองจากการหลอกลวง เช่น การใช้ซอฟต์แวร์ตรวจจับเนื้อหาที่สร้างโดย AI (ใช้อัลกอริธึมขั้นสูงเพื่อวิเคราะห์และกำหนดระดับการแก้ไขภาพ/วิดีโอ/เสียง)
สำหรับวิดีโอ Deepfake ปัจจุบันมีเครื่องมือที่สามารถช่วยตรวจจับการเคลื่อนไหวของปากและการพูดที่ไม่ตรงกันได้ โปรแกรมบางโปรแกรมมีประสิทธิภาพมากจนสามารถตรวจจับการไหลเวียนของเลือดที่ผิดปกติใต้ผิวหนังได้โดยวิเคราะห์ความละเอียดของวิดีโอ เพราะเมื่อหัวใจสูบฉีดเลือด เส้นเลือดของมนุษย์ก็จะเปลี่ยนสี
นอกจากนี้ยังมีลายน้ำที่ทำหน้าที่เป็นเครื่องหมายระบุในรูปภาพ วิดีโอ ฯลฯ เพื่อช่วยให้ผู้เขียนปกป้องลิขสิทธิ์สำหรับผลิตภัณฑ์ AI ฟีเจอร์นี้สามารถกลายเป็นอาวุธต่อต้าน Deepfakes ได้ เนื่องจากช่วยติดตามแหล่งที่มาของแพลตฟอร์มที่สร้างปัญญาประดิษฐ์ขึ้นมา ผู้ใช้ที่เชี่ยวชาญด้านเทคโนโลยีสามารถดูแหล่งที่มาของเนื้อหาเพื่อดูว่าข้อมูลต้นฉบับได้รับการเปลี่ยนแปลงโดย AI อย่างไร
ในปัจจุบัน เทคโนโลยีใหม่ ๆ บางอย่างใช้อัลกอริทึมการเข้ารหัสเพื่อแทรกค่าแฮชตามช่วงเวลาที่กำหนดในวิดีโอ หากวิดีโอได้รับการแก้ไข ค่าแฮชจะเปลี่ยนแปลง และจากนั้นผู้ใช้สามารถตรวจสอบได้ว่าเนื้อหาถูกแทรกแซงหรือไม่
ในอดีตเคยมีการสอนเกี่ยวกับการค้นหาสิ่งผิดปกติในวิดีโอ เช่น ความเบี่ยงเบนของสี การเคลื่อนไหวของกล้ามเนื้อที่ไม่เป็นธรรมชาติ การเคลื่อนไหวของดวงตา เป็นต้น อย่างไรก็ตาม AI กำลังฉลาดขึ้น ดังนั้นค่าเหล่านี้จึงไม่ได้ให้ผลลัพธ์ที่ถูกต้องเสมอไป
กระบวนการตรวจสอบความน่าเชื่อถือของวิดีโอไม่จำเป็นต้องพึ่งสายตาเปล่าอีกต่อไป แต่ต้องใช้เครื่องมือทางเทคโนโลยีที่มีจุดประสงค์เพื่อป้องกันและตรวจจับเนื้อหาปลอม
คานห์ ลินห์
แหล่งที่มา
การแสดงความคิดเห็น (0)