Deepfake กลายเป็นประเด็นที่น่ากังวลอย่างมากในปัจจุบัน เนื่องจากจำนวนการหลอกลวงทางเทคโนโลยียังคงเพิ่มขึ้นอย่างต่อเนื่อง
หลังจากค้นคว้าในฟอรัม Darknet ซึ่งอาชญากรทางไซเบอร์มักเข้าไปปฏิบัติงาน ผู้เชี่ยวชาญด้านความปลอดภัยพบว่ามีอาชญากรจำนวนมากมายที่ใช้ Deepfake เพื่อการฉ้อโกง ซึ่งความต้องการมีเกินกว่าอุปทานของซอฟต์แวร์ Deepfake ที่มีอยู่ในตลาดปัจจุบันอย่างมาก
เนื่องจากความต้องการมีมากกว่าอุปทาน ผู้เชี่ยวชาญของ Kaspersky คาดการณ์ว่าจำนวนการหลอกลวงแบบ Deepfake จะเพิ่มขึ้น โดยมีรูปแบบที่หลากหลายและซับซ้อนมากขึ้น ตั้งแต่การให้ วิดีโอ เลียนแบบคุณภาพสูงไปจนถึงการใช้รูปภาพคนดังในการไลฟ์สตรีมบนโซเชียลมีเดียปลอม โดยสัญญาว่าจะจ่ายเงินเป็นสองเท่าของจำนวนเงินที่เหยื่อส่งมาให้
จากข้อมูลอ้างอิงระบบ Regula พบว่าธุรกิจทั่วโลก 37% ประสบปัญหาการฉ้อโกงด้วยเสียง Deepfake และ 29% ตกเป็นเหยื่อของวิดีโอ Deepfake
เทคโนโลยีนี้กลายเป็นภัยคุกคามต่อความปลอดภัยทางไซเบอร์ในเวียดนาม ซึ่งผู้ก่ออาชญากรรมทางไซเบอร์มักใช้การโทรวิดีโอปลอมเพื่อปลอมตัวเป็นบุคคลอื่นเพื่อขอยืมเงินจากญาติหรือเพื่อนของตน
การสนทนาทางวิดีโอแบบ Deepfake อาจใช้เวลาเพียงนาทีเดียว ทำให้เหยื่อแยกแยะระหว่างของจริงและของปลอมได้ยาก
Deepfake กำลังกลายเป็น "ฝันร้าย" ในโลกออนไลน์ที่หลอกลวงซับซ้อนมากขึ้นเรื่อยๆ
“ ดีปเฟกกำลังกลายเป็นฝันร้ายสำหรับผู้หญิงและสังคม อาชญากรไซเบอร์กำลังใช้ประโยชน์จากปัญญาประดิษฐ์ (AI) เพื่อซ้อนทับใบหน้าของเหยื่อลงในภาพถ่ายและวิดีโอลามกอนาจาร รวมถึงในแคมเปญโฆษณาชวนเชื่อด้วย
แบบฟอร์มเหล่านี้มีจุดมุ่งหมายเพื่อบิดเบือนความคิดเห็นของสาธารณชนโดยการเผยแพร่ข้อมูลเท็จ แม้กระทั่งทำลายชื่อเสียงขององค์กรหรือบุคคล ” นางสาว Vo Duong Tu Diem ผู้อำนวยการประจำภูมิภาคเวียดนามของ Kaspersky กล่าว
แม้ว่า AI จะถูกอาชญากรใช้ในทางที่ผิดเพื่อจุดประสงค์ที่เป็นอันตราย แต่บุคคลทั่วไปและธุรกิจต่างๆ ยังคงใช้ปัญญาประดิษฐ์เพื่อระบุ Deepfakes ได้ ซึ่งจะลดโอกาสความสำเร็จของการหลอกลวง
ด้วยเหตุนี้ ผู้ใช้จึงจะมีวิธีแก้ปัญหาที่มีประโยชน์ในการป้องกันตนเองจากการหลอกลวง เช่น การใช้ซอฟต์แวร์ตรวจจับเนื้อหาที่สร้างโดย AI (ใช้อัลกอริทึมขั้นสูงในการวิเคราะห์และกำหนดระดับการแก้ไขรูปภาพ/วิดีโอ/เสียง)
สำหรับวิดีโอ Deepfake มีเครื่องมือที่สามารถตรวจจับการเคลื่อนไหวของปากและคำพูดที่ไม่ตรงกันได้ บางโปรแกรมมีประสิทธิภาพมากพอที่จะตรวจจับการไหลเวียนของเลือดที่ผิดปกติใต้ผิวหนังได้ด้วยการวิเคราะห์ความละเอียดของวิดีโอ เพราะเมื่อหัวใจสูบฉีดเลือด เส้นเลือดของมนุษย์จะเปลี่ยนสี
นอกจากนี้ ยังมีลายน้ำที่ทำหน้าที่เป็นเครื่องหมายระบุตัวตนในรูปภาพ วิดีโอ และอื่นๆ เพื่อช่วยให้ผู้สร้างสรรค์สามารถปกป้องลิขสิทธิ์ของผลิตภัณฑ์ AI ได้ ฟีเจอร์นี้สามารถเป็นอาวุธต่อต้าน Deepfake ได้ เนื่องจากช่วยติดตามแหล่งที่มาของแพลตฟอร์มที่สร้างปัญญาประดิษฐ์ ผู้ใช้ที่มีความรู้ด้านเทคโนโลยีสามารถหาวิธีติดตามแหล่งที่มาของเนื้อหา เพื่อเปรียบเทียบว่าข้อมูลต้นฉบับถูกแก้ไขโดย "มือ" ของ AI อย่างไร
ปัจจุบัน เทคโนโลยีใหม่ ๆ บางอย่างใช้อัลกอริทึมการเข้ารหัสเพื่อแทรกค่าแฮชตามช่วงเวลาที่กำหนดลงในวิดีโอ หากวิดีโอถูกตัดต่อ ค่าแฮชจะเปลี่ยนแปลง และผู้ใช้สามารถตรวจสอบได้ว่าเนื้อหาถูกดัดแปลงหรือไม่
ในอดีตเคยมีบทช่วยสอนเกี่ยวกับการค้นหาความผิดปกติในวิดีโอ เช่น การเบี่ยงเบนของสี การเคลื่อนไหวของกล้ามเนื้อที่ไม่เป็นธรรมชาติ การเคลื่อนไหวของดวงตา เป็นต้น อย่างไรก็ตาม AI กำลังฉลาดขึ้น ดังนั้นค่าเหล่านี้จึงไม่ได้ให้ผลลัพธ์ที่ถูกต้องเสมอไป
กระบวนการตรวจสอบความน่าเชื่อถือของวิดีโอไม่จำเป็นต้องพึ่งสายตาเปล่าอีกต่อไป แต่ต้องใช้เครื่องมือทางเทคโนโลยีที่มีจุดประสงค์เพื่อป้องกันและตรวจจับเนื้อหาปลอม
คานห์ ลินห์
แหล่งที่มา
การแสดงความคิดเห็น (0)