เมื่อวันที่ 12 มิถุนายน สำนักข่าว NBC อ้างอิงคำเตือนของ FBI ที่ระบุว่าผู้หลอกลวง โดยเฉพาะอาชญากรที่ใช้เทคโนโลยีขั้นสูง กำลังใช้ปัญญาประดิษฐ์ (AI) ในการสร้าง วิดีโอ ลามกอนาจารหรือภาพปลอมของเหยื่อ จากนั้นขอให้เหยื่อชำระเงินเพื่อไม่ให้เหยื่อถูกเผยแพร่บนอินเทอร์เน็ต
วิธีการดังกล่าวเรียกว่า Deepfake ซึ่งเป็นเทคนิคที่รวมเอาอัลกอริธึมการเรียนรู้เชิงลึกและการเรียนรู้ของเครื่องจักรเข้าด้วยกันเพื่อสร้างวิดีโอ รูปภาพ หรือเสียงปลอมที่สมจริง เครื่องมือนี้ได้รับความนิยมในช่วงไม่กี่ปีที่ผ่านมาและยังคงเพิ่มขึ้นเรื่อยๆ
ภาพประกอบ: นิตยสาร AZ Business
ในคำเตือนเมื่อวันที่ 12 มิถุนายน FBI กล่าวว่าได้รับเรื่องร้องเรียนเพิ่มมากขึ้นเกี่ยวกับอาชญากรที่ใช้เครื่องมือ Deepfake เพื่อสร้างวิดีโอและภาพถ่ายลามกอนาจารปลอมเพื่อวัตถุประสงค์ในการแบล็กเมล์
คนร้ายถ่ายภาพและวิดีโอของเหยื่อบนโซเชียลมีเดีย หลังจากที่ผลิตสินค้าปลอมขึ้นมาแล้ว พวกเขาก็เผยแพร่มันตามเครือข่ายสังคมออนไลน์ ฟอรั่มสาธารณะ หรือเว็บไซต์ลามกอนาจาร
ตามที่เอฟบีไอระบุ เหยื่อถูกบังคับให้จ่ายเงิน บัตรของขวัญ หรือแม้กระทั่งรูปถ่าย "เปลือย" หรือมีการเผยแพร่วิดีโอและรูปถ่ายปลอมของตน ในเวลาเดียวกัน พวกมิจฉาชีพยังขู่ว่าจะส่งสิ่งของเหล่านี้ไปให้ครอบครัวและเพื่อนของเหยื่อหากพวกเขาไม่ปฏิบัติตามความต้องการ
การสืบสวนของ NBC News ในเดือนมีนาคมพบว่าผลิตภัณฑ์ลามกปลอมสามารถเข้าถึงได้ง่ายผ่านการค้นหาออนไลน์และแพลตฟอร์มแชท
ประธานของ Identity Theft Resource Center (ITRC - ซึ่งเป็นองค์กรไม่แสวงหากำไรที่ให้ความช่วยเหลือเหยื่อของการฉ้อโกง) กล่าวว่าบางครั้งอาชญากรจะพยายามสร้างความตกใจให้กับเหยื่อด้วยวิดีโอหรือรูปภาพที่ละเอียดอ่อนเป็นพิเศษ หลังจากที่เกิดอาการตื่นตระหนกแล้ว เหยื่อก็จะแค่อยากให้วิดีโอหรือรูปภาพหายไป ซึ่งก็หมายถึงการตอบสนองความต้องการของผู้หลอกลวง
FBI แนะนำให้ผู้คนระมัดระวังเมื่อรับคำขอเป็นเพื่อนจากคนแปลกหน้า และให้เข้าใจว่าการตอบรับคำขอของอาชญากรที่ทำ Deepfake ไม่ได้หมายความว่าพวกเขาจะไม่เผยแพร่วิดีโอหรือรูปภาพที่มีเนื้อหาลามกอนาจารของพวกเขา
ศูนย์แห่งชาติเพื่อเด็กที่สูญหายและถูกแสวงหาประโยชน์ได้เสนอบริการฟรีที่เรียกว่า Take It Down เพื่อช่วยป้องกันการเผยแพร่วิดีโอหรือภาพถ่ายที่ละเอียดอ่อนของเด็กอายุต่ำกว่า 18 ปี
แหล่งที่มา
การแสดงความคิดเห็น (0)