เมื่อวันที่ 12 มิถุนายน NBC News อ้างอิงคำเตือนของ FBI ว่าผู้หลอกลวง โดยเฉพาะอาชญากรที่ใช้เทคโนโลยีขั้นสูง กำลังใช้ปัญญาประดิษฐ์ (AI) ในการสร้าง วิดีโอ ลามกอนาจารหรือภาพปลอมของเหยื่อ จากนั้นขอให้จ่ายเงินเพื่อป้องกันไม่ให้วิดีโอเหล่านั้นถูกเผยแพร่บนอินเทอร์เน็ต
วิธีการนี้เรียกว่า Deepfake ซึ่งเป็นเทคนิคที่ผสานรวมอัลกอริทึมการเรียนรู้เชิงลึกและการเรียนรู้ของเครื่องเข้าด้วยกันเพื่อสร้างวิดีโอ รูปภาพ หรือเสียงปลอมที่สมจริง เครื่องมือนี้ได้รับความนิยมในช่วงไม่กี่ปีที่ผ่านมาและกำลังเติบโตอย่างต่อเนื่อง
ภาพประกอบ: นิตยสาร AZ Business
ในคำเตือนเมื่อวันที่ 12 มิถุนายน FBI กล่าวว่าได้รับการร้องเรียนเพิ่มมากขึ้นเกี่ยวกับอาชญากรที่ใช้เครื่องมือ Deepfake เพื่อสร้างวิดีโอและรูปภาพลามกอนาจารปลอมเพื่อแบล็กเมล์
อาชญากรมักถ่ายภาพและวิดีโอเหยื่อบนโซเชียลมีเดีย หลังจากสร้างผลิตภัณฑ์ปลอมแล้ว พวกเขาก็เผยแพร่บนโซเชียลมีเดีย ฟอรัมสาธารณะ หรือเว็บไซต์ลามกอนาจาร
จากข้อมูลของ FBI เหยื่อถูกบังคับให้จ่ายเงิน บัตรของขวัญ หรือแม้แต่รูปถ่าย "เซ็กส์" หรือถูกเผยแพร่วิดีโอและรูปถ่ายปลอม ขณะเดียวกัน มิจฉาชีพยังขู่ว่าจะส่งรูปเหล่านั้นไปให้ครอบครัวและเพื่อนของเหยื่อหากไม่ปฏิบัติตาม
การสืบสวนของ NBC News ในเดือนมีนาคมพบว่าผลิตภัณฑ์ลามกอนาจาร deepfake เข้าถึงได้ง่ายผ่านการค้นหาออนไลน์และแพลตฟอร์มแชท
ประธานศูนย์ข้อมูลการโจรกรรมข้อมูลประจำตัว (ITRC) ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่ช่วยเหลือเหยื่อการฉ้อโกง กล่าวว่า บางครั้งอาชญากรพยายามทำให้เหยื่อตกใจด้วยวิดีโอหรือรูปภาพที่ละเอียดอ่อนเป็นพิเศษ เมื่อเหยื่อตื่นตระหนก พวกเขาจะต้องการให้วิดีโอหรือรูปภาพนั้นหายไป ซึ่งหมายถึงการยอมทำตามคำเรียกร้องของมิจฉาชีพ
FBI แนะนำให้ผู้คนระมัดระวังเมื่อรับคำขอเป็นเพื่อนจากคนแปลกหน้า และเข้าใจว่าการตอบรับคำขอเป็นเพื่อนของอาชญากรประเภท Deepfake ไม่ได้หมายความว่าพวกเขาจะไม่เผยแพร่วิดีโอหรือรูปภาพที่มีเนื้อหาทางเพศชัดเจนของพวกเขา
ศูนย์แห่งชาติเพื่อเด็กที่สูญหายและถูกแสวงหาประโยชน์ได้เสนอบริการฟรีที่เรียกว่า Take It Down เพื่อช่วยป้องกันการแจกจ่ายวิดีโอหรือภาพถ่ายที่ละเอียดอ่อนของเด็กอายุต่ำกว่า 18 ปี
แหล่งที่มา
การแสดงความคิดเห็น (0)