แต่ตามรายงานของสำนักข่าว AFP ระบุว่า จริงๆ แล้วเสียงของลูกสาวเป็นผลิตภัณฑ์ของปัญญาประดิษฐ์ (AI) และการลักพาตัวนั้นไม่ใช่เรื่องจริงเลย
เมื่อเผชิญกับปัญหาการฉ้อโกงนี้ ผู้เชี่ยวชาญกล่าวว่าอันตรายที่ใหญ่ที่สุดของ AI คือการทำให้เส้นแบ่งระหว่างความเป็นจริงและนิยายเลือนลางลง ทำให้ผู้ก่ออาชญากรรมทางไซเบอร์มีเทคโนโลยีราคาถูกแต่มีประสิทธิภาพในการดำเนินการตามเจตนาอันชั่วร้ายของพวกเขา
ในชุดกลโกงใหม่ที่กำลังสั่นสะเทือนสหรัฐฯ ผู้หลอกลวงกำลังใช้เครื่องมือโคลนเสียงด้วย AI ที่สมจริงอย่างน่าประหลาดใจและยังเข้าถึงได้ง่ายทางออนไลน์ เพื่อขโมยเงินด้วยการปลอมตัวเป็นสมาชิกในครอบครัวของเหยื่อ
“ช่วยฉันด้วย แม่ ช่วยฉันด้วย” เจนนิเฟอร์ เดอสเตฟาโน ชาวแอริโซนา ได้ยินเสียงตื่นตระหนกที่ปลายสาย
ผู้ตอบแบบสอบถาม 70% ไม่เชื่อว่าสามารถแยกแยะเสียง AI และเสียงมนุษย์จริงได้ ภาพประกอบ: AI Magazine
เดสเตฟาโนมั่นใจ 100 เปอร์เซ็นต์ว่าลูกสาววัย 15 ปีของเธอประสบอุบัติเหตุจากการเล่นสกี “ฉันไม่เคยสงสัยเลย นั่นเป็นเสียงของเธอ นั่นเป็นวิธีที่เธอร้องไห้ ฉันไม่เคยสงสัยเลยแม้แต่วินาทีเดียว” เดสเตฟาโนกล่าวกับสถานีโทรทัศน์ท้องถิ่นแห่งหนึ่งเมื่อเดือนเมษายน
ผู้หลอกลวงได้โทรออกโดยแสดงหมายเลขที่ไม่รู้จักบนโทรศัพท์ของนางเดอสเตฟาโน และเรียกร้องค่าไถ่สูงถึง 1 ล้านดอลลาร์ แผนการรีดไถที่ใช้ AI ล้มเหลวภายในไม่กี่นาที เมื่อนางเดอสเตฟาโนสามารถติดต่อลูกสาวของเธอได้
แต่กรณีที่น่าสยดสยองนี้ชี้ให้เห็นถึงศักยภาพของผู้ก่ออาชญากรรมทางไซเบอร์ในการใช้เทคโนโลยี AI ในทางที่ผิดเพื่อปลอมตัวเป็นบุคคลอื่น
Wasim Khaled ซีอีโอของ Blackbird.AI บอกกับ AFP ว่า "ความสามารถในการโคลนเสียงของ AI แทบจะแยกแยะไม่ออกจากเสียงมนุษย์จริงแล้ว ทำให้ผู้หลอกลวงสามารถดึงข้อมูลและเงินจากเหยื่อได้อย่างมีประสิทธิภาพมากขึ้น"
การค้นหาอย่างง่ายๆ บนอินเทอร์เน็ตจะพบแอปฟรีมากมายที่สามารถสร้างเสียง AI ได้ด้วยการบันทึกเสียงตัวอย่างสั้นๆ เพียงไม่กี่วินาที ด้วยเหตุนี้ เสียงจริงของบุคคลจึงถูกขโมยจากเนื้อหาที่พวกเขาโพสต์ออนไลน์ได้อย่างง่ายดาย
“ด้วยตัวอย่างเสียงขนาดเล็ก AI สามารถใช้การคัดลอกเสียงเพื่อส่งข้อความเสียงและข้อความเสียงได้ นอกจากนี้ยังสามารถใช้เป็นเครื่องเปลี่ยนเสียงสดระหว่างการสนทนาทางโทรศัพท์ได้อีกด้วย” คาลิดกล่าว
ผู้หลอกลวงอาจใช้สำเนียงที่แตกต่างกัน เพศที่แตกต่างกัน หรือแม้แต่การเลียนแบบวิธีการพูดของเหยื่อ
จากการสำรวจทั่วโลกของกลุ่มตัวอย่าง 7,000 คนใน 9 ประเทศ รวมทั้งสหรัฐอเมริกา พบว่า 1 ใน 4 คนตอบว่าเคยโดนหลอกลวงโดยใช้เสียง AI หรือรู้จักใครสักคนที่ถูกหลอกลวงด้วยวิธีดังกล่าว
70% ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขาไม่มั่นใจว่าสามารถบอกความแตกต่างระหว่างเสียงโคลนกับเสียงจริงได้
ในขณะเดียวกัน เจ้าหน้าที่สหรัฐฯ ได้ออกมาเตือนซ้ำแล้วซ้ำเล่าเกี่ยวกับความถี่ของการหลอกลวงที่เพิ่มมากขึ้นซึ่งมุ่งเป้าไปที่ปู่ย่าตายายผู้สูงอายุ ในสถานการณ์ทั่วไป ผู้แอบอ้างจะปลอมตัวเป็นหลานของเหยื่อที่ต้องการเงินด่วนในสถานการณ์ที่ยากลำบาก
“คุณได้รับสาย มีเสียงที่ตกใจมากในสาย เป็นหลานชายของคุณ เขาบอกว่าเขามีปัญหาใหญ่ เขาทำรถพังและติดคุกอยู่ แต่คุณสามารถช่วยได้โดยส่งเงินให้เขา” FTC อธิบายการหลอกลวงนี้
ในความคิดเห็นด้านล่างจดหมายเตือนของ FTC หลายคนกล่าวว่าสมาชิกครอบครัวที่เป็นผู้สูงอายุของตนถูกหลอกลวงด้วยวิธีนี้
นั่นคือเรื่องราวของเอ็ดดี้ วัย 19 ปีจากชิคาโก ปู่ของเอ็ดดี้ได้รับโทรศัพท์จากคนที่แอบอ้างเป็นเขา โดยบอกว่าเขาต้องการเงินเนื่องจากทำให้เกิดอุบัติเหตุทางรถยนต์
กลลวงดังกล่าวน่าเชื่อถือมากจนปู่ของเอ็ดดี้รีบเร่งรวบรวมเงินและถึงขั้นคิดจะจำนองบ้านเพื่อรับเงินก่อนที่จะถูกเปิดโปงว่าโกหก ตามรายงานของบริษัท McAfee Labs
“เนื่องจากการสร้างโคลนเสียงที่สมจริงนั้นทำได้ง่ายมาก ดังนั้นแทบทุกคนที่ปรากฏตัวทางออนไลน์จึงตกเป็นเหยื่อได้” ศาสตราจารย์ Hany Farid จากคณะสารสนเทศแห่งมหาวิทยาลัยแคลิฟอร์เนีย เบิร์กลีย์ กล่าวกับ AFP “กลลวงเหล่านี้กำลังเพิ่มขึ้นและแพร่กระจาย”
ในช่วงต้นปี 2023 ElevenLabs ซึ่งเป็นบริษัทสตาร์ทอัพด้าน AI ยอมรับว่าเครื่องมือถอดเสียงของตนอาจถูกนำไปใช้ในทางที่ผิดเพื่อจุดประสงค์ที่เป็นอันตราย โดยเฉพาะอย่างยิ่ง ผู้ใช้ผลิตภัณฑ์ของบริษัทรายหนึ่งได้โพสต์คลิปเสียงปลอมที่แสดงให้เห็นเอ็มม่า วัตสัน นักแสดงสาวกำลังอ่านชีวประวัติของอดอล์ฟ ฮิตเลอร์ ผู้นำนาซีแห่งเยอรมนี
อินเทอร์เน็ตเป็นโลกที่เปลี่ยนแปลงเร็วมากจนเราไม่สามารถเชื่อทุกสิ่งทุกอย่างที่เห็นได้ ดังนั้น เราจึงต้องการเทคโนโลยีใหม่เพื่อทราบว่าบุคคลที่คุณกำลังพูดคุยด้วยเป็นบุคคลตามที่พวกเขาบอกจริงหรือไม่ Gal Tal-Hochberg ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยีของบริษัท Team8 ซึ่งเป็นบริษัทเงินทุนเสี่ยง กล่าวกับ AFP
ตามรายงานของหนังสือพิมพ์ VNA/Tin Tuc
ลิงค์ที่มา
การแสดงความคิดเห็น (0)