อาชญากรไซเบอร์กำลังใช้ประโยชน์จากเครื่องมือปัญญาประดิษฐ์ (AI) เชิงสร้างสรรค์ เช่น ChatGPT เพื่อเขียนอีเมลฟิชชิงที่พุ่งเป้าไปที่ธุรกิจและบุคคลอื่นๆ ตามรายงานของบริษัทรักษาความปลอดภัยไซเบอร์ SlashNext จากการสำรวจผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์กว่า 300 คนในอเมริกาเหนือ เกือบครึ่งหนึ่งกล่าวว่าพวกเขาเคยถูกโจมตีแบบฟิชชิงที่พุ่งเป้าไปที่ธุรกิจ และ 77% ของพวกเขาระบุว่าพวกเขาตกเป็นเป้าหมาย
แพทริค แฮร์ ซีอีโอของ SlashNext กล่าวว่า ผลการวิจัยนี้ตอกย้ำความกังวลว่า GENERATOR AI มีส่วนทำให้เกิดการหลอกลวงเพิ่มขึ้นอย่างไร มิจฉาชีพมักใช้ AI พัฒนามัลแวร์หรือกลโกงทางวิศวกรรมสังคมเพื่อเพิ่มอัตราความสำเร็จ
รายงานระบุว่ามีการหลอกลวงทางออนไลน์เกิดขึ้นเฉลี่ย 31,000 กรณีต่อวัน
Harr กล่าวเสริมว่าการเปิดตัว ChatGPT ในช่วงปลายปี 2022 ตรงกับช่วงเวลาที่ SlashNext พบว่าการโจมตีแบบฟิชชิ่งเพิ่มสูงขึ้น
อ้างอิงจากรายงานอาชญากรรม ทางอินเทอร์เน็ต ของสำนักงานสอบสวนกลางแห่งสหรัฐอเมริกา (FBI) ระบุว่าการส่งอีเมลปลอมไปยังธุรกิจต่างๆ ก่อให้เกิดความเสียหายประมาณ 2.7 พันล้านดอลลาร์สหรัฐภายในปี 2565
แม้ว่าจะมีข้อถกเถียงกันอยู่บ้างเกี่ยวกับผลกระทบที่แท้จริงของ AI เชิงสร้างสรรค์ (generative AI) ต่ออาชญากรรมไซเบอร์ แต่แฮร์เชื่อว่าแชทบอทอย่าง ChatGPT กำลังถูกนำไปใช้เป็นอาวุธโจมตีทางไซเบอร์ ยกตัวอย่างเช่น ในเดือนกรกฎาคม นักวิจัยของ SlashNext ได้ค้นพบแชทบอทอันตรายสองตัวชื่อ WormGPT และ FraudGPT ซึ่งถูกใช้เป็นเครื่องมือให้อาชญากรไซเบอร์ดำเนินการฟิชชิ่งที่ซับซ้อน
คริส สเตฟเฟน ผู้อำนวยการฝ่ายวิจัยของ Enterprise Management Associates กล่าวว่าแฮกเกอร์กำลังใช้ AI เชิงสร้างสรรค์และแบบจำลองการประมวลผลภาษาธรรมชาติ (NLP) เพื่อสร้างกลโกง การใช้ AI เพื่อวิเคราะห์ข้อมูลและบทความเก่าๆ และการเลียนแบบเอกสาร ของรัฐบาล หรือองค์กร ทำให้อีเมลฟิชชิงมีความน่าเชื่อถือและแยกแยะได้ยากอย่างยิ่ง
เพื่อรับมือกับการโจมตีที่เพิ่มขึ้น ผู้คนจำเป็นต้องเพิ่มความตระหนักด้านความปลอดภัยและเฝ้าระวังอีเมลหรือกิจกรรมที่น่าสงสัย อีกวิธีหนึ่งคือการใช้เครื่องมือกรองอีเมลที่ใช้ AI และ Machine Learning เพื่อป้องกันฟิชชิง นอกจากนี้ องค์กรต่างๆ ยังจำเป็นต้องดำเนินการตรวจสอบความปลอดภัยเป็นประจำ ระบุช่องโหว่และจุดอ่อนของระบบในการฝึกอบรมพนักงาน และแก้ไขปัญหาที่ทราบอย่างทันท่วงทีเพื่อลดความเสี่ยงจากการโจมตี
ลิงค์ที่มา






การแสดงความคิดเห็น (0)