Generative AI กำลังก่อให้เกิดความเสี่ยงด้านความปลอดภัยทางไซเบอร์มากมาย โดยเฉพาะอย่างยิ่งหลังจากเกิดการหลอกลวงทางไซเบอร์อย่างแพร่หลายในฮ่องกง ตามที่บริษัทด้านความปลอดภัยทางไซเบอร์แห่งหนึ่งกำลังนำ AI มาใช้เพื่อต่อสู้กับภัยคุกคามดังกล่าวเปิดเผย
อีเมลฟิชชิ่งและการโทรปลอมเสียงที่สร้างขึ้นโดยปัญญาประดิษฐ์กำลังกลายเป็นเรื่องซับซ้อนมากขึ้นและตรวจจับได้ยากขึ้น (ภาพถ่าย: Shutterstock)
ในฮ่องกง ผู้หลอกลวงได้หลอกเอาเงินผู้คนไปเป็นมูลค่า 4.8 พันล้านเหรียญฮ่องกง (611.5 ล้านเหรียญสหรัฐ) ผ่านทางการแชทออนไลน์ โทรศัพท์ และข้อความ SMS เสียง วิดีโอ และข้อความที่สร้างขึ้นโดย AI ทำให้การหลอกลวงประเภทนี้ตรวจจับได้ยากขึ้น
การเกิดขึ้นของเครื่องมือ AI เชิงสร้างสรรค์ เช่น ChatGPT จะช่วยให้การหลอกลวงบางประเภทแพร่หลายและมีประสิทธิภาพมากขึ้น Kim-Hock Leow ซีอีโอประจำภูมิภาคเอเชียของ Wizlynx Group ซึ่งเป็นบริษัทผู้ให้บริการด้านความปลอดภัยทางไซเบอร์ที่ตั้งอยู่ในสวิตเซอร์แลนด์ กล่าว
“เราจะเห็นได้ว่าการเลียนแบบเสียงและวิดีโอมีความสมจริงมากขึ้นเรื่อยๆ และผู้ที่ต้องการขโมยข้อมูลและละเมิดความปลอดภัยทางไซเบอร์ขององค์กรสามารถใช้สิ่งนี้ได้” เขากล่าว
รัฐบาลต่างๆ เริ่มดำเนินการต่อต้านการหลอกลวงทางออนไลน์ที่เพิ่มขึ้น ในเดือนกุมภาพันธ์ สำนักงานความมั่นคงสาธารณะของเทศบาลกรุงปักกิ่งได้ออกคำเตือนในแถลงการณ์บน WeChat ว่าผู้หลอกลวงอาจใช้ AI เพื่อ "ก่ออาชญากรรมและเผยแพร่ข่าวลือ" และในเดือนมีนาคม คณะกรรมการการค้าแห่งสหรัฐอเมริกาได้ออกคำเตือนเกี่ยวกับผู้หลอกลวงที่ใช้เสียงที่ AI สร้างขึ้นเพื่อปลอมตัวบุคคลโดยใช้เพียงคลิปเสียงสั้นๆ ของบุคคลดังกล่าวจากออนไลน์
“ทุกคนมีความเสี่ยงต่อการโจมตีแบบฟิชชิ่ง แต่สามารถตรวจจับได้ง่ายเนื่องจากความยาว การสะกดผิด หรือขาดบริบทเกี่ยวกับตัวคุณและงานของคุณ แต่ตอนนี้ อาชญากรทางไซเบอร์สามารถใช้โมเดลภาษา AI ใหม่เพื่อเพิ่มความซับซ้อนให้กับอีเมลฟิชชิ่งได้” Kim-Hock Leow กล่าว
วิธีการหลอกลวงเหล่านี้คือการใช้เครื่องมือเช่น ChatGPT เพื่อสแกนและทำให้ภาษาของข้อความมีความเป็นมืออาชีพ ซึ่งอาจรวมถึงการดำเนินการค้นคว้าข้อมูลเบื้องหลังอย่างรวดเร็วเพื่อเพิ่มข้อมูลบริบทเพื่อปรับแต่งอีเมลหลอกลวงให้เป็นส่วนตัว
ปัจจุบันบริษัทการเงินต่าง ๆ กำลังใช้ ChatGPT เพื่อต่อสู้กับกลลวงที่ซับซ้อนเหล่านี้ พวกเขาใช้แชทบอทในการสร้างอีเมลฟิชชิ่งเพื่อวัตถุประสงค์ในการฝึกอบรมป้องกันการฉ้อโกง รวมไปถึงระบุช่องโหว่และดำเนินการวิจัยเกี่ยวกับระบบความปลอดภัยทางไซเบอร์
“ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์สามารถใช้ความรู้และข้อมูลที่ AI สามารถรวบรวมและสร้างขึ้นได้ตลอดเวลาเพื่อระบุพื้นที่เสี่ยงและเปราะบางของระบบความปลอดภัยได้อย่างแม่นยำ” คุณลีโอกล่าว
“เราจำเป็นต้องสนับสนุนให้ผู้เชี่ยวชาญด้านความปลอดภัยทางไซเบอร์และอุตสาหกรรมอื่นๆ ใช้ ChatGPT เพื่อปรับปรุงการป้องกันของตนเอง ในแง่หนึ่ง ChatGPT ถือเป็นดาบสองคมที่ใช้ได้ทั้งกับความปลอดภัยทางไซเบอร์และอาชญากรรมทางไซเบอร์” เขากล่าวเสริม
ข้อกำหนดในการให้บริการของ OpenAI ซึ่งเป็นผู้สร้าง ChatGPT ห้ามมิให้ใช้เทคโนโลยีของตนเพื่อวัตถุประสงค์ที่ผิดกฎหมาย แต่ Leow กล่าวว่ายังคงมีความเสี่ยงที่ผู้ไม่หวังดีอาจหลีกเลี่ยงตัวกรองของ ChatGPT ได้
รายงานจาก Cybersecurity Ventures คาดว่าอาชญากรรมทางไซเบอร์จะสร้างความสูญเสียมูลค่า 8 ล้านล้านเหรียญสหรัฐทั่วโลกในปีนี้ โดยเป็นเงินที่ถูกขโมย ทรัพย์สินสูญหาย และสูญเสียผลผลิต
เมื่อเผชิญกับภัยคุกคามนี้ การแข่งขันด้าน AI อาจก่อตัวขึ้นในด้านความปลอดภัยทางไซเบอร์ “ในอีกไม่กี่ปีข้างหน้า เราจะเห็นทีมงานด้านความปลอดภัยนำ AI มาใช้เพื่อปรับปรุงการรับรู้ภัยคุกคามและทำให้กระบวนการป้องกันส่วนใหญ่เป็นระบบอัตโนมัติ” เดวิด แฟร์แมน ประธานเจ้าหน้าที่ฝ่ายสารสนเทศประจำภูมิภาคเอเชีย แปซิฟิก ของ Netskope กล่าว
คานห์ลี (ที่มา: SCMP)
มีประโยชน์
อารมณ์
ความคิดสร้างสรรค์
มีเอกลักษณ์
ความโกรธ
แหล่งที่มา
การแสดงความคิดเห็น (0)