คุณประเมินแนวโน้มที่แฮกเกอร์ "ติดอาวุธ" ให้ AI เพื่อใช้ในการโจมตีและหลอกลวงทางไซเบอร์อย่างไร?
ดร. เหงียน ตวน คัง: จากรายงานดัชนีข่าวกรองภัยคุกคาม X-Force ปี 2024 ของ IBM ภูมิภาคเอเชียแปซิฟิก ซึ่งรวมถึงเวียดนาม ติดอันดับหนึ่งในสามภูมิภาคที่มีการโจมตีทางไซเบอร์มากที่สุด ในโลก ในปี 2023 โดยภาคการผลิตได้รับผลกระทบมากที่สุดจากเหตุการณ์โจมตีทางไซเบอร์เหล่านี้
กลยุทธ์หลักที่ผู้ไม่ประสงค์ดีใช้ยังคงเป็นการโจมตีแบบฟิชชิง โดยมุ่งเป้าไปที่บุคคลที่อ่อนแอและใช้ประโยชน์จากช่องโหว่เพื่อติดตั้งมัลแวร์ นอกจากนี้ แนวโน้มใหม่ที่เกิดขึ้นในปี 2024 คือการโจมตีทางไซเบอร์ที่เกี่ยวข้องกับปัญญาประดิษฐ์ (AI)
รายงานจาก Wired ระบุว่า ผู้ไม่ประสงค์ดีจำนวนมากใช้เนื้อหาที่สร้างโดย AI เพื่อชี้นำการพยายามแฮ็ก สร้างแชทบอทปลอม หรือสร้างภาพและ วิดีโอ ปลอมที่เลียนแบบใบหน้าและเสียงของผู้อื่นโดยใช้เทคโนโลยี Deepfake
อย่างไรก็ตาม ควบคู่ไปกับแนวโน้มนี้ ระบบรักษาความปลอดภัยข้อมูลก็เริ่มบูรณาการคุณสมบัติของ AI เช่น WatsonX เข้ามาด้วย ปัญญาประดิษฐ์อาจถูกนำไปใช้ในทางที่ผิดได้ แต่ก็สามารถทดแทนมนุษย์ในการวิเคราะห์ การตรวจสอบ การระบุตัวตนทางดิจิทัล และการคาดการณ์สถานการณ์การโจมตีได้เช่นกัน ซึ่งจะช่วยเพิ่มประสิทธิภาพในการป้องกันและลดความเสี่ยงด้านความปลอดภัยของข้อมูลลงได้
การหลอกลวงด้วยเทคโนโลยี Deepfake กำลังแพร่หลายมากขึ้นเรื่อยๆ ด้วยการพัฒนาอย่างรวดเร็วของปัญญาประดิษฐ์ (AI) การโจมตีเหล่านี้จะอันตรายแค่ไหนในอนาคต?
ดร. เหงียน ตวน คัง: โดยพื้นฐานแล้ว ดีพเฟค (Deepfake) คือเทคโนโลยีที่ช่วยให้แฮกเกอร์สร้างตัวตนดิจิทัลปลอมขึ้นมาได้ จึงสามารถแอบอ้างเป็นผู้อื่นได้ ดีพเฟคจะเป็นปัญหาที่อันตรายมาก เพราะเทคโนโลยีนี้กำลังพัฒนาไปสู่ระดับที่ซับซ้อนมากขึ้นเรื่อยๆ
เพื่อต่อสู้กับ Deepfake ขั้นตอนแรกคือการตรวจสอบว่าภาพหรือเสียงของบุคคลนั้นถูกสร้างขึ้นโดย AI หรือไม่ ปัจจุบันยังไม่มีเครื่องมือใดที่สามารถตรวจจับ Deepfake ได้ทันที เพราะผู้โจมตีต่างพัฒนาโมเดลใหม่ๆ อยู่ตลอดเวลา
นอกจากการระบุ Deepfake แล้ว เทคนิคอีกอย่างหนึ่งในการต่อสู้กับ Deepfake คือการใช้เทคโนโลยีในการวิเคราะห์พฤติกรรม จากมุมมองขององค์กรหรือธุรกิจ จำเป็นต้องพัฒนาระบบที่ผสมผสานเทคนิคทั้งสองนี้เข้าด้วยกัน
ในปัจจุบัน มีการโจมตีทางไซเบอร์เกิดขึ้นบ่อยครั้ง โดยแฮกเกอร์แอบฝังมัลแวร์ไว้ในระบบของบริษัท มัลแวร์นั้นจะแฝงตัวอยู่เฉยๆ คอยวิเคราะห์กิจกรรมต่างๆ และสร้างตัวตนปลอมขึ้นมาเพื่อกระทำการที่เป็นอันตราย ด้วยการพัฒนาของเทคโนโลยี Deepfake ควบคู่ไปกับความสามารถในการสร้างวิดีโอด้วย AI การโจมตีประเภทนี้จะยิ่งอันตรายมากขึ้นในอนาคต
ในเมื่อการโจมตีทางไซเบอร์ด้วยเทคโนโลยี Deepfake ทวีความรุนแรงขึ้นเรื่อยๆ เราจะปกป้องผู้สูงอายุ เด็ก และกลุ่มเปราะบางอื่นๆ จากมิจฉาชีพได้อย่างไร?
ดร. เหงียน ตวน คัง: ผู้สูงอายุและเด็กมักตกเป็นเป้าหมายของมิจฉาชีพที่ใช้เทคนิคที่เรียกว่าวิศวกรรมสังคม ซึ่งเป็นคำที่ใช้อธิบายการโจมตีที่บิดเบือนพฤติกรรมของมนุษย์
ปัจจุบันแฮกเกอร์สามารถใช้ AI ร่วมกับการเก็บรวบรวม การใช้ประโยชน์ และการวิเคราะห์ข้อมูล เพื่อระบุบุคคลที่มีแนวโน้มที่จะตกเป็นเหยื่อของการหลอกลวงสูง และจากนั้นจึงทำการโจมตีบุคคลเหล่านั้น นอกจากการสร้างความตระหนักรู้แก่สาธารณชนแล้ว เราต้องยอมรับด้วยว่าสถานการณ์ที่ผู้ใช้ถูกหลอกลวงจะเกิดขึ้น และเราต้องใช้เทคโนโลยีเพื่อตรวจจับและป้องกันเหตุการณ์ดังกล่าว
เมื่อไม่นานมานี้ มีเหตุการณ์ที่พนักงานธนาคารคนหนึ่งสงสัยว่าหญิงชราคนหนึ่งกำลังถูกหลอกลวงขณะทำการโอนเงิน พนักงานคนดังกล่าวจึงรีบเข้าไปช่วยเหลือและรายงานเหตุการณ์ให้เจ้าหน้าที่ทราบ ระบบไอทีของธนาคารในปัจจุบันจำเป็นต้องนำเทคโนโลยีเข้ามาใช้แทนการแทรกแซงของมนุษย์ในเรื่องดังกล่าว
บทบาทของเทคโนโลยีคือ แม้ว่าผู้ส่งจะเป็นเจ้าของที่ถูกต้องตามกฎหมาย ระบบก็จะยังคงดำเนินการเพื่อบล็อกธุรกรรมหากสงสัยว่ามีบุคคลอื่นเข้ามาแทรกแซง เครื่องมือดังกล่าวเรียกว่าระบบป้องกันการฉ้อโกง
ถึงเวลาแล้วหรือยังที่เวียดนามควรออกกฎระเบียบเพื่อบริหารจัดการ AI โดยนำการวิจัย พัฒนา และการใช้งาน AI มาอยู่ในกรอบโครงสร้างที่เป็นระบบ?
ดร. เหงียน ตวน คัง: ประเด็นเรื่องการกำกับดูแล AI นั้นมีการถกเถียงกันมานานแล้ว แต่ก็ยังมีประเด็นโต้แย้งอยู่มากมาย ตัวอย่างเช่น ที่จอดรถในละแวกบ้านของผมมีระบบ AI สำหรับจดจำป้ายทะเบียนรถ แต่ก็ยังมีการโจรกรรมเกิดขึ้นอยู่ดี นั่นจึงเป็นจุดเริ่มต้นของการถกเถียงว่าใครควรเป็นผู้รับผิดชอบ ใครควรเป็นเจ้าของอาคาร พนักงานรักษาความปลอดภัย หรือผู้พัฒนา AI กันแน่?
นับจากนั้นเป็นต้นมา อาคารดังกล่าวได้เปลี่ยนข้อกำหนด โดยระบุว่าผู้อยู่อาศัยสามารถเลือกใช้ระบบจดจำป้ายทะเบียนรถยนต์ด้วย AI เพื่อความสะดวก แต่ต้องยอมรับความเสี่ยง ผู้ที่ตกลงสามารถใช้ประตูอัตโนมัติได้ ในขณะที่ผู้ที่ไม่เห็นด้วยต้องจอดรถแบบเดิม เราต้องการระบบแบบนั้น
ในทำนองเดียวกัน IBM เคยพัฒนาระบบ AI เพื่อช่วยป้องกันมะเร็ง เมื่อระบบสั่งยา และผู้ป่วยรับประทานยาแล้วแต่ก็ยังไม่สามารถรักษาให้หายได้ ความผิดอยู่ที่แพทย์หรือปัญญาประดิษฐ์กันแน่?
ฉันคิดว่ากฎระเบียบสำหรับ AI จำเป็นต้องมีความเฉพาะเจาะจง ระบุอย่างชัดเจนว่าอะไรได้รับอนุญาตและอะไรไม่ได้รับอนุญาตในการพัฒนาแอปพลิเคชัน AI เพื่อทำให้โลกปลอดภัยยิ่งขึ้น กฎระเบียบขั้นพื้นฐานที่สุดที่เราสามารถนำมาใช้ได้คือการกำหนดให้การโอนเงินจำนวนมากต้องมีการตรวจสอบไบโอเมตริกซ์ ในสถานการณ์เช่นนั้น ผู้ที่มีข้อมูลส่วนตัวถูกละเมิดจะสามารถหลีกเลี่ยงการสูญเสียเงินได้อย่างสมบูรณ์
ขอบคุณครับท่าน
[โฆษณา_2]
แหล่งที่มา






การแสดงความคิดเห็น (0)