รายงานเดือนตุลาคมของ OpenAI พบว่าผู้กระทำความผิดทางไซเบอร์ทั่วโลกกำลังบูรณาการปัญญาประดิษฐ์ (AI) เข้ากับกระบวนการโจมตีที่มีอยู่เพื่อปรับปรุงประสิทธิภาพเป็นหลัก แทนที่จะพัฒนาเครื่องมือหรือวิธีการโจมตีใหม่ๆ ทั้งหมด
ตามข้อมูลของ OpenAI กิจกรรมส่วนใหญ่ที่ตรวจพบเกี่ยวข้องกับการใช้ AI เพื่อช่วยในงานที่คุ้นเคย เช่น การพัฒนาซอฟต์แวร์ที่เป็นอันตราย การสร้างโครงสร้างพื้นฐานการควบคุม การสร้างอีเมลฟิชชิงที่ซับซ้อนมากขึ้น และการรวบรวมข้อมูลเกี่ยวกับเป้าหมาย
“ทีมที่ถูกบล็อกส่วนใหญ่จะรวม AI เข้ากับกระบวนการที่มีอยู่ แทนที่จะสร้างกระบวนการใหม่ ๆ บนพื้นฐานของ AI” รายงานระบุ
รายงานยังพบอีกว่ากลุ่มผู้ใช้จำนวนมากได้ใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่ (LLM) เพื่อขุดค้นความรู้ในโดเมนทางเทคนิคที่หลากหลาย ตั้งแต่การพัฒนาแอปพลิเคชันไปจนถึงการกำหนดค่าระบบเครือข่าย โดยมักจะใช้วิธีที่แต่ละบัญชีมีความเชี่ยวชาญเฉพาะสำหรับงานเฉพาะอย่างหนึ่ง
เครือข่ายผู้ใช้อื่นๆ หลายแห่งถูกระบุว่าใช้แพลตฟอร์ม AI เพื่อสร้างเนื้อหาออนไลน์ รวมถึงบทความ รูปภาพ และ วิดีโอ เพื่อนำเสนอแคมเปญสื่อหรือส่งเสริมมุมมองบางมุม อย่างไรก็ตาม บัญชีเหล่านี้ส่วนใหญ่ไม่มีประสิทธิภาพ โดยมีระดับการมีส่วนร่วมที่ต่ำมาก
นอกจากนี้ OpenAI ยังได้บันทึกปรากฏการณ์ของศูนย์ฉ้อโกงและอาชญากรไซเบอร์ที่ใช้ ChatGPT เพื่อสนับสนุนกิจกรรมฉ้อโกงออนไลน์ในเมียนมาร์และกัมพูชา บางกรณีแสดงให้เห็นว่า AI ไม่เพียงแต่ใช้เพื่อแก้ไขเนื้อหาเท่านั้น แต่ยังใช้เพื่อจัดการตารางงาน ทรัพยากรบุคคล และการเงินอีกด้วย
อย่างไรก็ตาม OpenAI ระบุว่า AI กำลังถูกนำมาใช้อย่างแข็งขันเพื่อป้องกันการฉ้อโกง คาดการณ์ว่า ChatGPT ถูกใช้บ่อยกว่าการฉ้อโกงถึงสามเท่าในการระบุและหลีกเลี่ยงการหลอกลวง
คำขอที่เป็นอันตรายส่วนใหญ่จะถูกปฏิเสธโดยระบบ แต่รายงานระบุว่ายังคงมี "พื้นที่สีเทา" ที่คำขอทางเทคนิคหรือตามการวิจัยอาจถูกใช้ประโยชน์เพื่อจุดประสงค์ที่ไม่ได้ตั้งใจ
อย่างไรก็ตาม OpenAI ยืนยันว่าโค้ดหรือเนื้อหาที่สร้างขึ้นนั้นไม่เป็นอันตรายจนกว่าจะถูกนำไปใช้ในทางที่ผิดนอกแพลตฟอร์ม
(TTXVN/เวียดนาม+)
ที่มา: https://www.vietnamplus.vn/openai-canh-bao-tin-tac-loi-dung-ai-de-hoat-dong-tinh-vi-hon-post1068941.vnp
การแสดงความคิดเห็น (0)