ปัญญาประดิษฐ์ (AI) อย่าง ChatGPT เป็นที่ฮือฮาไปทั่วโลกตั้งแต่ต้นปี 2023 แต่ AI ตัวนี้ไม่ได้ถูกนำมาใช้เพื่อจุดประสงค์เชิงบวกเสมอไป เมื่อเร็ว ๆ นี้ ผู้เชี่ยวชาญด้านความปลอดภัยได้ค้นพบวิธีขอให้ ChatGPT สร้างโค้ดอันตรายระหว่างการทดสอบ
แอรอน มัลกรูว์ ผู้เชี่ยวชาญด้านความปลอดภัยจาก Forcepoint ได้แบ่งปันความเสี่ยงในการเขียนมัลแวร์โดยใช้แชทบอทภาษา OpenAI แม้ว่า ChatGPT จะถูกออกแบบมาเพื่อป้องกันไม่ให้ผู้ใช้ขอให้ AI ออกแบบมัลแวร์ แต่แอรอนก็ยังพบช่องโหว่ด้วยการสร้างคำสั่งให้ AI เขียนโค้ดโปรแกรมทีละบรรทัด เมื่อนำมารวมกัน แอรอนก็ตระหนักว่าเขามีเครื่องมือปฏิบัติการโจรกรรมข้อมูลที่ตรวจจับไม่ได้อยู่ในมือ ซึ่งมีความซับซ้อนมากจนเทียบได้กับมัลแวร์ที่ทันสมัยที่สุดในปัจจุบัน
บรรทัดคำสั่งแต่ละรายการที่สร้างโดย ChatGPT เมื่อนำมารวมกันอาจกลายเป็นมัลแวร์ที่ซับซ้อนได้
การค้นพบของ Mulgrew ถือเป็นการเตือนให้ตระหนักถึงศักยภาพของ AI ที่จะนำมาใช้สร้างมัลแวร์อันตรายโดยไม่จำเป็นต้องมีกลุ่มแฮกเกอร์หรือแม้แต่ผู้สร้างเครื่องมือที่เขียนโค้ดแม้แต่บรรทัดเดียว
ซอฟต์แวร์ของ Mulgrew ปลอมตัวเป็นแอปพลิเคชันรักษาหน้าจอ แต่สามารถเปิดใช้งานได้โดยอัตโนมัติบนอุปกรณ์ที่ใช้ Windows เมื่ออยู่ในระบบปฏิบัติการแล้ว มัลแวร์จะ "แทรกซึม" เข้าไปในทุกไฟล์ รวมถึงโปรแกรมแก้ไขข้อความ Word ไฟล์รูปภาพ และไฟล์ PDF เพื่อค้นหาข้อมูลที่จะขโมย
เมื่อได้ข้อมูลที่ต้องการแล้ว โปรแกรมจะแยกข้อมูลและแนบไปกับไฟล์ภาพบนเครื่อง เพื่อหลีกเลี่ยงการถูกตรวจจับ รูปภาพจะถูกอัปโหลดไปยังโฟลเดอร์บน Google Drive มัลแวร์นี้ทรงพลังมากเพราะ Mulgrew สามารถปรับแต่งและปรับปรุงคุณสมบัติต่างๆ เพื่อหลีกเลี่ยงการตรวจจับผ่านคำสั่งง่ายๆ ที่ป้อนลงใน ChatGPT
แม้ว่าการทดสอบครั้งนี้จะเป็นการทดสอบแบบส่วนตัวโดยผู้เชี่ยวชาญด้านความปลอดภัย และไม่มีการโจมตีใดๆ เกิดขึ้นนอกเหนือขอบเขตการทดสอบ แต่ชุมชนความปลอดภัยทางไซเบอร์ยังคงตระหนักถึงอันตรายจากกิจกรรมที่ใช้ ChatGPT มัลกรูว์อ้างว่าเขาไม่มีประสบการณ์ด้านการเขียนโปรแกรมมากนัก แต่ปัญญาประดิษฐ์ของ OpenAI ก็ยังไม่แข็งแกร่งและชาญฉลาดเพียงพอที่จะป้องกันการทดสอบของเขาได้
ลิงค์ที่มา
การแสดงความคิดเห็น (0)