ปัญญาประดิษฐ์ (AI) อย่าง ChatGPT เป็นที่ฮือฮาไปทั่วโลกตั้งแต่ต้นปี 2023 แต่ AI ตัวนี้ไม่ได้ถูกนำมาใช้เพื่อจุดประสงค์เชิงบวกเสมอไป เมื่อเร็ว ๆ นี้ ผู้เชี่ยวชาญด้านความปลอดภัยได้ค้นพบวิธีขอให้ ChatGPT สร้างโค้ดอันตรายระหว่างการทดสอบ
แอรอน มัลกรูว์ ผู้เชี่ยวชาญด้านความปลอดภัยจาก Forcepoint ได้แบ่งปันความเสี่ยงในการเขียนมัลแวร์โดยใช้แชทบอทภาษาที่พัฒนาโดย OpenAI แม้ว่า ChatGPT จะถูกออกแบบมาเพื่อป้องกันไม่ให้ผู้ใช้ขอให้ AI ออกแบบมัลแวร์ แต่แอรอนก็ยังพบช่องโหว่โดยการสร้างบรรทัดคำสั่ง (พร้อมท์) เพื่อให้ปัญญาประดิษฐ์เขียนโค้ดโปรแกรมในแต่ละบรรทัด เมื่อนำมารวมกัน แอรอนจึงตระหนักว่าเขามีเครื่องมือปฏิบัติการโจรกรรมข้อมูลที่ตรวจจับไม่ได้อยู่ในมือ ซึ่งมีความซับซ้อนมากจนเทียบได้กับมัลแวร์หลักๆ ในปัจจุบัน
บรรทัดคำสั่งแต่ละรายการที่สร้างโดย ChatGPT เมื่อนำมารวมกันอาจกลายเป็นมัลแวร์ที่ซับซ้อนได้
การค้นพบของ Mulgrew ถือเป็นคำเตือนเกี่ยวกับศักยภาพของ AI ที่จะถูกนำมาใช้เพื่อสร้างมัลแวร์อันตรายโดยไม่จำเป็นต้องมีกลุ่มแฮกเกอร์หรือแม้แต่ผู้สร้างเครื่องมือเขียนโค้ดแม้แต่บรรทัดเดียว
ซอฟต์แวร์ของ Mulgrew ปลอมตัวเป็นแอปพลิเคชันรักษาหน้าจอ แต่สามารถเปิดใช้งานได้โดยอัตโนมัติบนอุปกรณ์ที่ใช้ Windows เมื่ออยู่ในระบบปฏิบัติการแล้ว มัลแวร์จะ "แอบ" เข้าไปในทุกไฟล์ รวมถึงโปรแกรมแก้ไขเอกสาร Word ไฟล์ภาพ และไฟล์ PDF เพื่อค้นหาข้อมูลที่จะขโมย
เมื่อได้ข้อมูลที่ต้องการแล้ว โปรแกรมจะแยกข้อมูลและแนบไปกับไฟล์ภาพบนเครื่อง เพื่อหลีกเลี่ยงการถูกตรวจจับ ภาพจะถูกอัปโหลดไปยังโฟลเดอร์บนพื้นที่เก็บข้อมูลบนคลาวด์ของ Google Drive มัลแวร์นี้ทรงพลังมากเพราะ Mulgrew สามารถปรับแต่งและปรับปรุงคุณสมบัติต่างๆ เพื่อหลีกเลี่ยงการตรวจจับผ่านคำสั่งง่ายๆ ที่ป้อนลงใน ChatGPT
แม้ว่าการทดสอบครั้งนี้จะเป็นการทดสอบแบบส่วนตัวโดยผู้เชี่ยวชาญด้านความปลอดภัย และไม่มีการโจมตีใดๆ เกิดขึ้นนอกพื้นที่ทดสอบ แต่ชุมชนความปลอดภัยทางไซเบอร์ยังคงตระหนักถึงอันตรายจากกิจกรรมที่ใช้ ChatGPT มัลกรูว์อ้างว่าเขาไม่มีประสบการณ์ด้านการเขียนโปรแกรมมากนัก แต่ปัญญาประดิษฐ์ของ OpenAI ก็ยังไม่ทรงพลังและชาญฉลาดเพียงพอที่จะป้องกันการทดสอบของเขาได้
ลิงค์ที่มา
การแสดงความคิดเห็น (0)