การโจมตี แบบ Prompt injection เป็นการโจมตีที่ไม่ต้องใช้ความรู้ทางเทคนิค โดยจะแทรกคำขอที่เป็นอันตรายเข้าไปในเนื้อหาที่ประมวลผลด้วย AI บนเว็บไซต์หรืออีเมล OpenAI ระบุว่า "การโจมตีแบบ Prompt injection เช่นเดียวกับการฟิชชิ่งและการโจมตีเว็บที่ไม่ต้องใช้ความรู้ทางเทคนิคอื่นๆ นั้น แทบเป็นไปไม่ได้เลยที่จะ 'แก้ไข' ได้อย่างสมบูรณ์"
แทนที่จะแสวงหาทางออกที่รุนแรง OpenAI กลับเปลี่ยนมาใช้กลยุทธ์การป้องกันอย่างต่อเนื่อง พวกเขาพัฒนา "ผู้โจมตีอัตโนมัติ" ที่ใช้ AI ซึ่งได้รับการฝึกฝนผ่านการเรียนรู้แบบเสริมแรง เพื่อค้นหาช่องโหว่ จำลองการโจมตี และทดสอบระบบจากภายในได้อย่างอิสระ

ความพยายามของ OpenAI ไม่ใช่เรื่องแปลกใหม่ คู่แข่งอย่าง Google และ Anthropic ก็มุ่งเน้นไปที่การสร้างระบบป้องกันหลายชั้นและทดสอบระบบของตนอย่างต่อเนื่องเช่นกัน
ข้อแนะนำด้านความปลอดภัยสำหรับผู้ใช้มีดังนี้: ขอการยืนยัน : ตั้งค่า AI ให้ขอความยินยอมจากคุณทุกครั้งก่อนดำเนินการสำคัญ; จำกัดการเข้าถึง : ให้คำแนะนำที่เฉพาะเจาะจงและตรงประเด็น แทนที่จะให้สิทธิ์การเข้าถึงแบบกว้างๆ และคลุมเครือ; จำกัดสิทธิ์การเข้าสู่ระบบ : อนุญาตให้ AI เข้าถึงบัญชีที่สำคัญเฉพาะเมื่อจำเป็นอย่างยิ่งเท่านั้น
อนาคตของเว็บเบราว์เซอร์ AI นั้นสดใส แต่ก็ต้องใช้ความระมัดระวัง ความปลอดภัยขึ้นอยู่กับความพยายามอย่างต่อเนื่องของนักพัฒนาในการเสริมสร้างระบบป้องกัน และการตระหนักรู้เชิงรุกของผู้ใช้เกี่ยวกับการป้องกัน
ที่มา: https://congluan.vn/openai-thua-nhan-moi-nguy-hiem-tren-trinh-duyet-ai-10323665.html






การแสดงความคิดเห็น (0)