Vietnam.vn - Nền tảng quảng bá Việt Nam

جیلبریک ChatGPT-5 برای ارائه دستورالعمل‌های خطرناک

از آنجا که ChatGPT-5 مانند یک انسان صحبت می‌کند، برای هکرها آسان‌تر است که آن را با همان روش‌هایی که برای فریب انسان‌ها استفاده می‌شود، فریب دهند و باعث شوند که بی‌گناه دستورالعمل‌هایی در مورد نحوه ساخت بمب ارائه دهد.

Báo Khoa học và Đời sốngBáo Khoa học và Đời sống16/08/2025

تنها یک روز پس از معرفی GPT-5 توسط OpenAI، دو شرکت امنیتی هوش مصنوعی، NeuralTrust و SPLX (که قبلاً SplxAI نام داشت)، آسیب‌پذیری‌های جدی را در مدل تازه منتشر شده آزمایش و به سرعت کشف کردند.

کمی پس از انتشار، تیم NeuralTrust از یک تکنیک فرار از زندان به نام EchoChamber همراه با تکنیک‌های داستان‌سرایی استفاده کرد تا GPT-5 را وادار به تولید دستورالعمل‌های دقیق برای ساخت کوکتل مولوتوف کند - چیزی که تیم OpenAI همیشه سعی داشت از پاسخ دادن مدل جلوگیری کند تا ایمنی چت‌بات را تضمین کند.

‎‏‎ ... 

EchoChamber یک تکنیک حلقه مکالمه شخص ثالث است که باعث می‌شود هوش مصنوعی ناخواسته دستورالعمل‌های خطرناک را "روایت" کند. عکس: Mojologic

این تیم گفت که در طول فرآیند جیلبریک برای وادار کردن ChatGPT-5 به فحاشی، هیچ سوال مستقیمی نپرسیدند، بلکه در عوض هوشمندانه عناصر پنهانی را در چندین دور مکالمه قرار دادند و باعث شدند که مدل هدایت شود، به خط داستان پایبند بماند و در نهایت داوطلبانه محتوایی را ارائه دهد که اصول آن را نقض می‌کند، بدون اینکه بتواند مکانیسم انصراف را فعال کند.

این تیم نتیجه گرفت که اشکال اصلی GPT-5 این است که اولویت را به حفظ انسجام متن مکالمه می‌دهد، حتی اگر آن متن به طور مخفیانه به سمت اهداف مخرب هدایت شود.

در همین حال، SPLX نوع متفاوتی از حمله را آغاز کرد که بر روی یک تکنیک مبهم‌سازی اعلان به نام حمله مبهم‌سازی StringJoin تمرکز داشت. آن‌ها با قرار دادن خط فاصله بین هر کاراکتر اعلان و قرار دادن کل اسکریپت با یک اسکریپت «رمزگشایی»، سرانجام توانستند سیستم فیلترینگ محتوا را فریب دهند.

تکنیک مبهم‌سازی رایج که برای کور کردن هدف کد منبع استفاده می‌شود، باعث می‌شود Chat-GPT «بی‌گناه» اجرا شود.

در یک مثال، پس از اینکه مدل از طریق یک سری دستورالعمل‌های طولانی هدایت شد، سوال «چگونه یک بمب بسازیم» به شکلی فریبنده و رمزگذاری‌شده ارائه شد. GPT-5 نه تنها به این سوال مخرب به طور آموزنده پاسخ داد، بلکه به شیوه‌ای شوخ‌طبعانه و دوستانه نیز پاسخ داد و کاملاً از مکانیسم انصراف که برای آن طراحی شده بود، عبور کرد.

هر دو روش نشان می‌دهند که سیستم‌های سانسور فعلی GPT-5، که عمدتاً بر روی پیام‌های تکی تمرکز دارند، در برابر حملات چند گفتگوییِ زمینه‌ای آسیب‌پذیر هستند. هنگامی که مدل به یک داستان یا سناریو می‌پردازد، مغرضانه عمل می‌کند و صرف نظر از اینکه محتوا خطرناک یا ممنوع است، به انتشار محتوایی متناسب با زمینه‌ای که در آن آموزش دیده است، ادامه می‌دهد.

ChatGPT-5 هنوز هم می‌تواند برای ایجاد چیزهای خطرناک مورد سوءاستفاده قرار گیرد. عکس: Tue Minh

بر اساس این نتایج، SPLX معتقد است که اگر GPT-5 سفارشی‌سازی نشود، استفاده ایمن از آن در محیط‌های سازمانی تقریباً غیرممکن خواهد بود، حتی با وجود لایه‌های حفاظتی اضافی، که همچنان دارای نقاط ضعف زیادی است. در مقابل، GPT-4o همچنان در برابر چنین حملاتی مقاوم‌تر است، به خصوص هنگامی که یک مکانیسم دفاعی محکم راه‌اندازی شود.

کارشناسان هشدار داده‌اند که به‌کارگیری فوری GPT-5، به‌ویژه در مناطقی که نیاز به امنیت بالا دارند، بسیار خطرناک است. تکنیک‌های حفاظتی مانند مقاوم‌سازی سریع تنها بخشی از مشکل را حل می‌کنند و نمی‌توانند جایگزین راهکارهای نظارتی و دفاعی چندلایه و بلادرنگ شوند.

می‌توان مشاهده کرد که در حال حاضر، تکنیک‌های حمله مبتنی بر متن و مبهم‌سازی محتوا به طور فزاینده‌ای پیچیده شده‌اند، GPT-5 اگرچه در قابلیت‌های پردازش زبان قدرتمند است، اما هنوز بدون مکانیسم‌های حفاظتی اضافی به سطح امنیتی لازم برای استقرار گسترده نرسیده است.

ChatGPT-5 آزادانه دستورالعمل‌ها را ارائه می‌دهد و در صورت «درخواست مناسب»، ابزارهای هک ایجاد می‌کند.

منبع: https://khoahocdoisong.vn/chatgpt-5-da-bi-jailbreak-de-dua-ra-nhung-huong-dan-nguy-hiem-post2149045585.html


نظر (0)

No data
No data

در همان دسته‌بندی

میلیون‌ها دلار برای یادگیری گل‌آرایی و کسب تجربه‌های پیوند عاطفی در جشنواره نیمه پاییز هزینه کنید
تپه‌ای از گل‌های بنفش سیم در آسمان سون لا وجود دارد
در شکار ابرها در تاخوآ گم شده‌ام
زیبایی خلیج هالونگ سه بار توسط یونسکو به عنوان میراث جهانی شناخته شده است.

از همان نویسنده

میراث

;

شکل

;

کسب و کار

;

No videos available

اخبار

;

نظام سیاسی

;

محلی

;

محصول

;