طبق گزارش BGR ، یک گزارش تحقیقاتی جدید به تازگی از یک تکنیک نگرانکننده به نام «Fun-Tuning» پرده برداشته است که از هوش مصنوعی (AI) برای ایجاد خودکار حملات تزریق سریع بسیار مؤثر استفاده میکند و سایر مدلهای پیشرفته هوش مصنوعی، از جمله Gemini گوگل را هدف قرار میدهد.
این روش، «هک کردن» هوش مصنوعی را سریعتر، ارزانتر و آسانتر از همیشه میکند و نشاندهندهی اوجگیری جدیدی در نبرد امنیت سایبری با هوش مصنوعی است.
خطر استفاده بازیگران مخرب از هوش مصنوعی برای شکستن آن.
تزریق سریع روشی است که در آن عوامل مخرب به طور مخفیانه دستورالعملهای مضر را در دادههای ورودی یک مدل هوش مصنوعی وارد میکنند (مثلاً از طریق نظرات در کد منبع، متن پنهان در وب). هدف این است که هوش مصنوعی را «فریب» دهند و آن را مجبور به نادیده گرفتن قوانین ایمنی از پیش برنامهریزی شده کنند که منجر به عواقب جدی مانند نشت دادههای حساس، ارائه اطلاعات نادرست یا انجام سایر اقدامات خطرناک میشود.
هکرها از هوش مصنوعی برای حمله به هوش مصنوعی استفاده میکنند.
عکس: اسکرینشات از لینکدین
پیش از این، اجرای موفقیتآمیز این حملات، به ویژه در مدلهای «بسته» مانند Gemini یا GPT-4، اغلب نیاز به آزمایش دستی پیچیده و زمانبر زیادی داشت.
اما Fun-Tuning کاملاً چشمانداز را تغییر داد. این روش که توسط تیمی از محققان از چندین دانشگاه توسعه داده شده است، هوشمندانه از رابط برنامهنویسی کاربردی (API) اصلاحشدهای که گوگل به صورت رایگان در اختیار کاربران Gemini قرار میدهد، بهرهبرداری میکند.
با تجزیه و تحلیل پاسخهای ظریف مدل Gemini در طول فرآیند تنظیم (به عنوان مثال، نحوه پاسخ آن به خطاهای موجود در دادهها)، Fun-Tuning میتواند به طور خودکار مؤثرترین «پیشوندها» و «پسوندها» را برای پنهان کردن یک عبارت مخرب شناسایی کند. این امر احتمال اینکه هوش مصنوعی با نیت مخرب مهاجم مطابقت داشته باشد را به میزان قابل توجهی افزایش میدهد.
نتایج آزمایش نشان میدهد که Fun-Tuning در برخی از نسخههای Gemini به میزان موفقیت تا ۸۲٪ دست یافته است، رقمی که بسیار بهتر از میزان موفقیت کمتر از ۳۰٪ روشهای حمله سنتی است.
چیزی که به خطر Fun-Tuning میافزاید، هزینه اجرای بسیار پایین آن است. از آنجا که API تنظیم گوگل به صورت رایگان ارائه میشود، هزینه محاسباتی برای ایجاد یک حمله موثر میتواند به 10 دلار برسد. علاوه بر این، محققان دریافتهاند که حملهای که برای یک نسخه از Gemini طراحی شده است، به راحتی میتواند با موفقیت در نسخههای دیگر نیز اعمال شود و خطر حملات گسترده را افزایش دهد.
گوگل تأیید کرده است که از تهدید ناشی از تکنیک Fun-Tuning آگاه است، اما هنوز در مورد اینکه آیا این تکنیک نحوه عملکرد API تنظیم را تغییر خواهد داد یا خیر، اظهار نظری نکرده است. تیم تحقیقاتی همچنین به دشواری دفاع در برابر این موضوع اشاره کرد: اگر اطلاعات مورد سوءاستفاده توسط Fun-Tuning از فرآیند تنظیم حذف شود، API برای توسعهدهندگان قانونی کمتر مفید خواهد بود. برعکس، اگر بدون تغییر باقی بماند، همچنان به عنوان سکوی پرشی برای سوءاستفادهی عوامل مخرب باقی خواهد ماند.
ظهور Fun-Tuning یک هشدار آشکار است و نشان میدهد که رویارویی در فضای مجازی وارد مرحله جدید و پیچیدهتری شده است. هوش مصنوعی اکنون نه تنها یک هدف، بلکه یک ابزار و سلاح در دست بازیگران مخرب است.
منبع: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






نظر (0)