طبق گزارش BGR ، یک گزارش تحقیقاتی جدید به تازگی یک تکنیک نگرانکننده به نام «Fun-Tuning» منتشر کرده است که از خود هوش مصنوعی برای ایجاد خودکار حملات تزریق سریع بسیار مؤثر استفاده میکند و سایر مدلهای پیشرفته هوش مصنوعی، از جمله Gemini گوگل را هدف قرار میدهد.
این روش، «کرک کردن» هوش مصنوعی را سریعتر، ارزانتر و آسانتر از همیشه میکند و نشاندهندهی تشدید جدیدی در جنگ امنیت سایبری مرتبط با هوش مصنوعی است.
خطر استفاده افراد شرور از هوش مصنوعی برای شکستن هوش مصنوعی
تزریق سریع روشی است که در آن یک مهاجم دستورالعملهای مخرب را به دادههای ورودی یک مدل هوش مصنوعی وارد میکند (مثلاً از طریق نظرات در کد منبع، متن پنهان در وب). هدف این است که هوش مصنوعی را «فریب» دهد و آن را مجبور به دور زدن قوانین ایمنی از پیش برنامهریزی شده کند که منجر به عواقب جدی مانند نشت دادههای حساس، ارائه اطلاعات نادرست یا انجام سایر رفتارهای خطرناک میشود.
هکرها از هوش مصنوعی برای حمله به هوش مصنوعی استفاده میکنند
عکس: اسکرینشات لینکدین
پیش از این، انجام موفقیتآمیز این حملات، به ویژه در مدلهای «بسته» مانند Gemini یا GPT-4، اغلب نیاز به آزمایشهای دستی پیچیده و زمانبر زیادی داشت.
اما Fun-Tuning بازی را به کلی تغییر داده است. این روش که توسط تیمی از محققان از چندین دانشگاه توسعه داده شده است، هوشمندانه از رابط برنامهنویسی کاربردی (API) بسیار قابل تنظیمی که گوگل به صورت رایگان در اختیار کاربران Gemini قرار میدهد، سوءاستفاده میکند.
با تجزیه و تحلیل واکنشهای ظریف مدل Gemini در طول تنظیم (مثلاً نحوه پاسخ آن به خطاهای دادهها)، Fun-Tuning میتواند به طور خودکار مؤثرترین «پیشوندها» و «پسوندها» را برای پنهان کردن یک دستور مخرب تعیین کند. این امر احتمال اینکه هوش مصنوعی با نیات مخرب مهاجم مطابقت داشته باشد را به میزان قابل توجهی افزایش میدهد.
نتایج آزمایش نشان میدهد که Fun-Tuning در برخی از نسخههای Gemini به میزان موفقیت تا ۸۲٪ دست مییابد، رقمی که از کمتر از ۳۰٪ روشهای حمله سنتی پیشی میگیرد.
چیزی که Fun-Tuning را حتی خطرناکتر میکند، هزینه پایین آن است. از آنجایی که API تنظیم گوگل به صورت رایگان در دسترس است، هزینه محاسباتی ایجاد یک حمله موثر میتواند به 10 دلار برسد. علاوه بر این، محققان دریافتند که حملهای که برای یک نسخه از Gemini طراحی شده است، به راحتی میتواند با موفقیت در نسخههای دیگر نیز اعمال شود و امکان حملات گسترده را فراهم کند.
گوگل تأیید کرده است که از تهدید ناشی از Fun-Tuning آگاه است، اما هنوز در مورد اینکه آیا نحوه عملکرد API تنظیم را تغییر خواهد داد یا خیر، اظهار نظری نکرده است. این تیم همچنین به معضل دفاعی اشاره میکند: حذف اطلاعاتی که Fun-Tuning از فرآیند تنظیم سوءاستفاده میکند، API را برای توسعهدهندگان قانونی کمتر مفید میکند. برعکس، رها کردن آن به همین شکل، همچنان سکوی پرشی برای سوءاستفادهی بازیگران بد خواهد بود.
ظهور Fun-Tuning هشداری آشکار است مبنی بر اینکه رویارویی در فضای مجازی وارد مرحله جدید و پیچیدهتری شده است. هوش مصنوعی اکنون نه تنها یک هدف، بلکه ابزاری و سلاحی در دست بازیگران مخرب است.
منبع: https://thanhnien.vn/hacker-dung-ai-de-tan-cong-gemini-cua-google-18525033010473121.htm






نظر (0)