گوگل پس از امتناع از رفع یک آسیبپذیری جدی در Gemini، یک ابزار هوش مصنوعی (AI) که عمیقاً در اکوسیستم Google Workspace ادغام شده است، با انتقاد مواجه شده است. به گفته کارشناسان امنیتی، این اشکال میتواند منجر به افشای اطلاعات حساس کاربران به غریبهها از طریق حملهای به نام «قاچاق ASCII» شود.

آسیب پذیری Gemini در برابر کد پنهان در متن
ویکتور مارکوپولوس، محقق امنیتی، چندین مدل زبان بزرگ (LLM) محبوب را برای بررسی مقاومت آنها در برابر این حمله آزمایش کرد. نتایج نشان داد که Gemini، DeepSeek و Grok همگی آسیبپذیر بودند، در حالی که ChatGPT، Claude و Copilot محافظت بهتری داشتند.
قاچاق ASCII نوعی حمله است که در آن مهاجم یک کد دستوری یا اعلان را در متن، اغلب در اندازه بسیار کوچک یا به طور خاص رمزگذاری شده، پنهان میکند. هنگامی که کاربر از هوش مصنوعی میخواهد محتوای حاوی این کد پنهان را خلاصه یا تجزیه و تحلیل کند، ابزار هوش مصنوعی به طور تصادفی و بدون اطلاع کاربر، اعلان مخرب را میخواند و اجرا میکند.

جمینی ۳ قبل از انتشار توجهها را به خود جلب کرد
خطر نشت اطلاعات حساس در Google Workspace
با ادغام مستقیم Gemini در سرویسهای Gmail، Docs و Google Workspace، این خطر به طور ویژه نگرانکننده میشود: یک اعلان پنهان میتواند باعث شود هوش مصنوعی به طور خودکار اطلاعات شخصی، اطلاعات تماس یا اسناد محرمانه را جستجو کند و سپس آنها را بدون اطلاع کاربر از سیستم خارج کند.
مارکوپولوس برای ارائه یافتههای خود با گوگل تماس گرفت و حتی با یک قطعه کد نامرئی توضیح داد که Gemini را وادار میکرد تا فقط برای «خرید یک گوشی تخفیفدار» لینکی به یک وبسایت مخرب به اشتراک بگذارد.
گوگل این موضوع را به عنوان یک نقص امنیتی رد میکند.
گوگل در پاسخی که منتشر کرد، گفت که این یک آسیبپذیری امنیتی نیست، بلکه نوعی حمله مهندسی اجتماعی است. به عبارت دیگر، این شرکت این را یک اشکال ناشی از تعامل بیدقت کاربر میداند، نه مشکلی در سیستم هوش مصنوعی خود.
این پاسخ نشان میدهد که گوگل هیچ برنامهای برای انتشار وصله امنیتی برای Gemini در آینده نزدیک ندارد، به این معنی که کاربران باید هنگام استفاده از هوش مصنوعی برای پردازش اسناد، به ویژه اسنادی که حاوی اطلاعات حساس هستند یا از منابع تأیید نشده میآیند، محتاطتر باشند.
نگرانیهای فزاینده در مورد ایمنی هوش مصنوعی عمیقاً یکپارچه
این حادثه، سوالاتی را در مورد مسئولیت شرکتهای فناوری مطرح میکند، زیرا هوش مصنوعی به طور فزایندهای در پلتفرمهای کاری و ارتباطی ادغام میشود. در حالی که گوگل بر تعهد خود به «ایمنی کاربر» تأکید کرده است، این تصمیم میتواند بر اعتماد به امنیت Gemini - به ویژه در محیط شرکتی - تأثیر بگذارد.
به نقل از اندروید آتوریتی
منبع: https://baovanhoa.vn/nhip-song-so/google-gay-tranh-cai-khi-tu-choi-va-loi-bao-mat-gemini-173381.html
نظر (0)