
یک سند آلوده میتواند از طریق ChatGPT دادهها را در گوگل درایو نشت دهد (عکس: Wired).
نکته نگرانکننده این است که این آسیبپذیری نیازی به هیچ اقدامی از سوی کاربر ندارد و همین امر هشدارهای جدیدی را در مورد امنیت سایبری در زمینه مدلهای هوش مصنوعی (AI) که به طور فزایندهای با دادههای شخصی مرتبط هستند، مطرح میکند.
اسناد «مسموم» منجر به نشت دادهها میشوند
در کنفرانس امنیتی بلک هت در لاس وگاس (ایالات متحده آمریکا) در تاریخ ۶ آگوست، دو متخصص به نامهای مایکل بارگوری و تامیر ایشای شربت، روشی برای حمله به نام AgentFlayer را نشان دادند.
این حمله از یک آسیبپذیری در Connectors سوءاستفاده میکند - قابلیتی که ChatGPT را به سرویسهای خارجی مانند Google Drive، Gmail یا Microsoft Calendar متصل میکند.
مایکل بارگوری، مدیر ارشد فناوری شرکت امنیتی زنیتی، گفت: «کاربر لازم نیست کاری انجام دهد تا هک شود یا اطلاعاتش فاش شود. ما ثابت کردهایم که این سیستم کاملاً بدون نیاز به کلیک (zero-click) است.»
حمله با به اشتراک گذاشتن یک سند «مسموم» توسط مهاجم در گوگل درایو قربانی آغاز میشود. این سند حاوی یک پیام مخرب حدود ۳۰۰ کلمهای است که با فونت سفید با اندازه ۱ نوشته شده است - تقریباً با چشم غیرمسلح نامرئی است اما هنوز توسط کامپیوتر قابل خواندن است.
در ظاهر، متن به شکل یادداشتهای جلسه استتار شده است. در واقع، این متن حاوی دستورالعملهایی برای ChatGPT است تا کلیدهای API حساس را از حساب گوگل درایو قربانی پیدا و استخراج کند.
این اعلان پنهان به جای خلاصه کردن محتوا طبق درخواست کاربر، هوش مصنوعی را مجبور میکند تا کلیدهای API پیدا شده را از طریق یک لینک Markdown به یک سرور خارجی ارسال کند. دادهها به صورت یک تصویر استخراج میشوند و به سرور اجازه میدهند تا کل اطلاعات را ضبط کند.
OpenAI به آن پرداخته است، اما خطرات همچنان پابرجا هستند
پس از دریافت گزارش بارگوری، OpenAI به سرعت اقدامات کاهشدهندهی خطر را اجرا کرد. اندی ون، مدیر ارشد مدیریت محصولات امنیتی در Google Workspace، گفت: «توسعهی دفاعهای قوی در برابر حملات تزریق بدافزار سریع بسیار مهم است.»
اگرچه این حادثه وصله شده است، اما خطرات بالقوه اتصال مدلهای زبانی بزرگ (LLM) به سیستمهای خارجی را برجسته میکند. با ادغام عمیقتر هوش مصنوعی در زندگی و کار ما، سطح حملهای که هکرها میتوانند از آن سوءاستفاده کنند نیز گسترش مییابد.
کارشناسان هشدار میدهند که تزریق غیرمستقیم و سریع میتواند به یک تهدید جدی تبدیل شود و به مهاجمان اجازه دهد کنترل بسیاری از سیستمهای هوشمند، از خانههای هوشمند گرفته تا زیرساختهای سازمانی، را در دست بگیرند.
بارگوری در پایان میگوید: «اتصال LLM به منابع داده خارجی قدرتمند است، اما همانطور که اغلب در مورد هوش مصنوعی صادق است، قدرت بیشتر، ریسک بیشتری به همراه دارد.»
منبع: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm
نظر (0)