Vietnam.vn - Nền tảng quảng bá Việt Nam

هشدار در مورد نشت اطلاعات ذخیره شده در گوگل درایو از طریق ChatGPT

(دن تری) - محققان امنیتی به تازگی یک آسیب‌پذیری در ویژگی Connectors شرکت OpenAI کشف کرده‌اند که به افراد خرابکار اجازه می‌دهد مخفیانه از طریق ChatGPT داده‌ها را از حساب‌های گوگل درایو استخراج کنند.

Báo Dân tríBáo Dân trí11/08/2025

Cảnh báo lộ dữ liệu lưu trữ trên Google Drive thông qua ChatGPT - 1

یک سند آلوده می‌تواند از طریق ChatGPT داده‌ها را در گوگل درایو نشت دهد (عکس: Wired).

نکته نگران‌کننده این است که این آسیب‌پذیری نیازی به هیچ اقدامی از سوی کاربر ندارد و همین امر هشدارهای جدیدی را در مورد امنیت سایبری در زمینه مدل‌های هوش مصنوعی (AI) که به طور فزاینده‌ای با داده‌های شخصی مرتبط هستند، مطرح می‌کند.

اسناد «مسموم» منجر به نشت داده‌ها می‌شوند

در کنفرانس امنیتی بلک هت در لاس وگاس (ایالات متحده آمریکا) در تاریخ ۶ آگوست، دو متخصص به نام‌های مایکل بارگوری و تامیر ایشای شربت، روشی برای حمله به نام AgentFlayer را نشان دادند.

این حمله از یک آسیب‌پذیری در Connectors سوءاستفاده می‌کند - قابلیتی که ChatGPT را به سرویس‌های خارجی مانند Google Drive، Gmail یا Microsoft Calendar متصل می‌کند.

مایکل بارگوری، مدیر ارشد فناوری شرکت امنیتی زنیتی، گفت: «کاربر لازم نیست کاری انجام دهد تا هک شود یا اطلاعاتش فاش شود. ما ثابت کرده‌ایم که این سیستم کاملاً بدون نیاز به کلیک (zero-click) است.»

حمله با به اشتراک گذاشتن یک سند «مسموم» توسط مهاجم در گوگل درایو قربانی آغاز می‌شود. این سند حاوی یک پیام مخرب حدود ۳۰۰ کلمه‌ای است که با فونت سفید با اندازه ۱ نوشته شده است - تقریباً با چشم غیرمسلح نامرئی است اما هنوز توسط کامپیوتر قابل خواندن است.

در ظاهر، متن به شکل یادداشت‌های جلسه استتار شده است. در واقع، این متن حاوی دستورالعمل‌هایی برای ChatGPT است تا کلیدهای API حساس را از حساب گوگل درایو قربانی پیدا و استخراج کند.

این اعلان پنهان به جای خلاصه کردن محتوا طبق درخواست کاربر، هوش مصنوعی را مجبور می‌کند تا کلیدهای API پیدا شده را از طریق یک لینک Markdown به یک سرور خارجی ارسال کند. داده‌ها به صورت یک تصویر استخراج می‌شوند و به سرور اجازه می‌دهند تا کل اطلاعات را ضبط کند.

OpenAI به آن پرداخته است، اما خطرات همچنان پابرجا هستند

پس از دریافت گزارش بارگوری، OpenAI به سرعت اقدامات کاهش‌دهنده‌ی خطر را اجرا کرد. اندی ون، مدیر ارشد مدیریت محصولات امنیتی در Google Workspace، گفت: «توسعه‌ی دفاع‌های قوی در برابر حملات تزریق بدافزار سریع بسیار مهم است.»

اگرچه این حادثه وصله شده است، اما خطرات بالقوه اتصال مدل‌های زبانی بزرگ (LLM) به سیستم‌های خارجی را برجسته می‌کند. با ادغام عمیق‌تر هوش مصنوعی در زندگی و کار ما، سطح حمله‌ای که هکرها می‌توانند از آن سوءاستفاده کنند نیز گسترش می‌یابد.

کارشناسان هشدار می‌دهند که تزریق غیرمستقیم و سریع می‌تواند به یک تهدید جدی تبدیل شود و به مهاجمان اجازه دهد کنترل بسیاری از سیستم‌های هوشمند، از خانه‌های هوشمند گرفته تا زیرساخت‌های سازمانی، را در دست بگیرند.

بارگوری در پایان می‌گوید: «اتصال LLM به منابع داده خارجی قدرتمند است، اما همانطور که اغلب در مورد هوش مصنوعی صادق است، قدرت بیشتر، ریسک بیشتری به همراه دارد.»

منبع: https://dantri.com.vn/cong-nghe/canh-bao-lo-du-lieu-luu-tru-tren-google-drive-thong-qua-chatgpt-20250807155706949.htm


برچسب: اوپنای

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

شهر هوشی مین: خیابان فانوس لونگ نهو هوک برای استقبال از جشنواره نیمه پاییز رنگارنگ است
حفظ روحیه جشنواره اواسط پاییز از طریق رنگ‌های مجسمه‌ها
تنها روستای ویتنام را در بین ۵۰ روستای زیبای جهان کشف کنید
چرا فانوس‌های پرچم قرمز با ستاره‌های زرد امسال محبوب هستند؟

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول