Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

آسیب‌پذیری کمک خلبان مایکروسافت: هشدار جدید در مورد خطر نشت داده‌های هوش مصنوعی

یک نقص امنیتی جدی در Microsoft Copilot اجازه می‌دهد تا داده‌های کاربران بدون هیچ اقدامی دزدیده شود. این حادثه یک سوال بزرگ را مطرح می‌کند: آیا هوش مصنوعی به ما کمک می‌کند یا ما را در معرض خطر قرار می‌دهد؟

Báo Tuổi TrẻBáo Tuổi Trẻ20/06/2025

Lỗ hổng bảo mật - Ảnh 1.

EchoLeak و خطرات بالقوه هوش مصنوعی

با تبدیل شدن هوش مصنوعی (AI) به بخشی از همه چیز، از نوشتن گزارش‌ها گرفته تا پاسخ به ایمیل‌ها و تجزیه و تحلیل داده‌ها، به نظر می‌رسد که ما در عصری از راحتی بی‌سابقه زندگی می‌کنیم. اما جنبه‌های منفی راحتی نیز، به ویژه در مورد امنیت، در حال آشکار شدن است.

یک آسیب‌پذیری امنیتی جدید به نام EchoLeak، کاربران سرویس Microsoft Copilot را در معرض خطر افشای اطلاعات حساس خود قرار داده است، بدون اینکه آنها هیچ اقدامی انجام دهند.

وقتی هوش مصنوعی به یک آسیب‌پذیری امنیتی تبدیل می‌شود

طبق تحقیقات Tuoi Tre Online ، EchoLeak یک آسیب‌پذیری امنیتی جدید با کد CVE-2025-32711 است که کارشناسان آن را طبق مقیاس NIST با امتیاز ۹.۳ از ۱۰ به عنوان آسیب‌پذیری خطرناک رتبه‌بندی کرده‌اند.

چیزی که کارشناسان امنیتی را نگران می‌کند این است که این برنامه ماهیتی «بدون نیاز به کلیک» دارد: مهاجمان می‌توانند بدون اینکه کاربر کلیک کند، فایلی را باز کند یا حتی بداند چه اتفاقی در حال رخ دادن است، از داده‌های Copilot سوءاستفاده کنند.

این یک باگ ساده نیست. تیم تحقیقاتی Aim Labs که این نقص را کشف کرده است، معتقد است که EchoLeak نشان‌دهنده یک نقص طراحی رایج در سیستم‌های هوش مصنوعی مبتنی بر عامل و RAG است. از آنجا که Copilot بخشی از مجموعه برنامه‌های Microsoft 365 است که ایمیل‌ها، اسناد، صفحات گسترده و برنامه‌های جلسات میلیون‌ها کاربر را در خود جای داده است، احتمال نشت داده‌ها بسیار جدی است.

مشکل نه تنها در کد خاص، بلکه در نحوه عملکرد مدل‌های زبانی بزرگ (LLM) نهفته است. هوش مصنوعی برای پاسخگویی دقیق به زمینه زیادی نیاز دارد و بنابراین به داده‌های پس‌زمینه زیادی دسترسی دارد. بدون کنترل‌های واضح بر ورودی و خروجی، هوش مصنوعی می‌تواند به روش‌هایی که کاربران از آن آگاه نیستند، "هدایت" شود. این نوع جدیدی از "درب پشتی" ایجاد می‌کند که به دلیل نقص در کد نیست، بلکه به این دلیل است که هوش مصنوعی خارج از درک انسان رفتار می‌کند.

مایکروسافت به سرعت وصله‌ای منتشر کرد و تاکنون هیچ خسارت واقعی گزارش نشده است. اما درس EchoLeak واضح است: وقتی هوش مصنوعی عمیقاً در سیستم‌های در حال کار ادغام می‌شود، حتی خطاهای کوچک در نحوه درک زمینه می‌تواند عواقب امنیتی بزرگی داشته باشد.

هرچه هوش مصنوعی راحت‌تر شود، داده‌های شخصی شکننده‌تر می‌شوند

حادثه EchoLeak یک سوال نگران‌کننده را مطرح می‌کند: آیا مردم آنقدر به هوش مصنوعی اعتماد دارند که متوجه نمی‌شوند که می‌توانند تنها با یک پیامک ردیابی شوند یا اطلاعات شخصی‌شان فاش شود ؟ یک آسیب‌پذیری تازه کشف شده که به هکرها اجازه می‌دهد بدون نیاز به فشار دادن هیچ دکمه‌ای توسط کاربران، بی‌سروصدا داده‌ها را استخراج کنند، چیزی است که زمانی فقط در فیلم‌های علمی تخیلی دیده می‌شد، اما اکنون به واقعیت تبدیل شده است.

در حالی که برنامه‌های هوش مصنوعی به طور فزاینده‌ای محبوب می‌شوند، از دستیاران مجازی مانند Copilot، چت‌بات‌ها در بانکداری، آموزش و پرورش گرفته تا پلتفرم‌های هوش مصنوعی که محتوا می‌نویسند و ایمیل‌ها را پردازش می‌کنند، اکثر مردم در مورد نحوه پردازش و ذخیره داده‌هایشان هشدار نمی‌گیرند.

«چت کردن» با یک سیستم هوش مصنوعی دیگر فقط پرسیدن چند سوال برای راحتی نیست، بلکه می‌تواند ناخواسته موقعیت مکانی، عادات، احساسات یا حتی اطلاعات حساب شما را نیز فاش کند.

در ویتنام، بسیاری از مردم با استفاده از هوش مصنوعی در تلفن‌ها و رایانه‌ها آشنا هستند، بدون اینکه دانش اولیه‌ای در مورد امنیت دیجیتال داشته باشند. بسیاری از مردم اطلاعات خصوصی خود را با هوش مصنوعی به اشتراک می‌گذارند زیرا معتقدند که "این فقط یک ماشین است". اما در واقعیت، پشت آن سیستمی وجود دارد که می‌تواند داده‌ها را ضبط، یادگیری و به جاهای دیگر منتقل کند، به خصوص وقتی که پلتفرم هوش مصنوعی از شخص ثالث می‌آید و از نظر امنیتی به طور واضح آزمایش نشده است.

برای محدود کردن خطرات، کاربران لزوماً نباید فناوری را کنار بگذارند، اما باید آگاه‌تر باشند: آنها باید با دقت بررسی کنند که آیا برنامه هوش مصنوعی که استفاده می‌کنند منبع قابل اعتمادی دارد، آیا داده‌ها رمزگذاری شده‌اند یا خیر، و به خصوص اطلاعات حساس مانند شماره شناسایی، حساب‌های بانکی، اطلاعات سلامت و ... را بدون هشدار واضح با هیچ سیستم هوش مصنوعی به اشتراک نگذارند .

درست مانند زمانی که اینترنت برای اولین بار متولد شد، هوش مصنوعی نیز برای کامل شدن به زمان نیاز دارد و در طول این مدت، کاربران باید اولین کسانی باشند که به طور پیشگیرانه از خود محافظت می‌کنند.

آیا تا به حال بیش از حد با هوش مصنوعی اطلاعات به اشتراک گذاشته‌اید؟

وقتی دستوری مثل «این گزارش را به شیوه‌ای دوستانه‌تر برای من بازنویسی کن» یا «جلسه دیروز را خلاصه کن» را تایپ می‌کنیم، بسیاری از مردم فکر نمی‌کنند که تمام اطلاعاتی که وارد می‌کنند، از جمله جزئیات داخلی، احساسات شخصی و عادات کاری، می‌تواند توسط هوش مصنوعی ثبت شود. ما آنقدر به چت کردن با ابزارهای هوشمند عادت کرده‌ایم که مرز بین راحتی و حریم خصوصی را فراموش کرده‌ایم.

بازگشت به موضوع
توان ششم

منبع: https://tuoitre.vn/lo-hong-bao-mat-trong-microsoft-copilot-canh-bao-moi-ve-nguy-co-ro-ri-du-lieu-tu-ai-20250620103045262.htm


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

Y Ty با رنگ طلایی فصل برنج رسیده درخشان است
خیابان قدیمی هانگ ما برای استقبال از جشنواره نیمه پاییز «لباس خود را تغییر می‌دهد»
تپه سیم بنفش سوئی بون در میان دریای شناور ابرها در سون لا شکوفا می‌شود.
گردشگران به Y Ty هجوم می‌آورند و غرق در زیباترین مزارع پلکانی شمال غربی می‌شوند.

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول