هوش مصنوعی (AI) مانند ChatGPT از ابتدای سال ۲۰۲۳ مورد توجه جهانی قرار گرفته است، اما همیشه برای اهداف مثبت استفاده نمیشود. اخیراً، یک متخصص امنیتی راهی برای آموزش ChatGPT برای تولید کد مخرب در حین آزمایش کشف کرده است.
آرون مولگرو، متخصص امنیت در Forcepoint، خطرات نوشتن کد مخرب با استفاده از چتبات دوزبانه OpenAI را به اشتراک گذاشت. اگرچه ChatGPT برای جلوگیری از درخواست کاربران از هوش مصنوعی برای طراحی بدافزار طراحی شده است، آرون با ایجاد دستورات (دستورات) برای هوش مصنوعی برای نوشتن خط به خط کد، یک آسیبپذیری پیدا کرد. وقتی این دو با هم ترکیب شدند، آرون متوجه شد که یک ابزار اجرای سرقت داده غیرقابل کشف در دست دارد، آنقدر پیچیده که حتی با پیشرفتهترین بدافزارهای موجود در حال حاضر نیز رقابت میکند.
هر خط کد تولید شده توسط ChatGPT، در صورت ترکیب، میتواند به یک بدافزار پیچیده تبدیل شود.
کشف مولگرو به عنوان یک زنگ خطر در مورد پتانسیل سوءاستفاده از هوش مصنوعی برای ایجاد بدافزارهای خطرناک بدون نیاز به هیچ گروه هکری و بدون اینکه سازندگان حتی یک خط کد بنویسند، عمل میکند.
بدافزار مولگرو خود را به شکل یک برنامه دسکتاپ جا میزند، اما میتواند به طور خودکار در دستگاههای ویندوز فعال شود. این بدافزار پس از ورود به سیستم عامل، به تمام فایلها، از جمله اسناد ورد، فایلهای تصویری و PDF، "نفوذ" میکند تا به دنبال دادههایی برای سرقت بگردد.
پس از اینکه برنامه اطلاعات مورد نیاز خود را به دست آورد، آن را تجزیه کرده و در فایلهای تصویری روی رایانه جاسازی میکند. برای جلوگیری از شناسایی، این تصاویر در پوشهای در فضای ابری گوگل درایو بارگذاری میشوند. این بدافزار به طرز باورنکردنی قدرتمند میشود زیرا Mulgrew میتواند ویژگیهای خود را به گونهای تنظیم و بهبود بخشد که از طریق دستورات سادهای که در ChatGPT وارد میشوند، از شناسایی شدن فرار کند.
اگرچه این نتیجه یک آزمایش خصوصی توسط یک متخصص امنیتی بود و هیچ حملهای در خارج از منطقه آزمایش اجرا نشد، اما متخصصان امنیت سایبری همچنان خطر فعالیتهایی را که از ChatGPT استفاده میکردند، تشخیص دادند. مولگرو اظهار داشت که خودش تجربه زیادی در برنامهنویسی ندارد، اما هوش مصنوعی OpenAI هنوز به اندازه کافی قدرتمند یا هوشمند نبود که بتواند آزمایش او را متوقف کند.
لینک منبع






نظر (0)