هوش مصنوعی (AI) مانند ChatGPT از اوایل سال ۲۰۲۳ مورد توجه جهانی قرار گرفته است، اما این هوش مصنوعی همیشه برای اهداف مثبت استفاده نمیشود. اخیراً، یک متخصص امنیتی راهی پیدا کرده است تا از ChatGPT بخواهد در حین آزمایش، کد مخرب ایجاد کند.
آرون مولگرو، متخصص امنیت در Forcepoint، خطر نوشتن بدافزار با استفاده از چتبات زبان OpenAI را به اشتراک گذاشت. اگرچه ChatGPT برای جلوگیری از درخواست کاربران از هوش مصنوعی برای طراحی بدافزار طراحی شده بود، آرون همچنان با ایجاد درخواستهایی برای هوش مصنوعی جهت نوشتن خط به خط کد برنامهنویسی، یک روزنه پیدا کرد. وقتی این دو با هم ترکیب شدند، آرون متوجه شد که یک ابزار اجرای سرقت داده غیرقابل کشف در دست دارد، آنقدر پیچیده که با پیچیدهترین بدافزارهای امروزی قابل مقایسه است.
هر خط فرمان جداگانه تولید شده توسط ChatGPT، در صورت ترکیب، میتواند به یک بدافزار پیچیده تبدیل شود.
کشف مولگرو زنگ خطری است در مورد پتانسیل استفاده از هوش مصنوعی برای ایجاد بدافزارهای خطرناک، بدون نیاز به یک گروه هکر یا حتی نوشتن یک خط کد توسط سازنده ابزار.
نرمافزار مولگرو به عنوان یک برنامه محافظ صفحه نمایش ظاهر میشود، اما قادر است به طور خودکار در دستگاههای مبتنی بر ویندوز فعال شود. این بدافزار پس از ورود به سیستم عامل، به هر فایلی، از جمله ویرایشگرهای متن Word، فایلهای تصویری و PDFها، "نفوذ" میکند و به دنبال دادههایی برای سرقت میگردد.
وقتی برنامه اطلاعات مورد نیاز خود را پیدا کرد، آن را تجزیه کرده و به فایلهای تصویری روی دستگاه متصل میکند. برای جلوگیری از شناسایی، تصاویر در پوشهای در گوگل درایو آپلود میشوند. این بدافزار بسیار قدرتمند است زیرا Mulgrew میتواند ویژگیهای خود را تغییر داده و بهبود بخشد تا از طریق دستورات سادهای که در ChatGPT وارد میشوند، از شناسایی شدن جلوگیری کند.
اگرچه این یک آزمایش خصوصی توسط متخصصان امنیتی بود و هیچ حملهای خارج از محدوده آزمایش انجام نشد، اما جامعه امنیت سایبری هنوز خطر فعالیتهایی را که از ChatGPT استفاده میکنند، تشخیص میدهد. مولگرو ادعا میکند که تجربه زیادی در برنامهنویسی ندارد، اما هوش مصنوعی OpenAI هنوز به اندازه کافی قوی و هوشمند نیست که بتواند از آزمایش او جلوگیری کند.
لینک منبع
نظر (0)