دانشمندان استرالیایی تکنیک جدیدی را توسعه دادهاند که میتواند از یادگیری غیرقانونی سیستمهای هوش مصنوعی (AI) از تصاویر، آثار هنری و سایر محتوای آنلاین جلوگیری کند.
طبق گفته آژانس ملی علوم استرالیا (CSIRO)، این تکنیک به طور نامحسوس محتوای تصاویر را تغییر میدهد تا آنها را برای مدلهای هوش مصنوعی غیرقابل خواندن کند، در حالی که برای چشم انسان بدون تغییر باقی میماند. این پروژهای است که توسط CSIRO با همکاری مرکز تحقیقات مشترک امنیت سایبری استرالیا (CSCRC) و دانشگاه شیکاگو (ایالات متحده آمریکا) توسعه داده شده است.
نویسندگان میگویند این پیشرفت میتواند به هنرمندان، سازمانها و کاربران رسانههای اجتماعی کمک کند تا از کار و دادههای شخصی خود در برابر استفاده برای آموزش سیستمهای هوش مصنوعی یا ایجاد دیپفیک - ویدیوها ، تصاویر یا صداهای فوقالعاده واقعگرایانه ایجاد شده توسط هوش مصنوعی - محافظت کنند. به عنوان مثال، کاربران میتوانند قبل از ارسال، به طور خودکار یک لایه محافظ روی تصاویر اعمال کنند و از یادگیری ویژگیهای چهره توسط هوش مصنوعی برای ایجاد دیپفیک جلوگیری کنند.
به همین ترتیب، سازمانهای دفاعی ممکن است از تصاویر ماهوارهای حساس یا دادههای مربوط به تهدیدات سایبری محافظت کنند.
به گفته دکتر دروی وانگ، دانشمندی در CSIRO، این روش از یک پایه ریاضی قوی استفاده میکند تا اطمینان حاصل شود که مدلهای هوش مصنوعی نمیتوانند از آن محتوا یاد بگیرند، یا به عبارت دیگر، این تکنیک دادهها را برای هوش مصنوعی تا حدی «غیرقابل یادگیری» میکند که از حریم خصوصی و حق چاپ محافظت میکند، در حالی که همچنان مفید بودن آنها را برای انسانها حفظ میکند.
او افزود که این محافظت حتی اگر هوش مصنوعی سعی در سازگاری یا آموزش مجدد داشته باشد، همچنان پابرجاست.
دکتر وانگ گفت که این تکنیک میتواند به صورت خودکار در مقیاس وسیع اعمال شود. او گفت که یک پلتفرم یا سایت رسانه اجتماعی میتواند این لایه محافظ را در تمام تصاویر آپلود شده جاسازی کند. این امر میتواند از تکثیر دیپ فیک جلوگیری کند، سرقت مالکیت معنوی را کاهش دهد و به کاربران کمک کند تا کنترل محتوای خود را حفظ کنند.
اگرچه این روش در حال حاضر فقط برای تصاویر قابل استفاده است، محققان قصد دارند آن را به متن، موسیقی و ویدیو گسترش دهند. این فناوری هنوز در مرحله نظری است و فقط در محیط آزمایشگاهی به طور مؤثر کار میکند.
کار علمی فوق با عنوان «مثالهای دادهای غیرقابل اثبات»، در سمپوزیوم امنیت سیستمهای شبکه و توزیعشده (NDSS) سال 2025 جایزه پژوهش برجسته را دریافت کرد.
منبع: https://www.vietnamplus.vn/ky-thuat-moi-giup-ngan-chan-ai-hoc-hoi-tu-du-lieu-khong-duoc-phep-post1055216.vnp
نظر (0)