در هشداری که این هفته منتشر شد، افبیآی اعلام کرد که اخیراً شاهد افزایش قربانیان باجگیری بوده است که میگویند با استفاده از هوش مصنوعی برای ویرایش تصاویر معمولی گرفته شده از پستهای آنلاین، پیامهای شخصی یا چتهای ویدیویی به نسخههای جعلی، هدف قرار گرفتهاند.
پلیس اسپانیا یک بار برنامهنویس را که از هوش مصنوعی برای ایجاد تصاویر جعلی پورنوگرافی کودکان استفاده میکرد، دستگیر کرد. عکس: دیلی میل
در این هشدار آمده است: «این تصاویر سپس توسط مجرمان برای اخاذی یا آزار جنسی مستقیماً برای قربانیان ارسال میشوند. پس از توزیع، قربانیان ممکن است با چالشهای قابل توجهی در جلوگیری از ادامه اشتراکگذاری محتوای دستکاریشده و همچنین حذف آن از اینترنت مواجه شوند.»
این دفتر اعلام کرد که تصاویر «واقعی» به نظر میرسند، ضمن اینکه خاطرنشان کرد که در برخی موارد کودکان نیز هدف قرار گرفتهاند.
در ماه فوریه، پلیس اسپانیا یک برنامهنویس کامپیوتری را که از هوش مصنوعی برای ایجاد تصاویر وحشتناک کودکآزاری استفاده میکرد، دستگیر کرد؛ اقدامی که گمان میرود یکی از اولین دستگیریها در نوع خود باشد.
افبیآی جزئیات برنامههای هوش مصنوعی مورد استفاده برای ایجاد تصاویر جنسی را فاش نکرد، اما خاطرنشان کرد که پیشرفتهای فناوری «بهطور مداوم کیفیت، سفارشیسازی و دسترسی به تولید محتوای مبتنی بر هوش مصنوعی را بهبود میبخشند».
ویرایش عکسهای معمولی برای خلق تصاویر شهوانی تقریباً به قدمت خود عکاسی است، اما انفجار اخیر ابزارهای هوش مصنوعی متنباز، این فرآیند را آسانتر از همیشه کرده است.
عکسها یا ویدیوهای جعلی اغلب از نسخههای واقعی قابل تشخیص نیستند و حتی در سالهای اخیر چندین وبسایت و شبکه اجتماعی که به ایجاد و تبادل تصاویر جنسی مبتنی بر هوش مصنوعی اختصاص داده شدهاند، ظهور کردهاند.
این یکی از مجموعهای از خطراتی است که هوش مصنوعی میتواند برای جامعه ایجاد کند، همانطور که کارشناسان اخیراً نگران آن بودهاند و در مورد آن هشدار دادهاند.
هوانگ آنه (به نقل از دیلی میل، رویترز)
منبع
نظر (0)