پس از آنکه شرکت نوپای OpenAI اولین اپلیکیشن هوش مصنوعی خود، ChatGPT، را در اواخر سال 2022 عرضه کرد، موجی از رقابت برای توسعه اپلیکیشنهای هوش مصنوعی، به ویژه هوش مصنوعی مولد، آغاز شد که راحتیهای زیادی را در همه زمینههای زندگی به ارمغان میآورد. با این حال، این امر خطرات زیادی را نیز به همراه دارد.
تجاوز به حریم خصوصی
در سالهای اخیر، بسیاری از سازمانها و افراد زمانی که مجرمان فناوری از هوش مصنوعی برای ایجاد کلیپهای ویدیویی که تصاویر و صدای افراد واقعی را جعل میکردند، استفاده کردند، متحمل ضرر و زیان شدهاند. یک نمونه از این موارد، ترفند «جعلی تبدیل به واقعی میشود» به نام دیپفیک است.
طبق گزارش کلاهبرداری هویتی که توسط سامساب در پایان نوامبر ۲۰۲۳ منتشر شد، کلاهبرداریهای دیپفیک در سطح جهانی در سالهای ۲۰۲۲-۲۰۲۳ ده برابر افزایش یافته است. این همچنین زمانی است که کاربردهای هوش مصنوعی در جهان به طور انفجاری گسترش یافت.
Status Labs خاطرنشان میکند که دیپفیک تأثیر عمدهای بر فرهنگ، حریم خصوصی و اعتبار شخصی داشته است. بخش عمدهای از اخبار و توجهات پیرامون دیپفیک بر پورنوگرافی افراد مشهور، پورن انتقامجویانه، اطلاعات نادرست، اخبار جعلی، باجگیری و کلاهبرداری متمرکز شده است. به عنوان مثال، در سال ۲۰۱۹، یک شرکت انرژی در ایالات متحده توسط هکری که تصویر و صدای رهبری شرکت را جعل کرده و از کارمندان خواسته بود پول را به شرکا منتقل کنند، ۲۴۳۰۰۰ دلار کلاهبرداری شد.
خبرگزاری رویترز گزارش داد که در سال ۲۰۲۳، حدود ۵۰۰۰۰۰ محتوای دیپفیک در قالب ویدیو و صدا در شبکههای اجتماعی در سراسر جهان به اشتراک گذاشته شده است. علاوه بر دیپفیک برای سرگرمی، ترفندهایی نیز توسط افراد شرور برای فریب جامعه ایجاد شده است. برخی منابع گفتهاند که در سال ۲۰۲۲، کلاهبرداریهای دیپفیک در سراسر جهان باعث ضرر تخمینی ۱۱ میلیون دلار شده است.
بسیاری از کارشناسان فناوری در مورد اثرات منفی هوش مصنوعی، از جمله حقوق مالکیت معنوی و اصالت، و در ادامه، اختلافات مالکیت معنوی بین «آثار» خلق شده توسط هوش مصنوعی هشدار دادهاند. به عنوان مثال، یک نفر از یک برنامه هوش مصنوعی میخواهد که یک نقاشی با موضوع خاص بکشد، اما شخص دیگری از هوش مصنوعی میخواهد که همین کار را انجام دهد و در نتیجه نقاشیهایی با شباهتهای فراوان ایجاد میشود.
این امر به احتمال زیاد منجر به اختلافاتی بر سر مالکیت خواهد شد. با این حال، تا به امروز، جهان هنوز تصمیمی در مورد به رسمیت شناختن حق چاپ برای محتوای تولید شده توسط هوش مصنوعی (به رسمیت شناختن حق چاپ برای افرادی که هوش مصنوعی خلاق سفارش میدهند یا شرکتهایی که برنامههای هوش مصنوعی را توسعه میدهند) نگرفته است.
تصویری که توسط یک برنامه هوش مصنوعی تولید شده است
تشخیص واقعی و تقلبی سخته
بنابراین آیا محتوای تولید شده توسط هوش مصنوعی میتواند حق نشر را نقض کند؟ از نظر فناوری، محتوای تولید شده توسط هوش مصنوعی توسط الگوریتمهایی از دادههایی که بر اساس آنها آموزش دیده است، سنتز میشود. این پایگاههای داده توسط توسعهدهندگان برنامههای هوش مصنوعی از منابع مختلف، عمدتاً از پایگاه دانش اینترنت، جمعآوری میشوند. بسیاری از این آثار دارای حق نشر برای صاحبانشان هستند.
در ۲۷ دسامبر ۲۰۲۳، روزنامه نیویورک تایمز (ایالات متحده آمریکا) از OpenAI (با ChatGPT) و مایکروسافت شکایت کرد و ادعا کرد که میلیونها مقاله آنها برای آموزش چتباتهای هوش مصنوعی و پلتفرمهای هوش مصنوعی این دو شرکت استفاده شده است. شواهد نشان میدهد که محتوایی وجود دارد که توسط چتباتها به درخواست کاربران ایجاد شده است که مشابه یا یکسان با محتوای مقالات است. این روزنامه نمیتواند نادیده بگیرد که "مالکیت معنوی" آنها توسط شرکتها برای سودآوری استفاده میشود.
نیویورک تایمز اولین روزنامه بزرگ آمریکایی است که دادخواستی در مورد حق چاپ مربوط به هوش مصنوعی ارائه داده است. این احتمال وجود دارد که سایر روزنامهها نیز در آینده، به ویژه پس از موفقیت نیویورک تایمز، از این اقدام پیروی کنند.
پیش از این، OpenAI در ژوئیه ۲۰۲۳ با خبرگزاری آسوشیتدپرس و در دسامبر ۲۰۲۳ با اکسل اشپرینگر - ناشر آلمانی که مالک روزنامههای پولیتیکو و بیزینس اینسایدر است - به توافقنامهای برای صدور مجوز کپیرایت دست یافته بود.
سارا سیلورمن، بازیگر، نیز در ژوئیه ۲۰۲۳ به یک دادخواست پیوست و متا و اوپنایآی را به استفاده از خاطراتش به عنوان متن آموزشی برای برنامههای هوش مصنوعی متهم کرد. بسیاری از نویسندگان نیز وقتی فاش شد که سیستمهای هوش مصنوعی دهها هزار کتاب را در پایگاههای داده خود جذب کردهاند، ابراز نگرانی کردند و این منجر به طرح دعوی از سوی نویسندگانی مانند جاناتان فرانزن و جان گریشام شد.
در همین حال، سرویس عکس گتی ایمیجز نیز از یک شرکت هوش مصنوعی به دلیل ایجاد تصاویر بر اساس پیامهای متنی به دلیل استفاده غیرمجاز از مطالب تصویری دارای حق چاپ این شرکت شکایت کرده است...
کاربران میتوانند وقتی «بیدقت» از «آثاری» که از ابزارهای هوش مصنوعی خواستهاند «بسازند» استفاده کنند، دچار مشکل حق نشر شوند. کارشناسان همیشه استفاده از ابزارهای هوش مصنوعی را فقط برای جستجو، جمعآوری دادهها و ارائه پیشنهاد برای اهداف مرجع توصیه میکنند.
از سوی دیگر، برنامههای هوش مصنوعی وقتی کاربران نمیتوانند بین درست و غلط بودن یک محتوای خاص تمایز قائل شوند، آنها را گیج میکنند. ناشران و دفاتر روزنامه ممکن است هنگام دریافت نسخههای خطی گیج شوند. معلمان نیز در دانستن اینکه آیا کار دانشآموزان از هوش مصنوعی استفاده میکند یا خیر، مشکل دارند.
اکنون جامعه باید هوشیارتر باشد زیرا مشخص نیست چه چیزی واقعی و چه چیزی جعلی است. به عنوان مثال، برای یک فرد عادی تشخیص اینکه آیا یک عکس توسط هوش مصنوعی "جادو" شده یا ویرایش شده است، دشوار خواهد بود.
مقررات قانونی در مورد استفاده از هوش مصنوعی مورد نیاز است
در حالی که منتظر ابزارهای کاربردی هستیم که بتوانند مداخله هوش مصنوعی را تشخیص دهند، سازمانهای مدیریتی باید به زودی مقررات قانونی روشن و مشخصی در مورد استفاده از این فناوری برای ایجاد محتوای خصوصی داشته باشند. مقررات قانونی باید به همه نشان دهد که محتوا و آثار توسط هوش مصنوعی مداخله شدهاند، به عنوان مثال، به طور پیشفرض، تصاویری که توسط هوش مصنوعی دستکاری شدهاند، واترمارک میشوند.
منبع: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm

![[عکس] سومین کنگره تقلید میهنی کمیسیون مرکزی امور داخلی](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761831176178_dh-thi-dua-yeu-nuoc-5076-2710-jpg.webp)
![[عکس] دبیرکل تو لام با تونی بلر، نخست وزیر سابق بریتانیا، دیدار کرد](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761821573624_tbt-tl1-jpg.webp)
![[عکس] صحنهای تأثیرگذار از هزاران نفر که در حال نجات خاکریز از آب خروشان هستند](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825173837_ndo_br_ho-de-3-jpg.webp)
![[عکس] دبیرکل تو لام در کنفرانس اقتصادی سطح بالای ویتنام-بریتانیا شرکت میکند](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/30/1761825773922_anh-1-3371-jpg.webp)








































































نظر (0)