پس از آنکه شرکت نوپای OpenAI اولین اپلیکیشن هوش مصنوعی خود، ChatGPT، را در اواخر سال 2022 عرضه کرد، موجی از رقابت برای توسعه اپلیکیشنهای هوش مصنوعی، به ویژه هوش مصنوعی مولد، آغاز شد که راحتیهای زیادی را در همه زمینههای زندگی به ارمغان میآورد. با این حال، این امر خطرات زیادی را نیز به همراه دارد.
تجاوز به حریم خصوصی
در سالهای اخیر، بسیاری از سازمانها و افراد، زمانی که مجرمان سایبری از هوش مصنوعی برای ایجاد کلیپهای ویدیویی که تصاویر و صدای افراد واقعی را جعل میکردند، استفاده کردند، متحمل ضرر و زیان شدهاند. یک نمونه از این موارد، ترفند دیپفیک است.
طبق گزارش کلاهبرداری هویتی که توسط سامساب در پایان نوامبر ۲۰۲۳ منتشر شد، کلاهبرداریهای دیپفیک در سطح جهانی در سالهای ۲۰۲۲-۲۰۲۳ ده برابر افزایش یافته است. این همچنین زمانی است که برنامههای هوش مصنوعی در جهان به طور انفجاری گسترش یافتند.
Status Labs خاطرنشان میکند که دیپفیک تأثیر عمدهای بر فرهنگ، حریم خصوصی و اعتبار شخصی داشته است. بخش عمدهای از اخبار و توجهات پیرامون دیپفیک بر پورنوگرافی افراد مشهور، پورن انتقامی، اطلاعات نادرست، اخبار جعلی، باجگیری و کلاهبرداری متمرکز شده است. به عنوان مثال، در سال ۲۰۱۹، یک شرکت انرژی آمریکایی توسط هکری که تصویر و صدای مدیران شرکت را جعل کرده و از کارمندان خواسته بود پول را به شرکا منتقل کنند، ۲۴۳۰۰۰ دلار کلاهبرداری شد.
رویترز گزارش داد که در سال ۲۰۲۳، حدود ۵۰۰۰۰۰ ویدیو و صدای دیپفیک در شبکههای اجتماعی سراسر جهان به اشتراک گذاشته شد. علاوه بر دیپفیک برای سرگرمی، ترفندهایی نیز توسط افراد شرور برای کلاهبرداری از جامعه ایجاد شده است. طبق منابع، در سال ۲۰۲۲، تخمین زده میشود که کلاهبرداریهای دیپفیک در سراسر جهان تا ۱۱ میلیون دلار آمریکا ضرر ایجاد کرده است.
بسیاری از کارشناسان فناوری در مورد اثرات منفی هوش مصنوعی، از جمله حقوق مالکیت معنوی و اصالت، و در ادامه، اختلافات مالکیت معنوی بین «آثار» خلق شده توسط هوش مصنوعی هشدار دادهاند. به عنوان مثال، یک نفر از یک برنامه هوش مصنوعی میخواهد که یک نقاشی با موضوع خاص بکشد، اما شخص دیگری از هوش مصنوعی میخواهد که همین کار را انجام دهد و در نتیجه نقاشیهایی با شباهتهای فراوان ایجاد میشود.
این امر به احتمال زیاد منجر به اختلافاتی بر سر مالکیت خواهد شد. با این حال، تا به امروز، جهان هنوز تصمیمی در مورد به رسمیت شناختن حق چاپ برای محتوای تولید شده توسط هوش مصنوعی (به رسمیت شناختن حق چاپ برای افرادی که هوش مصنوعی خلاق سفارش میدهند یا شرکتهایی که برنامههای کاربردی هوش مصنوعی را توسعه میدهند) نگرفته است.
تصویری که توسط یک برنامه هوش مصنوعی تولید شده است
تشخیص واقعی و تقلبی سخته
بنابراین آیا محتوای تولید شده توسط هوش مصنوعی میتواند حق چاپ را نقض کند؟ از نظر فناوری، محتوای تولید شده توسط هوش مصنوعی توسط الگوریتمهایی از دادههایی که بر اساس آنها آموزش دیده است، سنتز میشود. این پایگاههای داده توسط توسعهدهندگان برنامههای هوش مصنوعی از منابع مختلف، عمدتاً از پایگاه دانش اینترنت، جمعآوری میشوند. بسیاری از این آثار دارای حق چاپ برای صاحبان آنها هستند.
در ۲۷ دسامبر ۲۰۲۳، روزنامه نیویورک تایمز (ایالات متحده آمریکا) از OpenAI (با ChatGPT) و مایکروسافت شکایت کرد و ادعا کرد که میلیونها مقاله آنها برای آموزش چتباتهای هوش مصنوعی و پلتفرمهای هوش مصنوعی این دو شرکت استفاده شده است. شواهد نشان میدهد که محتوایی وجود دارد که توسط چتباتها به درخواست کاربران ایجاد شده است که مشابه یا یکسان با محتوای مقالات است. این روزنامه نمیتواند نادیده بگیرد که "مالکیت معنوی" آنها توسط شرکتها برای سودآوری استفاده میشود.
نیویورک تایمز اولین روزنامه بزرگ آمریکایی است که در رابطه با هوش مصنوعی، دادخواستی مبنی بر نقض حق کپیرایت ارائه داده است. این احتمال وجود دارد که سایر روزنامهها نیز در آینده، به ویژه پس از موفقیت نیویورک تایمز، از این اقدام پیروی کنند.
پیش از این، OpenAI در ژوئیه ۲۰۲۳ با خبرگزاری آسوشیتدپرس و در دسامبر ۲۰۲۳ با اکسل اشپرینگر - ناشر آلمانی که صاحب دو روزنامه پولیتیکو و بیزینس اینسایدر است - به توافقنامهای برای صدور مجوز کپیرایت دست یافته بود.
سارا سیلورمن، بازیگر، نیز در ژوئیه ۲۰۲۳ به دو پرونده حقوقی پیوست که در آنها متا و اوپنایآی به استفاده از خاطراتش به عنوان متن آموزشی برای برنامههای هوش مصنوعی متهم شده بودند. بسیاری از نویسندگان نیز وقتی فاش شد که سیستمهای هوش مصنوعی دهها هزار کتاب را در پایگاههای داده خود جذب کردهاند، ابراز نگرانی کردند و این امر منجر به طرح دعوی از سوی نویسندگانی مانند جاناتان فرانزن و جان گریشام شد.
در همین حال، سرویس عکس گتی ایمیجز نیز از یک شرکت هوش مصنوعی به دلیل ایجاد تصاویر بر اساس پیامهای متنی به دلیل استفاده غیرمجاز از مطالب تصویری دارای حق چاپ این شرکت شکایت کرده است...
کاربران ممکن است وقتی «بیدقت» از «آثاری» که از ابزارهای هوش مصنوعی خواستهاند «بسازند» استفاده کنند، با مشکلات حق نشر مواجه شوند. کارشناسان همیشه استفاده از ابزارهای هوش مصنوعی را فقط برای جستجو، جمعآوری دادهها و ارائه پیشنهاد برای اهداف مرجع توصیه میکنند.
از سوی دیگر، برنامههای هوش مصنوعی وقتی کاربران نمیتوانند بین درست و غلط بودن یک محتوای خاص تمایز قائل شوند، آنها را گیج میکنند. ناشران و دفاتر روزنامه ممکن است هنگام دریافت نسخههای خطی گیج شوند. معلمان نیز در دانستن اینکه آیا کار دانشآموزان از هوش مصنوعی استفاده میکند یا خیر، مشکل دارند.
اکنون جامعه باید هوشیارتر باشد زیرا مشخص نیست چه چیزی واقعی و چه چیزی جعلی است. به عنوان مثال، برای یک فرد عادی تشخیص اینکه آیا یک عکس توسط هوش مصنوعی "جادو" شده یا ویرایش شده است، دشوار خواهد بود.
مقررات قانونی در مورد استفاده از هوش مصنوعی مورد نیاز است
در حالی که منتظر ابزارهای کاربردی هستیم که بتوانند مداخله هوش مصنوعی را تشخیص دهند، سازمانهای مدیریتی باید به زودی مقررات قانونی روشن و مشخصی در مورد استفاده از این فناوری برای ایجاد محتوای خصوصی داشته باشند. مقررات قانونی باید به همه نشان دهد که محتوا و آثار توسط هوش مصنوعی مداخله شدهاند، مانند الصاق یک واترمارک به طور پیشفرض به تصاویری که توسط هوش مصنوعی دستکاری شدهاند.
منبع: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm
نظر (0)