Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

جنبه‌های تاریک کاربردهای هوش مصنوعی

Người Lao ĐộngNgười Lao Động28/02/2024


پس از آنکه شرکت نوپای OpenAI اولین اپلیکیشن هوش مصنوعی خود، ChatGPT، را در اواخر سال 2022 عرضه کرد، موجی از رقابت برای توسعه اپلیکیشن‌های هوش مصنوعی، به ویژه هوش مصنوعی مولد، آغاز شد که راحتی‌های زیادی را در همه زمینه‌های زندگی به ارمغان می‌آورد. با این حال، این امر خطرات زیادی را نیز به همراه دارد.

تجاوز به حریم خصوصی

در سال‌های اخیر، بسیاری از سازمان‌ها و افراد، زمانی که مجرمان سایبری از هوش مصنوعی برای ایجاد کلیپ‌های ویدیویی که تصاویر و صدای افراد واقعی را جعل می‌کردند، استفاده کردند، متحمل ضرر و زیان شده‌اند. یک نمونه از این موارد، ترفند دیپ‌فیک است.

طبق گزارش کلاهبرداری هویتی که توسط سام‌ساب در پایان نوامبر ۲۰۲۳ منتشر شد، کلاهبرداری‌های دیپ‌فیک در سطح جهانی در سال‌های ۲۰۲۲-۲۰۲۳ ده برابر افزایش یافته است. این همچنین زمانی است که برنامه‌های هوش مصنوعی در جهان به طور انفجاری گسترش یافتند.

Status Labs خاطرنشان می‌کند که دیپ‌فیک تأثیر عمده‌ای بر فرهنگ، حریم خصوصی و اعتبار شخصی داشته است. بخش عمده‌ای از اخبار و توجهات پیرامون دیپ‌فیک بر پورنوگرافی افراد مشهور، پورن انتقامی، اطلاعات نادرست، اخبار جعلی، باج‌گیری و کلاهبرداری متمرکز شده است. به عنوان مثال، در سال ۲۰۱۹، یک شرکت انرژی آمریکایی توسط هکری که تصویر و صدای مدیران شرکت را جعل کرده و از کارمندان خواسته بود پول را به شرکا منتقل کنند، ۲۴۳۰۰۰ دلار کلاهبرداری شد.

رویترز گزارش داد که در سال ۲۰۲۳، حدود ۵۰۰۰۰۰ ویدیو و صدای دیپ‌فیک در شبکه‌های اجتماعی سراسر جهان به اشتراک گذاشته شد. علاوه بر دیپ‌فیک برای سرگرمی، ترفندهایی نیز توسط افراد شرور برای کلاهبرداری از جامعه ایجاد شده است. طبق منابع، در سال ۲۰۲۲، تخمین زده می‌شود که کلاهبرداری‌های دیپ‌فیک در سراسر جهان تا ۱۱ میلیون دلار آمریکا ضرر ایجاد کرده است.

بسیاری از کارشناسان فناوری در مورد اثرات منفی هوش مصنوعی، از جمله حقوق مالکیت معنوی و اصالت، و در ادامه، اختلافات مالکیت معنوی بین «آثار» خلق شده توسط هوش مصنوعی هشدار داده‌اند. به عنوان مثال، یک نفر از یک برنامه هوش مصنوعی می‌خواهد که یک نقاشی با موضوع خاص بکشد، اما شخص دیگری از هوش مصنوعی می‌خواهد که همین کار را انجام دهد و در نتیجه نقاشی‌هایی با شباهت‌های فراوان ایجاد می‌شود.

این امر به احتمال زیاد منجر به اختلافاتی بر سر مالکیت خواهد شد. با این حال، تا به امروز، جهان هنوز تصمیمی در مورد به رسمیت شناختن حق چاپ برای محتوای تولید شده توسط هوش مصنوعی (به رسمیت شناختن حق چاپ برای افرادی که هوش مصنوعی خلاق سفارش می‌دهند یا شرکت‌هایی که برنامه‌های کاربردی هوش مصنوعی را توسعه می‌دهند) نگرفته است.

Một hình ảnh được tạo bởi ứng dụng AI

تصویری که توسط یک برنامه هوش مصنوعی تولید شده است

تشخیص واقعی و تقلبی سخته

بنابراین آیا محتوای تولید شده توسط هوش مصنوعی می‌تواند حق چاپ را نقض کند؟ از نظر فناوری، محتوای تولید شده توسط هوش مصنوعی توسط الگوریتم‌هایی از داده‌هایی که بر اساس آنها آموزش دیده است، سنتز می‌شود. این پایگاه‌های داده توسط توسعه‌دهندگان برنامه‌های هوش مصنوعی از منابع مختلف، عمدتاً از پایگاه دانش اینترنت، جمع‌آوری می‌شوند. بسیاری از این آثار دارای حق چاپ برای صاحبان آنها هستند.

در ۲۷ دسامبر ۲۰۲۳، روزنامه نیویورک تایمز (ایالات متحده آمریکا) از OpenAI (با ChatGPT) و مایکروسافت شکایت کرد و ادعا کرد که میلیون‌ها مقاله آنها برای آموزش چت‌بات‌های هوش مصنوعی و پلتفرم‌های هوش مصنوعی این دو شرکت استفاده شده است. شواهد نشان می‌دهد که محتوایی وجود دارد که توسط چت‌بات‌ها به درخواست کاربران ایجاد شده است که مشابه یا یکسان با محتوای مقالات است. این روزنامه نمی‌تواند نادیده بگیرد که "مالکیت معنوی" آنها توسط شرکت‌ها برای سودآوری استفاده می‌شود.

نیویورک تایمز اولین روزنامه بزرگ آمریکایی است که در رابطه با هوش مصنوعی، دادخواستی مبنی بر نقض حق کپی‌رایت ارائه داده است. این احتمال وجود دارد که سایر روزنامه‌ها نیز در آینده، به ویژه پس از موفقیت نیویورک تایمز، از این اقدام پیروی کنند.

پیش از این، OpenAI در ژوئیه ۲۰۲۳ با خبرگزاری آسوشیتدپرس و در دسامبر ۲۰۲۳ با اکسل اشپرینگر - ناشر آلمانی که صاحب دو روزنامه پولیتیکو و بیزینس اینسایدر است - به توافق‌نامه‌ای برای صدور مجوز کپی‌رایت دست یافته بود.

سارا سیلورمن، بازیگر، نیز در ژوئیه ۲۰۲۳ به دو پرونده حقوقی پیوست که در آنها متا و اوپن‌ای‌آی به استفاده از خاطراتش به عنوان متن آموزشی برای برنامه‌های هوش مصنوعی متهم شده بودند. بسیاری از نویسندگان نیز وقتی فاش شد که سیستم‌های هوش مصنوعی ده‌ها هزار کتاب را در پایگاه‌های داده خود جذب کرده‌اند، ابراز نگرانی کردند و این امر منجر به طرح دعوی از سوی نویسندگانی مانند جاناتان فرانزن و جان گریشام شد.

در همین حال، سرویس عکس گتی ایمیجز نیز از یک شرکت هوش مصنوعی به دلیل ایجاد تصاویر بر اساس پیام‌های متنی به دلیل استفاده غیرمجاز از مطالب تصویری دارای حق چاپ این شرکت شکایت کرده است...

کاربران ممکن است وقتی «بی‌دقت» از «آثاری» که از ابزارهای هوش مصنوعی خواسته‌اند «بسازند» استفاده کنند، با مشکلات حق نشر مواجه شوند. کارشناسان همیشه استفاده از ابزارهای هوش مصنوعی را فقط برای جستجو، جمع‌آوری داده‌ها و ارائه پیشنهاد برای اهداف مرجع توصیه می‌کنند.

از سوی دیگر، برنامه‌های هوش مصنوعی وقتی کاربران نمی‌توانند بین درست و غلط بودن یک محتوای خاص تمایز قائل شوند، آنها را گیج می‌کنند. ناشران و دفاتر روزنامه ممکن است هنگام دریافت نسخه‌های خطی گیج شوند. معلمان نیز در دانستن اینکه آیا کار دانش‌آموزان از هوش مصنوعی استفاده می‌کند یا خیر، مشکل دارند.

اکنون جامعه باید هوشیارتر باشد زیرا مشخص نیست چه چیزی واقعی و چه چیزی جعلی است. به عنوان مثال، برای یک فرد عادی تشخیص اینکه آیا یک عکس توسط هوش مصنوعی "جادو" شده یا ویرایش شده است، دشوار خواهد بود.

مقررات قانونی در مورد استفاده از هوش مصنوعی مورد نیاز است

در حالی که منتظر ابزارهای کاربردی هستیم که بتوانند مداخله هوش مصنوعی را تشخیص دهند، سازمان‌های مدیریتی باید به زودی مقررات قانونی روشن و مشخصی در مورد استفاده از این فناوری برای ایجاد محتوای خصوصی داشته باشند. مقررات قانونی باید به همه نشان دهد که محتوا و آثار توسط هوش مصنوعی مداخله شده‌اند، مانند الصاق یک واترمارک به طور پیش‌فرض به تصاویری که توسط هوش مصنوعی دستکاری شده‌اند.



منبع: https://nld.com.vn/mat-trai-cua-ung-dung-tri-tue-nhan-tao-196240227204333618.htm

نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

Y Ty با رنگ طلایی فصل برنج رسیده درخشان است
خیابان قدیمی هانگ ما برای استقبال از جشنواره نیمه پاییز «لباس خود را تغییر می‌دهد»
تپه سیم بنفش سوئی بون در میان دریای شناور ابرها در سون لا شکوفا می‌شود.
گردشگران به Y Ty هجوم می‌آورند و غرق در زیباترین مزارع پلکانی شمال غربی می‌شوند.

از همان نویسنده

میراث

شکل

کسب و کار

No videos available

اخبار

نظام سیاسی

محلی

محصول