توسعه پاسخگویی عامل مهمی در ترویج هوش مصنوعیِ به طور فزاینده مفید است. عکس از بلومبرگ |
هوش مصنوعی مولد در حال تغییر بسیاری از زمینهها است. در آموزش ، هوش مصنوعی از یادگیری پشتیبانی میکند، سرقت ادبی را تشخیص میدهد و به تدریس کمک میکند. در حوزه پزشکی، هوش مصنوعی از تشخیص تصویر پشتیبانی میکند، رژیمهای درمانی و تحقیقات دارویی را شخصیسازی میکند. این ابزار همچنین تولید خودکار محتوا را ارتقا میدهد، از مراقبت از مشتری پشتیبانی میکند و "KOL های مجازی" را در تجارت و بازاریابی ایجاد میکند.
در کنار مزایا، گسترش هوش مصنوعی مولد، نگرانیهای اخلاقی را نیز افزایش میدهد، زیرا این ابزار میتواند تعصب را تقویت کرده و اطلاعات نادرست را منتشر کند. هوش مصنوعی همچنین پتانسیل به خطر انداختن حریم خصوصی، امنیت دادهها و ثبات نیروی کار را دارد.
ویتنام، مانند بسیاری از کشورهای جهان ، در حال ظهور در زمینه کاربرد هوش مصنوعی مولد است. برای اینکه هوش مصنوعی به جای مضر بودن برای انسان، به ابزاری مفید تبدیل شود، توسعه مسئولانه هوش مصنوعی یکی از وظایف مهم است.
روندهای هوش مصنوعی مسئولانه
دکتر سم گوندار، مدرس ارشد فناوری اطلاعات در دانشگاه RMIT ویتنام، برخی از جنجالهای پیرامون اخلاق هوش مصنوعی مولد را به یاد میآورد. از رسوایی فیلمهای پورن تیلور سویفت، جعل هویت جو بایدن، رئیس جمهور سابق آمریکا، گرفته تا کلاهبرداری دانشگاهی با استفاده از هوش مصنوعی.
«نگرانکنندهتر مواردی از تحریک خودکشی توسط چتباتها، ایجاد محتوای کودکآزاری، تشویق به ترور، الگوریتمهای استخدام مغرضانه یا سوءاستفاده از آسیبپذیریهای امنیتی توسط هوش مصنوعی است.»
دکتر گوندار اظهار داشت: «این مسائل، نیاز به یک رویکرد انسانمحور، به حداقل رساندن سوءاستفاده از هوش مصنوعی و محافظت از منافع فردی و اجتماعی را برجسته میکند.»
صفحه ابزار Microsoft Copilot. عکس: بلومبرگ. |
به گفته دکتر گوندار، سال ۲۰۲۵ شاهد روندی به سمت هوش مصنوعی مسئولیتپذیر و انسانمحور خواهیم بود. با افزایش نگرانیها در مورد تعصب، اطلاعات نادرست و خطرات اخلاقی، فناوری هوش مصنوعی شفاف (XAI) در اولویت قرار گرفته و به کاربران کمک میکند تا نحوه تصمیمگیری هوش مصنوعی را درک کنند.
چندین کشور مانند ایالات متحده، کانادا، استرالیا، چین، ژاپن و ... شروع به اتخاذ مقررات هوش مصنوعی برای مدیریت و تضمین استقرار اخلاقی هوش مصنوعی در سراسر صنعت کردهاند.
روند دیگر، هوش مصنوعی ترکیبی است، مدلی که هوش مصنوعی و انسان را با هم ترکیب میکند و ممکن است در سال ۲۰۲۵ توسعه یابد.
در توسعه پایدار، هوش مصنوعی میتواند به مقابله با تغییرات اقلیمی و ترویج فناوری سبز کمک کند. علاوه بر این، هوش مصنوعی کاربردهای خود را در امنیت سایبری گسترش خواهد داد و به افزایش توانایی تجزیه و تحلیل خطرات و پاسخ به تهدیدات در فضای دیجیتال کمک خواهد کرد.
دکتر گوندار تأکید کرد: «با افزایش سرعت پذیرش هوش مصنوعی، حصول اطمینان از مدیریت مسئولانه هوش مصنوعی برای بهینهسازی مزایای فناوری و کاهش خطرات احتمالی ضروری است.»
راهکارهای توسعه هوش مصنوعی مسئولانه
ویتنام یکی از کشورهایی است که به طور فعال در زمینه هوش مصنوعی نوآوری میکند. بنابراین، تضمین توسعه اخلاقی هوش مصنوعی نقش مهمی ایفا میکند و از الگوریتمهای جانبدارانه هوش مصنوعی، خطرات حریم خصوصی و از دست دادن اعتماد عمومی جلوگیری میکند.
دکتر گوندار برای توسعه هوش مصنوعی مطابق با اصول اخلاقی، راهکارهایی مانند سرمایهگذاری در تحقیقات در زمینه اخلاق هوش مصنوعی و همکاری با دانشگاهها برای تدوین یک چارچوب قانونی برای استقرار مسئولانه هوش مصنوعی را پیشنهاد کرد.
در مرحلهی بعد، ادغام اخلاق هوش مصنوعی در برنامههای درسی دانشگاهها و گسترش برنامههای آموزشی هوش مصنوعی برای رهبران کسبوکار، مربیان و سیاستگذاران را در نظر بگیرید.
ترویج مسئولیتپذیری و اخلاق به هوش مصنوعی کمک میکند تا به ابزاری مفید برای انسانها تبدیل شود. عکس: بلومبرگ. |
افزایش آگاهی عمومی نیز مهم است و به افراد و مشاغل کمک میکند تا تأثیر هوش مصنوعی بر حریم خصوصی را درک کنند. علاوه بر این، میتواند به جای تمرکز صرف بر سود، استفاده از هوش مصنوعی را برای اهداف اجتماعی مانند سلامت ، محیط زیست و آموزش تشویق کند.
علاوه بر آموزش و افزایش آگاهی، چارچوبهای قانونی نیز نقش مهمی در حفظ توسعه مسئولانه هوش مصنوعی ایفا میکنند.
کارشناسان دانشگاه RMIT ویتنام راهکارهای متعددی از جمله اعمال مقررات سختگیرانهتر در مورد هوش مصنوعی، نزدیک شدن به مدلهای بینالمللی مدیریت هوش مصنوعی، راهاندازی گواهینامه اخلاقی هوش مصنوعی و همچنین ایجاد یک سیستم طبقهبندی و حسابرسی ریسک هوش مصنوعی برای ارزیابی و آزمایش سیستمهای پرخطر را پیشنهاد کردند.
دکتر گوندار تأکید کرد: «از آنجایی که ویتنام قصد دارد تا سال ۲۰۳۰ به یک قدرت منطقهای در حوزه هوش مصنوعی تبدیل شود، موفقیت آن نه تنها به پیشرفت فناوری، بلکه به مقررات قوی، سرمایهگذاری اخلاقی در حوزه هوش مصنوعی و آگاهی عمومی برای مقابله با خطرات احتمالی نیز بستگی دارد.»
منبع: https://znews.vn/xu-huong-ai-moi-cua-nam-2025-post1538816.html
نظر (0)