ویتنام اولین مجموعه قوانین اخلاق هوش مصنوعی خود را منتشر کرد

انتظار می‌رود هوش مصنوعی (AI) مزایای زیادی برای مردم، جامعه و اقتصاد ویتنام به همراه داشته باشد. ویتنام در کنار کاربرد هوش مصنوعی، در ابتدا تحقیقات و اقداماتی را برای به حداقل رساندن خطرات در فرآیند توسعه و استفاده از هوش مصنوعی انجام داده و عوامل اقتصادی، اخلاقی و قانونی را متعادل کرده است.

به همین دلیل است که وزارت علوم و فناوری (MOST) مجموعه‌ای از اسناد را منتشر کرده است که تعدادی از اصول مربوط به تحقیق و توسعه مسئولانه سیستم‌های هوش مصنوعی را هدایت می‌کند.

این سند راهنما، تعدادی از اصول کلی و توصیه‌های داوطلبانه را برای ارجاع و کاربرد در تحقیق، طراحی، توسعه و ارائه سیستم‌های هوش مصنوعی ارائه می‌دهد.

از آژانس‌های علمی و فناوری، سازمان‌ها، مشاغل و افرادی که در تحقیق، طراحی، توسعه و ارائه سیستم‌های هوش مصنوعی فعالیت دارند، دعوت می‌شود تا این سند راهنما را به کار گیرند.

W-vien-han-lam-minh-hoa-ai-tri-tue-nhan-tao-1.jpg
مدل‌های ربات آکادمی علوم و فناوری ویتنام در نمایشگاه بین‌المللی نوآوری ویتنام ۲۰۲۳. عکس: ترونگ دات

بر این اساس، تحقیق و توسعه سیستم‌های هوش مصنوعی در ویتنام باید مبتنی بر دیدگاه اساسی حرکت به سمت جامعه‌ای انسان‌محور باشد، جایی که همه از مزایای هوش مصنوعی بهره‌مند می‌شوند و تعادل معقولی بین مزایا و خطرات آن برقرار می‌شود.

فعالیت‌های تحقیق و توسعه سیستم‌های هوش مصنوعی در ویتنام با هدف تضمین بی‌طرفی فناوری انجام می‌شود. در همه موارد، وزارت علوم و فناوری، تبادل نظر و بحث با مشارکت طرف‌های ذی‌ربط را تشویق می‌کند. اصول و دستورالعمل‌ها همچنان مورد تحقیق و به‌روزرسانی قرار خواهند گرفت تا با موقعیت‌های عملی مطابقت داشته باشند.

وزارت علوم و فناوری اعلام کرد که هدف از تدوین این مجموعه اسناد، ارتقای علاقه به تحقیق، توسعه و استفاده از هوش مصنوعی در ویتنام به شیوه‌ای ایمن و مسئولانه و به حداقل رساندن تأثیرات منفی بر مردم و جامعه است. این امر اعتماد کاربران و جامعه را به هوش مصنوعی افزایش داده و تحقیق و توسعه هوش مصنوعی در ویتنام را تسهیل می‌کند.

اصول توسعه مسئولانه هوش مصنوعی

در این سند، توسعه‌دهندگان تشویق می‌شوند تا روحیه همکاری را نشان دهند و از طریق اتصال و تعامل سیستم‌های هوش مصنوعی، نوآوری را ارتقا دهند. توسعه‌دهندگان باید با کنترل ورودی/خروجی سیستم‌های هوش مصنوعی و توانایی توضیح تجزیه و تحلیل‌های مربوطه، شفافیت را تضمین کنند.

توسعه‌دهندگان باید به توانایی کنترل سیستم‌های هوش مصنوعی توجه کنند و خطرات مربوط به آن را از قبل ارزیابی کنند. یکی از روش‌های ارزیابی ریسک، انجام آزمایش در فضایی جداگانه مانند آزمایشگاه یا محیطی است که امنیت و ایمنی آن قبل از به‌کارگیری عملی تضمین شده باشد.

علاوه بر این، برای اطمینان از کنترل‌پذیری سیستم‌های هوش مصنوعی، توسعه‌دهندگان باید به نظارت بر سیستم (داشتن ابزارهای ارزیابی/نظارت یا تنظیم/به‌روزرسانی بر اساس بازخورد کاربر) و اقدامات واکنشی (خاموش کردن سیستم، خاموش کردن شبکه و غیره) که توسط انسان‌ها یا سیستم‌های هوش مصنوعی مورد اعتماد انجام می‌شود، توجه کنند.

آی آی آی عنان ۳.jpg
یک جوان از "ربات" هوش مصنوعی آنان که توسط مهندسان ویتنامی ساخته شده است، سوالی می‌پرسد. عکس: ترونگ دات

توسعه‌دهندگان باید اطمینان حاصل کنند که سیستم هوش مصنوعی به جان، جسم یا اموال کاربران یا اشخاص ثالث، از جمله از طریق واسطه‌ها، آسیبی نمی‌رساند؛ باید به امنیت سیستم هوش مصنوعی، قابلیت اطمینان و توانایی سیستم در مقاومت در برابر حملات فیزیکی یا حوادث توجه کنند؛ باید اطمینان حاصل کنند که سیستم هوش مصنوعی حریم خصوصی کاربران یا اشخاص ثالث را نقض نمی‌کند. حقوق حریم خصوصی ذکر شده در این اصل شامل حق حریم خصوصی فضا (آرامش در زندگی شخصی)، حق حریم خصوصی اطلاعات (داده‌های شخصی) و محرمانگی ارتباطات است.

هنگام توسعه سیستم‌های هوش مصنوعی، توسعه‌دهندگان باید توجه ویژه‌ای به احترام به حقوق و کرامت انسانی داشته باشند. تا حد امکان، بسته به ویژگی‌های فناوری مورد استفاده، توسعه‌دهندگان باید اقداماتی را انجام دهند تا اطمینان حاصل شود که به دلیل تعصب (پیشداوری) در داده‌های آموزشی، تبعیض یا بی‌عدالتی ایجاد نمی‌کنند. نه تنها این، بلکه توسعه‌دهندگان باید مسئولیت‌پذیری خود را در قبال ذینفعان اعمال کرده و از کاربران حمایت کنند.

روزنامه‌نگاران در عصر ۴.۰ نباید «قطار پرسرعت» هوش مصنوعی را از دست بدهند. روزنامه‌نگاران به جای تردید و ترس از هوش مصنوعی، باید به طور فعال هوش مصنوعی را وارد عملیات اتاق‌های خبر کنند.