ویتنام اولین مجموعه قوانین اخلاق هوش مصنوعی خود را منتشر کرد
انتظار میرود هوش مصنوعی (AI) مزایای زیادی برای مردم، جامعه و اقتصاد ویتنام به همراه داشته باشد. ویتنام در کنار کاربرد هوش مصنوعی، در ابتدا تحقیقات و اقداماتی را برای به حداقل رساندن خطرات در فرآیند توسعه و استفاده از هوش مصنوعی انجام داده و عوامل اقتصادی، اخلاقی و قانونی را متعادل کرده است.
به همین دلیل است که وزارت علوم و فناوری (MOST) مجموعهای از اسناد را منتشر کرده است که تعدادی از اصول مربوط به تحقیق و توسعه مسئولانه سیستمهای هوش مصنوعی را هدایت میکند.
این سند راهنما، تعدادی از اصول کلی و توصیههای داوطلبانه را برای ارجاع و کاربرد در تحقیق، طراحی، توسعه و ارائه سیستمهای هوش مصنوعی ارائه میدهد.
از آژانسهای علمی و فناوری، سازمانها، مشاغل و افرادی که در تحقیق، طراحی، توسعه و ارائه سیستمهای هوش مصنوعی فعالیت دارند، دعوت میشود تا این سند راهنما را به کار گیرند.

بر این اساس، تحقیق و توسعه سیستمهای هوش مصنوعی در ویتنام باید مبتنی بر دیدگاه اساسی حرکت به سمت جامعهای انسانمحور باشد، جایی که همه از مزایای هوش مصنوعی بهرهمند میشوند و تعادل معقولی بین مزایا و خطرات آن برقرار میشود.
فعالیتهای تحقیق و توسعه سیستمهای هوش مصنوعی در ویتنام با هدف تضمین بیطرفی فناوری انجام میشود. در همه موارد، وزارت علوم و فناوری، تبادل نظر و بحث با مشارکت طرفهای ذیربط را تشویق میکند. اصول و دستورالعملها همچنان مورد تحقیق و بهروزرسانی قرار خواهند گرفت تا با موقعیتهای عملی مطابقت داشته باشند.
وزارت علوم و فناوری اعلام کرد که هدف از تدوین این مجموعه اسناد، ارتقای علاقه به تحقیق، توسعه و استفاده از هوش مصنوعی در ویتنام به شیوهای ایمن و مسئولانه و به حداقل رساندن تأثیرات منفی بر مردم و جامعه است. این امر اعتماد کاربران و جامعه را به هوش مصنوعی افزایش داده و تحقیق و توسعه هوش مصنوعی در ویتنام را تسهیل میکند.
اصول توسعه مسئولانه هوش مصنوعی
در این سند، توسعهدهندگان تشویق میشوند تا روحیه همکاری را نشان دهند و از طریق اتصال و تعامل سیستمهای هوش مصنوعی، نوآوری را ارتقا دهند. توسعهدهندگان باید با کنترل ورودی/خروجی سیستمهای هوش مصنوعی و توانایی توضیح تجزیه و تحلیلهای مربوطه، شفافیت را تضمین کنند.
توسعهدهندگان باید به توانایی کنترل سیستمهای هوش مصنوعی توجه کنند و خطرات مربوط به آن را از قبل ارزیابی کنند. یکی از روشهای ارزیابی ریسک، انجام آزمایش در فضایی جداگانه مانند آزمایشگاه یا محیطی است که امنیت و ایمنی آن قبل از بهکارگیری عملی تضمین شده باشد.
علاوه بر این، برای اطمینان از کنترلپذیری سیستمهای هوش مصنوعی، توسعهدهندگان باید به نظارت بر سیستم (داشتن ابزارهای ارزیابی/نظارت یا تنظیم/بهروزرسانی بر اساس بازخورد کاربر) و اقدامات واکنشی (خاموش کردن سیستم، خاموش کردن شبکه و غیره) که توسط انسانها یا سیستمهای هوش مصنوعی مورد اعتماد انجام میشود، توجه کنند.

توسعهدهندگان باید اطمینان حاصل کنند که سیستم هوش مصنوعی به جان، جسم یا اموال کاربران یا اشخاص ثالث، از جمله از طریق واسطهها، آسیبی نمیرساند؛ باید به امنیت سیستم هوش مصنوعی، قابلیت اطمینان و توانایی سیستم در مقاومت در برابر حملات فیزیکی یا حوادث توجه کنند؛ باید اطمینان حاصل کنند که سیستم هوش مصنوعی حریم خصوصی کاربران یا اشخاص ثالث را نقض نمیکند. حقوق حریم خصوصی ذکر شده در این اصل شامل حق حریم خصوصی فضا (آرامش در زندگی شخصی)، حق حریم خصوصی اطلاعات (دادههای شخصی) و محرمانگی ارتباطات است.
هنگام توسعه سیستمهای هوش مصنوعی، توسعهدهندگان باید توجه ویژهای به احترام به حقوق و کرامت انسانی داشته باشند. تا حد امکان، بسته به ویژگیهای فناوری مورد استفاده، توسعهدهندگان باید اقداماتی را انجام دهند تا اطمینان حاصل شود که به دلیل تعصب (پیشداوری) در دادههای آموزشی، تبعیض یا بیعدالتی ایجاد نمیکنند. نه تنها این، بلکه توسعهدهندگان باید مسئولیتپذیری خود را در قبال ذینفعان اعمال کرده و از کاربران حمایت کنند.
منبع: https://vietnamnet.vn/viet-nam-ra-nguyen-tac-ai-khong-duoc-gay-ton-hai-tinh-mang-tai-san-nguoi-dung-2292026.html






نظر (0)