در فعالیتهای هوش مصنوعی نیاز به مقررات اخلاقی وجود دارد.
صبح روز ۲۱ نوامبر، به نمایندگی از کمیته علوم ، فناوری و محیط زیست (KH,CN&MT)، نگوین تان های، رئیس کمیته ، ضمن ارائه گزارش بررسی پروژه قانون هوش مصنوعی (AI)، اظهار داشت: ماده ۲۷ پیشنویس قانون، در ابتدا اصول اساسی را مطابق با رویههای بینالمللی مانند احترام به مردم، شفافیت، انصاف، عدم آسیب و حفاظت از حریم خصوصی تعیین کرده است.
با این حال، کمیته علوم، فناوری و محیط زیست دریافت که در بسیاری از کشورها، فرآیند تدوین سیاستهای مربوط به هوش مصنوعی اغلب با اعلام چارچوبهای اخلاقی و اصول راهنما آغاز میشود و پس از آن، ارزیابی شیوهها برای نهایی شدن و حرکت به سمت قانونگذاری انجام میشود.
بر این اساس، کمیته علوم، فناوری و محیط زیست پیشنهاد داد که آژانس تدوینکننده ، اصول کلی اخلاق را مطالعه و تکمیل کند تا دولت به تفصیل مشخص کند که در آن به ارزشهای یونسکو و OECD، از جمله اصول احترام به مردم، انصاف، ایمنی، شفافیت، پاسخگویی و توسعه پایدار، اشاره شده است؛ مشاغل را تشویق کنید تا مطابق با این چارچوب، قانون اخلاق هوش مصنوعی داخلی خود را تدوین کنند و آن را طبق دستورالعمل، در اختیار سازمانهای مدیریت دولتی قرار دهند.

بازدیدکنندگان از مدل ربات انساننما که در نمایشگاه A80 به نمایش گذاشته شده است، لذت میبرند. عکس تزئینی
همزمان، در مورد افزودن اصل «پاسخگویی ذینفعان در قبال تأثیرات اخلاقی و اجتماعی سیستمهای هوش مصنوعی در سراسر فرآیند از تحقیق تا استفاده از سیستم» تحقیق کنید؛ رابطه بین قوانین اخلاقی (توصیه) و تعهدات قانونی (اجباری) را روشن کنید.
علاوه بر این، طبق نظر کمیته علوم، فناوری و محیط زیست، ماده ۲۸ پیشنویس قانون فقط مسئولیتهای اخلاقی را برای بخش دولتی تصریح میکند، در حالی که کاربردهای هوش مصنوعی در بخش خصوصی (مانند مراقبتهای بهداشتی، مالی، آموزش و غیره) نیز میتوانند تأثیرات اجتماعی و اخلاقی مشابهی ایجاد کنند. بنابراین، توصیه میشود که سازمان تدوینکننده پیشنویس ، ضمن تضمین جامعیت مفاد قانون، در مورد مسئولیتهای اخلاقی در بخش خصوصی تحقیق و افزودن مفاد را در نظر بگیرد.
اضافه کردن مقررات خاص برای محافظت از کودکان
رئیس کمیته علوم، فناوری و محیط زیست، نگوین تان های، در گزارش بررسی پروژه حقوقی به روشنی بیان کرد: برای افراد آسیبپذیر مانند کودکان، هوش مصنوعی جنبههای منفی نگرانکنندهای نیز دارد، مانند: وقتی کودکان برای یافتن پاسخها یا حل تمرینها بیش از حد به هوش مصنوعی متکی باشند، در معرض خطر از دست دادن فرصت تمرین توانایی تفکر مستقل، تجزیه و تحلیل و خلاقیت قرار میگیرند؛ مستعد رفتارهای انحرافی هستند؛ ممکن است هوش مصنوعی را با یک دوست واقعی اشتباه بگیرند و بر اساس توصیههای هوش مصنوعی که ممکن است نامناسب یا خطرناک باشد، عمل کنند؛ مورد دستکاری یا کلاهبرداری قرار گیرند...

قانون هوش مصنوعی باید مقررات جداگانهای داشته باشد تا از کودکان در برابر جنبههای منفی هوش مصنوعی محافظت کند و آنها را به استفاده ایمن و سالم از هوش مصنوعی هدایت کند. عکس تزئینی
رئیس کمیته علوم، فناوری و محیط زیست، نگوین تان های، اشاره کرد: قانون هوش مصنوعی ایتالیا تصریح میکند که افراد زیر ۱۴ سال فقط با رضایت والدین یا قیم خود میتوانند از هوش مصنوعی استفاده کنند؛ طبق یک پیشنهاد اخیر، کاربران در اتحادیه اروپا باید بالای ۱۶ سال سن داشته باشند تا بدون رضایت والدین از هوش مصنوعی استفاده کنند؛ قانون کنترل چتباتهای هوش مصنوعی ایالت کالیفرنیا (ایالات متحده آمریکا) تصریح میکند که پلتفرمهای هوش مصنوعی موظفند هر ۳ ساعت یکبار به کاربران زیر ۱۸ سال به وضوح اطلاع دهند که با یک چتبات چت میکنند، نه یک انسان.
بر این اساس، کمیته توصیه میکند که آژانس تدوینکننده، مقررات خاصی را برای محافظت از کودکان در برابر جنبههای منفی هوش مصنوعی مطالعه و تکمیل کند، کودکان را به استفاده ایمن و سالم از هوش مصنوعی هدایت کند، که در آن نقش و مسئولیت والدین و مدارس در نظارت و افزایش آگاهی کودکان از هوش مصنوعی ارتقا یابد.
منبع: https://phunuvietnam.vn/can-co-che-de-bao-ve-tre-em-truoc-cac-mat-trai-cua-ai-20251121112842757.htm






نظر (0)