وونگ تی هونگ، نماینده حاضر در این نشست، در سخنانی گفت که هوش مصنوعی در حال تبدیل شدن به فناوری پیشرفته انقلاب صنعتی ۴.۰ است و فرصتهای بزرگی را برای توسعه اجتماعی-اقتصادی ایجاد میکند، اما چالشهای زیادی را نیز از نظر مدیریت، اخلاق و ایمنی ایجاد میکند که مقررات قانونی فعلی به طور کامل آنها را پوشش نمیدهد. نمایندگان بر لزوم اعلام پروژه قانون هوش مصنوعی برای ایجاد یک محیط قانونی، دستیابی به موفقیت در توسعه هوش مصنوعی، ترویج نوآوری، افزایش رقابتپذیری ملی و در عین حال مدیریت خطرات، محافظت از منافع ملی و حقوق بشر توافق کردند.
![]() |
| نماینده وونگ تی هونگ در طول بحث صحبت میکند. |
در مورد دامنه مقررات و موضوعات کاربردی، نماینده تأکید کرد که این یک ماده اساسی است که موضوعات و دامنه تأثیر کل قانون را تعیین میکند. دامنه مقررات قانون، فعالیتهای «تحقیق، توسعه، ارائه، استقرار و استفاده» از سیستمهای هوش مصنوعی را تنظیم میکند، با این حال، موضوعات کاربردی قانون فقط سازمانها و افرادی را که فعالیتهای «توسعه، ارائه، استقرار و استفاده» از سیستمهای هوش مصنوعی دارند، ذکر میکند و به فعالیتهای «تحقیقاتی» اشارهای نمیکند. این ممکن است منجر به این برداشت شود که نهادهایی که تحقیقات محض در مورد هوش مصنوعی انجام میدهند، اگرچه ممکن است خطرات خاصی ایجاد شود، اما در محدوده مقررات قانون قرار نمیگیرند. نماینده پیشنهاد داد عبارت «تحقیق» به ماده ۲ اضافه شود تا از هماهنگی با ماده ۱ اطمینان حاصل شود.
در مورد تفسیر اصطلاح « مدل هوش مصنوعی همه منظوره متنباز» باید گفت که طبق پیشنویس، مدل متنباز تحت مجوزی منتشر میشود که به سازمانها و افراد اجازه میدهد آزادانه به اجزای اصلی، از جمله کد منبع، پارامترهای مدل و دادههای آموزشی، دسترسی، استفاده، اصلاح و توزیع مجدد داشته باشند. نمایندگان توصیه کردند که محتوای مجوز مدل متنباز شفافسازی شود و این مجوز به وضوح به عنوان مجوز اصلی صادر شده توسط مالک مدل تعریف شود. قانون ویتنام فقط چارچوب مدیریتی را تنظیم میکند و حقوق مالکیت معنوی دارنده حق را جایگزین، گسترش یا تنظیم نمیکند. در صورت اصلاح، ادغام یا توزیع مجدد مدل فراتر از مفاد مجوز اصلی، باید تأیید کتبی دارنده حق وجود داشته باشد.
در خصوص سیاست توسعه اکوسیستم و بازار هوش مصنوعی، نماینده گفت که در زمینه توسعه سریع هوش مصنوعی، اگر اصطلاح «سیستم هوش مصنوعی نسل جدید» به روشنی تعریف نشود، شناسایی موضوعات دارای اولویت و ذینفعان سیاستهای حمایتی دشوار خواهد بود؛ تعیین دامنه مدیریت ریسک دشوار است؛ تدوین معیارهای ارزیابی و تأیید برای سازمانهای دولتی دشوار خواهد بود... نماینده پیشنهاد داد که توضیحی در مورد این اصطلاح اضافه شود و مفهوم «سیستم هوش مصنوعی نسل جدید» روشن شود.
در مورد مفهوم و مسئولیت توسعهدهنده یک مدل هوش مصنوعی همهمنظوره. نماینده گفت که این ماده با رویه فعلی توسعه هوش مصنوعی سازگار است و لازم است مسئولیت بین توسعهدهنده مدل و توسعهدهنده برنامه به طور واضح تعریف شود تا از تداخل مسئولیتهای قانونی جلوگیری شود. با این حال، پیشنویس قانون فقط بیان میکند که توسعهدهنده مسئول "شفافیت اساسی" است اما توضیح نمیدهد که شفافیت اساسی چیست، شفافیت پیشرفته چیست، در حالی که الزام شفافیت، پایه و اساس ارزیابی مسئولیت، ایمنی و رعایت قانون است. نماینده توصیه کرد که مفهوم و معیارهای "شفافیت اساسی" روشن شود.
در مورد مدیریت سیستمهای هوش مصنوعی پرخطر، نمایندگان گفتند که پیشنویس مقررات مربوط به طبقهبندی و مدیریت ریسک هنوز نهاد مسئول مدیریت در هر حوزه خاص را مشخص نکرده است. به طور خاص، در بخش سلامت، اگر هماهنگی کلی بدون تعریف واضح نقش بخش سلامت به نهاد مدیریت فناوری اطلاعات واگذار شود، ممکن است منجر به همپوشانی در ارزیابی، عدم یکنواختی در استانداردهای حرفهای و دشواری در مدیریت محصولات هوش مصنوعی مورد استفاده به عنوان دستگاههای پزشکی یا کاربردی در معاینه و درمان پزشکی شود. نمایندگان پیشنهاد کردند مقرراتی اضافه شود که وزارت بهداشت را موظف به مدیریت سیستمهای هوش مصنوعی پرخطر در بخش سلامت کند.
در مورد مسئولیت شفافیت، برچسبگذاری و پاسخگویی، نماینده گفت که این پیشنویس حوزه پزشکی را پوشش نمیدهد، در حالی که این یک حوزه خاص با خطرات بالا است که مستقیماً با زندگی و سلامت مردم مرتبط است. در حال حاضر، بسیاری از سیستمهای هوش مصنوعی برای پشتیبانی از تشخیص، تجزیه و تحلیل تصاویر پزشکی، پیشنهاد رژیمهای درمانی، ارائه مراقبتهای بهداشتی از راه دور استفاده میشوند... اگر کاربران به وضوح تشخیص ندهند که اطلاعات توسط هوش مصنوعی ایجاد شده است، میتواند منجر به خطر سوءاستفاده، اعتماد مطلق یا سردرگمی با دستورالعملهای حرفهای پزشک شود و عواقب پزشکی جدی ایجاد کند. برای شفافسازی این موضوع برای بیماران و پزشکان که بدانند اطلاعات توسط هوش مصنوعی ایجاد شده است، نه توصیههای حرفهای از سوی انسانها، مسئولیت ردیابی و پاسخگویی در هنگام وقوع خطاهای پزشکی مربوط به هوش مصنوعی را افزایش دهید. نماینده پیشنهاد داد که یک بند بعد از بند ب، بند 3، ماده 9 اضافه شود: "ج". برچسبگذاری بر روی محتوای تولید شده توسط سیستمهای هوش مصنوعی به منظور هشدار، پشتیبانی از تصمیمگیری بالینی در مراقبتهای بهداشتی یا انجام خدمات درمانی انجام میشود.
علاوه بر این، نماینده وونگ تی هونگ نیز در مورد بسیاری از مفاد پیشنویس قانون، از جمله موارد زیر، نظرات خود را ارائه داد: انتشار فهرستی از مجموعه دادههای کلیدی که در خدمت توسعه هوش مصنوعی هستند؛ سیاستهای توسعه اکوسیستم و بازار هوش مصنوعی؛ شفافسازی مفاهیم «محصولات هوش مصنوعی» و «خدمات هوش مصنوعی»...
پی وی
منبع: https://baotuyenquang.com.vn/thoi-su-chinh-tri/202511/dai-bieu-quoc-hoi-tinh-thao-luan-tai-to-ve-du-an-luat-tri-tue-nhan-tao-ce03d26/







نظر (0)