
شرکتکنندگان عبارت بودند از: کمیته دائمی علوم، فناوری و محیط زیست؛ نماینده وزارت علوم و فناوری ؛ نماینده گروه ویتل.

نمایندهی ویتل در گزارش به کارگروه مربوط به محتوای هوش مصنوعی (AI) که ویتل در حال پیادهسازی آن بوده و هست، گفت که ویتل از طریق تحقیق و پیادهسازی کاربردهای هوش مصنوعی طبق یک فرآیند و چارچوب مقرراتی منسجم، بر بسیاری از محصولات و فناوریها تسلط یافته است تا نیازهای وزارتخانهها، ادارات، شعب و فعالیتهای تولیدی و تجاری گروه را برآورده کند.

برای استقرار یک برنامه هوش مصنوعی، ویتل فرآیندی را برای استانداردسازی مراحل پیادهسازی ایجاد کرده است که به وضوح نقشها و مسئولیتهای هر یک از طرفین درگیر در هر مرحله پیادهسازی را تعریف میکند و از این طریق تضمین میکند که برنامه هوش مصنوعی به طور مؤثر مستقر میشود، نیازهای تجاری را برآورده میکند و مزایای عملی را به همراه دارد.
ویتل همچنین مقررات مربوط به حاکمیت هوش مصنوعی را با اهداف زیر تدوین کرده است: ایجاد پایه و اساس محکم برای تحقیق، توسعه، استقرار و استفاده از هوش مصنوعی به شیوهای مسئولانه، ایمن، شفاف و مؤثر؛ تضمین انطباق با روندهای جهانی، قوانین و دستورالعملهای سازمانهای دولتی؛ به حداقل رساندن پیشگیرانه خطرات اخلاقی و قانونی.

همزمان، تعهد به شفافیت، انصاف و ایمنی را با مشتریان، شرکا و کارمندان تأیید کنید؛ سیستمهای هوش مصنوعی را توسعه و مستقر کنید که رعایت استانداردهای فنی در مورد کیفیت، امنیت و ایمنی را تضمین میکنند، خطرات فنی را به حداقل میرسانند، از کاربران محافظت میکنند و عملکرد را حفظ میکنند؛ نوآوری را با روحیه همکاری و مسئولیتپذیری ترویج میدهند.
رئیس بخش حقوقی گروه ویتل فان تی لون با اشاره به مشکلات و موانع موجود در اجرای برنامههای کاربردی هوش مصنوعی، گفت که فعالیتهای مرتبط با هوش مصنوعی در حال حاضر تابع مقررات پراکندهای از سوی اسناد قانونی مختلف مانند قانون فناوری اطلاعات، قانون امنیت اطلاعات شبکه، قانون امنیت سایبری، فرمان شماره 13/2023/ND-CP در مورد حفاظت از دادههای شخصی، قانون علوم، فناوری و نوآوری، قانون دادهها، قانون حفاظت از دادههای شخصی... هستند. با این حال، این مقررات عمدتاً اصول کلی هستند و دستورالعملهای خاصی برای فناوری هوش مصنوعی به طور خاص ندارند.

نماینده ویتل با تأیید لزوم تدوین یک چارچوب قانونی جامع برای هوش مصنوعی، دریافت که برخی از مقررات فعلی در پیشنویس قانون هوش مصنوعی در مورد سیستمهای هوش مصنوعی ممنوعه و تعهدات مربوط به تأمینکنندگان و استقراردهندگان سیستمهای هوش مصنوعی پرخطر و مدلهای هوش مصنوعی چندمنظوره، هنوز کاملاً سختگیرانه بوده و برای رویه فعلی پیادهسازی هوش مصنوعی مناسب نیستند.
علاوه بر این، مقررات فعلی در مورد مکانیسم آزمایش کنترلشده در پیشنویس قانون، جدا از مکانیسم آزمایش کنترلشده تحت قانون علم، فناوری و نوآوری است، اما مطلوبیت کمتری دارد. مشکل دیگری که ویتل با آن مواجه است، منابع انسانی باکیفیت است.
با توجه به مشکلات و مسائل فوق، رئیس بخش حقوقی گروه صنعت و مخابرات ویتل پیشنهاد اعمال یک مکانیسم آزمایش کنترلشده (sandbox) برای هوش مصنوعی را طبق مفاد بخش ۲، فصل دوم قانون علم، فناوری و نوآوری ۲۰۲۵ ارائه داد که شامل مقررات مطلوبتری برای کسبوکارها مانند: حداکثر دوره آزمایش کنترلشده طولانیتر، مقررات شفاف در مورد معافیت از مسئولیت در فعالیتهای آزمایش کنترلشده است.
نماینده گروه ویتل همچنین پیشنهاد داد که پیشنویس قانون، دامنه ممنوعیتها را محدودتر کند و نوآوری در تفکر توسعه حقوقی را تضمین کند تا هم الزامات مدیریتی را برآورده کند و هم نوآوری را تشویق کند و این طرز فکر را که «اگر نمیتوانید مدیریت کنید، پس ممنوع کنید» از بین ببرد.
در این جلسه، گروه کاری همچنین به تبادل نظر و کسب اطلاعات بیشتر برای کمک به فرآیند بررسی و تکمیل پیشنویس قانون هوش مصنوعی پرداخت.


لی مین هوآن، نایب رئیس مجلس ملی، در سخنرانی خود در این جلسه تأکید کرد که هوش مصنوعی در تمام زمینههای زندگی اجتماعی و مردم مانند: مراقبتهای بهداشتی، خردهفروشی، تجارت الکترونیک، غذا، امور مالی، سرگرمی و... حضور داشته و تأثیر زیادی بر اقتصاد اجتماعی داشته است. بنابراین، پیشنویس قانون هوش مصنوعی باید ایجاد فضای توسعه برای هوش مصنوعی، عمومیسازی هوش مصنوعی، بهبود مهارتهای دیجیتال برای مردم و در عین حال مدیریت خطرات احتمالی ناشی از هوش مصنوعی را تضمین کند.

نایب رئیس مجلس ملی همچنین پیشنهاد کرد که ویتل با توجه به جایگاه خود به عنوان گروه فناوری پیشرو در کشور، باید تحقیقات و کاربرد فناوریهای پیشرفته، از جمله هوش مصنوعی، را برای خدمت به فعالیتهای تولیدی و توسعه اقتصادی ارتقا دهد.
منبع: https://daibieunhandan.vn/pho-chu-tich-quoc-hoi-le-minh-hoan-lam-viec-voi-tap-doan-cong-nghiep-vien-thong-viettel-10390286.html
نظر (0)