برچسبگذاری محصولات تولید شده توسط هوش مصنوعی

معاون نگوین تام هونگ (HCMC) با تأکید بر مکانیسم کنترل ریسک هوش مصنوعی در زندگی امروز، اظهار داشت که پیشنویس قانونی که تأمینکنندگان را ملزم به تضمین علامتگذاری قابل خواندن توسط ماشین برای محتوای هوش مصنوعی میکند، بسیار ضروری است. با این حال، او پیشنهاد داد که افزودن یک الزام اجباری برای نمایش اطلاعات شناسایی درست در رابط تعاملی، زمانی که محتوا در معرض خطر ایجاد سردرگمی است، در نظر گرفته شود تا از کاربران عادی، به ویژه کودکان و سالمندان، در برابر خطر اطلاعات نادرست و جعل عمیق محافظت شود. این آییننامه مسئولیت اجتماعی ارائهدهندگان فناوری را افزایش میدهد و اعتماد دیجیتال را برای مردم ایجاد میکند.
در کنار این، معاون نگوین تام هونگ گفت که از طریق تحقیقات، دریافته است که مدل هوش مصنوعی چندمنظوره فعلی نه تنها متن یا تصویر ایجاد میکند، بلکه میتواند کد منبع، ابزارهای حمله، دستورالعملهای اجرا، فرآیندهای حمله سایبری، روشهای کلاهبرداری مالی و غیره را نیز تولید کند. از آنجا، معاون پیشنهاد داد که تعهدی برای کنترل «توانایی خودتولیدی» مدل هنگام اجازه تولید کد منبع اضافه شود و داشتن مکانیسمی برای هشدار، مسدود کردن و محدود کردن خروجی برای تضمین امنیت شبکه و نظم و ایمنی اجتماعی ضروری است.

همچنین با نگاهی به خطرات ایجاد شده توسط هوش مصنوعی، معاون فام ون هوا ( دونگ تاپ ) گفت که اگرچه فناوری هوش مصنوعی ابزاری برای حمایت از انسانها است، اما خطرات زیادی را به همراه دارد؛ معاون از کمیته تدوین قانون اساسی درخواست کرد که ارزیابی عینی و دقیقی از این موضوع داشته باشد.
معاون فام ون هوا گفت: «این خطرات میتوانند بر زندگی، اموال، حقوق و منافع مشروع سازمانها و افراد تأثیر بگذارند.» او افزود که باید برای محصولات ساخته شده با هوش مصنوعی برچسبهایی وجود داشته باشد. به گفته وی، برچسبگذاری هوش مصنوعی به این منظور است که به مردم اطلاع دهد کدام محصولات توسط هوش مصنوعی ساخته شدهاند و کدامها نه.

در همین حال، معاون ترین تی تو آن ( لام دونگ ) گفت که ماده ۱۱ پیشنویس قانون، تفکر ارزیابی خطرات مبتنی بر تأثیرات فناوری را به طور کامل منعکس نمیکند. به گفته وی، در شرایط فعلی، هوش مصنوعی میتواند روشهای مضری ایجاد کند که هرگز شناسایی نشدهاند. بنابراین، معاون ترین تی تو آن پیشنهاد اضافه کردن یک ماده را داد: "دولت باید فهرست سیستمهای هوش مصنوعی با خطرات غیرقابل قبول را بر اساس ارزیابی ریسک، روندهای فناوری و الزامات مدیریت عملی، به طور مفصل مشخص و به صورت دورهای بهروزرسانی و تکمیل کند. به گفته وی، این سازوکار تضمین میکند که قانون منسوخ نشود و بتواند به سرعت به خطرات جدید پاسخ دهد.
جلوگیری از سوءاستفاده از هوش مصنوعی
معاون تران خان تو (هونگ ین) موضوع هوش مصنوعی در پشتیبانی از معاینات و درمان پزشکی را مطرح کرد و گفت که هوش مصنوعی نه تنها به بهینهسازی فرآیندها در صنعت پزشکی کمک میکند و حجم کار پزشکان و متخصصان پزشکی را کاهش میدهد، بلکه نقش مهمی در شخصیسازی درمان نیز ایفا میکند و در نتیجه نتایج مراقبتهای بهداشتی را بهبود میبخشد و کارایی استفاده از منابع را افزایش میدهد. با این حال، استفاده از هوش مصنوعی برای تشخیص علائم سلامتی گاهی اوقات نتیجه معکوس میدهد.

این نماینده زن به یک نمونه واقعی از یک بیمار ۵۵ ساله در شهر هوشی مین اشاره کرد که هنگام انتقال به بیمارستان، حالت بیحالی داشت. پیش از آن، خانواده بیمار از هوش مصنوعی برای تشخیص استفاده میکردند، سپس برای خرید دارو برای بیمار اقدام میکردند. پس از استفاده از دارو، وضعیت بیمار بدتر شد، سپس وقتی به بیمارستان منتقل شد، آسیب مغزی، سکته مغزی و عوارض اجتنابناپذیر در او تشخیص داده شد.
تران خان تو، معاون وزیر، ابراز امیدواری کرد که در این پیشنویس قانون هوش مصنوعی، چارچوب قانونی مشخصتری برای مدیریت محصولات هوش مصنوعی در بخش مراقبتهای بهداشتی، بهویژه در مورد مسئولیتهای طرفین ذیربط، وجود داشته باشد: «مسلماً مردم نباید از نتایج جستجو برای تشخیص یا تجویز دارو استفاده کنند. با این حال، آیا افرادی که طبق نسخههای هوش مصنوعی دارو میفروشند، قانون را نقض میکنند؟»
در مورد تغییر از مرحله پس از حسابرسی به پیش از حسابرسی در پیشنویس قانون، معاون تران خان تو پیشنهاد کرد که باید یک آستانه کمی مشخص وجود داشته باشد، به عنوان مثال، زمانی که مدل الگوریتم خود را تغییر میدهد، اندازه کاربر را افزایش میدهد یا دادههای آموزشی از یک آستانه خاص فراتر میرود.

معاون فام ترونگ نگی (لانگ سون) با نگاهی دقیقتر به «سوءاستفاده از هوش مصنوعی»، گفت که اگر در زندگی خود بیش از حد به هوش مصنوعی وابسته باشیم، توانایی تفکر و خلاقیت ما را کاهش میدهد. سوءاستفاده از هوش مصنوعی دارای بیثباتیهای بالقوه بسیاری از جمله موارد زیر است: نقض حاکمیت ملی، کاهش اثربخشی مدیریت عمومی و تأثیر منفی بر هر فرد و هر خانواده، به ویژه نسل جوان.
«برای بخش دولتی، سوءاستفاده از هوش مصنوعی، امکانسنجی، انسانیت و اثربخشی سیاستها و قوانین را کاهش میدهد. ارائه اطلاعات و دادههای حساس به هوش مصنوعی، اگر به شدت کنترل نشود، میتواند منجر به نشت دادهها، آسیب به امنیت ملی و نظم و ایمنی اجتماعی با عواقب غیرقابل پیشبینی شود.» این را معاون فام ترونگ نگییا، که پیشنهاد افزودن بندی به پیشنویس قانون در مورد اعمال ممنوعه، از جمله ممنوعیت سوءاستفاده از هوش مصنوعی در بخش دولتی را داده است، گفت.
منبع: https://www.sggp.org.vn/can-co-che-danh-gia-rui-ro-lien-quan-toi-ai-post825783.html






نظر (0)