
پدربزرگ احترام به فرزند با رویکرد دولت در تدوین این قانون موافقیم. این پیشنویس قانون همچنین رویکرد ویتنام به هوش مصنوعی را به روشنی تعریف میکند. این قانون هم با توسعه هوش مصنوعی سازگار است و هم مقرراتی دارد که تضمین میکند خطراتی که هوش مصنوعی میتواند به همراه داشته باشد، به حداقل برسد.
آقای هیو در سخنرانی خود بر تحلیل بیشتر مفاد ماده 20 پیشنویس قانون سازوکار آزمایش کنترلشده برای تضمین امکانسنجی و ایجاد مطلوبترین شرایط برای توسعه سیستمهای هوش مصنوعی، بهویژه سیستمهای هوش مصنوعی داخلی، تمرکز کرد.
به گفته آقای هیو، سازوکار آزمایش کنترلشده برای توسعه هوش مصنوعی بسیار مهم است. از آنجا که هوش مصنوعی موضوعی بسیار جدید است که به حوزههای مختلف زیادی مربوط میشود، اگر فقط بر اساس چارچوب قانونی فعلی باشد، نمیتواند شرایطی را برای توسعه هوش مصنوعی ایجاد کند. هدف اصلی سازوکار آزمایش کنترلشده برای هوش مصنوعی، حذف موانع قانونی است که مانع مدلهای هوش مصنوعی میشوند و امکان آزمایش در یک محدوده محدود برای به دست آوردن دادهها برای اثبات اثربخشی را فراهم میکنند و در نتیجه اصلاحات نظارتی بلندمدت را ارتقا میدهند. این روش همچنین با تفکر قانونگذاری فعلی ما بسیار سازگار است، یعنی نهاد باید ابتدا راه را برای توسعه هموار کند؛ آنچه شناخته شده است مدیریت میشود، آنچه ناشناخته و نامشخص است مدیریت نمیشود. بنابراین، مقررات مربوط به سازوکار آزمایش کنترلشده باید محور چارچوب قانونی هوش مصنوعی باشد. بنابراین، آژانس تدوینکننده باید در پیشنویس، این موضوع را به طور خاصتر مطالعه و تنظیم کند.
در خصوص نظرات خاص، آقای هیو پیشنهاد داد که مقررات مربوط به معافیت سازمانها و افراد شرکتکننده در آزمایشهای کنترلشده یا کاهش برخی از تعهدات انطباق آنها، همانطور که در بند ۲ ماده ۲۰ این قانون آمده است، بررسی شود. چنین مقرراتی منجر به محدود شدن دامنه معافیت به مفاد این قانون میشود، در حالی که سیستمهای هوش مصنوعی اغلب ارتباط نزدیکی با سایر مفاد قانونی مربوطه دارند.
آقای هیو با ذکر مثالی پیشنهاد داد که آژانس تدوینکننده، مفاد بند ۲ ماده ۲۰ را در راستای تعریف واضح سازمانها و افراد شرکتکننده در آزمایشهای کنترلشده که از این امر معاف هستند، تحقیق و اصلاح کند. «آزمایش هوش مصنوعی در وسایل نقلیه خودران ارتباط نزدیکی با ممنوعیتهای قانون نظم ایمنی جادهها و قانون حفاظت از دادههای شخصی خواهد داشت. به عنوان مثال، مکانیسم آزمایش هوش مصنوعی در هواپیماهای مسافربری خودران در ژاپن از برخی مقررات هوانوردی معاف است. یا آزمایش خودروهای خودران در چین و ژاپن از مفاد قانون حفاظت از دادههای شخصی معاف است، که عبارت است از استفاده از دادههای تصویری که چهره شرکتکنندگان در ترافیک را تار نمیکند، برای آموزش و پرورش دیدگاه هوش مصنوعی ». یا کاهش برخی از الزامات انطباق مقرر در این قانون و سایر قوانین مربوطه.
آقای هیو، در خصوص آییننامه واگذاری مسئولیت سازمان مدیریت دولتی در حوزه هوش مصنوعی برای سازماندهی پذیرش، ارزیابی و پردازش پروندهها جهت شرکت در فعالیتهای آزمایشی کنترلشده طبق فرآیند ارزیابی و پاسخ سریع، با این آییننامه، به ویژه بند مربوط به ارزیابی و پاسخ سریع، موافق هستم. با این حال، سیستمهای هوش مصنوعی صرفاً موضوع فناوری و الگوریتمها نیستند، بلکه موضوعی چندرشتهای و میانرشتهای نیز هستند. بنابراین، مفاد بند ۵ احتمالاً فقط برای سیستمهای هوش مصنوعی عمومی مانند هوش مصنوعی مولد مانند ChatGPT و Gemini مناسب هستند. در مورد سیستمهای هوش مصنوعی تخصصی، ماهیت میانرشتهای بسیار بالاست.
پدربزرگ احترام به فرزند برای مثال، سیستم DrAid یک محصول هوش مصنوعی است که از تشخیص تصاویر پزشکی پشتیبانی میکند و توسط شرکت VinBrain توسعه داده شده است . اگر ثبت نام برای آزمایش انجام شود، وزارت بهداشت نمیتواند از نقش نظارت و مدیریت شانه خالی کند. بنابراین، در برخی کشورها، ارزیابی و صدور مجوز آزمایش کنترلشده سیستمهای هوش مصنوعی به یک شورای میانرشتهای واگذار شده است. بنابراین، توصیه میشود مفاد بند ۵ در راستای «سازمان مدیریت دولتی هوش مصنوعی، ریاست و هماهنگی با سازمانهای مدیریت دولتی مربوطه را برای سازماندهی پذیرش، ارزیابی و پردازش پروندهها برای شرکت در فعالیتهای آزمایش کنترلشده بر عهده خواهد داشت» اصلاح شود.
پدربزرگ هیو همچنین اظهار نظر کرد، مفاد ماده 20 هنوز فاقد مقرراتی در مورد جبران خسارت و مسئولیت بیمه است. بر این اساس، مفاد فعلی پیشنویس قانون در این قانون ذکر نشده است که در صورت آسیب دیدن شخص ثالث در اثر آزمایش، چه کسی مسئول است. به عنوان یک قاعده کلی، در صورت ایجاد خسارت، سازمان یا فرد آزمایشکننده باید غرامت مدنی بپردازد. بنابراین، توصیه میشود اضافه کردن این ماده به پیشنویس در نظر گرفته شود.
« علاوه بر این، برای تسهیل و تشویق روحیه نوآوری، ما معتقدیم که تحقیق و تکمیل مکانیسمهای حمایتی برای سازمانها و افراد شرکتکننده در آزمایش برای جلوگیری از خطرات نیز ضروری است .» برای مثال، سازوکاری برای پشتیبانی از بیمه مسئولیت مدنی قبل از انجام آزمایش یا اینکه دولت میتواند بخشی از بودجه (از طریق صندوقهای مختلف) را برای تشویق مشارکت در آزمایش پشتیبانی کند. بدون این سازوکار سیاستی، کسبوکارهایی که سیستمهای هوش مصنوعی پرخطر (مانند خودروهای خودران) را توسعه میدهند و در مرحله راهاندازی هستند، تمایلی به آزمایش نخواهند داشت، زیرا فقط یک تصادف برای ورشکستگی کافی است .
منبع: https://daidoanket.vn/de-xuat-bo-sung-co-che-ho-tro-cho-cac-to-chuc-ca-nhan-tham-gia-thu-nghiem-ai.html






نظر (0)