
به گفته آقای لام، خطرات بسیار واقعی و موجود وجود دارد، مانند: از هوش مصنوعی برای جعل، دستکاری اطلاعات، کلاهبرداری و ایجاد شکاف اجتماعی سوءاستفاده میشود؛ جایگزین نیروی کار میشود و نابرابری را افزایش میدهد؛ ارزشهای فرهنگی و فکری را تحریف میکند؛ و امنیت ملی، دفاع و حاکمیت دیجیتال را تهدید میکند.
نگرانکنندهترین چیز ، آقای لام ترس این چیزی نیست که هوش مصنوعی به دستور انسان انجام میدهد، بلکه چیزی است که هوش مصنوعی میتواند وقتی خارج از کنترل انسان است انجام دهد. از دیدگاه علمی ، اگر روزی هوش مصنوعی اهداف خود را تعیین کند، وظایف را به گونهای تفسیر کند که با منافع انسان همسو نباشد، یا حتی انسانها را به عنوان «خطر» در نظر بگیرد، چه اتفاقی خواهد افتاد؟ آیا ممکن است یک سیستم فوق هوشمند ظهور کند که انسانها را فقط به عنوان «متغیر» در الگوریتم بهینهسازی خود ببیند؟
آقای لام گفت : « داستانهای علمی تخیلی درباره تسلط هوش مصنوعی بر انسانها برای ترساندن ما نیستند، بلکه برای یادآوری این نکته هستند که هرگونه پیشرفت مصنوعی اگر از ابتدا با ارزشهای اخلاقی صحیح طراحی نشده باشد، میتواند به هدف اصلی خود خیانت کند. و تاریخ ثابت کرده است که هر فناوری، وقتی از کنترل خارج شود، میتواند عواقبی را به بار آورد که بشریت باید بهای سنگینی برای آن بپردازد .»
این خطرات، ضرورت ایجاد یک چارچوب قانونی به اندازه کافی قوی برای توسعه هوش مصنوعی در مسیر درست و ایمن برای جامعه را نشان میدهد. بنابراین آقای لام برای اینکه قانون واقعاً کامل و رؤیایی شود، یک نکته کلیدی را پیشنهاد داد: هوش مصنوعی را به عنوان یک «انسان تازه متولد شده» در نظر بگیرید. یک موجود هوشمند اما هنوز بیگناه . ندانستن قانون، نفهمیدن اخلاق و آداب معاشرت، نداشتن ارزشهای فرهنگی، و تشخیص ندادن درست از غلط اگر آموزش داده نشود. با توجه به این نکته، اگر هوش مصنوعی را به عنوان یک نهاد نوظهور در نظر بگیریم، مسئولیت ما نه تنها کنترل آن، بلکه آموزش آن از ابتدا است، درست مانند آموزش ارزشهای استاندارد انسانی به یک کودک. و این باید یک ماده الزامی در این قانون باشد، نه فقط یک توصیه.
از آنجا، آقای لام پیشنهاد داد که مجلس ملی اصول قانونی زیر را به این قانون اضافه کند: هر نرمافزار هوش مصنوعی که در ویتنام فعالیت میکند، چه توسط سازمانهای داخلی و چه خارجی توسعه یافته باشد، باید به یک پایگاه داده استاندارد بنیاد انسانی مجهز باشد. این پایگاه داده باید حاوی اطلاعات کافی برای آموزش هوش مصنوعی جهت درک قوانین ویتنام باشد؛ به هوش مصنوعی استانداردهای اخلاقی، فرهنگ و سنتهای خوب ملت را آموزش دهد؛ به هوش مصنوعی توانایی تشخیص درست از غلط و استاندارد از استاندارد را بیاموزد. محدودیتهای رفتاری نباید از قوانین شناسایی خطرات برای انسانها فراتر رود. و از همه مهمتر، اطمینان حاصل شود که این پایگاه داده بنیاد همیشه در مدیریت رفتار هوش مصنوعی اولویت مطلق داشته باشد؛ نباید توسط هیچ الگوریتم یا داده آموزشی دیگری رونویسی، جایگزین یا غیرفعال شود. این "حلقه طلایی" قانونی و فنی است که تضمین میکند هوش مصنوعی به بیراهه نرود.
آقای لام همچنین توصیه کرد که برای اجرای مؤثر این جهتگیری، وزارت علوم و فناوری رهبری ساخت یک پلتفرم پایگاه داده «ویتنامی بودن» - یکپارچه، استاندارد و بهطور مداوم بهروز شده - را بر عهده بگیرد و آن را بهعنوان یک الزام اجباری در اختیار توسعهدهندگان هوش مصنوعی قرار دهد. دولت یک زیرساخت محاسباتی ملی قوی ایجاد میکند تا اطمینان حاصل شود که هوش مصنوعی ویتنامی بر اساس ارزشهای ویتنامی آموزش دیده است، نه وابسته به مدلهای خارجی. یک مرکز ملی آزمایش هوش مصنوعی ایجاد کنید تا بهسرعت رفتارهای انحرافی را ارزیابی کند، مدلهای پرخطر را کنترل کند و در صورت مشاهده نشانههایی از فراتر رفتن از محدودیتها، بهسرعت مداخله کند. آموزش هوش مصنوعی را در سراسر جامعه ترویج دهید و بر کمک به مردم، کسبوکارها و بهویژه بخش دولتی برای داشتن ظرفیت شناسایی، استفاده و نظارت صحیح بر هوش مصنوعی تمرکز کنید.
در عین حال، با نگاهی به جهان، بشریت با سرعت زیادی در حال ورود به عصر هوش مصنوعی است، در حالی که چارچوب قانونی جهانی هنوز به آن نرسیده است. مشابه کنوانسیون هانوی در مورد پیشگیری از جرایم سایبری، جهان به یک کنوانسیون بینالمللی در مورد ایمنی هوش مصنوعی نیاز دارد تا استانداردهای مشترکی را ایجاد کند، از خارج شدن خطرات از کنترل جلوگیری کند و از حقوق بشر در مواجهه با توسعه هوش مصنوعی محافظت کند. ویتنام با یک دیدگاه پیشگیرانه، محتاطانه و انسانی، قطعاً میتواند در پیشنهاد و رهبری این ابتکار عمل پیشگام باشد.
آقای لام گفت: «قانون امروز در مورد هوش مصنوعی فقط یک قانون فناوری نیست، بلکه قانونی برای آینده است؛ تعهدی از سوی مجلس ملی به مردم: ما فناوری را توسعه میدهیم اما کنترل را از دست نمیدهیم؛ نوآوری را ترویج میدهیم اما اجازه نمیدهیم خطرات از دسترس ما فراتر روند؛ و هوش مصنوعی را با ارزشهای ویتنامی پرورش میدهیم تا به مردم ویتنام خدمت کنیم.»
منبع: https://daidoanket.vn/hay-coi-ai-nhu-mot-con-nguoi-moi-sinh-va-day-ai-nhu-mot-dua-tre.html






نظر (0)