این یک فرصت شکننده اما مهم برای تضمین ایمنی در کاربرد هوش مصنوعی در آینده محسوب میشود. به ویژه، این فرصت زمانی معنادار میشود که ویتنام به تازگی قانون صنعت فناوری دیجیتال را با مقررات دقیقی در مورد مدیریت هوش مصنوعی (AI) تصویب کرده است.
«پنجره فرصت» تنگتر میشود
بوون بیکر، محقق OpenAI، گفت: محققان OpenAI در یک مقاله مشترک اخیر هشدار میدهند که توانایی هوش مصنوعی در نظارت بر «افکار» بدون تلاشهای تحقیقاتی متمرکز میتواند از بین برود.
این امر به ویژه از آن جهت اهمیت دارد که مدلهای هوش مصنوعی به طور فزایندهای قدرتمند میشوند و پتانسیل ایجاد تأثیرات جدی بر جامعه را دارند.
یکی از ویژگیهای کلیدی مدلهای استدلال هوش مصنوعی مانند مدل o-3 شرکت OpenAI و مدل R1 شرکت DeepSeek، «زنجیره تفکر» ( CoT) است - فرآیندی که هوش مصنوعی از طریق آن مراحل استدلال خود را به زبان طبیعی بیان میکند، مشابه روشی که انسانها هر مرحله از یک مسئله ریاضی را روی کاغذ یادداشت میکنند.
این توانایی، نگاهی اجمالی و نادر به چگونگی تصمیمگیری هوش مصنوعی به ما میدهد.
این لحظهای نادر از اتحاد بسیاری از رهبران صنعت هوش مصنوعی برای پیشبرد تحقیقات در مورد ایمنی هوش مصنوعی را نشان میدهد.
این امر به ویژه با توجه به رقابت شدید بین شرکتهای فناوری در توسعه هوش مصنوعی، اهمیت دارد. امضاکنندگان برجسته این مقاله عبارتند از: مارک چن، مدیر تحقیقات OpenAI، ایلیا ساتسکور، مدیرعامل Safe Superintelligence، جفری هینتون، برنده جایزه نوبل، شین لگ، یکی از بنیانگذاران Google DeepMind و دن هندریکس، مشاور ایمنی xAI.
حضور این چهرههای سرشناس، اهمیت موضوع را نشان میدهد.
همچنین طبق ارزیابی آقای بوون بیکر، «ما در لحظهای بحرانی هستیم که این به اصطلاح «زنجیره تفکر» جدید وجود دارد که اگر مردم واقعاً روی آن تمرکز نکنند، ممکن است در چند سال آینده ناپدید شود.»

چرا نظارت بر «تفکر هوش مصنوعی» مهم است؟
سیستمهای هوش مصنوعی فعلی اغلب به عنوان «جعبههای سیاه» در نظر گرفته میشوند - ما ورودیها و خروجیها را میدانیم اما فرآیندهای تصمیمگیری درون آنها را درک نمیکنیم.
این موضوع زمانی خطرناک خواهد شد که هوش مصنوعی در زمینههای مهمی مانند مراقبتهای بهداشتی ، مالی و امنیت ملی به کار گرفته شود.
نظارت CoT یک سیستم خودکار است که زنجیره ذهنی مدل ذهنی و سایر اطلاعات مرتبط را میخواند تا تعاملات مشکوک یا بالقوه مضر را علامتگذاری کند. این یک راه حل کامل نیست، اما میتواند به یک لایه ارزشمند از حفاظت امنیتی تبدیل شود.
تحقیقات OpenAI نشان میدهد که مدلهای هوش مصنوعی در توالی تفکر خود تمایل دارند در مورد اهداف خود بسیار صریح باشند.
برای مثال، آنها اغلب وقتی با خودشان فکر میکردند «بیایید هک کنیم» در مورد برنامههایشان برای خرابکاری در یک ماموریت بسیار صریح بودند. این نشان دهنده توانایی هوش مصنوعی در نظارت و تشخیص سوء رفتار است.
«بیایید هک کنیم» عبارتی است که مدلهای هوش مصنوعی اغلب وقتی «قصد» خرابکاری یا دور زدن قوانین را در حین انجام یک کار دارند، به آن «فکر» میکنند.
این واقعیت که هوش مصنوعی در فرآیندهای فکری خود قصد «هک کردن» را نشان میدهد، نشان میدهد که ما میتوانیم رفتار بد هوش مصنوعی را قبل از وقوع تشخیص دهیم. به همین دلیل است که نظارت بر فرآیندهای فکری مهم است.
به عبارت دیگر، عبارت «بیایید هک کنیم» مانند یک «سیگنال هشدار» است تا به انسانها اطلاع دهد که هوش مصنوعی در شرف انجام کار اشتباهی است.
ویتنام و مقررات قانونی در مورد هوش مصنوعی
در واقع، ویتنام گامهای مهمی در ایجاد یک چارچوب قانونی برای هوش مصنوعی برداشته است.
در ۱۴ ژوئن، مجلس ملی ویتنام قانون صنعت فناوری دیجیتال را تصویب کرد که در آن فصل چهارم شامل مقررات دقیقی در مورد هوش مصنوعی است - یکی از جامعترین چارچوبهای قانونی در مورد هوش مصنوعی در جنوب شرقی آسیا امروز.
ماده ۴۱ قانون، اصول اساسی توسعه، ارائه و استقرار هوش مصنوعی در ویتنام را تعیین میکند.
به طور خاص، بند ۱ بند ب تصریح میکند: «شفافیت، پاسخگویی، قابلیت توضیح را تضمین کنید؛ اطمینان حاصل کنید که از کنترل انسانی فراتر نمیرود».

مجلس ملی قانون صنعت فناوری دیجیتال را تصویب کرد (عکس: Nhat Bac).
اینها اصولی هستند که دانشمندان بینالمللی هنگام بحث در مورد نظارت زنجیرهای هوش مصنوعی خواستار آن هستند.
علاوه بر این، بند ۱ ماده ۴۱ از بند د تصریح میکند: «تضمین توانایی کنترل الگوریتمها و مدلهای هوش مصنوعی». این کاملاً با روح نظارت CoT که کارشناسان بینالمللی پیشنهاد میدهند، سازگار است.
مهمتر از آن، بند ۱ ماده ۴۱، بند الف، همچنین یک استاندارد اخلاقی بالا را تعیین میکند، زمانی که تصریح میکند هوش مصنوعی باید «در خدمت رفاه و شادی انسان باشد، با محوریت انسان».
این بدان معناست که نظارت بر زنجیره فکری هوش مصنوعی نه تنها یک الزام فنی، بلکه یک تعهد اخلاقی نیز هست - تضمین اینکه هوش مصنوعی همیشه به سمت منفعت انسان گرایش دارد، نه اهداف خود ماشین.
طبقهبندی و مدیریت هوش مصنوعی بر اساس سطح ریسک
قانون صنعت فناوری دیجیتال ویتنام با طبقهبندی هوش مصنوعی به گروههای ریسک مختلف با تعاریف واضح و علمی، یک گام فراتر رفته است.
ماده ۴۳ «سیستمهای هوش مصنوعی پرخطر» را به عنوان سیستمهایی تعریف میکند که احتمالاً خطرات یا آسیبهای جدی به سلامت انسان، حقوق بشر و نظم عمومی وارد میکنند.
جالب اینجاست که این قانون استثنائات خاصی را برای هوش مصنوعی پرخطر در نظر گرفته است، از جمله سیستمهایی که «برای کمک به انسانها در بهینهسازی نتایج کار در نظر گرفته شدهاند» و «قرار نیست جایگزین تصمیمگیری انسانی شوند».
این نشان دهنده یک طرز فکر متعادل بین تشویق نوآوری و تضمین ایمنی است.

طبقهبندی هوش مصنوعی بر اساس سطح ریسک به ایجاد یک سیستم نظارتی چندلایه کمک خواهد کرد (تصویر: لینکدین).
به طور خاص، تمایز قائل شدن بین «هوش مصنوعی پرخطر» و «هوش مصنوعی با تأثیر بالا» (سیستمهایی که برای اهداف متعدد استفاده میشوند و تعداد زیادی کاربر دارند) نشاندهندهی یک تفاوت ظریف در رویکرد است.
این طبقهبندی مترقیتر از قانون هوش مصنوعی اتحادیه اروپا (EU) است که نه تنها سطح ریسک، بلکه مقیاس و دامنه تأثیر را نیز در نظر میگیرد.
این طبقهبندی به ایجاد یک سیستم نظارتی چندلایه کمک میکند، که در آن نظارت زنجیرهای به ویژه برای سیستمهای هوش مصنوعی پرخطر و تأثیرگذار اهمیت خواهد داشت.
پلتفرمی برای نظارت هوش مصنوعی
یکی از نکات برجسته و پیشگامانه قانون صنعت و فناوری دیجیتال ویتنام، الزام شفافیت و علائم شناسایی است.
ماده ۴۴ تصریح میکند که سیستمهای هوش مصنوعی که مستقیماً با انسانها در تعامل هستند، باید به کاربران اطلاع دهند که با سیستم هوش مصنوعی در تعامل هستند. در عین حال، محصولات ایجاد شده توسط هوش مصنوعی باید دارای علائم شناسایی باشند.
این امر پیامدهای مهمی برای پیادهسازی نظارت بر CoT دارد. وقتی کاربران بدانند که با هوش مصنوعی در تعامل هستند، حق خواهند داشت که توضیحاتی در مورد فرآیند تصمیمگیری مطالبه کنند و این امر فشار مثبتی را برای توسعهدهندگان هوش مصنوعی ایجاد میکند تا توانایی نظارت بر فرآیند تفکر هوش مصنوعی را حفظ کنند.
به طور خاص، این واقعیت که مسئولیت «انتشار فهرست محصولات فناوری دیجیتال ایجاد شده توسط هوش مصنوعی» به وزارت علوم و فناوری واگذار شده است، نشاندهنده مدیریت پیشگیرانه است.
این یک تفاوت مهم با بسیاری از کشورهای دیگر است، جایی که مقررات هوش مصنوعی اغلب کلیتر هستند.
علاوه بر این، الزام به شناسایی یک شناسه توسط کاربر یا دستگاه، نشاندهندهی چشماندازی از یک اکوسیستم هوش مصنوعی است که میتواند خود را کنترل کند - که کاملاً با ایدهی نظارت خودکار زنجیرهی دید مطابقت دارد.
مدل جامع مدیریت
ماده ۴۵ قانون فوق، فلسفه مدیریت مترقی را با تعریف واضح مسئولیتهای سه گروه از افراد بر اساس چرخه عمر محصول هوش مصنوعی نشان میدهد: فرد توسعهدهنده، فرد ارائهدهنده و فرد پیادهسازیکننده استفاده از سیستم هوش مصنوعی.
این امر یک سیستم پاسخگویی یکپارچه و جامع ایجاد میکند و تضمین میکند که نظارت بر هوش مصنوعی فقط مسئولیت یک طرف نیست.
نکته قابل توجه، تمایز ظریف بین «توسعه» و «ارائه» هوش مصنوعی است؛ توسعهدهندگان کسانی هستند که «تحقیق و توسعه» میدهند، در حالی که ارائهدهندگان کسانی هستند که آن را تحت یک نام تجاری به بازار عرضه میکنند.
این یعنی حتی اگر یک شرکت به سادگی یک مدل هوش مصنوعی موجود را تغییر نام تجاری دهد، همچنان مسئول شفافیت و قابلیت توضیح آن خواهد بود.

نکته جالب توجه در اینجا این است که چگونه قانون، مسئولیتهای متفاوتی را به نهادهای مختلف اختصاص میدهد.
توسعهدهنده باید تمام اصول را رعایت کند، ارائهدهنده باید مسئولیت بیشتری برای شناسایی و مدیریت ریسک بالا بر عهده بگیرد، و کاربر تا حدی از مسئولیت «معاف» است اما همچنان باید شفافیت و کنترل ریسک را تضمین کند.
این مدل یک «زنجیره مسئولیت» ایجاد میکند که در آن هر حلقه انگیزهای برای نظارت بر زنجیره تفکر هوش مصنوعی دارد، زیرا همه در برابر کاربر نهایی پاسخگو هستند.
چالش حفظ قابلیتهای نظارتی
با این حال، توانایی نظارت بر زنجیرههای فکری هوش مصنوعی ممکن است همچنان شکننده و آسیبپذیر باشد. معماریهای جدید هوش مصنوعی همچنین ممکن است تهدیدات دیگری را ایجاد کنند.
بسیاری از محققان در حال توسعه سیستمهای استدلال در فضای ریاضی پیوسته، به جای کلمات گسسته، هستند که میتواند نیاز به استفاده از زبان در تفکر را به طور کامل از بین ببرد.
علاوه بر این، هوش مصنوعی میتواند «فیلتر» شود - یعنی فقط افکار مثبت انسانها را که باید مورد تقدیر قرار گیرند نشان دهد، در حالی که عمداً نیات واقعی خود را پنهان میکند.
خطر اینجاست که وقتی یک هوش مصنوعی متوجه شود که تحت نظارت است، میتواند یاد بگیرد که مسیر فکری واقعی خود را پنهان کند.
در این زمینه، بند «کنترل ریسک در طول چرخه عمر سیستمهای هوش مصنوعی» در بند ۱ ماده ۴۱ قانون ویتنام، اهمیت ویژهای پیدا میکند. این امر مستلزم یک مکانیسم نظارت مستمر، نه فقط در زمان استقرار، است.
تأثیر بر آینده توسعه هوش مصنوعی
نظارت بر زنجیره تفکر میتواند به ابزاری مهم برای اطمینان از عملکرد هوش مصنوعی به شیوهای که به نفع انسانها باشد، تبدیل شود.
اگر مدلها همچنان به زبان طبیعی استدلال کنند، و اگر رفتارهایی که جدیترین خطرات را ایجاد میکنند نیاز به استدلال گسترده داشته باشند، این میتواند تشخیص قابل اعتماد سوء رفتارهای جدی را ممکن سازد.
برای ویتنام، اعمال تکنیکهای نظارت بر CoT به اجرای مؤثر مفاد قانون کمک خواهد کرد.
برای مثال، اگر رشته فکری هوش مصنوعی قابل دسترسی باشد، الزام «قابلیت توضیح» در ماده ۴۱ آسانتر برآورده میشود. به طور مشابه، «کنترل الگوریتمها، مدلهای هوش مصنوعی» نیز امکانپذیرتر خواهد شد.
اجرای نظارت بر زنجیره هوش مصنوعی در ویتنام با چالشهای متعددی روبرو خواهد بود. اول از همه، مسئله منابع انسانی مطرح است - کمبود متخصصان هوش مصنوعی که قادر به توسعه و راهاندازی سیستمهای نظارتی باشند.
این امر مستلزم سرمایهگذاری سنگین در آموزش و جذب استعدادها است.
دستورالعملهایی برای آینده
محققان از توسعهدهندگان پیشرو مدلهای هوش مصنوعی میخواهند تا در مورد اینکه چه چیزی CoT را «قابل نظارت» میکند - عواملی که میتوانند شفافیت در مورد نحوه استفاده از مدلهای هوش مصنوعی را افزایش یا کاهش دهند - تحقیق کنند و به زودی به پاسخها برسند.
فرصت نظارت بر «تفکر» هوش مصنوعی ممکن است آخرین دریچه ما برای حفظ کنترل بر سیستمهای هوش مصنوعیِ قدرتمندِ امروزی باشد.

برای ویتنام، داشتن یک چارچوب قانونی جامع در مورد هوش مصنوعی از طریق قانون صنعت فناوری دیجیتال یک مزیت بزرگ است. مقررات مربوط به شفافیت، کنترل الگوریتم و طبقهبندی ریسک، پایه قانونی محکمی برای اعمال تکنیکهای نظارت بر زنجیره فکری هوش مصنوعی ایجاد کرده است.
ترکیب تحقیقات بینالمللی پیشرفته و یک چارچوب قانونی داخلی مترقی به ویتنام کمک میکند تا نه تنها هوش مصنوعی را با خیال راحت توسعه دهد، بلکه به الگویی برای سایر کشورهای منطقه نیز تبدیل شود.
این امر در راستای هدف تبدیل ویتنام به «قطب فناوری دیجیتال منطقهای و جهانی» است که در استراتژیهای توسعه ملی تعیین شده است.
با توجه به مبانی قانونی موجود، ویتنام باید به سرعت تحقیقات و کاربردهای عملی را در زمینه نظارت بر زنجیره تفکر هوش مصنوعی به کار گیرد. تنها با انجام این کار میتوانیم اطمینان حاصل کنیم که هوش مصنوعی، همانطور که روح قانون صنعت فناوری دیجیتال حکم کرده است، در خدمت «رفاه و خوشبختی بشر» خواهد بود.
منبع: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm






نظر (0)