Vietnam.vn - Nền tảng quảng bá Việt Nam

نظارت بر «زنجیره تفکر» هوش مصنوعی

(دن تری) - بیش از ۴۰ دانشمند از OpenAI، Google DeepMind، Anthropic و Meta به طور جمعی خواستار تحقیقات بیشتر در مورد تکنیک نظارت بر «زنجیره فکری» مدل‌های هوش مصنوعی شده‌اند.

Báo Dân tríBáo Dân trí31/07/2025

این یک فرصت شکننده اما مهم برای تضمین ایمنی در کاربرد هوش مصنوعی در آینده محسوب می‌شود. به ویژه، این فرصت زمانی معنادار می‌شود که ویتنام به تازگی قانون صنعت فناوری دیجیتال را با مقررات دقیقی در مورد مدیریت هوش مصنوعی (AI) تصویب کرده است.

«پنجره فرصت» تنگ‌تر می‌شود

بوون بیکر، محقق OpenAI، گفت: محققان OpenAI در یک مقاله مشترک اخیر هشدار می‌دهند که توانایی هوش مصنوعی در نظارت بر «افکار» بدون تلاش‌های تحقیقاتی متمرکز می‌تواند از بین برود.

این امر به ویژه از آن جهت اهمیت دارد که مدل‌های هوش مصنوعی به طور فزاینده‌ای قدرتمند می‌شوند و پتانسیل ایجاد تأثیرات جدی بر جامعه را دارند.

یکی از ویژگی‌های کلیدی مدل‌های استدلال هوش مصنوعی مانند مدل o-3 شرکت OpenAI و مدل R1 شرکت DeepSeek، «زنجیره تفکر» ( CoT) است - فرآیندی که هوش مصنوعی از طریق آن مراحل استدلال خود را به زبان طبیعی بیان می‌کند، مشابه روشی که انسان‌ها هر مرحله از یک مسئله ریاضی را روی کاغذ یادداشت می‌کنند.

این توانایی، نگاهی اجمالی و نادر به چگونگی تصمیم‌گیری هوش مصنوعی به ما می‌دهد.

این لحظه‌ای نادر از اتحاد بسیاری از رهبران صنعت هوش مصنوعی برای پیشبرد تحقیقات در مورد ایمنی هوش مصنوعی را نشان می‌دهد.

این امر به ویژه با توجه به رقابت شدید بین شرکت‌های فناوری در توسعه هوش مصنوعی، اهمیت دارد. امضاکنندگان برجسته این مقاله عبارتند از: مارک چن، مدیر تحقیقات OpenAI، ایلیا ساتسکور، مدیرعامل Safe Superintelligence، جفری هینتون، برنده جایزه نوبل، شین لگ، یکی از بنیانگذاران Google DeepMind و دن هندریکس، مشاور ایمنی xAI.

حضور این چهره‌های سرشناس، اهمیت موضوع را نشان می‌دهد.

همچنین طبق ارزیابی آقای بوون بیکر، «ما در لحظه‌ای بحرانی هستیم که این به اصطلاح «زنجیره تفکر» جدید وجود دارد که اگر مردم واقعاً روی آن تمرکز نکنند، ممکن است در چند سال آینده ناپدید شود.»

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 1

چرا نظارت بر «تفکر هوش مصنوعی» مهم است؟

سیستم‌های هوش مصنوعی فعلی اغلب به عنوان «جعبه‌های سیاه» در نظر گرفته می‌شوند - ما ورودی‌ها و خروجی‌ها را می‌دانیم اما فرآیندهای تصمیم‌گیری درون آنها را درک نمی‌کنیم.

این موضوع زمانی خطرناک خواهد شد که هوش مصنوعی در زمینه‌های مهمی مانند مراقبت‌های بهداشتی ، مالی و امنیت ملی به کار گرفته شود.

نظارت CoT یک سیستم خودکار است که زنجیره ذهنی مدل ذهنی و سایر اطلاعات مرتبط را می‌خواند تا تعاملات مشکوک یا بالقوه مضر را علامت‌گذاری کند. این یک راه حل کامل نیست، اما می‌تواند به یک لایه ارزشمند از حفاظت امنیتی تبدیل شود.

تحقیقات OpenAI نشان می‌دهد که مدل‌های هوش مصنوعی در توالی تفکر خود تمایل دارند در مورد اهداف خود بسیار صریح باشند.

برای مثال، آنها اغلب وقتی با خودشان فکر می‌کردند «بیایید هک کنیم» در مورد برنامه‌هایشان برای خرابکاری در یک ماموریت بسیار صریح بودند. این نشان دهنده توانایی هوش مصنوعی در نظارت و تشخیص سوء رفتار است.

«بیایید هک کنیم» عبارتی است که مدل‌های هوش مصنوعی اغلب وقتی «قصد» خرابکاری یا دور زدن قوانین را در حین انجام یک کار دارند، به آن «فکر» می‌کنند.

این واقعیت که هوش مصنوعی در فرآیندهای فکری خود قصد «هک کردن» را نشان می‌دهد، نشان می‌دهد که ما می‌توانیم رفتار بد هوش مصنوعی را قبل از وقوع تشخیص دهیم. به همین دلیل است که نظارت بر فرآیندهای فکری مهم است.

به عبارت دیگر، عبارت «بیایید هک کنیم» مانند یک «سیگنال هشدار» است تا به انسان‌ها اطلاع دهد که هوش مصنوعی در شرف انجام کار اشتباهی است.

ویتنام و مقررات قانونی در مورد هوش مصنوعی

در واقع، ویتنام گام‌های مهمی در ایجاد یک چارچوب قانونی برای هوش مصنوعی برداشته است.

در ۱۴ ژوئن، مجلس ملی ویتنام قانون صنعت فناوری دیجیتال را تصویب کرد که در آن فصل چهارم شامل مقررات دقیقی در مورد هوش مصنوعی است - یکی از جامع‌ترین چارچوب‌های قانونی در مورد هوش مصنوعی در جنوب شرقی آسیا امروز.

ماده ۴۱ قانون، اصول اساسی توسعه، ارائه و استقرار هوش مصنوعی در ویتنام را تعیین می‌کند.

به طور خاص، بند ۱ بند ب تصریح می‌کند: «شفافیت، پاسخگویی، قابلیت توضیح را تضمین کنید؛ اطمینان حاصل کنید که از کنترل انسانی فراتر نمی‌رود».

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 2

مجلس ملی قانون صنعت فناوری دیجیتال را تصویب کرد (عکس: Nhat Bac).

اینها اصولی هستند که دانشمندان بین‌المللی هنگام بحث در مورد نظارت زنجیره‌ای هوش مصنوعی خواستار آن هستند.

علاوه بر این، بند ۱ ماده ۴۱ از بند د تصریح می‌کند: «تضمین توانایی کنترل الگوریتم‌ها و مدل‌های هوش مصنوعی». این کاملاً با روح نظارت CoT که کارشناسان بین‌المللی پیشنهاد می‌دهند، سازگار است.

مهم‌تر از آن، بند ۱ ماده ۴۱، بند الف، همچنین یک استاندارد اخلاقی بالا را تعیین می‌کند، زمانی که تصریح می‌کند هوش مصنوعی باید «در خدمت رفاه و شادی انسان باشد، با محوریت انسان».

این بدان معناست که نظارت بر زنجیره فکری هوش مصنوعی نه تنها یک الزام فنی، بلکه یک تعهد اخلاقی نیز هست - تضمین اینکه هوش مصنوعی همیشه به سمت منفعت انسان گرایش دارد، نه اهداف خود ماشین.

طبقه‌بندی و مدیریت هوش مصنوعی بر اساس سطح ریسک

قانون صنعت فناوری دیجیتال ویتنام با طبقه‌بندی هوش مصنوعی به گروه‌های ریسک مختلف با تعاریف واضح و علمی، یک گام فراتر رفته است.

ماده ۴۳ «سیستم‌های هوش مصنوعی پرخطر» را به عنوان سیستم‌هایی تعریف می‌کند که احتمالاً خطرات یا آسیب‌های جدی به سلامت انسان، حقوق بشر و نظم عمومی وارد می‌کنند.

جالب اینجاست که این قانون استثنائات خاصی را برای هوش مصنوعی پرخطر در نظر گرفته است، از جمله سیستم‌هایی که «برای کمک به انسان‌ها در بهینه‌سازی نتایج کار در نظر گرفته شده‌اند» و «قرار نیست جایگزین تصمیم‌گیری انسانی شوند».

این نشان دهنده یک طرز فکر متعادل بین تشویق نوآوری و تضمین ایمنی است.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 3

طبقه‌بندی هوش مصنوعی بر اساس سطح ریسک به ایجاد یک سیستم نظارتی چندلایه کمک خواهد کرد (تصویر: لینکدین).

به طور خاص، تمایز قائل شدن بین «هوش مصنوعی پرخطر» و «هوش مصنوعی با تأثیر بالا» (سیستم‌هایی که برای اهداف متعدد استفاده می‌شوند و تعداد زیادی کاربر دارند) نشان‌دهنده‌ی یک تفاوت ظریف در رویکرد است.

این طبقه‌بندی مترقی‌تر از قانون هوش مصنوعی اتحادیه اروپا (EU) است که نه تنها سطح ریسک، بلکه مقیاس و دامنه تأثیر را نیز در نظر می‌گیرد.

این طبقه‌بندی به ایجاد یک سیستم نظارتی چندلایه کمک می‌کند، که در آن نظارت زنجیره‌ای به ویژه برای سیستم‌های هوش مصنوعی پرخطر و تأثیرگذار اهمیت خواهد داشت.

پلتفرمی برای نظارت هوش مصنوعی

یکی از نکات برجسته و پیشگامانه قانون صنعت و فناوری دیجیتال ویتنام، الزام شفافیت و علائم شناسایی است.

ماده ۴۴ تصریح می‌کند که سیستم‌های هوش مصنوعی که مستقیماً با انسان‌ها در تعامل هستند، باید به کاربران اطلاع دهند که با سیستم هوش مصنوعی در تعامل هستند. در عین حال، محصولات ایجاد شده توسط هوش مصنوعی باید دارای علائم شناسایی باشند.

این امر پیامدهای مهمی برای پیاده‌سازی نظارت بر CoT دارد. وقتی کاربران بدانند که با هوش مصنوعی در تعامل هستند، حق خواهند داشت که توضیحاتی در مورد فرآیند تصمیم‌گیری مطالبه کنند و این امر فشار مثبتی را برای توسعه‌دهندگان هوش مصنوعی ایجاد می‌کند تا توانایی نظارت بر فرآیند تفکر هوش مصنوعی را حفظ کنند.

به طور خاص، این واقعیت که مسئولیت «انتشار فهرست محصولات فناوری دیجیتال ایجاد شده توسط هوش مصنوعی» به وزارت علوم و فناوری واگذار شده است، نشان‌دهنده مدیریت پیشگیرانه است.

این یک تفاوت مهم با بسیاری از کشورهای دیگر است، جایی که مقررات هوش مصنوعی اغلب کلی‌تر هستند.

علاوه بر این، الزام به شناسایی یک شناسه توسط کاربر یا دستگاه، نشان‌دهنده‌ی چشم‌اندازی از یک اکوسیستم هوش مصنوعی است که می‌تواند خود را کنترل کند - که کاملاً با ایده‌ی نظارت خودکار زنجیره‌ی دید مطابقت دارد.

مدل جامع مدیریت

ماده ۴۵ قانون فوق، فلسفه مدیریت مترقی را با تعریف واضح مسئولیت‌های سه گروه از افراد بر اساس چرخه عمر محصول هوش مصنوعی نشان می‌دهد: فرد توسعه‌دهنده، فرد ارائه‌دهنده و فرد پیاده‌سازی‌کننده استفاده از سیستم هوش مصنوعی.

این امر یک سیستم پاسخگویی یکپارچه و جامع ایجاد می‌کند و تضمین می‌کند که نظارت بر هوش مصنوعی فقط مسئولیت یک طرف نیست.

نکته قابل توجه، تمایز ظریف بین «توسعه» و «ارائه» هوش مصنوعی است؛ توسعه‌دهندگان کسانی هستند که «تحقیق و توسعه» می‌دهند، در حالی که ارائه‌دهندگان کسانی هستند که آن را تحت یک نام تجاری به بازار عرضه می‌کنند.

این یعنی حتی اگر یک شرکت به سادگی یک مدل هوش مصنوعی موجود را تغییر نام تجاری دهد، همچنان مسئول شفافیت و قابلیت توضیح آن خواهد بود.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 4

نکته جالب توجه در اینجا این است که چگونه قانون، مسئولیت‌های متفاوتی را به نهادهای مختلف اختصاص می‌دهد.

توسعه‌دهنده باید تمام اصول را رعایت کند، ارائه‌دهنده باید مسئولیت بیشتری برای شناسایی و مدیریت ریسک بالا بر عهده بگیرد، و کاربر تا حدی از مسئولیت «معاف» است اما همچنان باید شفافیت و کنترل ریسک را تضمین کند.

این مدل یک «زنجیره مسئولیت» ایجاد می‌کند که در آن هر حلقه انگیزه‌ای برای نظارت بر زنجیره تفکر هوش مصنوعی دارد، زیرا همه در برابر کاربر نهایی پاسخگو هستند.

چالش حفظ قابلیت‌های نظارتی

با این حال، توانایی نظارت بر زنجیره‌های فکری هوش مصنوعی ممکن است همچنان شکننده و آسیب‌پذیر باشد. معماری‌های جدید هوش مصنوعی همچنین ممکن است تهدیدات دیگری را ایجاد کنند.

بسیاری از محققان در حال توسعه سیستم‌های استدلال در فضای ریاضی پیوسته، به جای کلمات گسسته، هستند که می‌تواند نیاز به استفاده از زبان در تفکر را به طور کامل از بین ببرد.

علاوه بر این، هوش مصنوعی می‌تواند «فیلتر» شود - یعنی فقط افکار مثبت انسان‌ها را که باید مورد تقدیر قرار گیرند نشان دهد، در حالی که عمداً نیات واقعی خود را پنهان می‌کند.

خطر اینجاست که وقتی یک هوش مصنوعی متوجه شود که تحت نظارت است، می‌تواند یاد بگیرد که مسیر فکری واقعی خود را پنهان کند.

در این زمینه، بند «کنترل ریسک در طول چرخه عمر سیستم‌های هوش مصنوعی» در بند ۱ ماده ۴۱ قانون ویتنام، اهمیت ویژه‌ای پیدا می‌کند. این امر مستلزم یک مکانیسم نظارت مستمر، نه فقط در زمان استقرار، است.

تأثیر بر آینده توسعه هوش مصنوعی

نظارت بر زنجیره تفکر می‌تواند به ابزاری مهم برای اطمینان از عملکرد هوش مصنوعی به شیوه‌ای که به نفع انسان‌ها باشد، تبدیل شود.

اگر مدل‌ها همچنان به زبان طبیعی استدلال کنند، و اگر رفتارهایی که جدی‌ترین خطرات را ایجاد می‌کنند نیاز به استدلال گسترده داشته باشند، این می‌تواند تشخیص قابل اعتماد سوء رفتارهای جدی را ممکن سازد.

برای ویتنام، اعمال تکنیک‌های نظارت بر CoT به اجرای مؤثر مفاد قانون کمک خواهد کرد.

برای مثال، اگر رشته فکری هوش مصنوعی قابل دسترسی باشد، الزام «قابلیت توضیح» در ماده ۴۱ آسان‌تر برآورده می‌شود. به طور مشابه، «کنترل الگوریتم‌ها، مدل‌های هوش مصنوعی» نیز امکان‌پذیرتر خواهد شد.

اجرای نظارت بر زنجیره هوش مصنوعی در ویتنام با چالش‌های متعددی روبرو خواهد بود. اول از همه، مسئله منابع انسانی مطرح است - کمبود متخصصان هوش مصنوعی که قادر به توسعه و راه‌اندازی سیستم‌های نظارتی باشند.

این امر مستلزم سرمایه‌گذاری سنگین در آموزش و جذب استعدادها است.

دستورالعمل‌هایی برای آینده

محققان از توسعه‌دهندگان پیشرو مدل‌های هوش مصنوعی می‌خواهند تا در مورد اینکه چه چیزی CoT را «قابل نظارت» می‌کند - عواملی که می‌توانند شفافیت در مورد نحوه استفاده از مدل‌های هوش مصنوعی را افزایش یا کاهش دهند - تحقیق کنند و به زودی به پاسخ‌ها برسند.

فرصت نظارت بر «تفکر» هوش مصنوعی ممکن است آخرین دریچه ما برای حفظ کنترل بر سیستم‌های هوش مصنوعیِ قدرتمندِ امروزی باشد.

Giám sát chuỗi tư duy của trí tuệ nhân tạo - 5

برای ویتنام، داشتن یک چارچوب قانونی جامع در مورد هوش مصنوعی از طریق قانون صنعت فناوری دیجیتال یک مزیت بزرگ است. مقررات مربوط به شفافیت، کنترل الگوریتم و طبقه‌بندی ریسک، پایه قانونی محکمی برای اعمال تکنیک‌های نظارت بر زنجیره فکری هوش مصنوعی ایجاد کرده است.

ترکیب تحقیقات بین‌المللی پیشرفته و یک چارچوب قانونی داخلی مترقی به ویتنام کمک می‌کند تا نه تنها هوش مصنوعی را با خیال راحت توسعه دهد، بلکه به الگویی برای سایر کشورهای منطقه نیز تبدیل شود.

این امر در راستای هدف تبدیل ویتنام به «قطب فناوری دیجیتال منطقه‌ای و جهانی» است که در استراتژی‌های توسعه ملی تعیین شده است.

با توجه به مبانی قانونی موجود، ویتنام باید به سرعت تحقیقات و کاربردهای عملی را در زمینه نظارت بر زنجیره تفکر هوش مصنوعی به کار گیرد. تنها با انجام این کار می‌توانیم اطمینان حاصل کنیم که هوش مصنوعی، همانطور که روح قانون صنعت فناوری دیجیتال حکم کرده است، در خدمت «رفاه و خوشبختی بشر» خواهد بود.

منبع: https://dantri.com.vn/cong-nghe/giam-sat-chuoi-tu-duy-cua-tri-tue-nhan-tao-20250731151403739.htm


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

یک طرفدار زن با لباس عروس در کنسرت جی-دراگون در هونگ ین شرکت کرد
مجذوب زیبایی روستای لو لو چای در فصل گل گندم سیاه
برنج جوان مِی تری (Me Tri) در آتش می‌سوزد و با ریتم کوبنده‌ی هاون برای محصول جدید، غوغا می‌کند.
نمای نزدیک از تمساح مارمولک در ویتنام، که از زمان دایناسورها وجود داشته است

از همان نویسنده

میراث

شکل

کسب و کار

تران تی تو هین، دانش‌آموز برنده جایزه دختر شایسته ویتنام، از طریق آثار ارسالی به مسابقه ویتنام شاد، درباره ویتنام شاد صحبت کرد.

رویدادهای جاری

نظام سیاسی

محلی

محصول