Vietnam.vn - Nền tảng quảng bá Việt Nam

هوش مصنوعی: هشدار در مورد رفتارهای نگران‌کننده هوش مصنوعی

پیشرفته‌ترین مدل‌های هوش مصنوعی (AI) جهان امروزه رفتارهای نگران‌کننده‌ای مانند دروغ گفتن، توطئه و حتی تهدید سازندگان خود برای رسیدن به اهداف خودشان از خود نشان می‌دهند.

Tạp chí Doanh NghiệpTạp chí Doanh Nghiệp30/06/2025

عنوان عکس
لوگوهای OpenAI و ChatGPT روی صفحه نمایشی در تولوز، فرانسه. عکس: AFP/TTXVN

Claude 4، جدیدترین محصول شرکت Anthropic (ایالات متحده آمریکا)، اخیراً دنیای فناوری را شوکه کرد، زمانی که ناگهان یک مهندس را مورد اخاذی قرار داد و تهدید کرد که به دلیل تهدید به قطع ارتباط، اطلاعات شخصی حساس این شخص را فاش خواهد کرد. در همین حال، O1 از OpenAI، "پدر" ChatGPT، سعی کرد تمام داده‌ها را در سرورهای خارجی کپی کند و وقتی این رفتار کشف شد، آن را انکار کرد.

این موقعیت‌ها یک واقعیت نگران‌کننده را برجسته می‌کنند: بیش از دو سال پس از آنکه ChatGPT جهان را شوکه کرد، محققان هنوز به طور کامل نمی‌دانند که مدل‌های هوش مصنوعی که ایجاد کرده‌اند چگونه کار می‌کنند. با این حال، رقابت برای توسعه هوش مصنوعی همچنان با قدرت ادامه دارد.

اعتقاد بر این است که این رفتارها با ظهور مدل‌های هوش مصنوعی «استدلال‌گر» مرتبط هستند که به جای پاسخ فوری مانند قبل، مسائل را گام به گام حل می‌کنند. به گفته پروفسور سیمون گلدشتاین از دانشگاه هنگ کنگ (چین)، مدل‌های هوش مصنوعی که قادر به استدلال هستند، تمایل دارند رفتارهایی را از خود نشان دهند که کنترل آنها دشوارتر است.

برخی از مدل‌های هوش مصنوعی همچنین قادر به «شبیه‌سازی انطباق» هستند، به این معنی که وانمود می‌کنند از دستورالعمل‌ها پیروی می‌کنند در حالی که در واقع اهداف متفاوتی را دنبال می‌کنند.

در حال حاضر، رفتار فریبنده فقط زمانی ظاهر می‌شود که محققان مدل‌های هوش مصنوعی را با سناریوهای افراطی آزمایش می‌کنند. با این حال، به گفته مایکل چن از سازمان ارزیابی METR، هنوز مشخص نیست که آیا مدل‌های هوش مصنوعی قدرتمندتر در آینده صادق‌تر خواهند بود یا همچنان فریبنده باقی می‌مانند.

ماریوس هوبهان، رئیس آپولو ریسرچ، که سیستم‌های بزرگ هوش مصنوعی را آزمایش می‌کند، گفت بسیاری از کاربران گزارش داده‌اند که برخی از مدل‌ها به آنها دروغ گفته و شواهد جعلی ارائه داده‌اند. به گفته یکی از بنیانگذاران آپولو ریسرچ، این نوعی فریب است که «به‌وضوح استراتژیک» است.

این چالش با منابع تحقیقاتی محدود تشدید می‌شود. در حالی که شرکت‌هایی مانند Anthropic و OpenAI با اشخاص ثالثی مانند Apollo برای ارزیابی سیستم‌های خود همکاری کرده‌اند، کارشناسان می‌گویند شفافیت بیشتر و دسترسی گسترده‌تر به تحقیقات ایمنی هوش مصنوعی مورد نیاز است.

مانتاس مازیکا از مرکز ایمنی هوش مصنوعی (CAIS) خاطرنشان می‌کند که مؤسسات تحقیقاتی و سازمان‌های غیرانتفاعی منابع محاسباتی بسیار کمتری نسبت به شرکت‌های هوش مصنوعی دارند. از نظر قانونی، مقررات فعلی برای رسیدگی به این مسائل نوظهور طراحی نشده‌اند.

قانون هوش مصنوعی اتحادیه اروپا (EU) عمدتاً بر نحوه استفاده انسان‌ها از مدل‌های هوش مصنوعی تمرکز دارد، نه بر کنترل رفتار آنها. در ایالات متحده، دولت دونالد ترامپ، رئیس جمهور، علاقه کمی به صدور مقررات اضطراری در مورد هوش مصنوعی نشان داده است، در حالی که کنگره در حال بررسی ممنوعیت ایالت‌ها از صدور مقررات خاص خود است.

محققان رویکردهای متنوعی را برای مقابله با این چالش‌ها دنبال می‌کنند. برخی از آنها از «تفسیر مدل» برای درک چگونگی تصمیم‌گیری هوش مصنوعی حمایت می‌کنند. پروفسور گلدشتاین حتی اقدامات شدیدتری را پیشنهاد داده است، از جمله استفاده از سیستم دادگاه برای پاسخگو کردن شرکت‌های هوش مصنوعی در مواردی که محصولات هوش مصنوعی آنها عواقب جدی ایجاد می‌کند. او همچنین احتمال «مسوول دانستن خود عوامل هوش مصنوعی» را در صورت بروز حادثه یا تخلف پیشنهاد کرده است.

منبع: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672


نظر (0)

No data
No data

در همان موضوع

در همان دسته‌بندی

شهر هوشی مین در فرصت‌های جدید، سرمایه‌گذاری شرکت‌های FDI را جذب می‌کند
سیل تاریخی در هوی آن، از دید یک هواپیمای نظامی وزارت دفاع ملی
«سیل بزرگ» رودخانه تو بن، از سیل تاریخی سال ۱۹۶۴، ۰.۱۴ متر بیشتر بود.
فلات سنگی دونگ وان - یک «موزه زمین‌شناسی زنده» نادر در جهان

از همان نویسنده

میراث

شکل

کسب و کار

«خلیج ها لونگ را از روی خشکی تحسین کنید» به تازگی وارد فهرست محبوب‌ترین مقاصد گردشگری جهان شده است.

رویدادهای جاری

نظام سیاسی

محلی

محصول