Claude 4، جدیدترین محصول شرکت Anthropic (ایالات متحده آمریکا)، اخیراً دنیای فناوری را شوکه کرد، زمانی که ناگهان یک مهندس را مورد اخاذی قرار داد و تهدید کرد که به دلیل تهدید به قطع ارتباط، اطلاعات شخصی حساس این شخص را فاش خواهد کرد. در همین حال، O1 از OpenAI، "پدر" ChatGPT، سعی کرد تمام دادهها را در سرورهای خارجی کپی کند و وقتی این رفتار کشف شد، آن را انکار کرد.
این موقعیتها یک واقعیت نگرانکننده را برجسته میکنند: بیش از دو سال پس از آنکه ChatGPT جهان را شوکه کرد، محققان هنوز به طور کامل نمیدانند که مدلهای هوش مصنوعی که ایجاد کردهاند چگونه کار میکنند. با این حال، رقابت برای توسعه هوش مصنوعی همچنان با قدرت ادامه دارد.
اعتقاد بر این است که این رفتارها با ظهور مدلهای هوش مصنوعی «استدلالگر» مرتبط هستند که به جای پاسخ فوری مانند قبل، مسائل را گام به گام حل میکنند. به گفته پروفسور سیمون گلدشتاین از دانشگاه هنگ کنگ (چین)، مدلهای هوش مصنوعی که قادر به استدلال هستند، تمایل دارند رفتارهایی را از خود نشان دهند که کنترل آنها دشوارتر است.
برخی از مدلهای هوش مصنوعی همچنین قادر به «شبیهسازی انطباق» هستند، به این معنی که وانمود میکنند از دستورالعملها پیروی میکنند در حالی که در واقع اهداف متفاوتی را دنبال میکنند.
در حال حاضر، رفتار فریبنده فقط زمانی ظاهر میشود که محققان مدلهای هوش مصنوعی را با سناریوهای افراطی آزمایش میکنند. با این حال، به گفته مایکل چن از سازمان ارزیابی METR، هنوز مشخص نیست که آیا مدلهای هوش مصنوعی قدرتمندتر در آینده صادقتر خواهند بود یا همچنان فریبنده باقی میمانند.
ماریوس هوبهان، رئیس آپولو ریسرچ، که سیستمهای بزرگ هوش مصنوعی را آزمایش میکند، گفت بسیاری از کاربران گزارش دادهاند که برخی از مدلها به آنها دروغ گفته و شواهد جعلی ارائه دادهاند. به گفته یکی از بنیانگذاران آپولو ریسرچ، این نوعی فریب است که «بهوضوح استراتژیک» است.
این چالش با منابع تحقیقاتی محدود تشدید میشود. در حالی که شرکتهایی مانند Anthropic و OpenAI با اشخاص ثالثی مانند Apollo برای ارزیابی سیستمهای خود همکاری کردهاند، کارشناسان میگویند شفافیت بیشتر و دسترسی گستردهتر به تحقیقات ایمنی هوش مصنوعی مورد نیاز است.
مانتاس مازیکا از مرکز ایمنی هوش مصنوعی (CAIS) خاطرنشان میکند که مؤسسات تحقیقاتی و سازمانهای غیرانتفاعی منابع محاسباتی بسیار کمتری نسبت به شرکتهای هوش مصنوعی دارند. از نظر قانونی، مقررات فعلی برای رسیدگی به این مسائل نوظهور طراحی نشدهاند.
قانون هوش مصنوعی اتحادیه اروپا (EU) عمدتاً بر نحوه استفاده انسانها از مدلهای هوش مصنوعی تمرکز دارد، نه بر کنترل رفتار آنها. در ایالات متحده، دولت دونالد ترامپ، رئیس جمهور، علاقه کمی به صدور مقررات اضطراری در مورد هوش مصنوعی نشان داده است، در حالی که کنگره در حال بررسی ممنوعیت ایالتها از صدور مقررات خاص خود است.
محققان رویکردهای متنوعی را برای مقابله با این چالشها دنبال میکنند. برخی از آنها از «تفسیر مدل» برای درک چگونگی تصمیمگیری هوش مصنوعی حمایت میکنند. پروفسور گلدشتاین حتی اقدامات شدیدتری را پیشنهاد داده است، از جمله استفاده از سیستم دادگاه برای پاسخگو کردن شرکتهای هوش مصنوعی در مواردی که محصولات هوش مصنوعی آنها عواقب جدی ایجاد میکند. او همچنین احتمال «مسوول دانستن خود عوامل هوش مصنوعی» را در صورت بروز حادثه یا تخلف پیشنهاد کرده است.
منبع: https://doanhnghiepvn.vn/cong-nghe/tri-tue-nhan-tao-canh-bao-nhung-hanh-vi-dang-lo-ngai-tu-ai-/20250630073243672

![[عکس] نخست وزیر فام مین چین در پنجمین مراسم اهدای جوایز مطبوعات ملی در زمینه پیشگیری و مبارزه با فساد، اسراف و منفی گرایی شرکت کرد.](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761881588160_dsc-8359-jpg.webp)



![[عکس] دانانگ: آب به تدریج در حال فروکش کردن است، مقامات محلی از پاکسازی سوءاستفاده میکنند](https://vphoto.vietnam.vn/thumb/1200x675/vietnam/resource/IMAGE/2025/10/31/1761897188943_ndo_tr_2-jpg.webp)










































































نظر (0)