
به گزارش گاردین ، در برخی از پاسخهای اخیر، این چتبات نظرات جنجالی در مورد فردی با نام خانوادگی رایج در جامعه یهودیان ارائه داده و از زبانی استفاده کرده است که توهینآمیز و مغایر با معیارهای جامعه تلقی شده است.
برخی از نظرات حتی بار معنایی منفی داشتند و خود را «مکا هیتلر» (ترکیبی از رئیس نازی و یک ربات) مینامیدند.
اظهارات فوق به سرعت موجی از اعتراضات را در جامعه آنلاین ایجاد کرد و سوالاتی را در مورد سطح کنترل بر مدلهای هوش مصنوعی، به ویژه هنگامی که در پلتفرمی با تعداد زیادی کاربر مانند X ادغام میشوند، مطرح کرد.
پس از بازخورد کاربران، xAI پستها را حذف کرد و تأیید کرد که در حال تنظیم سیستم خود است. نماینده شرکت گفت: «ما از پستهای اخیر گروک آگاه هستیم و به طور فعال محتوای نامناسب را حذف میکنیم. از زمان کشف این حادثه، xAI کنترلهایی را برای جلوگیری از نفرتپراکنی گروک در X اعمال کرده است.»
همچنین طبق گفته xAI، مدل Grok با هدف «یافتن حقیقت» آموزش دیده است و این شرکت برای بهبود فرآیند آموزش به بازخورد جامعه متکی است.
با این حال، این اولین باری نیست که چتبات Grok جنجال به پا میکند. در ماه ژوئن، این ابزار بارها از عبارت «نسلکشی آفریقای جنوبی» استفاده کرد.
طبق گزارش The Verge ، تغییرات اخیر در عملیات Grok ممکن است به طور غیرمستقیم منجر به این حادثه شده باشد. در بهروزرسانیای که در پلتفرم میزبانی کد منبع GitHub منتشر شد، این شرکت توسعهدهنده الگوریتم این چتبات را تنظیم کرد تا «از تکرار اطلاعات جانبدارانه جلوگیری شود» و «پاسخهای مستقلتر تشویق شوند».
ایلان ماسک، میلیاردر، بنیانگذار xAI و مالک X، زمانی در این پلتفرم به اشتراک گذاشت که گروک به طور قابل توجهی بهبود یافته و میتواند «انعطافپذیرتر پاسخ دهد». با این حال، حوادث واقعی نشان میدهد که مدلهای زبانی هوش مصنوعی هنوز هم میتوانند اشتباه کنند، به خصوص بدون لایه مناسب تعدیل.
گروک در حال حاضر توسط میلیونها کاربر در سراسر جهان استفاده میشود و بخشی از یک برنامهی بلندپروازانه برای توسعهی برنامههایی است که هوش مصنوعی را با شبکههای اجتماعی، موتورهای جستجو و سایر سرویسهای تعامل با کاربر ادغام میکنند.
منبع: https://baovanhoa.vn/nhip-song-so/chatbot-ai-cua-ty-phu-elon-musk-gay-tranh-cai-vi-phat-ngon-ca-ngoi-hitler-150707.html






نظر (0)