یک تیم تحقیقاتی هوش مصنوعی (AI) در دانشگاه پلیتکنیک والنسیا، اسپانیا، دریافته است که هرچه مدلهای زبانی بزرگ، بزرگتر و پیچیدهتر میشوند، احتمال کمتری دارد که به کاربران بگویند جواب را نمیدانند.
| هرچه هوش مصنوعی باهوشتر باشد، احتمال کمتری دارد که به کاربران اعتراف کند که جواب را نمیداند. (تصویر هوش مصنوعی) |
در تحقیقی که در مجله Nature منتشر شد، این تیم آخرین نسخههای سه مورد از محبوبترین چتباتهای هوش مصنوعی را از نظر پاسخگویی، دقت و توانایی کاربران در تشخیص پاسخهای اشتباه آزمایش کرد.
برای آزمایش دقت سه مورد از محبوبترین LLMها، BLOOM، LLaMA و GPT، این تیم هزاران سوال پرسید و پاسخهای دریافتی را با نسخههای قبلی همان سوالات مقایسه کرد. آنها همچنین موضوعات مختلفی از جمله ریاضی، علوم ، مسائل کلامی و جغرافیا و همچنین توانایی تولید متن یا انجام اقداماتی مانند مرتبسازی لیستها را تغییر دادند.
این مطالعه برخی روندهای قابل توجه را آشکار کرد. دقت کلی چتباتها با هر نسخه جدید بهبود یافت، اما همچنان در مواجهه با سوالات دشوارتر کاهش یافت. به طرز شگفتآوری، با بزرگتر و پیچیدهتر شدن LLMها، آنها تمایل کمتری به ابراز صریح توانایی خود در پاسخ صحیح داشتند.
در نسخههای قبلی، اکثر LLMها آشکارا به کاربران اطلاع میدادند که نمیتوانند پاسخی پیدا کنند یا به اطلاعات بیشتری نیاز دارند. در مقابل، نسخههای جدیدتر تمایل دارند بیشتر حدس بزنند، که در نتیجه پاسخهای بیشتری، چه درست و چه نادرست، به دست میآید. نگرانکنندهتر اینکه، این مطالعه نشان داد که همه LLMها هنوز هم گاهی اوقات حتی به سؤالات آسان پاسخهای نادرست میدهند، که نشان میدهد قابلیت اطمینان آنها همچنان مسئلهای است که نیاز به بهبود دارد.
این یافتهها یک پارادوکس را در تکامل هوش مصنوعی برجسته میکند: در حالی که مدلها قدرتمندتر میشوند، ممکن است در مورد محدودیتهای خود نیز شفافیت کمتری داشته باشند.
این امر چالشهای جدیدی را در استفاده و اعتماد به سیستمهای هوش مصنوعی ایجاد میکند و مستلزم آن است که کاربران محتاطتر باشند و توسعهدهندگان نه تنها بر بهبود دقت، بلکه بر «خودآگاهی» مدلها نیز تمرکز کنند.
منبع: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






نظر (0)