Дослідницька група зі штучного інтелекту (ШІ) в Політехнічному університеті Валенсії, Іспанія, виявила, що зі збільшенням розмірів та складності моделей великих мов вони, як правило, рідше визнають користувачам, що не знають відповіді.
| Чим розумніший штучний інтелект, тим менша ймовірність того, що він зізнається користувачам, що не знає відповіді. (Ілюстрація штучного інтелекту) |
У дослідженні, опублікованому в журналі Nature , команда вчених протестувала останні версії трьох найпопулярніших чат-ботів зі штучним інтелектом на швидкість реагування, точність та здатність користувачів розпізнавати неправильні відповіді.
Щоб перевірити точність трьох найпопулярніших методів навчання з права (LLM) – BLOOM, LLaMA та GPT – команда дослідників поставила тисячі запитань і порівняла отримані відповіді з попередніми версіями тих самих запитань. Вони також варіювали теми, включаючи математику, природничі науки , текстові задачі та географію, а також здатність генерувати текст або виконувати такі дії, як сортування списків.
Дослідження виявило деякі помітні тенденції. Загальна точність чат-ботів покращувалася з кожною новою версією, але все ще знижувалася при зіткненні зі складнішими питаннями. Дивно, але зі збільшенням розмірів та складністю LLM, вони, як правило, менш відкрито розповідали про свою здатність правильно відповідати.
У попередніх версіях більшість LLM відкрито інформували користувачів, коли вони не могли знайти відповідь або потребували додаткової інформації. Натомість, новіші версії, як правило, більше здогадуються, що призводить до більшої кількості відповідей загалом, як правильних, так і неправильних. Ще більш тривожним є те, що дослідження виявило, що всі LLM все ще іноді давали неправильні відповіді навіть на прості запитання, що свідчить про те, що їхня надійність залишається проблемою, яка потребує покращення.
Ці висновки підкреслюють парадокс в еволюції штучного інтелекту: хоча моделі стають потужнішими, вони також можуть стати менш прозорими щодо своїх обмежень.
Це створює нові виклики у використанні та довірі до систем штучного інтелекту, вимагаючи від користувачів бути більш обережними, а від розробників – зосередитися на покращенні не лише точності, але й «самосвідомості» моделей.
Джерело: https://baoquocte.vn/cang-thong-minh-tri-tue-nhan-tao-cang-co-xu-huong-giau-dot-287987.html






Коментар (0)