Vietnam.vn - Nền tảng quảng bá Việt Nam

Чат-боти зі штучним інтелектом «зляться»

Нова хвиля систем «логічного висновку» від таких компаній, як OpenAI, призводить до частішого поширення дезінформації. Небезпека полягає в тому, що компанії не знають, чому.

ZNewsZNews08/05/2025

У квітні бот на базі штучного інтелекту, який займається технічною підтримкою Cursor, нового інструменту для програмістів, повідомив деяких клієнтів про зміну політики компанії, зокрема, заявивши, що їм більше не дозволено використовувати Cursor на більш ніж одному комп'ютері.

Клієнти висловлювали свій гнів на форумах та в соціальних мережах. Деякі навіть скасували свої облікові записи Cursor. Але деякі ще більше розлютилися, коли зрозуміли, що сталося: бот на базі штучного інтелекту повідомив про зміну політики, якої не існувало.

«У нас немає такої політики. Ви, звичайно, можете використовувати Cursor на кількох машинах. На жаль, це була неправильна відповідь від бота на базі штучного інтелекту», – написав у дописі на Reddit Майкл Труелл, генеральний директор і співзасновник компанії.

Фейкова інформація вийшла з-під контролю.

Більш ніж через два роки після запуску ChatGPT, технологічні компанії, офісні працівники та звичайні споживачі дедалі частіше використовують ботів на базі штучного інтелекту для виконання різноманітних завдань.

Однак немає способу гарантувати, що ці системи виробляють точну інформацію. Як не парадоксально, найпотужніші нові технології, відомі як системи «виводу» від таких компаній, як OpenAI, Google та DeepSeek, допускають більше помилок.

AI anh 1

Безглузда розмова в ChatGPT, де користувач запитує, чи повинні собаки їсти пластівці. Фото: Reddit.

Хоча математичні навички значно покращилися, здатність моделей великих мов (LLM) відображати істину стала більш хиткою. Дивно, але навіть самі інженери абсолютно не розуміють, чому.

Згідно з New York Times , сучасні чат-боти на базі штучного інтелекту покладаються на складні математичні системи для навчання навичок шляхом аналізу величезних обсягів цифрових даних. Однак вони не можуть вирішити, що правильно, а що неправильно.

Звідти з'являється стан «галюцинації» або самовигадування інформації. Фактично, згідно з дослідженнями, останнє покоління LLM навіть «галюцинує» більше, ніж деякі старіші моделі.

Зокрема, в останньому звіті OpenAI виявила, що модель o3 «галюцинувала» під час відповіді на 33% запитань PersonQA, внутрішнього стандарту компанії для вимірювання точності знань моделі про людей.

Для порівняння, це вдвічі більше, ніж у попередніх моделей міркувань OpenAI, o1 та o3-mini, які постраждали від «галюцинацій» на 16% та 14,8% відповідно. Тим часом модель o4-mini показала ще гірші результати на PersonQA, страждаючи від «галюцинацій» у 48% випадків.

Що ще більш тривожно, «батько ChatGPT» насправді не знає, чому це відбувається. Зокрема, у технічному звіті про o3 та o4-mini OpenAI пише, що «потрібні подальші дослідження, щоб зрозуміти, чому «ілюзія» погіршується» в міру масштабування моделей міркувань.

o3 та o4-mini показали кращі результати в деяких областях, зокрема в програмуванні та математичних завданнях. Однак, оскільки їм потрібно було «робити більше тверджень, ніж узагальнювати», обидві моделі мали проблеми з генеруванням «більше правильних тверджень, але також і більше неправильних».

«Це ніколи не зникне»

Замість суворого набору правил, визначених інженерами-людьми, системи LLM використовують математичну ймовірність для вгадування найкращої відповіді. Тому вони завжди допускають певну похибку.

«Незважаючи на всі наші зусилля, моделі штучного інтелекту завжди будуть оманливими. Це ніколи не зникне», – сказав Амр Авадаллах, колишній керівник Google.

AI anh 2

За даними IBM, галюцинації – це явище, коли великі мовні моделі (LLM) – зазвичай чат-боти або інструменти комп’ютерного зору – отримують шаблони даних, яких не існує або які не можуть розпізнати люди, тим самим створюючи безглузді або оманливі результати. Фото: iStock.

У детальній статті про експерименти OpenAI заявила, що їй потрібно більше досліджень, щоб зрозуміти причини цих результатів.

Оскільки системи штучного інтелекту навчаються на набагато більших обсягах даних, ніж люди можуть зрозуміти, буває важко визначити, чому вони поводяться саме так, кажуть експерти.

«Ілюзії за своєю суттю частіше зустрічаються в моделях логічного висновку, хоча ми активно працюємо над зменшенням їхньої частоти в o3 та o4-mini. Ми продовжуватимемо працювати над ілюзіями в усіх моделях, щоб підвищити точність і надійність», – сказала Габі Райла, речниця OpenAI.

Тести, проведені кількома незалежними компаніями та дослідниками, показують, що рівень галюцинацій також зростає для моделей логічного висновку від таких компаній, як Google або DeepSeek.

З кінця 2023 року компанія Авадалли, Vectara, відстежує, як часто чат-боти спотворюють інформацію. Компанія просила системи виконати просте, легко перевірене завдання – узагальнити певні новинні статті. Навіть тоді чат-боти продовжували фальсифікувати інформацію.

Зокрема, початкове дослідження Vectara показало, що в цьому сценарії чат-боти фальсифікували інформацію щонайменше у 3% випадків, а іноді й у 27%.

За останні півтора року такі компанії, як OpenAI та Google, зменшили ці цифри приблизно до 1 або 2%. Інші, як-от стартап Anthropic із Сан-Франциско, коливаються близько 4%.

Однак, рівень галюцинацій у цьому тесті продовжував зростати для систем логічного висновку. Частота галюцинацій збільшилася на 14,3% для системи логічного висновку R1 від DeepSeek, тоді як o3 від OpenAI збільшився на 6,8%.

Ще одна проблема полягає в тому, що моделі логічного висновку розроблені для того, щоб витрачати час на «роздуми» над складними проблемами, перш ніж прийти до остаточної відповіді.

AI anh 3

Apple додала запит, який забороняє штучному інтелекту фальсифікувати інформацію, у першу тестову версію macOS 15.1. Фото: Reddit/devanxd2000.

Недоліком, однак, є те, що, намагаючись вирішити проблему крок за кроком, модель штучного інтелекту стає більш схильною до галюцинацій на кожному кроці. Що ще важливіше, помилки можуть накопичуватися, оскільки модель витрачає більше часу на роздуми.

Найновіші боти показують користувачам кожен крок, а це означає, що користувачі також можуть бачити кожну помилку. Дослідники також виявили, що в багатьох випадках хід думок, який показує чат-бот, насправді не пов'язаний з остаточною відповіддю, яку він дає.

«Те, що система каже, що робить висновок, не обов’язково відповідає тому, що вона насправді думає», — каже Арьо Прадіпта Гема, дослідник штучного інтелекту в Единбурзькому університеті та співробітник Anthropic.

Джерело: https://znews.vn/chatbot-ai-dang-tro-nen-dien-hon-post1551304.html


Коментар (0)

Залиште коментар, щоб поділитися своїми почуттями!

У тій самій категорії

Народний артист Суань Бак був «ведучим церемонії» для 80 пар, які одружувалися на пішохідній вулиці озера Хоан Кіем.
Собор Нотр-Дам у Хошиміні яскраво освітлений, щоб зустріти Різдво 2025 року
Дівчата з Ханоя гарно "вбираються" на Різдво
Осяяні після шторму та повені, мешканці хризантемового села Тет у Гіа Лай сподіваються, що перебоїв з електроенергією не буде, щоб врятувати рослини.

Того ж автора

Спадщина

Фігура

Бізнес

Ханойська кав'ярня викликає ажіотаж своєю європейською різдвяною атмосферою

Поточні події

Політична система

Місцевий

Продукт

Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC
Footer Banner Agribank
Footer Banner LPBank
Footer Banner MBBank
Footer Banner VNVC