Vietnam.vn - Nền tảng quảng bá Việt Nam

Предупреждение о том, что ChatGPT обладает «галлюциногенными» свойствами.

Недавние исследования показали, что GPT o3 и o4-mini — самые мощные модели в продуктовом портфеле OpenAI — фабрикуют еще больше ложной информации, чем их предшественники.

ZNewsZNews20/04/2025

Две новые модели ChatGPT демонстрируют более высокую частоту генерации сфабрикованной информации по сравнению с предыдущим поколением. Фото: Fireflies .

Всего через два дня после анонса GPT-4.1 компания OpenAI официально представила не одну, а две новые модели, получившие названия o3 и o4-mini. Обе модели демонстрируют превосходные возможности логического мышления и множество существенных улучшений.

Однако, по данным TechCrunch , эти две новые модели по-прежнему страдают от «галлюцинаций» или самообмана. Фактически, они демонстрируют больше галлюцинаций, чем некоторые из старых моделей OpenAI.

По данным IBM, галлюцинации — это феномен, при котором большие языковые модели (LLM) — часто это чат-боты или инструменты компьютерного зрения — получают данные о шаблонах, которые не существуют или не распознаются человеком, в результате чего получаются бессмысленные или неточные результаты.

Иными словами, пользователи часто ожидают от ИИ точных результатов, основанных на обученных данных. Однако в некоторых случаях результаты ИИ не соответствуют действительности, выдавая «ложный» ответ.

В своем последнем отчете компания OpenAI обнаружила, что модель o3 оказалась «иллюзорной» при ответе на 33% вопросов в PersonQA, внутреннем стандарте компании для измерения точности знаний модели о людях.

Для сравнения, этот показатель вдвое превышает частоту «иллюзий» у предыдущих моделей рассуждений OpenAI, o1 и o3-mini, которые составляли 16% и 14,8% соответственно. Между тем, модель O4-mini показала еще худшие результаты на PersonQA, испытывая «иллюзии» в течение 48% времени тестирования.

Что еще более тревожно, «отец ChatGPT» на самом деле не знает, почему это происходит. В частности, в своем техническом отчете по o3 и o4-mini компания OpenAI заявляет, что «необходимы дальнейшие исследования, чтобы понять, почему „галлюцинации“ усиливаются» при масштабировании моделей рассуждений.

Модели O3 и o4-mini показывают лучшие результаты в некоторых областях, включая программирование и математические задачи. Однако, поскольку им необходимо «делать больше утверждений, чем просто общих утверждений», обе модели приводят к «более точным, но и более неточным утверждениям».

Источник: https://znews.vn/canh-bao-ve-chatgpt-ao-giac-post1547242.html


Комментарий (0)

Оставьте комментарий, чтобы поделиться своими чувствами!

Та же категория

Тот же автор

Наследство

Фигура

Предприятия

Актуальные события

Политическая система

Местный

Продукт

Happy Vietnam
А80

А80

Спокойный полдень у лагуны Най.

Спокойный полдень у лагуны Най.

Теплая зима для тебя

Теплая зима для тебя