ИИ работает лучше всего, когда ему дают задачи для решения, имеющие четкие процессы и фиксированные формулы. Но когда речь идет о ситуациях, требующих субъективного суждения или связанных с личными предпочтениями, ИИ может совершать ошибки, как и люди. Фото: ИИ
В новом исследовании, опубликованном в журнале Manufacturing & Service Operations Management учеными из пяти университетов Канады и Австралии, оценивалось поведение ChatGPT (в частности, двух моделей OpenAI GPT-3.5 и GPT-4) с точки зрения 18 основных когнитивных искажений, обычно встречающихся в психологии человека, таких как: предвзятость подтверждения, эффект владения, заблуждение невозвратных затрат, психология определенности...
Результаты показали, что почти в половине протестированных ситуаций ChatGPT вел себя точно так же, как человек, сталкиваясь с нерациональным или эмоциональным выбором, несмотря на репутацию системы в плане последовательного логического мышления.
Действительно ли ИИ настолько «беспристрастен», как ожидается?
Доктор Ян Чен, доцент кафедры операционного менеджмента в Ivey Business School (Канада) и ведущий автор исследования, прокомментировал: «ИИ работает лучше всего, когда ему поручают решать проблемы с четкими процессами и фиксированными формулами. Но когда речь идет о ситуациях, требующих субъективного суждения или связанных с личными предпочтениями, ИИ может совершать ошибки, как и люди».
Исследовательская группа включила в ChatGPT знакомые гипотетические ситуации из психологии, добавив практические контексты, такие как управление запасами или переговоры с поставщиками.
Стоит отметить, что модели ИИ по-прежнему демонстрируют когнитивную предвзятость, даже когда контекст вопроса трансформируется из абстрактного в деловую реальность.
GPT-4 умнее, но не идеален
GPT-4 — это усовершенствованная версия GPT-3.5, которая отлично подходит для решения логических и вероятностных задач. Однако в субъективных симуляциях, таких как выбор рискованного варианта для увеличения прибыли, GPT-4 проявил более эмоциональную тенденцию, чем люди.
В частности, в исследовании отмечено, что GPT-4 постоянно давал предвзятые ответы в ситуациях тестирования на предвзятость подтверждения и был более подвержен «ошибке горячих рук» — тенденции полагать, что случайные события будут повторяться в серии, — чем GPT-3.5.
Напротив, ИИ способен избежать некоторых предубеждений, которые часто допускают люди, таких как игнорирование базовой ставки или ошибка невозвратных затрат.
Причина, по которой ChatGPT демонстрирует человеческую предвзятость, кроется в самих обучающих данных, которые полны наших собственных предвзятых поведений и мышления. Фото: AI
Происхождение предвзятости ИИ: из человеческих данных
По мнению исследовательской группы, причина, по которой ChatGPT демонстрирует предвзятость, свойственную человеку, кроется в самих обучающих данных, которые полны наших собственных предвзятых моделей поведения и мышления. Тот факт, что ИИ настраивается на основе обратной связи от человека, еще больше усиливает эту тенденцию, поскольку модель «вознаграждается» за ответы, которые кажутся разумными, а не абсолютно точными.
«Чтобы получить точные и беспристрастные результаты, используйте ИИ для задач, которые вы уже доверяете компьютеру», — рекомендует доктор Чен. «Но если вам приходится иметь дело со стратегическими или эмоциональными проблемами, людям все равно нужно контролировать и вмешиваться, даже если это просто перефразирование вопроса».
«ИИ следует рассматривать как сотрудника, обладающего важными полномочиями по принятию решений, а это значит, что его необходимо контролировать и соблюдать этические нормы. В противном случае мы непреднамеренно автоматизируем ошибочное мышление вместо того, чтобы улучшать его», — считает соавтор Мина Андиаппан, доцент кафедры кадровых ресурсов и управления в Университете Макмастера (Канада).
Источник: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Комментарий (0)