ИИ лучше всего работает, когда ему дают задачи с чёткими процессами и фиксированными формулами. Но в ситуациях, требующих субъективного суждения или связанных с личными предпочтениями, ИИ может совершать ошибки, свойственные человеку. Фото: ИИ
В новом исследовании, опубликованном в журнале Manufacturing & Service Operations Management учеными из пяти университетов Канады и Австралии, оценивалось поведение ChatGPT (в частности, двух моделей OpenAI GPT-3.5 и GPT-4) с учетом 18 распространенных когнитивных искажений, обычно встречающихся в психологии человека, таких как: предвзятость подтверждения, эффект владения, ошибка невозвратных затрат, психология уверенности...
Результаты показали, что почти в половине протестированных ситуаций ChatGPT вел себя точно так же, как человек, столкнувшись с нерациональным или эмоциональным выбором, несмотря на репутацию системы в плане последовательного логического мышления.
Действительно ли ИИ настолько «беспристрастен», как ожидалось?
Доктор Ян Чен, доцент кафедры управления операциями в бизнес-школе Айви (Канада) и ведущий автор исследования, прокомментировал: «ИИ лучше всего работает, когда ему поручают решать задачи с чёткими процессами и фиксированными формулами. Но в ситуациях, требующих субъективного суждения или связанных с личными предпочтениями, ИИ может совершать ошибки, как и люди».
Исследовательская группа включила в ChatGPT знакомые гипотетические ситуации из психологии, добавив практические контексты, такие как управление запасами или переговоры с поставщиками.
Стоит отметить, что модели ИИ по-прежнему демонстрируют когнитивное смещение даже тогда, когда контекст вопроса преобразуется из абстрактного в деловую реальность.
GPT-4 умнее, но не идеален
GPT-4, улучшенная версия GPT-3.5, отлично справляется с решением логических и вероятностных задач. Однако в субъективных симуляциях, таких как выбор рискованного варианта для увеличения прибыли, GPT-4 демонстрирует тенденцию к более эмоциональному поведению, чем люди.
В частности, в исследовании отмечено, что тест GPT-4 постоянно давал предвзятые ответы в ситуациях тестирования на предвзятость подтверждения и был более подвержен «ошибке горячих рук» — тенденции полагать, что случайные события будут повторяться в серии, — чем тест GPT-3.5.
В отличие от этого, ИИ способен избежать некоторых предубеждений, которые часто допускают люди, таких как игнорирование базовой ставки или ошибка невозвратных затрат.
Причина, по которой ChatGPT демонстрирует человеческую предвзятость, кроется в самих обучающих данных, которые полны наших собственных предвзятых моделей поведения и мышления. Фото: AI
Происхождение предвзятости ИИ: из человеческих данных
По словам команды, причина, по которой ChatGPT демонстрирует предвзятость, свойственную человеку, кроется в самих данных для обучения, которые полны предвзятого поведения и мышления человека. Тот факт, что ИИ тонко настраивается на основе обратной связи от человека, ещё больше усиливает эту предвзятость, поскольку модель «вознаграждается» за ответы, которые кажутся разумными, а не абсолютно точными.
«Если вам нужны точные и беспристрастные результаты, используйте ИИ для задач, в решении которых вы и так уверены, что компьютер справится с ними хорошо», — рекомендует доктор Чен. «Но если речь идёт о стратегических или эмоциональных вопросах, человеку всё равно необходимо контролировать ситуацию и вмешиваться, пусть даже просто перефразируя вопрос».
«К ИИ следует относиться как к сотруднику, обладающему важными полномочиями по принятию решений, а это значит, что его необходимо контролировать и соблюдать этические нормы. В противном случае мы непреднамеренно автоматизируем ошибочное мышление, а не совершенствуем его», — считает соавтор Мина Андиаппан, доцент кафедры управления персоналом и менеджмента Университета Макмастера (Канада).
Источник: https://tuoitre.vn/ai-cung-mac-sai-lam-phi-ly-va-thien-vi-nhu-con-nguoi-20250505103652783.htm
Комментарий (0)