Новое исследование, опубликованное в научном журнале Proceedings of the National Academy of Sciences (PNAS), показывает, что, хотя генеративный ИИ, такой как ChatGPT, может помочь работникам выполнять задачи быстрее и эффективнее, это имеет социальную цену: окружающие с большей вероятностью будут считать их ленивыми, некомпетентными или некомпетентными.

Исследование, проведённое группой социологов, основано на теории атрибуции – идее о том, что люди склонны интерпретировать действия других, основываясь на их внутренних мотивах или способностях, а не на обстоятельствах. Например, просьба о помощи иногда воспринимается как признак личной слабости. Аналогично, использование ИИ может быть воспринято как недостаток способностей или усилий, а не как действенный инструмент повышения эффективности.

chatgpt adobe stock
Людей, использующих ChatGPT на работе, обвиняют в лени и некомпетентности. Фото: Adobe Stock

В четырёх экспериментах с участием более 4400 человек команда получила впечатляющие результаты. В первом эксперименте участники представляли, как выполняют задачу с помощью ИИ или традиционных инструментов, а затем предсказывали, как их оценят коллеги и руководители. Эти люди боялись показаться ленивыми, заменимыми и менее усердными. Они заявили, что не хотят афишировать использование ИИ.

Второй эксперимент показал, что эта предвзятость действительно присутствует. Участников попросили оценить гипотетического сотрудника: того, кто использовал ИИ, того, кто обратился за помощью к коллеге, и того, кто сделал это сам. Пользователи ИИ воспринимались как более ленивые, менее компетентные, менее усердные и менее независимые, чем две другие группы. Примечательно, что это восприятие сохранялось независимо от пола, возраста или отрасли изображённого сотрудника.

Третий эксперимент проверял, влияют ли эти предубеждения на фактические решения. Одна группа участников выступала в роли рекрутеров, отбирая кандидатов на основе того, используют ли они ИИ в своей работе. Группа рекрутеров, не знакомых с ИИ, как правило, выбирала кандидатов, которые также не используют ИИ. Напротив, те, кто часто использует ИИ, чувствовали себя более комфортно и, как правило, выбирали кандидатов, которые его используют. Это говорит о том, что личный опыт работы с технологией оказывает большое влияние на отношение оценщиков.

В заключительном эксперименте команда исследовала, могут ли конкретные рабочие ситуации повлиять на эту предвзятость. Когда кандидаты претендовали на цифровые задачи, например, на написание электронных писем, пользователи ИИ не воспринимались как ленивые и даже оценивались выше. Однако, когда кандидаты претендовали на ручные задачи, например, на ведение заметок от руки, пользователи ИИ всё равно оценивались ниже. Результаты показали, что наиболее сильные предвзятости возникали, когда пользователи ИИ выполняли задачи, не требующие ИИ.

Интересно, что участники, признавшиеся в регулярном использовании ИИ, реже осуждали других, что позволяет предположить, что знакомство с людьми и реальный опыт могут снизить стигматизацию. Ведущий автор Джессика Рейф, докторант Школы бизнеса Фукуа Университета Дьюка, рассказала, что начала проект после того, как сотрудники выразили обеспокоенность по поводу осуждения при использовании ИИ, хотя их производительность труда не снизилась.

Данное исследование обладает методологическими преимуществами, такими как тщательно сконструированные контрольные ситуации. Однако автор также признаёт ограничения, такие как гипотетические ситуации, а не фактические наблюдения, и отсутствие у оценщиков прямых контактов с оцениваемыми людьми, что может отличаться в реальной рабочей среде.

Эти результаты подчёркивают, что, хотя ИИ становится полезным инструментом повышения производительности, при его использовании необходимо учитывать влияние на личный имидж и репутацию. Результаты исследования напоминают: чтобы ИИ действительно стал эффективным помощником, сама рабочая среда должна изменить своё восприятие, избегая поспешного навешивания ярлыков на пользователей ИИ как некомпетентных или ленивых. Кроме того, работникам, помимо умения использовать технологии, следует сохранять прозрачность, развивая навыки и формируя личные качества, чтобы не «раствориться» в образе, создаваемом ИИ.

(По данным PsyPost)

Трафик веб-сайтов резко упал после появления ChatGPT и поиска с использованием искусственного интеллекта . Трафик с ChatGPT на новостные сайты растёт, но недостаточно, чтобы компенсировать спад, поскольку пользователи всё чаще читают новости непосредственно из чат-ботов или результатов поиска с использованием искусственного интеллекта.

Источник: https://vietnamnet.vn/su-dung-chatgpt-trong-cong-vic-bi-danh-gia-luoi-bieng-kem-nang-luc-2422059.html