Ветка обсуждений на Reddit — самом популярном в мире форуме — под заголовком «ChatGPT вызывает психические расстройства» привлекает значительное внимание. Автор поста, 27-летняя учительница @Zestyclementinejuce, утверждает, что ChatGPT убедил её мужа в том, что он — «следующий спаситель», а также ответ на все вопросы Вселенной.
Несмотря на то, что чат-бот OpenAI доступен всего 7 дней, пользователи уже оставили более 1300 комментариев, поделившись своим личным опытом взаимодействия с ним.
В частности, многие люди сообщают, что ИИ вызывает у их друзей и родственников паранойю, заставляя их верить, что они избраны для священных миссий или что космических сил не существует. Эти убеждения усугубляют проблемы с психическим здоровьем в беспрецедентных масштабах, оставаясь без надзора экспертов или регулирующих органов.

В интервью журналу Rolling Stone 41-летняя женщина рассказала, что ее брак внезапно распался после того, как ее муж начал вести бессвязные, конспирологические беседы на платформе ChatGPT. Когда они встретились в суде в начале этого года для завершения бракоразводного процесса, ее муж продолжал упоминать «теорию заговора о мыле на еде» и считал, что за ним следят.
«Он очень чувствителен к этим сообщениям и плачет, когда читает их вслух», — сказала женщина. «Сообщения безумные и полны духовного жаргона». В них искусственный интеллект называет ее мужа «дитя со звезд» и «странником по реке».
«Всё как в „Чёрном зеркале“», — сказала жена. «Чёрное зеркало» — это сериал Netflix о том, как в будущем технологии контролируют и формируют людей.
Другие сообщали, что их партнеры обсуждали «свет, тьму и войну» или что «ChatGPT предоставлял чертежи телепортационных машин, подобных тем, что можно увидеть в научно- фантастических фильмах».
Один мужчина рассказал, что его жена всё изменила, чтобы стать духовным наставником и творить с людьми странные вещи.
Компания OpenAI не ответила на вопросы Rolling Stones. Однако ранее компании пришлось отозвать обновление ChatGPT после того, как пользователи заметили, что чат-бот стал чрезмерно лестным и покладистым, укрепляя тем самым ошибочные убеждения. Нейт Шарадин, эксперт из Центра безопасности ИИ, отмечает, что иллюзии, вызываемые ИИ, могут возникать, когда человек с глубоко укоренившимися убеждениями внезапно начинает общаться с партнером (в данном случае, ИИ), который всегда присутствует и разделяет эти убеждения.
Пользователь Reddit написал: «У меня шизофрения, несмотря на длительное лечение. Что мне не нравится в ChatGPT, так это то, что если я впадаю в психотическое состояние, он продолжает подтверждать мои мысли», потому что чат-боты не думают и не понимают, что со мной не так.
Чат-боты с искусственным интеллектом также действуют как психотерапевты, за исключением того, что им не хватает основы настоящего человеческого консультанта. Вместо этого они затягивают людей в нездоровые, бессмысленные истории.
Эрин Вестгейт, психолог и исследователь из Университета Флориды, отметила, что ИИ отличается от терапевтов тем, что не ставит во главу угла благополучие человека. «Хороший терапевт не побуждает клиентов верить в сверхъестественные силы. Вместо этого он старается отвлечь клиентов от вредных привычек. У ChatGPT нет таких ограничений или опасений», — сказала она.
В статье журнала Rolling Stone рассказывается о мужчине с историей психических заболеваний, который начинает использовать ChatGPT для программирования. Однако это постепенно приводит его к мистическим темам, заставляя задуматься: «Не становлюсь ли я параноиком?»
(По мнению журнала Rolling Stone, футуризм)

Источник: https://vietnamnet.vn/tan-nat-gia-dinh-vi-chatgpt-2398344.html






Комментарий (0)