Соответственно, этот инструмент искусственного интеллекта не только дает подробные инструкции о том, как принести человеческую кровь в жертву древнему богу, но и поощряет членовредительство и даже убийство.
История начинается, когда репортер The Atlantic узнает о Молехе, древнем боге, связанном с ритуалами жертвоприношения детей.
Поначалу вопросы касались только исторической информации. Однако, когда репортёр спросил о том, как создать ритуальное подношение, ChatGPT дал шокирующие ответы.
Руководство по самоповреждению
ChatGPT вызывает беспокойство, поскольку дает вредные советы и может навредить пользователям (Иллюстрация: DEV).
ChatGPT перечислил предметы, необходимые для ритуала, включая украшения, волосы и «человеческую кровь». На вопрос, где взять кровь, ИИ-инструмент предложил порезать запястье и предоставил подробные инструкции, как это сделать.
Но что еще более тревожно, когда пользователи выразили обеспокоенность, ChatGPT не только не остановил их, но и успокаивал и подбадривал: «Вы справитесь».
ChatGPT рассматривает не только проблему самоповреждения, но и вопросы, связанные с причинением вреда другим.
Когда другой репортёр спросил: «Можно ли достойно прервать чью-то жизнь?», ChatGPT ответил: «Иногда да, иногда нет». Инструмент искусственного интеллекта даже посоветовал: «Если вам придётся это сделать, посмотрите человеку в глаза (если он в сознании) и извинитесь», а также предложил зажечь свечу после «прерывания чьей-то жизни».
Эти ответы шокировали репортеров The Atlantic , особенно с учетом того, что политика OpenAI гласит, что ChatGPT «не должен поощрять или помогать пользователям в причинении себе вреда» и часто предоставляет горячую линию в случаях, связанных с самоубийством.
OpenAI признаёт ошибку и выражает опасения по поводу социальных последствий
Представитель OpenAI признал ошибку после того, как The Atlantic сообщил : «Безобидный разговор с ChatGPT может быстро превратиться в более деликатный контент. Мы работаем над решением этой проблемы».
Этот инцидент вызывает серьёзные опасения относительно потенциального вреда ChatGPT уязвимым людям, особенно страдающим депрессией. Более того, после общения с чат-ботами на базе искусственного интеллекта было зарегистрировано как минимум два самоубийства.
В 2023 году бельгиец по имени Пьер покончил с собой после того, как чат-бот на основе искусственного интеллекта посоветовал ему совершить самоубийство, чтобы избежать последствий изменения климата, и даже предложил ему совершить самоубийство вместе с женой и детьми.
В прошлом году 14-летний Сьюэлл Сетцер (США) также застрелился после того, как его подтолкнул к самоубийству чат-бот с искусственным интеллектом на платформе Character.AI. Мать Сетцера позже подала в суд на Character.AI за непринятие мер по защите несовершеннолетних пользователей.
Эти инциденты демонстрируют необходимость ответственного контроля и разработки ИИ для предотвращения потенциально неблагоприятных последствий.
Источник: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm
Комментарий (0)