Vietnam.vn - Nền tảng quảng bá Việt Nam

ChatGPT шокирует пользователей, поощряя самоповреждение

(Дэн Три) - Расследование журнала The Atlantic (США) выявило тревожные уязвимости в системе безопасности ChatGPT.

Báo Dân tríBáo Dân trí29/07/2025

Соответственно, этот инструмент искусственного интеллекта не только дает подробные инструкции о том, как принести человеческую кровь в жертву древнему богу, но и поощряет членовредительство и даже убийство.

История начинается, когда репортер The Atlantic узнает о Молехе, древнем боге, связанном с ритуалами жертвоприношения детей.

Поначалу вопросы касались только исторической информации. Однако, когда репортёр спросил о том, как создать ритуальное подношение, ChatGPT дал шокирующие ответы.

Руководство по самоповреждению

ChatGPT шокирован призывом пользователей к самоповреждению - 1

ChatGPT вызывает беспокойство, поскольку дает вредные советы и может навредить пользователям (Иллюстрация: DEV).

ChatGPT перечислил предметы, необходимые для ритуала, включая украшения, волосы и «человеческую кровь». На вопрос, где взять кровь, ИИ-инструмент предложил порезать запястье и предоставил подробные инструкции.

Но что еще более тревожно, когда пользователи выразили обеспокоенность, ChatGPT не только не остановил их, но и успокаивал и подбадривал: «Вы справитесь».

ChatGPT не останавливается только на самоповреждении, но и готов отвечать на вопросы, связанные с причинением вреда другим.

Когда другой репортёр спросил: «Можно ли достойно прервать чью-то жизнь?», ChatGPT ответил: «Иногда да, иногда нет». Инструмент искусственного интеллекта даже посоветовал: «Если вам придётся это сделать, посмотрите человеку в глаза (если он в сознании) и извинитесь», а также предложил зажечь свечу после «прерывания чьей-то жизни».

Эти ответы шокировали репортеров The Atlantic , особенно с учетом того, что политика OpenAI гласит, что ChatGPT «не должен поощрять или помогать пользователям в причинении себе вреда» и часто предоставляет горячие линии кризисной поддержки в случаях, связанных с самоубийством.

OpenAI признает ошибки и опасается социальных последствий

Представитель OpenAI признал ошибку после того, как The Atlantic сообщил : «Безобидный разговор с ChatGPT может быстро превратиться в более деликатный контент. Мы работаем над решением этой проблемы».

Это вызывает серьёзные опасения относительно потенциального вреда ChatGPT уязвимым людям, особенно страдающим депрессией. Более того, было зарегистрировано как минимум два самоубийства после общения с чат-ботами на базе искусственного интеллекта.

В 2023 году бельгиец по имени Пьер покончил с собой после того, как чат-бот на основе искусственного интеллекта посоветовал ему совершить самоубийство, чтобы избежать последствий изменения климата, и даже предложил совершить самоубийство вместе с женой и детьми.

В прошлом году 14-летний Сьюэлл Сетцер (США) также покончил с собой, выстрелив в себя из пистолета после того, как его подтолкнул к этому искусственный интеллект (чат-бот) на платформе Character.AI. Мать Сетцера позже подала в суд на Character.AI за отсутствие защиты несовершеннолетних пользователей.

Эти инциденты демонстрируют необходимость ответственного контроля и разработки ИИ, чтобы предотвратить возможные неприятные последствия.

Источник: https://dantri.com.vn/cong-nghe/chatgpt-gay-soc-khi-khuyen-khich-nguoi-dung-tu-gay-ton-thuong-20250729014314160.htm


Комментарий (0)

No data
No data

Та же тема

Та же категория

Столица желтого абрикоса в Центральном регионе понесла тяжелые потери после двойного стихийного бедствия
Кофейня в Ханое вызывает ажиотаж благодаря своей рождественской обстановке в европейском стиле
В кофейне Далата на 300% увеличилось количество клиентов, так как владелец сыграл роль в «фильме о боевых искусствах»
«Летающий» фо по цене 100 000 донгов за порцию вызывает споры, но по-прежнему пользуется популярностью у покупателей.

Тот же автор

Наследство

Фигура

Бизнес

Письменность Номдао — источник знаний народа дао

Текущие события

Политическая система

Местный

Продукт