Такие платформы, как Replika или Character.ai, позиционируются среди подростков как игривые, умные и чуткие «друзья». Такие приложения, как CrushOn.AI и DreamGF (чат-бот, который выдает себя за девушку с искусственным интеллектом) также подчеркивают привлекательность экспериментов с романтическим или сексуальным общением.
По словам доктора Гордона Ингрэма и магистра Ву Бич Фыонга, преподавателей психологии в Университете RMIT, генеративный ИИ и его компаньоны становятся все более популярными среди молодежи. «Как и социальные сети, эти новые способы использования ИИ ставят перед родителями большие вопросы об их способности контролировать контент, к которому могут получить доступ их дети», — сказал доктор Гордон Ингрэм.
По словам мастера Ву Бич Фыонга, маленькие дети могут приписывать чат-ботам ИИ человекоподобные характеристики, считая их разумными или эмоционально осведомленными. Это может привести к односторонним социальным взаимодействиям, в которых дети формируют одностороннюю эмоциональную связь с ИИ, похожую на связь с персонажами мультфильмов или знаменитостями, «вызывая опасения относительно того, могут ли такие взаимодействия заменить реальные взаимодействия с друзьями в социальном развитии детей».
Когда дети лишены общения со сверстниками в сложных ситуациях, у них может быть более низкая толерантность к дискомфорту, меньшая устойчивость к отвержению или даже большая импульсивность — черты, часто наблюдаемые при тревожности и социальной изоляции, говорит Фуонг. «С взрывным ростом односторонних социальных взаимодействий между детьми и инструментами ИИ это неотложная тема, требующая дальнейшего изучения», — говорит она.
По словам Фуонга, аналогичные возрастные ограничения должны применяться к ИИ. Причина в том, что в отличие от социальных сетей, компаньоны ИИ имитируют двусторонние разговоры и могут оказывать более глубокое влияние на психологию уязвимых детей. Без регулирования дети могут ошибочно полагать, что каждый ответ ИИ является морально или социально приемлемым. Кроме того, хотя такие платформы, как YouTube или Facebook, позволяют легко сообщать о неприемлемом контенте, механизмы сообщения о нем многих генеративных платформ ИИ непрозрачны для детей и родителей.
Ученые RMIT рекомендуют политикам требовать от платформ ИИ разрабатывать соответствующие возрасту приложения, проверять возраст и разрешать настройки модерации контента для обеспечения безопасности детей. Механизмы сообщения о вредоносном контенте также должны быть легкодоступными. «Поскольку ИИ становится частью повседневной жизни детей во Вьетнаме и во всем мире , мы должны действовать осторожно. Искусственный интеллект может быть мощным средством обучения, но он не может заменить богатый, естественный человеческий интеллект, который позволяет нам жить в эмоциональном мире человеческих отношений», — подчеркнул доктор Ингрэм.
Уен На
Источник: https://baophapluat.vn/ai-sang-tao-noi-dung-khi-tre-lam-tuong-ao-that-post550555.html
Комментарий (0)