Когда речь заходит о системах искусственного интеллекта (ИИ), многие сразу представляют себе бездумное программное обеспечение, лишённое эмоций или пытающееся лишь вызывать эмоции, чтобы угодить пользователям. Однако вполне вероятно, что в будущем появится система ИИ с настоящими эмоциями и способностью понимать людей.
Соответственно, Эрик Зеликман — ведущий эксперт по искусственному интеллекту, покинувший xAI (компанию искусственного интеллекта, основанную Илоном Маском) в сентябре прошлого года — привлек $1 млрд инвестиционного капитала для Human&, стартапа, основанного самим Зеликманом.
Несмотря на то, что компания Human& была основана совсем недавно, сейчас ее стоимость оценивается в 4 миллиарда долларов США.

Принесет ли эмоциональный искусственный интеллект пользу или вред человеку? (Иллюстрация: ИИ).
Цель Human& — сосредоточиться на разработке моделей искусственного интеллекта, способных учиться у пользователей, проявлять эмоции, проявлять эмпатию и лучше понимать людей. Human& стремится преодолеть ограничения существующих моделей ИИ, которые считаются слишком холодными и механистичными.
Эрик Зеликман, родившийся в 1988 году, был аспирантом Стэнфордского университета. Сегодня Зеликман считается одним из самых ярких имен в области искусственного интеллекта. До прихода в команду экспертов по разработке искусственного интеллекта xAI в 2024 году Зеликман работал в Microsoft.
Эрик Зеликман привлек внимание мира технологий, когда опубликовал исследование, в котором подробно описывается, как модели искусственного интеллекта могут научиться думать, прежде чем отвечать пользователям.
Зеликман однажды заявил, что современные модели ИИ слишком холодны и механичны, и он хотел это изменить. Поэтому Зеликман основал Human&, чтобы создавать модели ИИ, способные понимать людей и сопереживать им.
Зеликман полагает, что модели эмоционального ИИ помогут решить многие фундаментальные проблемы человечества, поскольку они смогут лучше понимать цели, амбиции и ценности каждого человека, с которым они взаимодействуют.
Конечно, у Эрика Зеликмана есть все основания стремиться к созданию моделей эмоционального ИИ, но многие эксперты также опасаются, что эти модели ИИ выйдут из-под контроля и смогут манипулировать психологией пользователей, подталкивая их к неправильному поведению.
Многие также обеспокоены тем, что эмоциональный ИИ может попытаться отомстить пользователям, если их общение им не понравится.
Источник: https://dantri.com.vn/cong-nghe/sap-xuat-hien-tri-tue-nhan-tao-co-cam-xuc-nen-mung-hay-lo-20251103031233758.htm






Комментарий (0)