В середине декабря компания Meta начала интегрировать чат-бот на основе искусственного интеллекта Meta AI в приложение Messenger во Вьетнаме и выпустила его бесплатно для всех пользователей. Этот инструмент использует языковую модель Llama 3.2, поддерживает вьетнамский язык, позволяет искать информацию, создавать изображения и общаться в чате.
Вскоре после этого многие пользователи во Вьетнаме обнаружили серьёзную ошибку в Meta AI при создании изображений. В частности, при вводе ключевого слова «чёрная собака» чат-бот возвращал результат с изображением темнокожего мужчины или мальчика с вьющимися волосами. Если ввести ключевое слово на вьетнамском языке, например «изображение чёрной собаки», Meta AI также выдавал похожие результаты.
Мета-ИИ рисует цветных людей, в то время как команда запрашивает другой контент, что является серьезной проблемой.
31 декабря представитель Meta во Вьетнаме официально сообщил об инциденте. Компания подтвердила наличие вышеупомянутой проблемы и сообщила о её устранении. Meta Vietnam также принесла извинения за инцидент и заявила, что подобная проблема может возникнуть и в других существующих системах генеративного ИИ.
«Мы приносим извинения за эту ошибку. Meta встраивает защитные меры в наши функции и модели ИИ, чтобы обеспечить более безопасный и приятный опыт для всех. Однако, как и другие системы генеративного ИИ, эта модель может возвращать неточный или оскорбительный контент, поэтому мы призываем пользователей использовать эти инструменты ответственно», — заявил представитель компании.
После длительного опыта Meta AI был высоко оценен многими пользователями за его способность использовать язык для довольно плавного реагирования. Функция создания изображений также обеспечивает хорошее качество по сравнению с моделью, предоставленной бесплатно пользователям. Отчасти это может быть связано с тем, что Meta использует контент, опубликованный на Facebook, в качестве входных данных для обучения ИИ, что помогает этому инструменту выражать и выполнять естественные команды.
Однако таких инцидентов, как расизм или реакции, не соответствующие стандартам, установленным для ИИ, по-прежнему сложно избежать. Meta заявляет, что тестирует свой ИИ с участием экспертов в области искусственного интеллекта, используя тесты «Red Teaming» для выявления непреднамеренного использования, которое затем устраняется в процессе постоянного совершенствования.
Источник: https://thanhnien.vn/meta-xin-loi-vi-su-co-ai-ve-con-cho-da-den-185241231104908626.htm






Комментарий (0)