Компания Meta представила Purple Llama — проект, посвященный созданию инструментов с открытым исходным кодом для разработчиков, позволяющих оценивать и повышать надежность и безопасность моделей генеративного искусственного интеллекта (ИИ) перед их внедрением.
Мета подчеркнул необходимость совместных усилий по обеспечению безопасности ИИ, заявив, что проблемы ИИ невозможно решить в одиночку.
Компания заявляет, что цель Purple Llama — создать общую платформу для разработки более безопасного генеративного ИИ, поскольку растет обеспокоенность по поводу больших языковых моделей и других технологий ИИ.
Гарет Линдал-Уайз, директор по информационной безопасности компании Ontinue, занимающейся кибербезопасностью, называет Purple Llama «позитивным и проактивным шагом» на пути к более безопасной технологии искусственного интеллекта.
Проект Purple Llama сотрудничает с разработчиками искусственного интеллекта, облачными сервисами, такими как AWS и Google Cloud, полупроводниковыми компаниями, такими как Intel, AMD и Nvidia, а также компаниями-разработчиками программного обеспечения, включая Microsoft.
Первый набор инструментов, выпущенный Purple Llama, — CyberSecEval — инструмент для оценки рисков кибербезопасности в программном обеспечении, созданном с помощью ИИ.
В нем используется языковая модель, которая определяет неприемлемый или вредоносный текст, включая обсуждения насилия или незаконной деятельности.
Разработчики могут использовать CyberSecEval для проверки того, склонны ли их модели ИИ к генерации небезопасного кода или поддержке кибератак.
Мета-исследование показало, что большие языковые модели часто предполагают уязвимый код, что подчеркивает важность постоянного тестирования и совершенствования безопасности ИИ.
Llama Guard — это еще один набор инструментов — большая языковая модель, обученная распознавать потенциально опасные или оскорбительные выражения.
Разработчики могут использовать Llama Guard для проверки того, генерирует ли их модель небезопасный контент или принимает его, что помогает отфильтровывать запросы, которые могут привести к ненадлежащему выводу.
(по данным IFW)
Великобритания инвестирует «огромные» средства в ИИ, запускает 5 новых квантовых проектов
Пояс AI GUIDi заменяет трости для людей с нарушением зрения
Альянс технологических гигантов с открытым исходным кодом ИИ будет конкурировать с OpenAI
Уникальное направление в разработке чат-ботов на основе искусственного интеллекта в Китае
Источник
Комментарий (0)