изображение111.jpg
Meta стремится утвердить свою новаторскую роль в разработке технологий искусственного интеллекта.

Компания Meta представила Purple Llama — проект, посвященный созданию инструментов с открытым исходным кодом для разработчиков, позволяющих оценивать и повышать надежность и безопасность моделей генеративного искусственного интеллекта (ИИ) перед их внедрением.

Мета подчеркнул необходимость совместных усилий по обеспечению безопасности ИИ, заявив, что проблемы ИИ невозможно решить в одиночку.

Компания заявляет, что цель Purple Llama — создать общую платформу для разработки более безопасного генеративного ИИ, поскольку растет обеспокоенность по поводу больших языковых моделей и других технологий ИИ.

Гарет Линдал-Уайз, директор по информационной безопасности компании Ontinue, занимающейся кибербезопасностью, называет Purple Llama «позитивным и проактивным шагом» на пути к более безопасной технологии искусственного интеллекта.

Проект Purple Llama сотрудничает с разработчиками искусственного интеллекта, облачными сервисами, такими как AWS и Google Cloud, полупроводниковыми компаниями, такими как Intel, AMD и Nvidia, а также компаниями-разработчиками программного обеспечения, включая Microsoft.

Первый набор инструментов, выпущенный Purple Llama, — CyberSecEval — инструмент для оценки рисков кибербезопасности в программном обеспечении, созданном с помощью ИИ.

В нем используется языковая модель, которая определяет неприемлемый или вредоносный текст, включая обсуждения насилия или незаконной деятельности.

Разработчики могут использовать CyberSecEval для проверки того, склонны ли их модели ИИ к генерации небезопасного кода или поддержке кибератак.

Мета-исследование показало, что большие языковые модели часто предполагают уязвимый код, что подчеркивает важность постоянного тестирования и совершенствования безопасности ИИ.

Llama Guard — это еще один набор инструментов — большая языковая модель, обученная распознавать потенциально опасные или оскорбительные выражения.

Разработчики могут использовать Llama Guard для проверки того, генерирует ли их модель небезопасный контент или принимает его, что помогает отфильтровывать запросы, которые могут привести к ненадлежащему выводу.

(по данным IFW)

Великобритания вкладывает значительные средства в ИИ и запускает 5 новых квантовых проектов

Великобритания инвестирует «огромные» средства в ИИ, запускает 5 новых квантовых проектов

Великобритания будет инвестировать «огромные» средства в разработку крупномасштабных квантовых компьютеров и поддержку новых технологий, включая создание самого мощного в стране суперкомпьютера Isambard AI.
Пояс AI GUIDi заменяет трости для людей с нарушением зрения

Пояс AI GUIDi заменяет трости для людей с нарушением зрения

Благодаря применению технологии искусственного интеллекта высокотехнологичный пояс станет помощником для людей с нарушениями зрения, заменив громоздкие трости.
Альянс технологических гигантов с открытым исходным кодом ИИ будет конкурировать с OpenAI

Альянс технологических гигантов с открытым исходным кодом ИИ будет конкурировать с OpenAI

Meta, IBM, Intel, Sony, Dell и другие технологические компании недавно объявили о создании Альянса по открытому исходному коду ИИ для разработки ответственных технологий с упором на меры безопасности.
Уникальное направление в разработке чат-ботов на основе искусственного интеллекта в Китае

Уникальное направление в разработке чат-ботов на основе искусственного интеллекта в Китае

Пользуясь рынком, который OpenAI и Google оставили открытым, китайские технологические компании получают значительную прибыль от тенденции персонализации в разработке чат-ботов на основе ИИ.