Применение вьетнамской модели искусственного интеллекта привлекает миллионы посещений. |
Разработанная вьетнамской командой инженеров Zalo, масштабная языковая модель с 13 миллиардами параметров лежит в основе целого ряда практических приложений, которые ежемесячно привлекают большое количество пользователей. Особо выделяется комплексный ассистент вопросов и ответов Kiki Info, работающий как официальный аккаунт (OA) на Zalo и предлагающий три функции: вопросы и ответы по различным темам, таким как наука, история, правила дорожного движения и т. д.; создание контента, например, написание эссе, составление электронных писем и публикация в социальных сетях; и развлечения, предоставляющие рекомендации по туристическим направлениям, музыке , книгам и т. д.
Статистика от команды разработчиков показывает, что за менее чем 2 месяца этим помощником воспользовались до 1 миллиона пользователей, получивших доступ к их официальному аккаунту Zalo (OA).
![]() |
Kiki Info интегрирована в платформу обмена сообщениями Zalo. |
Еще одно приложение, разработанное с использованием обширной языковой модели Zalo, — это поздравительные открытки, созданные с помощью ИИ, количество которых достигло 15 миллионов. Эти данные были собраны за два месяца и показывают, как пользователи используют поздравительные открытки с ИИ для отправки пожеланий семье и друзьям по важным поводам.
Эти приложения высоко ценятся пользователями за их интеллектуальный интерфейс, который помогает сократить время поиска и принятия решений в жизни. Они также делают общение с другими людьми и построение отношений более приятными и увлекательными.
Модель LLM от Zalo разработана с использованием метода кросс-обучения – все процессы, от инициализации параметров и принятия решений об архитектуре модели до обучения алгоритмов на заданном наборе данных, позволяют вьетнамским пользователям полностью освоить и контролировать процесс обучения и саму модель.
В конце 2024 года модель LLM от Zalo заняла второе место в рейтинге VMLU – платформы для оценки и ранжирования уровня владения вьетнамским языком у моделей LLM (Vietnamese Multitask Language Understanding Benchmark Suite for Large Language Models). В частности, модель LLM от Zalo поднялась на второе место в рейтинге моделей, обученных с нуля, уступив только Llama-3-70B от Meta и официально обогнав такие известные модели, как GPT-4 (OpenAI), gemma-2-9b-it (Google) и microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Рейтинг программ магистратуры в области права (LLM) за 2024 год, составленный с нуля, показывает, что модель LLM от Zalo занимает второе место. |
Это был огромный успех для широкомасштабного языка программирования, разработанного вьетнамцами, особенно учитывая многочисленные ограничения, с которыми он столкнулся на ранних этапах. В то время как крупные компании по всему миру владели тысячами новейших графических процессоров Nvidia, во Вьетнаме в то время инженеры еще не были обеспечены необходимой серверной инфраструктурой.
В то же время, вьетнамский язык также входит в число языков с ресурсами данных, которые в десятки раз беднее английского или китайского. Кроме того, Вьетнам также испытывает ограничения в человеческих ресурсах и опыте подготовки магистров права по сравнению с развитыми странами мира.
Компания Zalo разработала стратегию, позволяющую преодолеть ограничения своей среды обучения по сравнению с остальным миром. Оснастив свою вычислительную инфраструктуру восемью серверами DGX H100, модель LLM была разработана непосредственно с использованием новейших и наиболее редких на тот момент графических процессоров Nvidia, обеспечив производительность до 256 петафлопс (операций с плавающей запятой в секунду — один петафлопс эквивалентен 10 квадриллионам вычислений в секунду).
![]() |
Серверная система Zalo обладает превосходными вычислительными возможностями. |
Одновременно с этим были сделаны инвестиции в разработку высококачественных обучающих данных для компенсации нехватки источников данных на вьетнамском языке. Благодаря серии исследований, проведенных на небольших потребительских графических процессорах, инженеры Zalo также воспользовались возможностями для получения знаний и повышения квалификации в области LLM, создав основу, готовую к использованию при приобретении крупномасштабной вычислительной инфраструктуры.
Благодаря правильной стратегии разработки, Zalo успешно создала крупномасштабную языковую модель с 7 миллиардами параметров, ориентированную на вьетнамский язык, всего за 6 месяцев обучения в 2023 году, достигнув 150% от возможностей OpenAI GPT3.5 на бенчмарке VMLU. В настоящее время она превзошла множество мировых лидеров в рейтинге VMLU 2024 и внедряет свою исследовательскую модель в практическое применение для сообщества.
![]() |
Модель LLM от Zalo конкурировала с целым рядом глобальных моделей, таких как ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT, а также с реальным игроком, когда впервые была запущена в 2023 году. |
По словам Зало, в модель LLM будут и дальше вкладываться средства на обучение, чтобы предоставить пользователям больше возможностей для применения ИИ мирового класса. Это позволит им освоить передовые технологии ИИ, открывая новую эру технологического развития страны с прорывным направлением в науке , технологиях, инновациях и национальной цифровой трансформации.
Источник: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Комментарий (0)