A aplicação do modelo de IA vietnamita está atraindo milhões de visitas. |
Desenvolvido pela equipe de engenharia vietnamita da Zalo, o modelo de linguagem em larga escala com 13 bilhões de parâmetros está impulsionando uma série de aplicações práticas que atraem um grande número de usuários mensalmente. Um destaque é o assistente de perguntas e respostas Kiki Info, que funciona como uma Conta Oficial (CO) na Zalo e oferece três recursos: perguntas e respostas sobre diversos tópicos, como ciência, história, leis de trânsito, etc.; criação de conteúdo, como escrever redações, compor e-mails e postar em redes sociais; e entretenimento, fornecendo sugestões de destinos de viagem, música , livros, etc.
Estatísticas da equipe de desenvolvimento mostram que este assistente teve até 1 milhão de usuários acessando suas Contas Oficiais (CO) do Zalo em pouco menos de 2 meses.
![]() |
O Kiki Info está integrado à plataforma de mensagens Zalo. |
Outra aplicação desenvolvida usando o modelo de linguagem abrangente do Zalo são os cartões de felicitação com IA, que já atingiram a marca de 15 milhões de cartões criados e enviados por usuários. Esses dados foram compilados ao longo de um período de dois meses, mostrando usuários utilizando cartões de felicitação com IA para enviar mensagens de felicitação a familiares e amigos em ocasiões importantes.
Esses aplicativos são muito bem avaliados pelos usuários por sua experiência inteligente, que ajuda a reduzir o tempo de busca e a tomada de decisões na vida. Eles também tornam a conexão com outras pessoas e a construção de relacionamentos mais agradáveis e envolventes.
O modelo LLM da Zalo é desenvolvido usando uma técnica de treinamento cruzado – implementando todos os processos, desde a inicialização de parâmetros e a tomada de decisões sobre a arquitetura do modelo até o treinamento de algoritmos em um determinado conjunto de dados, permitindo que os usuários vietnamitas dominem e controlem totalmente o processo de treinamento e o modelo.
No final de 2024, o modelo LLM da Zalo ficou em segundo lugar no ranking VMLU – uma plataforma para avaliar e classificar a proficiência em língua vietnamita de modelos LLM (Vietnamese Multitask Language Understanding Benchmark Suite for Large Language Models). Especificamente, o modelo de linguagem da Zalo alcançou a segunda posição no ranking de modelos treinados do zero, ficando atrás apenas do Llama-3-70B da Meta, superando oficialmente nomes importantes como GPT-4 (OpenAI), gemma-2-9b-it (Google) e microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
O ranking de 2024 dos LLMs criados do zero, com o modelo de LLM da Zalo entre os 2 primeiros. |
Isso representou um enorme sucesso para uma linguagem de programação de grande escala desenvolvida por vietnamitas, especialmente considerando as inúmeras limitações que enfrentou em seus estágios iniciais. Enquanto grandes empresas em todo o mundo possuíam milhares das mais recentes GPUs da Nvidia, no Vietnã, naquela época, os engenheiros ainda não dispunham da infraestrutura de servidores necessária.
Ao mesmo tempo, o vietnamita também está classificado entre os idiomas com recursos de dados dezenas de vezes mais escassos do que o inglês ou o chinês. Além disso, o Vietnã também apresenta limitações em recursos humanos e experiência na formação de mestres em Direito (LLM) quando comparado a países desenvolvidos ao redor do mundo.
A Zalo adotou uma estratégia de desenvolvimento para superar as limitações de seu ambiente de treinamento em comparação com o resto do mundo. Ao equipar sua infraestrutura de computação com 8 servidores DGX H100, o modelo LLM foi desenvolvido diretamente utilizando as GPUs mais recentes e raras da Nvidia na época, com desempenho de até 256 petaFLOPS (Operações de Ponto Flutuante por Segundo - um petaFLOP equivale a 10 quatrilhões de cálculos por segundo).
![]() |
O sistema de servidores da Zalo possui capacidades de processamento superiores. |
Simultaneamente, foram realizados investimentos no desenvolvimento de dados de treinamento de alta qualidade para compensar a escassez de fontes de dados em vietnamita. Por meio de uma série de estudos conduzidos em GPUs de pequeno porte para o consumidor final, os engenheiros da Zalo também aproveitaram as oportunidades para adquirir conhecimento e habilidades de treinamento em LLM (Língua de Modos de Aprendizado), criando uma base sólida para uso quando adquirirem infraestrutura de computação em larga escala.
A estratégia de desenvolvimento correta permitiu à Zalo desenvolver com sucesso um modelo de linguagem em larga escala com 7 bilhões de parâmetros, focado no vietnamita, em apenas 6 meses de treinamento em 2023, alcançando 150% da capacidade do GPT3.5 da OpenAI no benchmark VMLU. Atualmente, a Zalo superou diversos nomes globais no ranking VMLU 2024 e está implementando seu modelo de pesquisa na prática para a comunidade.
![]() |
O modelo LLM da Zalo competiu com uma série de modelos globais, como ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT e um concorrente real quando foi lançado em 2023. |
Segundo a Zalo, o modelo de mestrado em Direito (LLM) continuará recebendo investimentos em treinamento para levar mais aplicações de IA de classe mundial aos usuários. Isso os capacitará a dominar a tecnologia avançada de IA, caminhando rumo a uma nova era de desenvolvimento tecnológico para o país, com uma orientação inovadora em ciência , tecnologia, inovação e transformação digital nacional.
Fonte: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Comentário (0)