Vietnam.vn - Nền tảng quảng bá Việt Nam

베트남 AI 모델 적용으로 수백만 명의 방문자 유치

베트남 사람들이 개발한 대규모 언어 모델(LLM)은 사용자의 정보 검색 및 커뮤니케이션 요구를 충족하는 일련의 유용한 애플리케이션을 배포하여 수백만 건의 방문을 기록하고 있습니다.

ZNewsZNews30/06/2025

베트남 AI 모델 적용으로 수백만 명의 방문자 유치

Zalo의 베트남 엔지니어링 팀이 개발한 130억 개의 매개변수를 가진 대규모 언어 모델은 매달 수많은 사용자가 방문하고 사용하는 다양한 실용적인 애플리케이션을 제공하고 있습니다. 특히, Kiki Info Q&A Assistant는 Zalo의 공식 계정(OA)으로 운영되고 있으며, 과학, 역사, 교통 법규 등 다양한 주제에 대한 Q&A, 글쓰기, 이메일 작성, 소셜 네트워크 게시 등의 콘텐츠 제작, 그리고 관광지, 음악 , 책 추천 등의 엔터테인먼트 기능을 제공합니다.

개발팀의 통계에 따르면, 이 어시스턴트는 Zalo에서 OA 계정에 접속한 사용자가 단 2개월 만에 최대 100만 명에 달했습니다.

Zalo anh 1

Kiki Info가 Zalo 메시징 플랫폼에 통합되었습니다.

Zalo의 대규모 언어 모델을 기반으로 개발된 또 다른 애플리케이션은 AI 카드입니다. 현재 사용자들이 생성하고 전송한 카드는 1,500만 장에 달합니다. 이는 2개월 만에 수집된 데이터이며, 사용자들은 AI 카드를 사용하여 중요한 명절에 친척과 친구에게 소원을 전합니다.

이 앱들은 사용자들에게 스마트한 경험을 제공하여 검색 및 의사결정에 소요되는 시간을 단축하고, 더욱 흥미롭고 매력적인 관계를 형성할 수 있도록 도와준다는 점에서 높은 평가를 받고 있습니다.

Zalo의 LLM 모델은 처음부터 학습하는 기법을 사용하여 개발되었습니다. 즉, 매개변수 초기화부터 모델 아키텍처 결정, 주어진 데이터 세트에 대한 학습 알고리즘까지 모든 프로세스를 구현하여 베트남 사람들이 모델뿐만 아니라 학습 프로세스도 완벽하게 숙달하고 제어할 수 있도록 돕습니다.

2024년 말, Zalo의 LLM 모델은 베트남어 능력 평가 및 순위 플랫폼인 VMLU(대규모 언어 모델(LLM)을 위한 베트남어 멀티태스크 언어 이해 벤치마크 스위트) 순위에서 2위를 차지했습니다. 특히, Zalo의 대규모 언어 모델은 처음부터 학습된 모델 순위에서 Meta의 Llama-3-70B에 이어 2위를 차지하며, GPT-4(OpenAI), gemma-2-9b-it(Google), microsoft/Phi-3-small-128k-instruct(Microsoft) 등 유명 모델들을 공식적으로 제치고 2위를 차지했습니다.

Zalo anh 2

Zalo의 LLM 모델을 사용하여 처음부터 구축한 LLM의 2024년 순위는 상위 2위입니다.

이는 베트남 사람들이 개발한 대규모 언어 모델에 있어 큰 성공이며, 특히 개발 초기에 많은 제약에 직면했음에도 불구하고 더욱 그렇습니다. 전 세계 대기업들이 엔비디아의 최신 GPU 수천 개를 보유하고 있는 반면, 당시 베트남 엔지니어들은 필요한 서버 인프라를 충분히 갖추지 못했습니다.

동시에 베트남어는 영어나 중국어보다 수십 배나 부족한 데이터 자원을 가진 그룹에 속합니다. 게다가 베트남은 세계 선진국과 비교했을 때 인적 자원과 LLM 교육 경험 측면에서도 한계가 있습니다.

Zalo는 전 세계 학습 환경의 한계를 극복하기 위한 개발 전략을 가지고 있습니다. 8대의 DGX H100 서버로 컴퓨팅 인프라를 구축하고, 당시 가장 희소성이 높았던 엔비디아 GPU 라인을 직접 활용하여 최대 256페타플롭스(초당 부동 소수점 연산 - 1페타플롭스는 초당 1000억 번의 연산에 해당)의 성능을 제공하는 LLM 모델을 개발했습니다.

Zalo anh 3

Zalo의 서버 시스템은 뛰어난 처리 용량을 갖추고 있습니다.

동시에, 베트남 데이터 소스 부족을 보완하기 위해 양질의 학습 데이터에도 투자하고 있습니다. Zalo 엔지니어들은 소형 민간 GPU를 기반으로 수행된 일련의 연구를 통해, 대규모 컴퓨팅 인프라를 갖추는 즉시 LLM을 학습시킬 수 있는 지식과 역량을 갖추는 기회를 활용했습니다.

Zalo는 올바른 개발 방향 덕분에 2023년, 단 6개월의 학습만으로 베트남어에 초점을 맞춘 70억 개의 매개변수를 가진 대규모 언어 모델을 성공적으로 개발하여 VMLU 벤치마크에서 OpenAI의 GPT3.5 대비 150%의 성능을 달성했습니다. 이제 Zalo는 VMLU 2024 순위에서 여러 글로벌 기업을 제치고 선두를 달리는 동시에 연구 모델을 커뮤니티에 실제 배포하고 있습니다.

Zalo anh 4

Zalo의 LLM 모델은 ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT 등 세계의 여러 모델과 경쟁하며, 2023년 첫 출시를 앞두고 있는 실제 플레이어입니다.

Zalo에 따르면, LLM 모델은 사용자에게 더욱 세계적 수준의 AI 애플리케이션을 제공하기 위한 교육에 지속적으로 투자될 것입니다. 이를 통해 첨단 AI 기술을 습득하고, 과학 , 기술, 혁신, 그리고 국가 디지털 변혁에 대한 획기적인 지향을 바탕으로 국가 기술 발전 시대를 선도할 것입니다.

출처: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html


댓글 (0)

No data
No data

유산

수치

사업

No videos available

소식

정치 체제

현지의

제품