De applicatie van het Vietnamese AI-model trekt miljoenen bezoekers. |
Het grootschalige taalmodel met 13 miljard parameters, ontwikkeld door het Vietnamese engineeringteam van Zalo, vormt de basis voor een reeks praktische toepassingen die maandelijks een groot aantal gebruikers trekken. Een opvallend voorbeeld is de uitgebreide vraag-en-antwoordassistent Kiki Info, die als officieel account (OA) op Zalo functioneert en drie functies biedt: vragen en antwoorden over diverse onderwerpen zoals wetenschap, geschiedenis, verkeersregels, enz.; contentcreatie, zoals het schrijven van essays, het opstellen van e-mails en het plaatsen van berichten op sociale media; en entertainment door suggesties te geven voor reisbestemmingen, muziek , boeken, enz.
Uit statistieken van het ontwikkelingsteam blijkt dat deze assistent in iets minder dan twee maanden tijd al tot 1 miljoen gebruikers toegang heeft gegeven tot hun officiële Zalo-account (OA).
![]() |
Kiki Info is geïntegreerd in het Zalo-berichtenplatform. |
Een andere toepassing die gebruikmaakt van Zalo's grote taalmodel zijn AI-wenskaarten, waarvan er inmiddels 15 miljoen door gebruikers zijn gemaakt en verzonden. Deze gegevens zijn verzameld over een periode van twee maanden en laten zien hoe gebruikers AI-wenskaarten gebruiken om familie en vrienden te feliciteren met belangrijke gelegenheden.
Deze apps worden door gebruikers zeer gewaardeerd vanwege hun intelligente interface, die helpt bij het verkorten van zoektijden en het nemen van beslissingen in het dagelijks leven. Ze maken het contact leggen met anderen en het opbouwen van relaties ook leuker en boeiender.
Het LLM-model van Zalo is ontwikkeld met behulp van een cross-trainingtechniek. Hierbij worden alle processen, van parameterinitialisatie en besluitvorming over de modelarchitectuur tot het trainen van algoritmen op een gegeven dataset, geïmplementeerd. Dit stelt Vietnamese gebruikers in staat om het trainingsproces en het model volledig te beheersen en te controleren.
Eind 2024 behaalde Zalo's LLM-model de tweede plaats in de VMLU-ranking – een platform voor het evalueren en rangschikken van de Vietnamese taalvaardigheid van LLM's (Vietnamese Multitask Language Understanding Benchmark Suite for Large Language Models). Zalo's grote taalmodel steeg specifiek naar de tweede positie in de ranking van modellen die vanaf nul getraind waren, alleen achter Meta's Llama-3-70B, en overtrof daarmee officieel grote namen zoals GPT-4 (OpenAI), gemma-2-9b-it (Google) en microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
De ranglijst van LLM-programma's voor 2024, volledig opnieuw opgebouwd, met het LLM-model van Zalo in de top 2. |
Dit was een enorm succes voor een grootschalige programmeertaal die door Vietnamezen was ontwikkeld, vooral gezien de vele beperkingen waarmee het in de beginfase te kampen had. Terwijl grote bedrijven wereldwijd duizenden van de nieuwste GPU's van Nvidia bezaten, beschikten ingenieurs in Vietnam destijds nog niet over de benodigde serverinfrastructuur.
Tegelijkertijd behoort het Vietnamees tot de talen met tientallen keren minder beschikbare databronnen dan het Engels of Chinees. Bovendien kampt Vietnam met een tekort aan gekwalificeerd personeel en ervaring in het opleiden van masterstudenten in de rechten, vergeleken met ontwikkelde landen wereldwijd.
Zalo had een ontwikkelingsstrategie om de beperkingen van zijn trainingsomgeving ten opzichte van de rest van de wereld te overkomen. Door zijn computerinfrastructuur uit te rusten met 8 DGX H100-servers, werd het LLM-model rechtstreeks ontwikkeld met behulp van Nvidia's nieuwste en zeldzaamste GPU's van die tijd, met prestaties tot 256 petaFLOPS (Floating-point Operations Per Second - één petaFLOP is gelijk aan 10 quadriljoen berekeningen per seconde).
![]() |
Het serversysteem van Zalo beschikt over superieure verwerkingscapaciteiten. |
Tegelijkertijd is er geïnvesteerd in de ontwikkeling van hoogwaardige trainingsdata om het tekort aan Vietnamese databronnen te compenseren. Door middel van een reeks studies uitgevoerd op kleine consumenten-GPU's hebben de ingenieurs van Zalo ook de kans benut om kennis en trainingsmogelijkheden in LLM te verwerven, waarmee een basis is gelegd voor gebruik wanneer ze over een grootschalige computerinfrastructuur beschikken.
Dankzij de juiste ontwikkelingsstrategie heeft Zalo in slechts zes maanden training (2023) met succes een grootschalig taalmodel met 7 miljard parameters voor het Vietnamees ontwikkeld. Hiermee behaalde het model een prestatie die 150% hoger lag dan die van OpenAI's GPT3.5 op de VMLU-benchmark. Inmiddels heeft Zalo diverse wereldwijde namen ingehaald op de VMLU 2024-ranglijst en is het bezig zijn onderzoeksmodel in de praktijk te brengen voor de gemeenschap.
![]() |
Het LLM-model van Zalo nam het bij de lancering in 2023 op tegen een reeks wereldwijde modellen zoals ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT en een echte speler. |
Volgens Zalo zal er blijvend geïnvesteerd worden in het LLM-model voor training, om gebruikers meer AI-toepassingen van wereldklasse te bieden. Dit stelt hen in staat geavanceerde AI-technologie te beheersen en een nieuw tijdperk van technologische ontwikkeling voor het land in te luiden, met een baanbrekende focus op wetenschap , technologie, innovatie en nationale digitale transformatie.
Bron: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Reactie (0)