Aplicarea modelului vietnamez de inteligență artificială atrage milioane de vizite. |
Dezvoltat de echipa de ingineri vietnameză a Zalo, modelul lingvistic la scară largă, cu 13 miliarde de parametri, dă naștere unei serii de aplicații practice care atrag un număr mare de utilizatori lunar. Un element remarcabil este asistentul cuprinzător de întrebări și răspunsuri Kiki Info, care funcționează ca un Cont Oficial (OA) pe Zalo și oferă trei funcții: întrebări și răspunsuri pe diverse subiecte, cum ar fi știința, istoria, legile rutiere etc.; crearea de conținut, cum ar fi scrierea de eseuri, redactarea de e-mailuri și postarea pe rețelele de socializare; și divertisment, prin oferirea de sugestii despre destinații de călătorie, muzică , cărți etc.
Statisticile echipei de dezvoltare arată că acest asistent a avut până la 1 milion de utilizatori care și-au accesat contul oficial Zalo (OA) în puțin sub 2 luni.
![]() |
Kiki Info este integrat în platforma de mesagerie Zalo. |
O altă aplicație dezvoltată folosind modelul de limbaj extins al Zalo este reprezentată de felicitările bazate pe inteligență artificială, care au ajuns acum la 15 milioane de felicitări create și trimise de utilizatori. Aceste date au fost compilate pe o perioadă de două luni, arătând că utilizatorii folosesc felicitări bazate pe inteligență artificială pentru a trimite urări familiei și prietenilor cu ocazii importante.
Aceste aplicații sunt foarte apreciate de utilizatori pentru experiența lor inteligentă, care ajută la scurtarea timpilor de căutare și a procesului decizional. De asemenea, fac conectarea cu ceilalți și construirea de relații mai plăcute și mai captivante.
Modelul LLM al lui Zalo este dezvoltat folosind o tehnică de antrenament încrucișat – implementând toate procesele, de la inițializarea parametrilor și luarea deciziilor privind arhitectura modelului până la algoritmii de antrenament pe un set de date dat, permițând utilizatorilor vietnamezi să stăpânească și să controleze pe deplin procesul de antrenament și modelul.
La sfârșitul anului 2024, modelul LLM al lui Zalo s-a clasat pe poziția Top 2 în clasamentul VMLU – o platformă pentru evaluarea și clasificarea competenței în limba vietnameză a studenților LLM (Vietnamese Multitask Language Understanding Benchmark Suite for Large Language Models). Mai exact, modelul de limbaj mare al lui Zalo a urcat pe poziția numărul 2 în clasamentul modelelor antrenate de la zero, doar în spatele lui Llama-3-70B al lui Meta, depășind oficial nume importante precum GPT-4 (OpenAI), gemma-2-9b-it (Google) și microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Clasamentul din 2024 al programelor de masterat în drept (LLM) construit de la zero, cu modelul LLM al lui Zalo în Top 2. |
Acesta a fost un succes uriaș pentru un limbaj de programare la scară largă dezvoltat de vietnamezi, mai ales având în vedere numeroasele limitări cu care s-a confruntat în stadiile incipiente. În timp ce marile companii din întreaga lume dețineau mii dintre cele mai noi GPU-uri de la Nvidia, în Vietnam, la acea vreme, inginerii nu erau încă echipați cu infrastructura de server necesară.
În același timp, vietnameza este clasată printre limbile cu resurse de date de zeci de ori mai sărace decât engleza sau chineza. În plus, Vietnamul are și limitări în ceea ce privește resursele umane și experiența în formarea studenților cu drepturi de masterat (LLM) în comparație cu țările dezvoltate din întreaga lume.
Zalo a avut o strategie de dezvoltare pentru a depăși limitele mediului său de antrenament în comparație cu restul lumii. Prin echiparea infrastructurii sale de calcul cu 8 servere DGX H100, modelul LLM a fost dezvoltat direct folosind cele mai noi și mai rare GPU-uri Nvidia de la acea vreme, cu performanțe de până la 256 petaFLOPS (Operații în virgulă mobilă pe secundă - un petaFLOP este echivalent cu 10 cvadrilioane de calcule pe secundă).
![]() |
Sistemul de server al Zalo are capacități de procesare superioare. |
Simultan, s-au făcut investiții în dezvoltarea de date de antrenament de înaltă calitate pentru a compensa deficitul de surse de date în limba vietnameză. Printr-o serie de studii efectuate pe GPU-uri mici pentru consumatori, inginerii Zalo au profitat, de asemenea, de oportunitățile de a dobândi cunoștințe și capacități de antrenament în LLM, creând o bază gata de utilizare atunci când vor achiziționa o infrastructură de calcul la scară largă.
Strategia de dezvoltare corectă a ajutat Zalo să dezvolte cu succes un model lingvistic la scară largă, cu 7 miliarde de parametri, axat pe limba vietnameză, în doar 6 luni de antrenament în 2023, atingând o capacitate de 150% în comparație cu GPT3.5 al OpenAI pe benchmark-ul VMLU. În prezent, a depășit numeroase nume globale în clasamentul VMLU 2024 și își pune în practică modelul de cercetare pentru comunitate.
![]() |
Modelul LLM al Zalo a concurat împotriva unei game de modele globale precum ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT și un jucător real când a fost lansat pentru prima dată în 2023. |
Potrivit lui Zalo, modelul LLM va continua să beneficieze de investiții în formare pentru a oferi utilizatorilor mai multe aplicații de inteligență artificială de talie mondială. Acest lucru le va permite să stăpânească tehnologia avansată de inteligență artificială, îndreptându-se către o nouă eră de dezvoltare tehnologică pentru țară, cu o orientare inovatoare în știință , tehnologie, inovație și transformare digitală națională.
Sursă: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Comentariu (0)