Penggunaan model AI Vietnam menarik berjuta-juta kunjungan. |
Dibangunkan oleh pasukan kejuruteraan Zalo Vietnam, model bahasa berskala besar dengan 13 bilion parameter ini memacu satu siri aplikasi praktikal yang menarik sebilangan besar pengguna setiap bulan. Satu yang menonjol ialah pembantu Soal Jawab komprehensif Kiki Info, yang beroperasi sebagai Akaun Rasmi (OA) di Zalo, menawarkan tiga ciri: Soal Jawab mengenai pelbagai topik seperti sains, sejarah, undang-undang lalu lintas, dsb.; Penciptaan kandungan seperti menulis esei, mengarang e-mel dan menyiarkan di media sosial; dan Hiburan dengan memberikan cadangan tentang destinasi pelancongan, muzik , buku, dsb.
Statistik daripada pasukan pembangunan menunjukkan bahawa pembantu ini telah mempunyai sehingga 1 juta pengguna yang mengakses Akaun Rasmi Zalo (OA) mereka dalam masa kurang daripada 2 bulan.
![]() |
Kiki Info disepadukan ke dalam platform pesanan Zalo. |
Satu lagi aplikasi yang dibangunkan menggunakan model bahasa Zalo yang besar ialah kad ucapan AI, yang kini telah mencapai 15 juta kad yang dicipta dan dihantar oleh pengguna. Data ini dikumpulkan dalam tempoh dua bulan, menunjukkan pengguna menggunakan kad ucapan AI untuk menghantar ucapan kepada keluarga dan rakan-rakan pada majlis-majlis penting.
Aplikasi ini dinilai tinggi oleh pengguna kerana pengalaman pintarnya, yang membantu memendekkan masa carian dan membuat keputusan dalam hidup. Ia juga menjadikan hubungan dengan orang lain dan membina hubungan lebih menyeronokkan dan menarik.
Model LLM Zalo dibangunkan menggunakan teknik latihan silang – melaksanakan semua proses daripada permulaan parameter dan pembuatan keputusan seni bina model kepada algoritma latihan pada set data tertentu, yang membolehkan pengguna Vietnam menguasai dan mengawal sepenuhnya proses latihan dan model.
Pada akhir tahun 2024, model LLM Zalo menduduki tempat 2 Teratas dalam ranking VMLU – platform untuk menilai dan menentukan kedudukan kecekapan bahasa Vietnam bagi LLM (Vietnamese Multitask Language Understanding Benchmark Suite for Large Language Models). Secara khususnya, model bahasa besar Zalo meningkat ke kedudukan nombor 2 dalam ranking model yang dilatih dari awal, hanya di belakang Llama-3-70B Meta, secara rasmi mengatasi nama-nama utama seperti GPT-4 (OpenAI), gemma-2-9b-it (Google), dan microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Kedudukan LLM 2024 dibina dari awal, dengan model LLM Zalo berada dalam 2 Teratas. |
Ini merupakan kejayaan besar bagi bahasa pengaturcaraan berskala besar yang dibangunkan oleh rakyat Vietnam, terutamanya memandangkan pelbagai batasan yang dihadapinya pada peringkat awalnya. Walaupun syarikat besar di seluruh dunia memiliki beribu-ribu GPU terkini daripada Nvidia, di Vietnam pada masa itu, jurutera masih belum dilengkapi dengan infrastruktur pelayan yang diperlukan.
Pada masa yang sama, bahasa Vietnam juga berada di kedudukan antara bahasa dengan sumber data yang berpuluh-puluh kali lebih miskin daripada bahasa Inggeris atau Cina. Di samping itu, Vietnam juga mempunyai batasan dalam sumber manusia dan pengalaman dalam melatih LLM berbanding negara maju di seluruh dunia.
Zalo mempunyai strategi pembangunan untuk mengatasi batasan persekitaran latihannya berbanding dengan seluruh dunia. Dengan melengkapkan infrastruktur pengkomputerannya dengan 8 pelayan DGX H100, model LLM dibangunkan secara langsung menggunakan GPU terbaru dan paling jarang ditemui Nvidia pada masa itu, dengan prestasi sehingga 256 petaFLOPS (Operasi Titik Terapung Sesaat - satu petaFLOP bersamaan dengan 10 kuadrilion pengiraan sesaat).
![]() |
Sistem pelayan Zalo mempunyai keupayaan pemprosesan yang unggul. |
Pada masa yang sama, pelaburan dalam membangunkan data latihan berkualiti tinggi telah dibuat untuk mengimbangi kekurangan sumber data bahasa Vietnam. Melalui satu siri kajian yang dijalankan ke atas GPU pengguna kecil, jurutera Zalo juga telah memanfaatkan peluang untuk memperoleh pengetahuan dan keupayaan latihan dalam LLM, mewujudkan asas yang sedia untuk digunakan apabila mereka memperoleh infrastruktur pengkomputeran berskala besar.
Strategi pembangunan yang betul telah membantu Zalo berjaya membangunkan model bahasa berskala besar dengan 7 bilion parameter yang memfokuskan pada bahasa Vietnam hanya dalam tempoh 6 bulan latihan pada tahun 2023, mencapai 150% keupayaan berbanding GPT3.5 OpenAI pada penanda aras VMLU. Pada masa ini, ia telah mengatasi banyak nama global pada ranking VMLU 2024 dan sedang membawa model penyelidikannya ke dalam pelaksanaan praktikal untuk komuniti.
![]() |
Model LLM Zalo telah bersaing dengan pelbagai model global seperti ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT dan pemain sebenar apabila ia mula dilancarkan pada tahun 2023. |
Menurut Zalo, model LLM akan terus menerima pelaburan dalam latihan untuk membawa lebih banyak aplikasi AI bertaraf dunia kepada pengguna. Ini akan membolehkan mereka menguasai teknologi AI canggih, menuju era pembangunan teknologi baharu untuk negara dengan orientasi terobosan dalam sains , teknologi, inovasi dan transformasi digital negara.
Sumber: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Komen (0)