Die Anwendung des vietnamesischen KI-Modells zieht Millionen von Besuchen an |
Das von Zalos vietnamesischem Entwicklungsteam entwickelte umfangreiche Sprachmodell mit 13 Milliarden Parametern bietet eine Reihe praktischer Anwendungen, die jeden Monat von zahlreichen Nutzern besucht und genutzt werden. Der Kiki Info Q&A Assistant wird als OA (Offizieller Account) auf Zalo betrieben und bietet drei Funktionen: Fragen und Antworten zu verschiedenen Themen wie Wissenschaft, Geschichte, Verkehrsrecht usw.; Content-Erstellung wie Schreiben, Verfassen von E-Mails, Posten in sozialen Netzwerken usw.; und Unterhaltung durch Vorschläge zu Reisezielen, Musik , Büchern usw.
Statistiken des Entwicklungsteams zeigen, dass in knapp zwei Monaten bis zu 1 Million Benutzer auf das OA-Konto dieses Assistenten auf Zalo zugegriffen haben.
![]() |
Kiki-Info in die Zalo-Messaging-Plattform integriert. |
Eine weitere Anwendung, die ebenfalls mit Zalos großem Sprachmodell entwickelt wurde, sind KI-Karten. Mittlerweile wurden 15 Millionen Karten von Nutzern erstellt und versendet. Diese Daten wurden innerhalb von zwei Monaten gesammelt. Nutzer nutzen KI-Karten, um Verwandten und Freunden Glückwünsche zu wichtigen Feiertagen zu senden.
Die Anwendungen werden von den Nutzern aufgrund ihrer intelligenten Benutzerfreundlichkeit sehr geschätzt und tragen dazu bei, den Zeitaufwand für Suche und Entscheidungsfindung im Leben zu verkürzen. Gleichzeitig tragen sie dazu bei, Beziehungen interessanter und ansprechender zu gestalten.
Das LLM-Modell von Zalo wird mithilfe einer „Training-from-Scratch“-Technik entwickelt. Dabei werden alle Prozesse von der Parameterinitialisierung über die Entscheidung über die Modellarchitektur bis hin zum Training der Algorithmen auf einem gegebenen Datensatz implementiert. Dadurch können Vietnamesen den Trainingsprozess und das Modell vollständig beherrschen und steuern.
Ende 2024 belegte Zalos LLM-Modell den zweiten Platz im VMLU-Ranking (Vietnamesische Multitask-Sprachverständnis-Benchmark-Suite für große Sprachmodelle (LLMs)), einer Plattform zur Bewertung und Einstufung vietnamesischer Sprachkenntnisse. Insbesondere stieg Zalos großes Sprachmodell auf Platz 2 der von Grund auf trainierten Modelle, knapp hinter Metas Llama-3-70B, und überholte damit offiziell große Namen wie GPT-4 (OpenAI), Gemma-2-9b-it (Google) und Microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Ranking der von Grund auf neu erstellten LLMs im Jahr 2024 mit dem LLM-Modell von Zalo in den Top 2. |
Dies ist ein großer Erfolg für ein umfangreiches, von Vietnamesen entwickeltes Sprachmodell, insbesondere angesichts der Tatsache, dass es in der Anfangsphase der Entwicklung auf viele Einschränkungen stieß. Während große Unternehmen weltweit Tausende der neuesten GPUs von Nvidia besaßen, verfügten die Ingenieure in Vietnam damals nicht über die erforderliche Serverinfrastruktur.
Gleichzeitig rangiert Vietnamesisch in der Gruppe mit einer um ein Vielfaches schlechteren Datenbasis als Englisch oder Chinesisch. Darüber hinaus weist Vietnam im Vergleich zu den Industrieländern weltweit auch geringere Humanressourcen und weniger Erfahrung in der LLM-Ausbildung auf.
Zalo verfolgt eine Entwicklungsstrategie, um die Einschränkungen der Trainingsumgebung im Vergleich zum Rest der Welt zu überwinden. Durch die Ausstattung der Computerinfrastruktur mit acht DGX H100-Servern wurde das LLM-Modell direkt unter Verwendung der neuesten und damals seltensten GPU-Reihe von Nvidia mit einer Leistung von bis zu 256 PetaFLOPS (Floating-Point Operations Per Second – ein PetaFLOP entspricht 10 Millionen Milliarden Berechnungen/Sekunde) entwickelt.
![]() |
Das Serversystem von Zalo verfügt über eine überragende Verarbeitungskapazität. |
Gleichzeitig wird in hochwertige Trainingsdaten investiert, um den Mangel an vietnamesischen Datenquellen auszugleichen. Durch eine Reihe von Studien an kleinen zivilen GPUs haben die Zalo-Ingenieure zudem die Gelegenheit genutzt, sich das Wissen und die Kapazitäten anzueignen, um LLM zu trainieren und eine einsatzbereite Plattform zu erstellen, sobald sie über eine große Computerinfrastruktur verfügen.
Dank der richtigen Entwicklungsausrichtung konnte Zalo 2023 nach nur sechs Monaten Training erfolgreich ein großes Sprachmodell mit 7 Milliarden Parametern und Fokus auf Vietnamesisch entwickeln und erreichte im VMLU-Benchmark 150 % der Kapazität von OpenAIs GPT3.5. In den VMLU-2024-Rankings hat das Unternehmen nun eine Reihe globaler Namen überholt und gleichzeitig das Forschungsmodell in die Praxis für die Community umgesetzt.
![]() |
Das LLM-Modell von Zalo konkurriert mit einer Reihe von Modellen auf der Welt wie ChatGPT 3.5, ChatGPT 4.0, Llama, PhoGPT und einem echten Player bei der ersten Markteinführung im Jahr 2023. |
Laut Zalo wird im Rahmen des LLM-Modells weiterhin in die Ausbildung investiert, um den Nutzern noch mehr KI-Anwendungen von Weltklasse zur Verfügung zu stellen. Dadurch soll die Beherrschung fortschrittlicher KI-Technologien gefördert und das Zeitalter der technologischen Entwicklung des Landes mit einer bahnbrechenden Ausrichtung in den Bereichen Wissenschaft , Technologie, Innovation und nationale digitale Transformation eingeläutet werden.
Quelle: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html
Kommentar (0)