Η εφαρμογή του βιετναμέζικου μοντέλου τεχνητής νοημοσύνης προσελκύει εκατομμύρια επισκέψεις. |
Αναπτυγμένο από την ομάδα μηχανικών Βιετναμέζικων της Zalo, το μεγάλης κλίμακας γλωσσικό μοντέλο με 13 δισεκατομμύρια παραμέτρους οδηγεί μια σειρά από πρακτικές εφαρμογές που προσελκύουν μεγάλο αριθμό χρηστών μηνιαίως. Ξεχωρίζει ο ολοκληρωμένος βοηθός ερωτήσεων και απαντήσεων Kiki Info, ο οποίος λειτουργεί ως Επίσημος Λογαριασμός (OA) στο Zalo, προσφέροντας τρεις λειτουργίες: Ερωτήσεις και απαντήσεις σε διάφορα θέματα όπως η επιστήμη, η ιστορία, ο κώδικας οδικής κυκλοφορίας κ.λπ.· Δημιουργία περιεχομένου όπως η συγγραφή δοκιμίων, η σύνταξη email και η δημοσίευση στα μέσα κοινωνικής δικτύωσης· και Ψυχαγωγία παρέχοντας προτάσεις για ταξιδιωτικούς προορισμούς, μουσική , βιβλία κ.λπ.
Στατιστικά στοιχεία από την ομάδα ανάπτυξης δείχνουν ότι αυτός ο βοηθός είχε έως και 1 εκατομμύριο χρήστες που είχαν πρόσβαση στον Επίσημο Λογαριασμό (OA) του Zalo σε λιγότερο από 2 μήνες.
![]() |
Το Kiki Info είναι ενσωματωμένο στην πλατφόρμα ανταλλαγής μηνυμάτων Zalo. |
Μια άλλη εφαρμογή που αναπτύχθηκε χρησιμοποιώντας το μεγάλο γλωσσικό μοντέλο της Zalo είναι οι ευχετήριες κάρτες με τεχνητή νοημοσύνη, οι οποίες έχουν πλέον φτάσει τα 15 εκατομμύρια κάρτες που δημιουργήθηκαν και στάλθηκαν από χρήστες. Αυτά τα δεδομένα συγκεντρώθηκαν σε διάστημα δύο μηνών, δείχνοντας χρήστες να χρησιμοποιούν ευχετήριες κάρτες με τεχνητή νοημοσύνη για να στέλνουν ευχές σε συγγενείς και φίλους σε σημαντικές περιστάσεις.
Αυτές οι εφαρμογές αξιολογούνται ιδιαίτερα από τους χρήστες για την έξυπνη εμπειρία τους, η οποία βοηθά στη μείωση του χρόνου αναζήτησης και της λήψης αποφάσεων στη ζωή. Επίσης, κάνουν την επικοινωνία με άλλους και την οικοδόμηση σχέσεων πιο ευχάριστη και ελκυστική.
Το μοντέλο LLM της Zalo αναπτύσσεται χρησιμοποιώντας μια τεχνική διασταυρούμενης εκπαίδευσης – εφαρμόζοντας όλες τις διαδικασίες, από την αρχικοποίηση παραμέτρων και τη λήψη αποφάσεων για την αρχιτεκτονική του μοντέλου έως την εκπαίδευση αλγορίθμων σε ένα δεδομένο σύνολο δεδομένων, επιτρέποντας στους Βιετναμέζους χρήστες να κατανοήσουν και να ελέγξουν πλήρως τη διαδικασία εκπαίδευσης και το μοντέλο.
Στο τέλος του 2024, το μοντέλο LLM της Zalo κατέλαβε την 2η θέση στην κατάταξη VMLU – μια πλατφόρμα για την αξιολόγηση και την κατάταξη της βιετναμέζικης γλωσσικής επάρκειας των LLM (Vietnam Multitask Language Understanding Benchmark Suite for Large Language Models). Συγκεκριμένα, το μοντέλο μεγάλης γλώσσας της Zalo ανέβηκε στη 2η θέση στην κατάταξη των μοντέλων που εκπαιδεύτηκαν από την αρχή, πίσω μόνο από το Llama-3-70B της Meta, ξεπερνώντας επίσημα μεγάλα ονόματα όπως το GPT-4 (OpenAI), το gemma-2-9b-it (Google) και το microsoft/Phi-3-small-128k-instruct (Microsoft).
![]() |
Η κατάταξη των LLM για το 2024 δημιουργήθηκε από το μηδέν, με το μοντέλο LLM του Zalo να βρίσκεται στην πρώτη 2άδα. |
Αυτή ήταν μια τεράστια επιτυχία για μια γλώσσα προγραμματισμού μεγάλης κλίμακας που αναπτύχθηκε από Βιετναμέζους, ειδικά αν λάβουμε υπόψη τους πολυάριθμους περιορισμούς που αντιμετώπισε στα αρχικά της στάδια. Ενώ μεγάλες εταιρείες παγκοσμίως κατείχαν χιλιάδες από τις πιο πρόσφατες GPU της Nvidia, στο Βιετνάμ εκείνη την εποχή οι μηχανικοί δεν ήταν ακόμη εξοπλισμένοι με την απαραίτητη υποδομή διακομιστών.
Ταυτόχρονα, τα βιετναμέζικα κατατάσσονται επίσης μεταξύ των γλωσσών με πόρους δεδομένων που είναι δεκάδες φορές φτωχότεροι από τα αγγλικά ή τα κινέζικα. Επιπλέον, το Βιετνάμ έχει επίσης περιορισμούς σε ανθρώπινο δυναμικό και εμπειρία στην εκπαίδευση LLM σε σύγκριση με τις ανεπτυγμένες χώρες σε όλο τον κόσμο.
Η Zalo είχε μια στρατηγική ανάπτυξης για να ξεπεράσει τους περιορισμούς του εκπαιδευτικού της περιβάλλοντος σε σύγκριση με τον υπόλοιπο κόσμο. Εξοπλίζοντας την υπολογιστική της υποδομή με 8 διακομιστές DGX H100, το μοντέλο LLM αναπτύχθηκε απευθείας χρησιμοποιώντας τις νεότερες και σπανιότερες GPU της Nvidia εκείνη την εποχή, με απόδοση έως και 256 petaFLOPS (Λειτουργίες Κινητής Υποδιαστολής Ανά Δευτερόλεπτο - ένα petaFLOP ισοδυναμεί με 10 τετράκις εκατομμύρια υπολογισμούς ανά δευτερόλεπτο).
![]() |
Το σύστημα διακομιστή της Zalo διαθέτει ανώτερες δυνατότητες επεξεργασίας. |
Ταυτόχρονα, έχουν γίνει επενδύσεις στην ανάπτυξη δεδομένων εκπαίδευσης υψηλής ποιότητας για να αντισταθμιστεί η έλλειψη πηγών δεδομένων στη βιετναμέζικη γλώσσα. Μέσω μιας σειράς μελετών που διεξήχθησαν σε μικρές καταναλωτικές GPU, οι μηχανικοί της Zalo έχουν επίσης αξιοποιήσει τις ευκαιρίες για την απόκτηση γνώσεων και εκπαιδευτικών δυνατοτήτων στο LLM, δημιουργώντας μια βάση έτοιμη για χρήση όταν αποκτήσουν υπολογιστική υποδομή μεγάλης κλίμακας.
Η σωστή στρατηγική ανάπτυξης βοήθησε την Zalo να αναπτύξει με επιτυχία ένα μεγάλης κλίμακας γλωσσικό μοντέλο με 7 δισεκατομμύρια παραμέτρους, εστιάζοντας στα Βιετναμέζικα, σε μόλις 6 μήνες εκπαίδευσης το 2023, επιτυγχάνοντας το 150% της δυνατότητας σε σύγκριση με το GPT3.5 της OpenAI στο σημείο αναφοράς VMLU. Επί του παρόντος, έχει ξεπεράσει πολλά παγκόσμια ονόματα στην κατάταξη VMLU 2024 και φέρνει το ερευνητικό της μοντέλο σε πρακτική εφαρμογή για την κοινότητα.
![]() |
Το μοντέλο LLM της Zalo ανταγωνίστηκε μια σειρά από παγκόσμια μοντέλα όπως το ChatGPT 3.5, το ChatGPT 4.0, το Llama, το PhoGPT και έναν πραγματικό παίκτη όταν κυκλοφόρησε για πρώτη φορά το 2023. |
Σύμφωνα με τον Zalo, το μοντέλο LLM θα συνεχίσει να λαμβάνει επενδύσεις σε εκπαίδευση, ώστε να προσφέρει στους χρήστες περισσότερες εφαρμογές τεχνητής νοημοσύνης παγκόσμιας κλάσης. Αυτό θα τους επιτρέψει να κατακτήσουν την προηγμένη τεχνολογία τεχνητής νοημοσύνης, προχωρώντας προς μια νέα εποχή τεχνολογικής ανάπτυξης για τη χώρα με πρωτοποριακό προσανατολισμό στην επιστήμη , την τεχνολογία, την καινοτομία και τον εθνικό ψηφιακό μετασχηματισμό.
Πηγή: https://znews.vn/ung-dung-cua-mo-hinh-ai-viet-dang-thu-hut-hang-trieu-luot-truy-cap-post1563330.html










Σχόλιο (0)