Σύμφωνα με το Android Authority , η ερευνητική εργασία της Apple περιγράφει λεπτομερώς μια λύση για την εκτέλεση μεγάλων γλωσσικών μοντέλων (LLM) σε συσκευές με περιορισμένη μνήμη RAM. Η εργασία αποκαλύπτει πώς η εταιρεία μπορεί να αποθηκεύσει "παραμέτρους μοντέλου" και να φορτώσει ένα μέρος τους στη μνήμη RAM της συσκευής όταν χρειάζεται, αντί να φορτώσει ολόκληρο το μοντέλο στη μνήμη RAM.
Η Apple θέλει να βοηθήσει τα παλαιότερα iPhone με λιγότερη μνήμη RAM να τρέχουν γενικά με τεχνητή νοημοσύνη
Η εργασία υποστηρίζει ότι αυτή η μέθοδος επιτρέπει την εκτέλεση μοντέλων που απαιτούν διπλάσια μνήμη RAM από αυτήν που μπορεί να έχει ένα iPhone, εξασφαλίζοντας παράλληλα ταχύτητες συμπερασμάτων 4-5x και 20-25x σε σύγκριση με απλές μεθόδους φόρτωσης στην CPU και την GPU αντίστοιχα.
Η ανάπτυξη συνθετικής Τεχνητής Νοημοσύνης (AI) σε μια συσκευή με περισσότερη μνήμη RAM θα ήταν ένα τεράστιο όφελος, επειδή θα επέτρεπε ταχύτερες ταχύτητες ανάγνωσης/εγγραφής. Η ταχύτητα είναι σημαντική για την Τεχνητή Νοημοσύνη στη συσκευή, επιτρέποντας πολύ ταχύτερους χρόνους εξαγωγής συμπερασμάτων, επειδή οι χρήστες δεν χρειάζεται απαραίτητα να περιμένουν δεκάδες δευτερόλεπτα (ή περισσότερο) για μια απάντηση ή τελικό αποτέλεσμα. Όλα αυτά σημαίνουν ότι ένας βοηθός Τεχνητής Νοημοσύνης στη συσκευή θα μπορούσε ενδεχομένως να λειτουργεί με ταχύτητες συνομιλίας, να δημιουργεί εικόνες/κείμενο πολύ πιο γρήγορα, να συνοψίζει άρθρα πιο γρήγορα κ.λπ. Αλλά η λύση της Apple σημαίνει ότι οι χρήστες δεν χρειάζονται απαραίτητα πολλή μνήμη RAM για να επιταχύνουν την απόκριση των εργασιών της Τεχνητής Νοημοσύνης στη συσκευή.
Η προσέγγιση της Apple θα μπορούσε να επιτρέψει σε παλιά και νέα iPhone να προσφέρουν συνθετικές λειτουργίες τεχνητής νοημοσύνης απευθείας στις συσκευές τους. Αυτό είναι σημαντικό επειδή τα iPhone της Apple συνήθως προσφέρουν λιγότερη μνήμη RAM από τα τηλέφωνα Android υψηλής τεχνολογίας. Η σειρά iPhone 11, για παράδειγμα, προσφέρει μόνο 4GB RAM, ενώ ακόμη και το κανονικό iPhone 15 έχει μόνο 6GB.
Η Apple δεν είναι η μόνη εταιρεία κινητής τηλεφωνίας που εργάζεται για τη συρρίκνωση του LLM. Τα πρόσφατα ναυαρχικά τσιπ της Qualcomm και της MediaTek υποστηρίζουν και τα δύο την ακρίβεια INT4 για να συρρικνώσουν αυτά τα μοντέλα. Σε κάθε περίπτωση, οι εταιρείες προσπαθούν να βρουν νέους τρόπους για να μειώσουν τις απαιτήσεις συστήματος για την τεχνητή νοημοσύνη στις συσκευές, επιτρέποντας ακόμη και σε τηλέφωνα χαμηλού κόστους να προσφέρουν τη λειτουργία.
[διαφήμιση_2]
Σύνδεσμος πηγής
Σχόλιο (0)