Podle Android Authority výzkumná práce společnosti Apple podrobně popisuje řešení pro spouštění velkých jazykových modelů (LLM) na zařízeních s omezenou pamětí RAM. Článek odhaluje, jak může společnost ukládat „parametry modelu“ a v případě potřeby načítat jejich část do paměti RAM zařízení, místo aby do paměti RAM načítala celý model.
Apple se snaží pomoci starším iPhonem s menší pamětí RAM spustit obecnou umělou inteligenci
Článek tvrdí, že tato metoda umožňuje spouštět modely, které vyžadují dvojnásobek RAM, než může mít iPhone, a zároveň zajišťuje 4-5x a 20-25x rychlost inference ve srovnání s jednoduchými metodami načítání na CPU a GPU.
Nasazení syntetické umělé inteligence na zařízení s větší pamětí RAM by bylo obrovským přínosem, protože by umožnilo rychlejší čtení/zápis. Rychlost je pro umělou inteligenci na zařízení důležitá, protože umožňuje mnohem rychlejší inferenci, protože uživatelé nemusí nutně čekat desítky sekund (nebo i déle) na odpověď nebo konečný výsledek. To vše znamená, že asistent umělé inteligence na zařízení by mohl potenciálně běžet konverzační rychlostí, generovat obrázky/text mnohem rychleji, rychleji shrnovat články atd. Řešení od Applu však znamená, že uživatelé nemusí nutně potřebovat mnoho paměti RAM, aby urychlili odezvu umělé inteligence na úkoly na zařízení.
Přístup společnosti Apple by mohl umožnit starým i novým iPhonům nabízet syntetické funkce umělé inteligence přímo v zařízení. To je důležité, protože iPhony od Applu obvykle nabízejí méně RAM než špičkové telefony s Androidem. Například řada iPhone 11 nabízí pouze 4 GB RAM, zatímco i základní iPhone 15 má pouze 6 GB.
Apple není jedinou mobilní společností, která pracuje na zmenšení LLM. Nedávné vlajkové lodě od Qualcommu a MediaTeku podporují přesnost INT4, aby tyto modely zmenšily. Ať tak či onak, společnosti se snaží najít nové způsoby, jak snížit systémové požadavky pro umělou inteligenci v zařízení, což by umožnilo nabízet tuto funkci i telefonům nižší třídy.
Zdrojový odkaz
Komentář (0)