Apple, Microsoft, Meta i Google niedawno wypuściły nowe modele sztucznej inteligencji (AI) z mniejszą liczbą „parametrów”, ale wciąż oferujące potężne możliwości. Jest to działanie grup technologicznych mające na celu zachęcenie przedsiębiorstw o ograniczonych możliwościach finansowych do dalszego korzystania ze sztucznej inteligencji.
Ilustracja: FT
Generalnie, im większa liczba parametrów, tym lepsza wydajność oprogramowania AI i tym bardziej złożone i niuansowane są jego zadania. Najnowszy model GPT-4o firmy OpenAI i Gemini 1.5 Pro firmy Google, oba zaprezentowane w tym tygodniu, mają szacunkowo ponad bilion parametrów. Tymczasem Meta trenuje wersję swojego modelu Llama o otwartym kodzie źródłowym, liczącą 400 miliardów parametrów.
Obawy dotyczące danych i odpowiedzialności za prawa autorskie sprawiły, że duże firmy technologiczne, takie jak Meta i Google, wypuściły na rynek proste modele językowe zawierające zaledwie kilka miliardów parametrów, które są tańsze, energooszczędne, konfigurowalne, wymagają mniej energii do trenowania i uruchomienia, a także mogą zapobiegać przechwytywaniu poufnych danych.
„Uzyskując tak wysoką jakość przy niższych kosztach, tak naprawdę zyskujesz dostęp do większej liczby aplikacji dla klientów” — powiedział Eric Boyd, wiceprezes korporacyjny platformy Azure AI firmy Microsoft, która sprzedaje modele AI przedsiębiorstwom.
Google, Meta, Microsoft i francuski startup Mistral również opublikowały niewielkie modele językowe, które nadal wykazują postęp i pozwalają lepiej skupić się na konkretnych zadaniach.
Nick Clegg, prezes ds. globalnych w Meta, powiedział, że nowy model Llama 3 z 8 miliardami parametrów jest porównywalny z GPT-4. Microsoft stwierdził, że jego mniejszy model Phi-3 z 7 miliardami parametrów przewyższa GPT-3.5, poprzednią wersję modelu OpenAI.
Mikroprocesory mogą również przetwarzać zadania lokalnie na urządzeniu, zamiast wysyłać informacje do chmury, co może być atrakcyjne dla klientów dbających o prywatność i chcących mieć pewność, że informacje pozostaną w sieci.
Charlotte Marshall, partnerka w kancelarii prawnej Addleshaw Goddard, powiedziała, że „jednym z wyzwań, z jakimi, moim zdaniem, boryka się wielu naszych klientów” podczas wdrażania generatywnych produktów AI, jest przestrzeganie wymogów prawnych dotyczących przetwarzania i przesyłania danych. Dodała, że mniejsze modele oferują firmom „szansę na pokonanie” problemów prawnych i kosztowych.
Mniejsze modele umożliwiają również uruchamianie funkcji AI na urządzeniach takich jak telefony komórkowe. Model „Gemini Nano” firmy Google jest wbudowany w najnowsze telefony Pixel i najnowszy smartfon Samsunga S24.
Apple ujawniło również, że opracowuje modele sztucznej inteligencji, które będą działać na jego bestsellerowym iPhonie. W zeszłym miesiącu gigant z Doliny Krzemowej opublikował OpenELM, niewielki model zaprojektowany do wykonywania zadań opartych na tekście.
Boyd z Microsoftu powiedział, że mniejsze modele znajdą zastosowanie w „interesujących zastosowaniach, także w telefonach i laptopach”.
Dyrektor OpenAI, Sam Altman, powiedział w listopadzie, że firma oferuje klientom również modele AI o różnych rozmiarach, które „służą różnym celom”. „Są pewne rzeczy, które mniejsze modele będą robić naprawdę dobrze. Jestem tym podekscytowany” – powiedział.
Altman dodał jednak, że OpenAI nadal będzie koncentrować się na budowaniu większych modeli sztucznej inteligencji, które będą skalowalne i będą zdolne do rozumowania, planowania i wykonywania zadań, a ostatecznie do osiągnięcia poziomu inteligencji ludzkiego.
Hoang Hai (według FT)
Source: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html






Komentarz (0)