Apple, Microsoft, Meta i Google niedawno opublikowały nowe modele sztucznej inteligencji (AI) z mniejszą liczbą „parametrów”, ale wciąż oferujące potężne możliwości. Ten krok jest próbą tych grup technologicznych, aby zachęcić firmy o ograniczonym budżecie do korzystania ze sztucznej inteligencji.
Zdjęcie ilustracyjne: FT
Generalnie, im większa liczba parametrów, tym lepsza wydajność oprogramowania AI, a jego zadania stają się bardziej złożone i niuansowe. Najnowszy model GPT-4o firmy OpenAI i Gemini 1.5 Pro firmy Google, oba zaprezentowane w tym tygodniu, mają szacunkowo ponad bilion parametrów. Tymczasem Meta trenuje wersję swojego modelu Llama o otwartym kodzie źródłowym, zawierającą 400 miliardów parametrów.
Obawy dotyczące danych i odpowiedzialności za prawa autorskie sprawiły, że duże firmy technologiczne, takie jak Meta i Google, wypuściły mniejsze modele językowe, zawierające zaledwie kilka miliardów parametrów. Są one tańsze, bardziej energooszczędne, konfigurowalne, wymagają mniej energii do ich trenowania i uruchomienia, a także mogą zapobiegać wyciekom poufnych danych.
„Osiągając tak wysoką jakość przy niższych kosztach, klienci będą mieli dostęp do większej liczby aplikacji…” — powiedział Eric Boyd, wiceprezes platformy Azure AI firmy Microsoft, która sprzedaje modele AI przedsiębiorstwom.
Google, Meta, Microsoft i francuski startup Mistral również udostępniły mniejsze modele językowe, ale nadal wykazują one potencjał do udoskonalenia i mogą być lepiej skoncentrowane na konkretnych zadaniach.
Nick Clegg, prezes ds. globalnych w Meta, powiedział, że nowy model Llama 3, liczący 8 miliardów parametrów, jest porównywalny z GPT-4. Microsoft stwierdził, że jego mniejszy model Phi-3, z 7 miliardami parametrów, działa lepiej niż GPT-3.5, poprzednia wersja modelu OpenAI.
Mniejsze modele mogą również wykonywać zadania lokalnie na urządzeniu, zamiast wysyłać informacje do chmury, co może być korzystne dla klientów dbających o prywatność, którzy chcą mieć pewność, że informacje będą przechowywane w obrębie ich wewnętrznej sieci.
Charlotte Marshall, administratorka w kancelarii prawnej Addleshaw Goddard, mówi, że „jednym z wyzwań, z jakimi, moim zdaniem, mierzy się wielu naszych klientów” podczas wdrażania generatywnych produktów AI, jest przestrzeganie wymogów prawnych dotyczących przetwarzania i przesyłania danych. Dodaje, że mniejsze modele oferują firmom „szansę na pokonanie” problemów prawnych i kosztowych.
Mniejsze modele umożliwiają również uruchamianie funkcji AI na urządzeniach takich jak telefony komórkowe. Model „Gemini Nano” firmy Google jest wbudowany w najnowsze telefony Pixel i najnowszy smartfon Samsung S24.
Apple ujawniło również, że opracowuje modele sztucznej inteligencji, które będą działać na jego bestsellerowym iPhonie. W zeszłym miesiącu gigant z Doliny Krzemowej opublikował model OpenELM, niewielki model przeznaczony do wykonywania zadań tekstowych.
Boyd z Microsoftu powiedział, że mniejsze urządzenia będą skutkować „ciekawymi zastosowaniami, także w telefonach i laptopach”.
Dyrektor OpenAI, Sam Altman, powiedział w listopadzie, że firma dostarcza klientom modele sztucznej inteligencji o różnej skali i „służące różnym celom”. Dodał: „Są pewne rzeczy, które mniejsze modele będą robić naprawdę dobrze. Jestem tym bardzo podekscytowany”.
Altman dodał jednak, że OpenAI będzie nadal koncentrować się na budowaniu większych, skalowalnych modeli sztucznej inteligencji zdolnych do rozumowania, planowania i wykonywania zadań, co ostatecznie pozwoli na osiągnięcie inteligencji na poziomie ludzkim.
Hoang Hai (według FT)
Source: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html






Komentarz (0)