Firmy z Chin kontynentalnych ograniczają koszty, budując modele trenowane na mniejszych ilościach danych, wymagające mniejszej mocy obliczeniowej, ale zoptymalizowanego sprzętu, powiedział Lee Kai-Fu, założyciel 01.ai i były szef Google China.

Według rankingu opublikowanego niedawno przez UC Berkeley SkyLab i LMSYS, model Yi-Lingtning startupu 01.ai zajął trzecie miejsce, ex aequo z Grok-2 z x.AI, za OpenAI i Google. Ranking ten opiera się na wynikach użytkowników za odpowiedzi na zapytania.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Obniżanie kosztów operacji związanych ze sztuczną inteligencją to sposób Chin na konkurowanie z USA. Zdjęcie: FT

01.ai i DeepSeek to działające na kontynencie firmy z branży sztucznej inteligencji, które przyjęły strategię skupiania się na mniejszych zbiorach danych do trenowania modeli, jednocześnie zatrudniając tanią, wysoko wykwalifikowaną siłę roboczą.

Według FT koszt wnioskowania Yi-Lightning wynosi 14 centów za milion tokenów, w porównaniu z 26 centami w przypadku GPT o1-mini firmy OpenAI. Tymczasem GPT 4o kosztuje do 4,40 dolara za milion tokenów. Liczba tokenów używanych do wygenerowania odpowiedzi zależy od złożoności każdego zapytania.

Założyciele Yi-Lightning ujawnili, że firma wydała 3 miliony dolarów na „wstępne szkolenie”, zanim dopracowała je pod kątem różnych zastosowań. Lee powiedział, że ich celem nie było „stworzenie najlepszego modelu”, ale zbudowanie konkurencyjnego modelu, który byłby „5-10 razy tańszy”.

Metoda zastosowana przez 01.ai, DeepSeek, MiniMax i Stepfun nazywa się „modelowaniem eksperckim” – oznacza to po prostu łączenie wielu sieci neuronowych trenowanych na zestawach danych specyficznych dla danej dziedziny.

Naukowcy postrzegają to podejście jako kluczowy sposób na osiągnięcie tego samego poziomu inteligencji, co modele big data, ale przy mniejszej mocy obliczeniowej. Problem z tym podejściem polega jednak na tym, że inżynierowie muszą organizować proces szkolenia z udziałem „wielu ekspertów”, a nie tylko jednego, ogólnego modelu.

Ze względu na trudności w dostępie do zaawansowanych układów AI, chińskie firmy zwróciły się w stronę opracowywania wysokiej jakości zbiorów danych, które mogą być wykorzystywane do trenowania modeli eksperckich, co pozwala im konkurować z zachodnimi konkurentami.

Lee powiedział, że 01.ai stosuje niekonwencjonalne metody gromadzenia danych, takie jak skanowanie książek lub gromadzenie artykułów w aplikacji do przesyłania wiadomości WeChat, które nie są dostępne na otwartej stronie internetowej.

Założyciel uważa, że ​​Chiny są w lepszej sytuacji niż Stany Zjednoczone, dysponując ogromnymi zasobami taniej kadry technicznej.

(Według FT i Bloomberga)

Meta wprowadza na rynek „samouczący się” model sztucznej inteligencji Gigant mediów społecznościowych Meta właśnie zapowiedział nowy model sztucznej inteligencji z funkcją samouczącej się oceny (STE), która może ograniczyć ingerencję człowieka w proces rozwoju sztucznej inteligencji.