По словам Ли Кай-Фу, основателя 01.ai и бывшего главы Google China, компании на материке сокращают расходы, создавая модели, обучаемые на меньших объемах данных, требующие меньшей вычислительной мощности, но оптимизированного оборудования.

Согласно рейтингу, недавно опубликованному UC Berkeley SkyLab и LMSYS, модель Yi-Lingtning стартапа 01.ai заняла третье место, разделив место с Grok-2 от x.AI, уступив OpenAI и Google. Этот рейтинг основан на оценках пользователей за ответы на запросы.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Снижение стоимости операций с использованием искусственного интеллекта — это способ для Китая конкурировать с США. Фото: FT

01.ai и DeepSeek — это китайские компании в сфере искусственного интеллекта, которые придерживаются стратегии, направленной на обучение моделей на основе небольших наборов данных, одновременно нанимая дешевую, но высококвалифицированную рабочую силу.

FT сообщает, что стоимость вывода Yi-Lightning составляет 14 центов за миллион токенов по сравнению с 26 центами для OpenAI GPT o1-mini. В то же время стоимость GPT 4o достигает 4,40 доллара за миллион токенов. Количество токенов, используемых для генерации ответа, зависит от сложности каждого запроса.

Основатели Yi-Lightning рассказали, что компания потратила 3 ​​миллиона долларов на «начальное обучение», прежде чем начать доработку для различных вариантов использования. Ли отметил, что их целью было «не создание лучшей модели», а создание конкурентоспособной модели, которая была бы «в 5–10 раз дешевле».

Метод, который применили 01.ai, DeepSeek, MiniMax и Stepfun, называется «экспертное моделирование» — это попросту объединение нескольких нейронных сетей, обученных на наборах данных, специфичных для конкретной области.

Исследователи рассматривают этот подход как ключевой способ достижения того же уровня интеллекта, что и у моделей больших данных, но с меньшей вычислительной мощностью. Однако сложность этого подхода заключается в том, что инженерам приходится организовывать процесс обучения с участием «множества экспертов», а не одной общей модели.

Из-за трудностей с доступом к высокопроизводительным ИИ-чипам китайские компании занялись разработкой высококачественных наборов данных, которые можно использовать для обучения экспертных моделей, тем самым конкурируя с западными конкурентами.

Ли заявил, что 01.ai использует нетрадиционные способы сбора данных, такие как сканирование книг или сбор статей в мессенджере WeChat, которые недоступны на открытом веб-сайте.

Основатель компании считает, что Китай находится в лучшем положении, чем США, поскольку у него огромный резерв дешевых технических специалистов.

(По данным FT, Bloomberg)

Meta запускает «самообучающуюся» модель ИИ Гигант социальных сетей Meta только что анонсировал новую модель ИИ с функцией самообучающейся оценки (STE), которая может сузить вмешательство человека в процесс разработки ИИ.