По словам Ли Кай-Фу, основателя 01.ai и бывшего главы Google China, компании на материке сокращают расходы, создавая модели, обучаемые на меньших объемах данных, требующие меньшей вычислительной мощности, но оптимизированного оборудования.

Согласно рейтингу, недавно опубликованному UC Berkeley SkyLab и LMSYS, модель Yi-Lingtning стартапа 01.ai заняла третье место, разделив с Grok-2 x.AI, уступив OpenAI и Google. Этот рейтинг основан на оценках пользователей за ответы на запросы.

2d82e5b153faa85bf01e3f82affa4e298ec4f24e.avif.jpg
Снижение стоимости ИИ — это способ для Китая конкурировать с США. Фото: FT

01.ai и DeepSeek — это компании в сфере искусственного интеллекта, которые придерживаются стратегии, направленной на обучение моделей на основе небольших наборов данных, одновременно нанимая дешевую, высококвалифицированную рабочую силу.

FT заявила, что стоимость вывода Yi-Lightning составляет 14 центов за миллион токенов по сравнению с 26 центами для GPT o1-mini от OpenAI. Между тем, GPT 4o стоит до 4,40 долларов за миллион токенов. Количество токенов, используемых для генерации ответа, зависит от сложности каждого запроса.

Основатель Yi-Lightning рассказал, что компания потратила $3 млн на «начальное обучение», прежде чем дорабатывать для разных вариантов использования. Ли сказал, что их целью было «не создать лучшую модель», а построить конкурирующую модель, которая была бы «в 5-10 раз дешевле».

Метод, который применили 01.ai, DeepSeek, MiniMax и Stepfun, называется «экспертное моделирование» — это простое объединение нескольких нейронных сетей, обученных на наборах данных, специфичных для определенной области.

Исследователи рассматривают этот подход как ключевой способ достичь того же уровня интеллекта, что и модели больших данных, но с меньшей вычислительной мощностью. Однако сложность подхода заключается в том, что инженеры должны организовать процесс обучения с «множеством экспертов», а не только с одной общей моделью.

Из-за трудностей с доступом к высокопроизводительным ИИ-чипам китайские компании обратились к разработке высококачественных наборов данных для использования в обучении экспертных моделей, тем самым конкурируя с западными конкурентами.

Ли сказал, что 01.ai использует нетрадиционные способы сбора данных, такие как сканирование книг или сбор статей в приложении для обмена сообщениями WeChat, которые недоступны в открытом доступе в Интернете.

Основатель считает, что Китай находится в лучшем положении, чем США, поскольку обладает огромным резервом дешевых технических специалистов.

(По данным FT, Bloomberg)

Meta запускает модель искусственного интеллекта с самооценкой обучения Гигант социальных сетей Meta только что анонсировал новую модель искусственного интеллекта с функцией самооценивания обучения (STE), которая может сузить вмешательство человека в процесс разработки искусственного интеллекта.