Apple, Microsoft, Meta и Google недавно выпустили новые модели ИИ с меньшим количеством «параметров», но по-прежнему обладающие мощными возможностями. Этот шаг является частью усилий технологических групп по поощрению финансово ограниченных предприятий к использованию ИИ.
Иллюстрация: FT
Как правило, чем больше параметров, тем выше производительность ИИ-программы и тем сложнее и детальнее её задачи. Новейшая модель OpenAI GPT-4o и Google Gemini 1.5 Pro, анонсированные на этой неделе, по оценкам, имеют более 1 триллиона параметров. Тем временем Meta обучает версию своей модели Llama с открытым исходным кодом, насчитывающую 400 миллиардов параметров.
Опасения по поводу ответственности за данные и авторские права также побудили крупные технологические компании, такие как Meta и Google, выпустить небольшие языковые модели, содержащие всего несколько миллиардов параметров, которые дешевле, энергоэффективнее, настраиваемее, требуют меньше энергии для обучения и работы, а также могут предотвратить сохранение конфиденциальных данных.
«Получая высокое качество по более низкой цене, вы фактически обеспечиваете клиентам доступ к большему количеству приложений», — сказал Эрик Бойд, корпоративный вице-президент платформы искусственного интеллекта Azure компании Microsoft, которая продает модели искусственного интеллекта компаниям.
Google, Meta, Microsoft и французский стартап Mistral также выпустили небольшие языковые модели, но все равно демонстрируют прогресс и могут лучше концентрироваться на конкретных задачах.
Ник Клегг, президент Meta по глобальным вопросам, заявил, что новая модель Llama 3 с 8 миллиардами параметров сопоставима с GPT-4. Microsoft заявила, что её компактная модель Phi-3 с 7 миллиардами параметров превосходит GPT-3.5, предыдущую версию модели OpenAI.
Микрочипы также могут обрабатывать задачи локально на устройстве, а не отправлять информацию в облако, что может быть интересно клиентам, заботящимся о конфиденциальности и желающим, чтобы информация оставалась в пределах сети.
Шарлотта Маршалл, партнёр юридической фирмы Addleshaw Goddard, отметила, что «одна из проблем, с которой, по моему мнению, столкнулись многие наши клиенты» при внедрении продуктов генеративного ИИ, — это соблюдение нормативных требований к обработке и передаче данных. Она отметила, что модели меньшего размера дают компаниям «возможность преодолеть» нормативные и финансовые трудности.
Модели меньшего размера также позволяют использовать функции искусственного интеллекта на таких устройствах, как мобильные телефоны. Модель Gemini Nano от Google встроена в новейшие телефоны Pixel и новейший смартфон Samsung S24.
Apple также сообщила о разработке моделей искусственного интеллекта для своего самого продаваемого iPhone. В прошлом месяце гигант из Кремниевой долины выпустил OpenELM — небольшую модель, предназначенную для выполнения текстовых задач.
Бойд из Microsoft заявил, что меньшие модели приведут к появлению «интересных приложений, вплоть до телефонов и ноутбуков».
Директор OpenAI Сэм Альтман заявил в ноябре, что компания также предлагает клиентам модели ИИ разных размеров «для разных целей». «Есть вещи, которые модели меньшего размера будут выполнять действительно хорошо. Я этому рад», — сказал он.
Однако Альтман добавил, что OpenAI по-прежнему будет сосредоточена на создании более крупных моделей ИИ с возможностью масштабирования, включая способность рассуждать, планировать и выполнять задачи и в конечном итоге достичь уровня интеллекта человеческого уровня.
Хоанг Хай (по данным FT)
Источник: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Комментарий (0)