Apple, Microsoft, Meta и Google недавно выпустили новые модели ИИ с меньшим количеством «параметров», но все еще обладающие мощными возможностями. Этот шаг является частью усилий технологических групп по поощрению предприятий, испытывающих финансовые трудности, к использованию ИИ.
Иллюстрация: FT
В общем, чем больше число параметров, тем лучше производительность программного обеспечения ИИ и тем сложнее и нюанснее его задачи. Последняя модель OpenAI GPT-4o и Gemini 1.5 Pro от Google, обе анонсированные на этой неделе, по оценкам, имеют более 1 триллиона параметров. Тем временем Meta обучает версию своей модели Llama с открытым исходным кодом на 400 миллиардов параметров.
Опасения по поводу ответственности за данные и авторские права также побудили крупные технологические компании, такие как Meta и Google, выпустить небольшие языковые модели, содержащие всего несколько миллиардов параметров, которые дешевле, энергоэффективнее, настраиваемее, требуют меньше энергии для обучения и работы, а также могут предотвратить хранение конфиденциальных данных.
«Получая высокое качество по более низкой цене, вы фактически получаете больше приложений для клиентов», — сказал Эрик Бойд, корпоративный вице-президент платформы искусственного интеллекта Azure компании Microsoft, которая продает модели искусственного интеллекта компаниям.
Google, Meta, Microsoft и французский стартап Mistral также выпустили небольшие языковые модели, но все равно демонстрируют прогресс и могут лучше сосредоточиться на конкретных задачах.
Ник Клегг, президент Meta по глобальным вопросам, сказал, что новая модель Llama 3 с 8 миллиардами параметров сопоставима с GPT-4. Microsoft заявила, что ее небольшая модель Phi-3 с 7 миллиардами параметров превосходит GPT-3.5, предыдущую версию модели OpenAI.
Микрочипы также могут обрабатывать задачи локально на устройстве, а не отправлять информацию в облако, что может привлечь клиентов, заботящихся о конфиденциальности и желающих, чтобы информация оставалась в пределах сети.
Шарлотта Маршалл, партнер юридической фирмы Addleshaw Goddard, сказала, что «одной из проблем, с которой, как я думаю, столкнулись многие наши клиенты» при внедрении продуктов генеративного ИИ, является соблюдение нормативных требований в отношении обработки и передачи данных. Она сказала, что меньшие модели предлагают «возможность для бизнеса преодолеть» нормативные и стоимостные проблемы.
Меньшие модели также позволяют запускать функции ИИ на таких устройствах, как мобильные телефоны. Модель «Gemini Nano» от Google встроена в последние телефоны Pixel и последний смартфон S24 от Samsung.
Apple также сообщила, что разрабатывает модели ИИ для своего самого продаваемого iPhone. В прошлом месяце гигант из Кремниевой долины выпустил OpenELM, небольшую модель, предназначенную для выполнения текстовых задач.
Бойд из Microsoft заявил, что модели меньшего размера приведут к появлению «интересных приложений, вплоть до телефонов и ноутбуков».
Директор OpenAI Сэм Альтман заявил в ноябре, что компания также предлагает клиентам модели ИИ разных размеров «для разных целей». «Есть некоторые вещи, которые модели меньшего размера будут делать действительно хорошо. Я воодушевлен этим», — сказал он.
Однако Альтман добавил, что OpenAI по-прежнему будет сосредоточена на создании более крупных моделей ИИ с возможностью масштабирования, включая способность рассуждать, планировать и выполнять задачи и в конечном итоге достигать уровня интеллекта человеческого уровня.
Хоанг Хай (по данным FT)
Источник: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Комментарий (0)