Apple, Microsoft, Meta e Google lançaram recentemente novos modelos de IA com menos "parâmetros", mas ainda com recursos poderosos. Essa iniciativa representa um esforço desses grupos tecnológicos para incentivar empresas com orçamentos limitados a utilizarem IA.
Foto ilustrativa: FT
Em geral, quanto maior o número de parâmetros, melhor o desempenho do software de IA e mais complexas e sutis se tornam suas tarefas. Estima-se que o modelo GPT-40 da OpenAI e o Gemini 1.5 Pro do Google, ambos anunciados esta semana, possuam mais de 1 trilhão de parâmetros. Enquanto isso, a Meta está treinando uma versão com 400 bilhões de parâmetros de seu modelo de código aberto Llama.
As preocupações com a responsabilidade por dados e direitos autorais também levaram grandes empresas de tecnologia, como a Meta e o Google, a lançar modelos de linguagem menores, com apenas alguns bilhões de parâmetros, que são mais baratos, mais eficientes em termos de energia, personalizáveis, exigem menos energia para treinamento e execução e também podem impedir que dados confidenciais sejam comprometidos.
“Ao atingir essa alta qualidade a um custo menor, você terá, na verdade, mais aplicativos disponíveis para os clientes…”, disse Eric Boyd, vice-presidente da plataforma de IA Azure da Microsoft, que vende modelos de IA para empresas.
Google, Meta, Microsoft e a startup francesa Mistral também lançaram modelos de linguagem menores, mas eles ainda mostram potencial para melhorias e podem ser melhor direcionados a tarefas específicas.
Nick Clegg, presidente de assuntos globais da Meta, afirmou que o novo modelo de 8 bilhões de parâmetros do Llama 3 é comparável ao GPT-4. A Microsoft disse que seu modelo Phi-3, menor, com 7 bilhões de parâmetros, tem um desempenho melhor do que o GPT-3.5, a versão anterior do modelo da OpenAI.
Os modelos menores também podem executar tarefas localmente no dispositivo, em vez de enviar informações para a nuvem, o que pode ser interessante para clientes preocupados com a privacidade e que desejam garantir que as informações sejam mantidas dentro de sua rede interna.
Charlotte Marshall, administradora do escritório de advocacia Addleshaw Goddard, afirma que "um dos desafios que muitos de nossos clientes enfrentaram" ao adotar produtos de IA generativa é o cumprimento das exigências legais para processamento e transmissão de dados. Ela diz que modelos menores oferecem "uma oportunidade para as empresas superarem" preocupações legais e de custos.
Modelos menores também permitem que recursos de IA sejam executados em dispositivos como celulares. O modelo "Gemini Nano" do Google está integrado nos mais recentes celulares Pixel e no mais recente smartphone S24 da Samsung.
A Apple também revelou que está desenvolvendo modelos de IA para rodar em seu iPhone mais vendido. No mês passado, a gigante do Vale do Silício lançou o modelo OpenELM, um modelo pequeno projetado para executar tarefas baseadas em texto.
Boyd, da Microsoft, disse que dispositivos menores levariam a "aplicações interessantes, desde celulares até laptops".
O diretor da OpenAI, Sam Altman, disse em novembro que eles também estavam fornecendo modelos de IA de diferentes escalas para clientes e "servindo a propósitos distintos". Ele afirmou: "Há algumas coisas que modelos menores farão muito bem. Estou muito entusiasmado com isso."
No entanto, Altman acrescentou que a OpenAI continuará focada na construção de modelos de IA maiores e escaláveis, capazes de raciocinar, planejar e executar tarefas, alcançando, em última instância, um nível de inteligência semelhante ao humano.
Hoang Hai (de acordo com o FT)
Fonte: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html






Comentário (0)