Apple, Microsoft, Meta e Google lançaram recentemente novos modelos de IA com menos “parâmetros”, mas ainda com recursos poderosos, uma iniciativa que faz parte de um esforço de grupos de tecnologia para incentivar empresas com dificuldades financeiras a usar IA.
Ilustração: FT
Em termos gerais, quanto maior o número de parâmetros, melhor o desempenho do software de IA e mais complexas e detalhadas suas tarefas. Estima-se que o mais recente modelo GPT-4o da OpenAI e o Gemini 1.5 Pro do Google, ambos anunciados esta semana, tenham mais de 1 trilhão de parâmetros. Enquanto isso, a Meta está treinando uma versão de 400 bilhões de parâmetros de seu modelo Llama de código aberto.
Preocupações sobre dados e responsabilidade de direitos autorais também levaram grandes empresas de tecnologia, como Meta e Google, a lançar pequenos modelos de linguagem com apenas alguns bilhões de parâmetros que são mais baratos, energeticamente eficientes, personalizáveis, exigem menos energia para treinar e executar e também podem impedir que dados confidenciais sejam armazenados.
“Ao obter essa alta qualidade a um custo menor, você na verdade oferece mais aplicativos para os clientes acessarem”, disse Eric Boyd, vice-presidente corporativo da Azure AI Platform da Microsoft, que vende modelos de IA para empresas.
Google, Meta, Microsoft e a startup francesa Mistral também lançaram pequenos modelos de linguagem, mas ainda assim demonstram progresso e podem se concentrar melhor em tarefas específicas.
Nick Clegg, presidente de assuntos globais da Meta, disse que o novo modelo de 8 bilhões de parâmetros do Llama 3 é comparável ao GPT-4. A Microsoft afirmou que seu pequeno modelo Phi-3, com 7 bilhões de parâmetros, supera o GPT-3.5, a versão anterior do modelo da OpenAI.
Os microchips também podem processar tarefas localmente no dispositivo em vez de enviar informações para a nuvem, o que pode atrair clientes preocupados com a privacidade que querem garantir que as informações permaneçam na rede.
Charlotte Marshall, sócia do escritório de advocacia Addleshaw Goddard, afirmou que "um dos desafios que muitos de nossos clientes enfrentam" ao adotar produtos de IA generativa é o cumprimento dos requisitos regulatórios em relação ao processamento e transmissão de dados. Ela afirmou que modelos menores oferecem "uma oportunidade para as empresas superarem" preocupações regulatórias e de custo.
Modelos menores também permitem que recursos de IA sejam executados em dispositivos como celulares. O modelo "Gemini Nano" do Google está embutido nos mais recentes celulares Pixel e no mais recente smartphone S24 da Samsung.
A Apple também revelou que está desenvolvendo modelos de IA para rodar em seu iPhone mais vendido. No mês passado, a gigante do Vale do Silício lançou o OpenELM, um pequeno modelo projetado para executar tarefas baseadas em texto.
Boyd, da Microsoft, disse que os modelos menores levarão a “aplicações interessantes, incluindo telefones e laptops”.
O diretor da OpenAI, Sam Altman, disse em novembro que a empresa também vem oferecendo modelos de IA de diferentes tamanhos aos clientes "para diferentes propósitos". "Há algumas coisas que modelos menores farão muito bem. Estou animado com isso", disse ele.
No entanto, Altman acrescentou que a OpenAI ainda se concentrará na construção de modelos maiores de IA com escalabilidade, incluindo a capacidade de raciocinar, planejar e executar tarefas e, finalmente, atingir inteligência de nível humano.
Hoang Hai (de acordo com o FT)
Fonte: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Comentário (0)