A Meta, empresa dona do Facebook, está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial (IA), um marco em sua busca para projetar chips mais personalizados e reduzir sua dependência de fornecedores como a Nvidia.
Orçamento de investimento estimado de 119 bilhões de dólares
A maior empresa de mídia social do mundo, Meta, iniciou testes em pequena escala com o chip e planeja aumentar a produção para uso mais amplo se o teste for bem-sucedido.
A Meta, empresa dona do Facebook, está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial (IA).
O esforço para desenvolver chips internamente faz parte do plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, já que a empresa aposta alto em ferramentas de IA para impulsionar o crescimento.
A Meta, que também é dona do Instagram e do WhatsApp, prevê que os gastos totais em 2025 ficarão entre US$ 114 bilhões e US$ 119 bilhões, incluindo até US$ 65 bilhões em gastos de capital, impulsionados em grande parte por investimentos em infraestrutura de IA.
O novo chip de treinamento da Meta é um acelerador dedicado, o que significa que foi projetado para lidar apenas com tarefas específicas de IA, disse uma fonte. Isso o torna mais eficiente em termos de energia do que as unidades de processamento gráfico (GPUs) integradas normalmente usadas para cargas de trabalho de IA.
De acordo com a fonte, a Meta está cooperando com a maior fabricante de chips contratada do mundo, a TSMC, para produzir este chip.
A implantação do teste começou após a Meta concluir a primeira "gravação" do chip, um marco importante no desenvolvimento de chips de silício, que envolve o envio do projeto inicial por uma fábrica de chips. Um processo típico de gravação custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de sucesso. Se falhar, a Meta precisará diagnosticar o problema e repetir a etapa de gravação.
O chip é o mais recente da linha Meta Training and Inference Accelerator (MTIA) da empresa, um programa que teve um começo difícil ao longo dos anos e teve um chip cancelado em um estágio semelhante de desenvolvimento.
No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência, que é o processo de executar um sistema de IA enquanto os usuários interagem com ele, para sistemas de recomendação que decidem qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.
Meta planeja usar chips de treinamento interno até 2026
Os executivos da Meta dizem que querem começar a usar chips internos até 2026 para treinamento, o processo computacionalmente intensivo de alimentar um sistema de IA com grandes quantidades de dados para "ensiná-lo" a operar.
Executivos da Meta dizem que querem começar a usar chips internos para treinamento até 2026.
Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e, em seguida, usá-los para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos. "Estamos analisando como fazemos o treinamento para sistemas de recomendação e, em seguida, como pensamos sobre treinamento e inferência para IA generativa", disse Chris Cox, diretor de produtos da Meta, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley na semana passada.
O Sr. Cox descreveu os esforços de desenvolvimento do chip da Meta como "uma situação de andar, engatinhar e depois correr" até agora, mas disse que os executivos consideraram seu chip de inferência de primeira geração para sistemas de recomendação "um enorme sucesso".
A Meta cancelou anteriormente um chip de inferência personalizado interno após ele falhar em uma implantação piloto de pequena escala semelhante à atual para o chip de treinamento, em vez disso, voltou a encomendar bilhões de dólares em GPUs da Nvidia em 2022.
A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando uma frota de GPUs para treinar seus modelos, incluindo seus sistemas de recomendação e publicidade e sua família Llama de modelos de plataforma. Essas unidades também realizam inferências para as mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.
O valor dessas GPUs foi questionado neste ano, pois os pesquisadores de IA ficaram cada vez mais céticos sobre quanto progresso adicional pode ser feito ao continuar a "ampliar" grandes modelos de linguagem adicionando mais dados e poder de computação.
Essas dúvidas foram reforçadas pelo lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos atuais.
As ações da Nvidia chegaram a perder um quinto de seu valor em determinado momento durante uma liquidação global de ações de IA desencadeada pela DeepSeek. Desde então, elas recuperaram grande parte de suas perdas, com investidores apostando que os chips da empresa continuariam sendo o padrão da indústria para treinamento e inferência, embora tenham recuado desde então devido a preocupações comerciais mais amplas.
[anúncio_2]
Fonte: https://www.baogiaothong.vn/meta-bat-dau-thu-nghiem-chip-dao-tao-ai-noi-bo-dau-tien-192250312120123752.htm
Comentário (0)