O modelo de inteligência artificial R1 da startup chinesa DeepSeek – que surpreendeu o mercado de ações dos EUA quando foi lançado em janeiro – foi publicado no primeiro estudo revisado por pares, mostrando como desenvolveu um poderoso modelo de aprendizado de máquina (LLM) por apenas cerca de US$ 300.000.
O R1 foi projetado para se destacar em tarefas de raciocínio como matemática e programação, tornando-se um concorrente de baixo custo para ferramentas desenvolvidas por gigantes da tecnologia dos EUA.
Este é um modelo "sem restrições de peso", que pode ser baixado gratuitamente e é atualmente o modelo mais popular na plataforma Hugging Face, com mais de 10,9 milhões de downloads.
O estudo publicado na Nature, uma atualização de um manuscrito de janeiro, revelou inicialmente que o treinamento do R1 custou apenas US$ 294.000, além de cerca de US$ 6 milhões gastos na construção do modelo base.
Esse valor é muito inferior às dezenas de milhões de dólares que os concorrentes teriam gasto.
A DeepSeek afirmou que o R1 foi treinado principalmente usando chips Nvidia H800, cuja exportação para a China foi proibida pelos EUA desde 2023.
O grande diferencial do R1 foi o uso de "aprendizado por reforço puro", em que o modelo é treinado por tentativa e erro e recompensado por respostas corretas, em vez de aprender com exemplos escolhidos por humanos. Ele também avalia seus próprios esforços usando estimativas internas, uma técnica chamada "otimização de política de grupo relativa", que ajuda a impulsionar o desempenho.
“O rigoroso processo de revisão por pares ajuda a validar o valor e a confiabilidade do modelo”, afirma o pesquisador Huan Sun (Universidade Estadual de Ohio). “Outras empresas deveriam fazer o mesmo.”
Lewis Tunstall, engenheiro de aprendizado de máquina da Hugging Face, afirmou que este é um precedente importante, pois a transparência no desenvolvimento de IA ajuda a avaliar os riscos com mais precisão.
A DeepSeek afirma que o R1 não foi treinado usando dados dos modelos da OpenAI, embora admita que o modelo subjacente foi treinado com dados da web — que podem incluir conteúdo gerado por IA.
Especialistas afirmam que, embora seja difícil verificar com certeza absoluta, as evidências atuais sugerem que o aprimoramento puro é suficiente para alcançar alto desempenho.
No teste ScienceAgentBench, o R1 não liderou o ranking de precisão, mas apresentou um bom equilíbrio entre eficiência e custo. Os pesquisadores agora buscam aplicar o método DeepSeek para aprimorar as capacidades de raciocínio dos LLMs existentes, bem como estendê-lo a áreas além da matemática e da programação.
Segundo o Sr. Tunstall, a R1 "iniciou uma revolução" no desenvolvimento da inteligência artificial.
Fonte: https://www.vietnamplus.vn/nghien-cuu-moi-tiet-lo-bi-quyet-thanh-cong-cua-deepseek-post1062474.vnp






Comentário (0)