Vietnam.vn - Nền tảng quảng bá Việt Nam

Revelado o novo "trunfo" da DeepSeek.

A DeepSeek acaba de lançar a versão mais recente e atualizada de seu modelo de linguagem em larga escala, com o codinome V3-0324, com melhorias significativas nas capacidades de raciocínio e programação.

ZNewsZNews25/03/2025

A nova IA da DeepSeek continua a gerar grande repercussão no mundo da tecnologia com seu desempenho excepcional. Foto: SCMP .

A DeepSeek apresenta oficialmente o DeepSeek V3-0324, a versão mais recente da família V3 de linguagens de modelagem em larga escala (LLMs).

Assim como seus antecessores, este modelo é disponibilizado gratuitamente e como código aberto através da plataforma Hugging Face, com avanços significativos em relação às versões anteriores, particularmente nas áreas de raciocínio e programação.

Especificamente, de acordo com o OpenRouter, o DeepSeek V3-0324 foi construído usando Mixture of Experts (MoE), um método de aprendizado de máquina muito popular em alguns modelos de IA chineses, e possui 685 bilhões de parâmetros.

De acordo com as avaliações iniciais, este modelo demonstra um desempenho impressionante em diversas tarefas. Enquanto isso, uma publicação no Reddit mostra que o DeepSeek V3-0324 alcançou o modelo Sonnet 3.7 do Google em um teste de geração de código.

Fontes também indicam que o DeepSeek V3-0324 é capaz de gerar longos trechos de código sem erros. O site de análise de IA Vidhya testou esse modelo e observou sua capacidade de gerar 700 linhas de código sem problemas.

Na plataforma X, a aplicação do DeepSeek V3-0324 também causou grande impacto. Para comprovar, o usuário Deepanshu Sharma publicou um vídeo mostrando que esse modelo de IA conseguiu gerar um site completo com mais de 800 linhas de código.

Em dezembro de 2024, a DeepSeek tornou-se a empresa chinesa de IA mais comentada quando lançou o DeepSeek-V3. Este modelo alcançou um desempenho comparável ao do GPT-40, mas utilizou apenas uma fração dos recursos computacionais.

Pouco tempo depois, a DeepSeek lançou seu modelo de raciocínio DeepSeek-R1. De acordo com o TechCrunch , o R1 superou o o1 da OpenAI em benchmarks como AIME, MATH-500 e SWE-bench Verified.

Ao mesmo tempo, o valor de US$ 5,6 milhões para o treinamento final do modelo da DeepSeek também é chocante, em comparação com as centenas de milhões de dólares que as principais empresas americanas gastam no treinamento de seus modelos.

Fonte: https://znews.vn/at-chu-bai-moi-cua-deepseek-lo-dien-post1540831.html


Comentário (0)

Deixe um comentário para compartilhar seus sentimentos!

Herança

Figura

Empresas

Atualidades

Sistema político

Local

Produto

Happy Vietnam
Caverna Paraíso

Caverna Paraíso

Para ele

Para ele

Riacho na aldeia

Riacho na aldeia