“Isso resolve problemas antigos de desempenho mais lento e custos mais altos associados a comprimentos de contexto longos, marcando um verdadeiro ponto de inflexão para a indústria”, disse Zhang Yi, fundador da empresa de pesquisa tecnológica iiMedia.
“Para os usuários finais, isso trará benefícios amplos e acessíveis. Por exemplo, se o suporte a contextos ultralongos se tornar um recurso padrão, o processamento de textos extensos deverá sair dos laboratórios de pesquisa de ponta e entrar em aplicações comerciais convencionais”, acrescentou.
O V4Pro possui 1,6 trilhão de parâmetros, enquanto o V4 Flash tem 284 bilhões de parâmetros, que refinam a capacidade de tomada de decisão dos modelos.
O modelo também foi “otimizado” para produtos populares de agentes de IA, como Claude Code, OpenClaw, OpenCode e CodeBuddy, segundo o comunicado da DeepSeek.
O lançamento mais recente da DeepSeek é um “marco” para as empresas chinesas, afirmou o veterano analista da indústria de IA Max Liu.
“Isso é algo positivo para toda a indústria doméstica de IA. Pode oferecer modelos melhores para os usuários locais, e agora podemos esperar muitas outras coisas — mais produtos e um mercado mais competitivo”, disse.