O Liquidity Weibo, com sede em silício, lançou recentemente um anúncio importante anunciando que as APIs Deepseek-R1 e V3 de sua plataforma SiliconCloud agora suportam inferência em lote. O lançamento deste novo recurso marca outro grande avanço no fluxo baseado em silício no campo dos serviços de inteligência artificial.
Através da API em lote, os usuários podem enviar grandes quantidades de solicitações de processamento de dados para a plataforma SiliconCloud sem se preocupar com a limitação da taxa de inferência em tempo real. De acordo com a introdução oficial, as tarefas de inferência em lote devem ser concluídas dentro de 24 horas, melhorando bastante a eficiência do processamento de dados. O que é ainda mais emocionante é que o preço da inferência de lote DeepSeek-V3 é diretamente reduzido em 50% em comparação com a inferência em tempo real. Além disso, de 11 de março a 18 de março, o raciocínio do DeepSeek-R1 em lote lançou uma atividade de desconto de 75%, com o preço de entrada apenas 1 yuan/milhão de tokens, e o preço da produção também caiu para 4 yuans/milhões de tokens.
A introdução da função de inferência em lote fornece aos usuários soluções mais eficientes para lidar com tarefas de dados em larga escala. Seja gerando relatórios, limpando dados ou executando análise de dados, avaliação de desempenho do modelo e outros cenários, essa nova função pode desempenhar um papel importante. Especialmente adequado para tarefas de processamento de dados que não requerem resposta em tempo real, permitindo que os usuários desfrutem dos serviços de alta qualidade da API Deepseek-R1 e V3 a um custo menor.
