DeepSeek近日发布了其全新开源模型DeepSeek-Coder-V2,该模型在代码和数学能力方面超越了GPT-4-Turbo,并显着提升了多语言支持和上下文处理长度。它采用专家混合(MoE)架构,专门针对代码生成和数学推理能力进行优化,性能在全球范围内名列前茅,并提供236B参数和16B参数两种规模选择,满足不同应用需求。所有代码、论文和模型均已开源,可免费商用,无需申请。
站长之家(ChinaZ.com) 6月18日消息:DeepSeek 最近宣布发布了一款名为DeepSeek-Coder-V2的开源模型,这一模型在代码和数学能力方面超越了GPT-4-Turbo,并在多语言支持和上下文处理长度上有了显着扩展。基于DeepSeek-V2的模型结构,DeepSeek-Coder-V2采用专家混合(MoE)架构,专门设计用于增强代码和数学推理能力。
DeepSeek-Coder-V2的性能在全球范围内名列前茅,其代码生成和数学算术能力尤为突出。这一模型及其相关代码、论文已全部开源,供免费商用使用,无需申请。模型提供两种规模:236B 参数和16B 参数,以满足不同的应用需求。

在多语言支持方面,DeepSeek-Coder-V2能够支持的编程语言从86种扩展到338种,适应更多样化的开发需求。同时,它支持的上下文长度从16K扩展到128K,能够处理更长的输入内容。 DeepSeek-Coder-V2还提供API 服务,支持32K上下文,价格与DeepSeek-V2一致。
在标准的基准测试中,DeepSeek-Coder-V2在代码生成、代码补全、代码修复和数学推理等方面优于一些闭源模型。用户可以下载不同版本的DeepSeek-Coder-V2模型,包括基础版和指令版,以及不同参数规模的版本。
DeepSeek 还提供了在线体验平台和GitHub 链接,以及技术报告,方便用户进一步了解和使用DeepSeek-Coder-V2。这一模型的发布不仅为开源社区带来了强大的代码和数学处理能力,也有助于推动相关技术的发展和应用。
项目地址:https://top.aibase.com/tool/deepseek-coder-v2
在线体验:https://chat.deepseek.com/sign_in
DeepSeek-Coder-V2 的开源发布,为开发者提供了强大的工具,也标志着开源大模型技术的一次显着进步。其免费商用和便捷的在线体验平台,将进一步促进人工智能技术的普及和应用,值得期待其未来的发展和应用。