当前位置:首页 >英文主页 >中英对照 > 报告详情

DeepSeek Coder V2技术报告(英文版)(19页).pdf

上传人: 淘*** 编号:650880 2025-04-07 19页 387.03KB

下载:
word格式文档无特别注明外均可编辑修改,预览文件经过压缩,下载原文更清晰!
三个皮匠报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
本文介绍了DeepSeek-Coder-V2,这是一个开源的混合专家(MoE)代码语言模型,其性能可与GPT4-Turbo相媲美。具体来说,DeepSeek-Coder-V2从DeepSeek-V2的中间检查点进一步预训练,并增加了6万亿个标记的数据。通过继续预训练,DeepSeek-Coder-V2显著提高了DeepSeek-V2的编码和数学推理能力,同时保持了在通用语言任务中的可比性能。与DeepSeek-Coder-33B相比,DeepSeek-Coder-V2在代码相关任务、推理和通用能力方面取得了显著的进步。此外,DeepSeek-Coder-V2支持编程语言从86种增加到338种,并将上下文长度从16K扩展到128K。在标准基准评估中,DeepSeek-Coder-V2在编码和数学基准测试中优于封闭源模型,如GPT4-Turbo、Claude 3 Opus和Gemini 1.5 Pro。
"DeepSeek-Coder-V2如何超越GPT4-Turbo?" "开源代码模型如何缩小与闭源模型之间的差距?" "DeepSeek-Coder-V2在编程语言支持上有哪些突破?"
客服
商务合作
小程序
服务号
折叠