我们推出了第一代推理模型:DeepSeek-R1-Zero 和 DeepSeek-R1。 DeepSeek-R1-Zero 是一款未经监督微调(SFT)预处理步骤,直接通过大规模强化学习(RL)训练的模型,在推理任务上展现出卓越性能。 借助强化学习,DeepSeek-R1-Zero 自然涌现出众多强大且有趣的推理行为。 然而,DeepSeek-R1-Zero 面临着诸如无限重复、可读性欠佳及语言混用等问题。为解决这些问题并进一步提升推理性能, 我们推出了在强化学习前融入冷启动数据的 DeepSeek-R1。 DeepSeek-R1 在数学、代码及推理任务上的性能可与 OpenAI-o1 相媲美。 为支持研究社区,我们开源了 DeepSeek-R1-Zero、DeepSeek-R1 以及六个基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏得到的密集型模型。其中,DeepSeek-R1-Distill-Qwen-32B 在多个基准测试中性能超越 OpenAI-o1-mini,刷新了密集型模型的最新技术水平。
注意:在本地运行 DeepSeek-R1 系列模型前,建议先查阅使用建议部分。
后训练:在基础模型上进行大规模强化学习
我们直接在基础模型上应用强化学习(RL),不依赖监督微调(SFT)作为预处理步骤。这种方法使模型能够自主探索思维链(CoT)以解决复杂问题,进而开发出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展现出自我验证、反思以及生成冗长思维链等能力,为研究社区树立了重要里程碑。值得注意的是,这是首个公开研究证实,大型语言模型(LLMs)的推理能力可以纯粹通过强化学习激发,而无需监督微调。这一突破为该领域未来的发展铺平了道路。
我们介绍了用于开发 DeepSeek-R1 的流程。该流程包含两个强化学习阶段,旨在发现更优的推理模式并与人类偏好对齐,以及两个监督微调阶段,作为模型推理能力和非推理能力的种子。我们相信此流程将助力行业打造更优秀的模型。
模型蒸馏:更小的模型也能拥有强大能力
| 模型 | 总参数量 | 激活参数量 | 上下文长度 | 下载链接 |
|---|---|---|---|---|
| DeepSeek-R1-Zero | 6710亿 | 370亿 | 128K | 🤗 HuggingFace |
| DeepSeek-R1 | 6710亿 | 370亿 | 128K | 🤗 HuggingFace |
DeepSeek-R1-Zero 与 DeepSeek-R1 均基于 DeepSeek-V3-Base 训练而成。 有关模型架构的更多详情,请参阅 DeepSeek-V3 代码库。
| 模型 | 基础模型 | 下载链接 |
|---|---|---|
| DeepSeek-R1-Distill-Qwen-1.5B | Qwen2.5-Math-1.5B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-7B | Qwen2.5-Math-7B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Llama-8B | Llama-3.1-8B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-14B | Qwen2.5-14B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Qwen-32B | Qwen2.5-32B | 🤗 HuggingFace |
| DeepSeek-R1-Distill-Llama-70B | Llama-3.3-70B-Instruct | 🤗 HuggingFace |
DeepSeek-R1-Distill 系列模型是在开源模型的基础上,利用 DeepSeek-R1 生成的样本进行微调得到的。 我们对这些模型的配置文件和分词器稍作修改。请使用我们提供的设置来运行这些模型。
我们所有模型的最大生成长度均设置为 32,768 个 token。对于需要采样的基准测试,我们使用 0.6 的温度参数、0.95 的 top-p 值,并为每个查询生成 64 个响应以估算 pass@1 指标。
| 类别 | 基准测试(指标) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
|---|---|---|---|---|---|---|---|
| 架构 | - | - | MoE | - | - | MoE | |
| 激活参数数量 | - | - | 37B | - | - | 37B | |
| 总参数数量 | - | - | 671B | - | - | 671B | |
| 英文 | MMLU(Pass@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
| MMLU-Redux(EM) | 88.9 | 88.0 | 89.1 | 86.7 | - | 92.9 | |
| MMLU-Pro(EM) | 78.0 | 72.6 | 75.9 | 80.3 | - | 84.0 | |
| DROP(3-shot F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
| IF-Eval(Prompt Strict) | 86.5 | 84.3 | 86.1 | 84.8 | - | 83.3 | |
| GPQA-Diamond(Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
| SimpleQA(Correct) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
| FRAMES(Acc.) | 72.5 | 80.5 | 73.3 | 76.9 | - | 82.5 | |
| AlpacaEval2.0(LC-winrate) | 52.0 | 51.1 | 70.0 | 57.8 | - | 87.6 | |
| ArenaHard(GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | - | 92.3 | |
| 代码 | LiveCodeBench(Pass@1-COT) | 33.8 | 34.2 | - | 53.8 | 63.4 | 65.9 |
| Codeforces(Percentile) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
| Codeforces(Rating) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
| SWE Verified(Resolved) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
| Aider-Polyglot(Acc.) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
| 数学 | AIME 2024(Pass@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
| MATH-500(Pass@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
| CNMO 2024(Pass@1) | 13.1 | 10.8 | 43.2 | 67.6 | - | 78.8 | |
| 中文 | CLUEWSC(EM) | 85.4 | 87.9 | 90.9 | 89.9 | - | 92.8 |
| C-Eval(EM) | 76.7 | 76.0 | 86.5 | 68.9 | - | 91.8 | |
| C-SimpleQA(Correct) | 55.4 | 58.7 | 68.0 | 40.3 | - | 63.7 |
| 模型 | AIME 2024 pass@1 | AIME 2024 cons@64 | MATH-500 pass@1 | GPQA Diamond pass@1 | LiveCodeBench pass@1 | CodeForces rating |
|---|---|---|---|---|---|---|
| GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759 |
| Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717 |
| o1-mini | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820 |
| QwQ-32B-Preview | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316 |
| DeepSeek-R1-Distill-Qwen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954 |
| DeepSeek-R1-Distill-Qwen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189 |
| DeepSeek-R1-Distill-Qwen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481 |
| DeepSeek-R1-Distill-Qwen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691 |
| DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205 |
| DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633 |
您可以在深度求索官方网站 chat.deepseek.com 与 DeepSeek-R1 进行对话,并开启“深度思考”(DeepThink)功能按钮。
我们还在深度求索平台 platform.deepseek.com 提供了兼容 OpenAI 的 API 服务。
关于 DeepSeek-R1 的本地运行详情,请访问 DeepSeek-V3 代码仓库。
注意:目前暂不直接支持 Hugging Face 的 Transformers 库。
DeepSeek-R1-Distill 模型的使用方式与 Qwen 或 Llama 模型一致。
例如,您可以通过 vLLM 轻松启动服务:
vllm serve deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --tensor-parallel-size 2 --max-model-len 32768 --enforce-eager您也可以使用 SGLang 轻松启动服务。
python3 -m sglang.launch_server --model deepseek-ai/DeepSeek-R1-Distill-Qwen-32B --trust-remote-code --tp 2为获得预期性能,在使用DeepSeek-R1系列模型(包括进行基准测试)时,我们建议遵循以下配置:
此外,我们观察到DeepSeek-R1系列模型在应对某些查询时,可能会跳过思考模式(即不输出“<think>\n\n</think>”),这可能会对模型性能产生不利影响。 为确保模型进行充分推理,我们建议强制模型在每次输出的开头以“<think>\n”开始作答。
本代码仓库及模型权重采用MIT许可证授权。 DeepSeek-R1系列支持商业用途,允许进行任何修改和衍生作品创作,包括但不限于通过蒸馏来训练其他LLM。请注意:
@misc{deepseekai2025deepseekr1incentivizingreasoningcapability,
title={DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning},
author={DeepSeek-AI},
year={2025},
eprint={2501.12948},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2501.12948},
}
如有任何问题,请提交 issue 或通过 service@deepseek.com 与我们联系。