我们推出DeepSeek-V3.2,这是一款兼顾高计算效率与卓越推理及智能体性能的模型。我们的方法基于三项关键技术突破:
我们还发布了2025年IOI、ICPC世界总决赛、IMO以及CMO的最终提交作品,这些作品是根据我们设计的流水线筛选出来的。这些材料供社区进行二次验证,相关文件可在assets/olympiad_cases目录下获取。
与先前版本相比,DeepSeek-V3.2对其对话模板进行了重大更新。主要变化包括修订的工具调用格式以及新增的“使用工具进行思考”功能。
为帮助社区理解和适应这一新模板,我们提供了专门的encoding文件夹,其中包含Python脚本和测试用例,展示了如何将OpenAI兼容格式的消息编码为模型的输入字符串,以及如何解析模型的文本输出。
下面是一个简要示例:
import transformers
# encoding/encoding_dsv32.py
from encoding_dsv32 import encode_messages, parse_message_from_completion_text
tokenizer = transformers.AutoTokenizer.from_pretrained("deepseek-ai/DeepSeek-V3.2")
messages = [
{"role": "user", "content": "hello"},
{"role": "assistant", "content": "Hello! I am DeepSeek.", "reasoning_content": "thinking..."},
{"role": "user", "content": "1+1=?"}
]
encode_config = dict(thinking_mode="thinking", drop_thinking=True, add_default_bos_token=True)
# messages -> string
prompt = encode_messages(messages, **encode_config)
# Output: "<|begin▁of▁sentence|><|User|>hello<|Assistant|></think>Hello! I am DeepSeek.<|end▁of▁sentence|><|User|>1+1=?<|Assistant|><think>"
# string -> tokens
tokens = tokenizer.encode(prompt)
# Output: [0, 128803, 33310, 128804, 128799, 19923, 3, 342, 1030, 22651, 4374, 1465, 16, 1, 128803, 19, 13, 19, 127252, 128804, 128798]重要说明:
developer 的角色。该角色专门用于搜索代理场景,不作其他用途。官方 API 不接受分配给 developer 的消息。DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale 的模型结构与 DeepSeek-V3.2-Exp 相同。有关本地运行此模型的更多信息,请访问 DeepSeek-V3.2-Exp 代码库。
使用建议:
temperature = 1.0,top_p = 0.95。本代码库和模型权重采用 MIT 许可证 授权。
@misc{deepseekai2025deepseekv32,
title={DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models},
author={DeepSeek-AI},
year={2025},
}若您有任何疑问,请提交 issue 或通过 service@deepseek.com 与我们联系。