Q
Qwen/Qwen3-235B-A22B-Instruct-2507
模型介绍模型推理文件和版本分析
下载使用量0

Qwen3-235B-A22B-Instruct-2507

Chat

核心亮点

我们推出Qwen3-235B-A22B非思考模式的升级版本Qwen3-235B-A22B-Instruct-2507,具有以下关键提升:

  • 在指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等通用能力上实现显著进步
  • 对多语言长尾知识的覆盖率取得大幅提升
  • 在主观性与开放式任务中更贴合用户偏好,能生成更具帮助性且更高质量的文本
  • 256K长文本理解能力获得增强

image/jpeg

模型概览

Qwen3-235B-A22B-Instruct-2507具备以下特性:

  • 类型:因果语言模型
  • 训练阶段:预训练与后训练
  • 参数量:总计2350亿(激活参数220亿)
  • 非嵌入参数量:2340亿
  • 层数:94
  • 注意力头数(GQA):查询头64个,键值头4个
  • 专家总数:128
  • 激活专家数:8
  • 上下文长度:原生支持262,144 token,可扩展至1,010,000 token

注:本模型仅支持非思考模式,输出中不会生成<think></think>区块。同时不再需要指定enable_thinking=False参数。

更多细节(包括基准测试、硬件需求及推理性能)请参阅我们的博客、GitHub及文档。

性能表现

Deepseek-V3-0324GPT-4o-0327Claude Opus 4 Non-thinkingKimi K2Qwen3-235B-A22B Non-thinkingQwen3-235B-A22B-Instruct-2507
知识能力
MMLU-Pro81.279.886.681.175.283.0
MMLU-Redux90.491.394.292.789.293.1
GPQA68.466.974.975.162.977.5
SuperGPQA57.351.056.557.248.262.6
SimpleQA27.240.322.831.012.254.3
CSimpleQA71.160.268.074.560.884.3
推理能力
AIME2546.626.733.949.524.770.3
HMMT2527.57.915.938.810.055.4
ARC-AGI9.08.830.313.34.341.8
ZebraLogic83.452.6-89.037.795.0
LiveBench 2024112566.963.774.676.462.575.4
编程能力
LiveCodeBench v6 (25.02-25.05)45.235.844.648.932.951.8
MultiPL-E82.282.788.585.779.387.9
Aider-Polyglot55.145.370.759.059.657.3
对齐能力
IFEval82.383.987.489.883.288.7
Arena-Hard v2*45.661.951.566.152.079.2
Creative Writing v381.684.983.888.180.487.5
WritingBench74.575.579.286.277.085.2
代理能力
BFCL-v364.766.560.165.268.070.9
TAU1-Retail49.660.3#81.470.765.271.3
TAU1-Airline32.042.8#59.653.532.044.0
TAU2-Retail71.166.7#75.570.664.974.6
TAU2-Airline36.042.0#55.556.536.050.0
TAU2-Telecom34.029.8#45.265.824.632.5
多语言能力
MultiIF66.570.4-76.270.277.5
MMLU-ProX75.876.2-74.573.279.4
INCLUDE80.182.1-76.975.679.5
PolyMATH32.225.530.044.827.050.2

*:为保障结果可复现性,本表采用GPT-4.1评估的胜率数据。

#:由于无法获取GPT-4o-0327原生函数调用API,相关结果由GPT-4o-20241120生成。

快速开始

Qwen3-MoE 的代码已集成至最新版 Hugging Face transformers,建议您使用最新版本的 transformers。

若使用 transformers<4.51.0,您将遇到以下错误:

KeyError: 'qwen3_moe'

以下是一段代码示例,展示了如何基于给定输入使用模型生成内容。

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Qwen/Qwen3-235B-A22B-Instruct-2507"

# load the tokenizer and the model
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)

# prepare the model input
prompt = "Give me a short introduction to large language model."
messages = [
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True,
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

# conduct text completion
generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=16384
)
output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist() 

content = tokenizer.decode(output_ids, skip_special_tokens=True)

print("content:", content)

部署时,您可以使用sglang>=0.4.6.post1或vllm>=0.8.5创建兼容OpenAI的API端点:

  • SGLang方式:
    python -m sglang.launch_server --model-path Qwen/Qwen3-235B-A22B-Instruct-2507 --tp 8 --context-length 262144
  • vLLM方式:
    vllm serve Qwen/Qwen3-235B-A22B-Instruct-2507 --tensor-parallel-size 8 --max-model-len 262144

注意:若遇到内存不足(OOM)问题,可尝试将上下文长度调整为更短值,例如32,768。

对于本地使用,Ollama、LMStudio、MLX-LM、llama.cpp和KTransformers等应用也已支持Qwen3。

智能代理应用

Qwen3在工具调用能力上表现卓越。我们推荐使用Qwen-Agent来充分发挥Qwen3的代理能力。Qwen-Agent内置了工具调用模板和解析器,可大幅降低编码复杂度。

您可以通过MCP配置文件定义可用工具,使用Qwen-Agent集成的工具,或自行集成其他工具。

from qwen_agent.agents import Assistant

# Define LLM
llm_cfg = {
    'model': 'Qwen3-235B-A22B-Instruct-2507',

    # Use a custom endpoint compatible with OpenAI API:
    'model_server': 'http://localhost:8000/v1',  # api_base
    'api_key': 'EMPTY',
}

# Define Tools
tools = [
    {'mcpServers': {  # You can specify the MCP configuration file
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
            },
            "fetch": {
                "command": "uvx",
                "args": ["mcp-server-fetch"]
            }
        }
    },
  'code_interpreter',  # Built-in tools
]

# Define Agent
bot = Assistant(llm=llm_cfg, function_list=tools)

# Streaming generation
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]
for responses in bot.run(messages=messages):
    pass
print(responses)

超长文本处理技术

为支持超长上下文处理(最高达100万tokens),我们整合了两项核心技术:

  • 双段注意力机制 (DCA):一种长度外推方法,将长序列分割为可处理的片段,同时保持全局连贯性。
  • MInference:稀疏注意力机制,通过聚焦关键token交互显著降低计算开销。

这些创新技术共同提升了256K tokens以上序列的生成质量与推理效率。在处理接近100万tokens的序列时,系统相比标准注意力实现可获得3倍加速。

完整技术细节详见Qwen2.5-1M技术报告。

如何启用100万tokens上下文

[!注意]
要有效处理100万tokens上下文,用户需准备约1000 GB的GPU显存总量,涵盖模型权重、KV缓存存储及峰值激活内存需求。

步骤1:更新配置文件

下载模型后,将config.json内容替换为config_1m.json,该文件已包含长度外推与稀疏注意力的配置参数。

export MODELNAME=Qwen3-235B-A22B-Instruct-2507
huggingface-cli download Qwen/${MODELNAME} --local-dir ${MODELNAME}
mv ${MODELNAME}/config.json ${MODELNAME}/config.json.bak
mv ${MODELNAME}/config_1m.json ${MODELNAME}/config.json

第二步:启动模型服务器

完成配置更新后,选择使用 vLLM 或 SGLang 来部署模型服务。

选项一:使用 vLLM

如需运行支持 100 万上下文的 Qwen 模型:

pip install -U vllm \
    --torch-backend=auto \
    --extra-index-url https://wheels.vllm.ai/nightly

随后启用双分块闪存注意力机制启动服务器:

VLLM_ATTENTION_BACKEND=DUAL_CHUNK_FLASH_ATTN VLLM_USE_V1=0 \
vllm serve ./Qwen3-235B-A22B-Instruct-2507 \
  --tensor-parallel-size 8 \
  --max-model-len 1010000 \
  --enable-chunked-prefill \
  --max-num-batched-tokens 131072 \
  --enforce-eager \
  --max-num-seqs 1 \
  --gpu-memory-utilization 0.85
关键参数
参数作用
VLLM_ATTENTION_BACKEND=DUAL_CHUNK_FLASH_ATTN启用定制注意力内核以提升长上下文处理效率
--max-model-len 1010000设置最大上下文长度为约100万token
--enable-chunked-prefill支持超长输入的块状预填充(避免内存溢出)
--max-num-batched-tokens 131072控制预填充阶段的批处理大小,平衡吞吐量与内存占用
--enforce-eager禁用CUDA图捕获(双块注意力机制必需)
--max-num-seqs 1因极端内存消耗限制并发序列数
--gpu-memory-utilization 0.85设置模型执行器占用的GPU内存比例

方案二:使用SGLang

首先克隆并安装专用分支:

git clone https://github.com/sgl-project/sglang.git
cd sglang
pip install -e "python[all]"

启动支持DCA的服务器:

python3 -m sglang.launch_server \
    --model-path ./Qwen3-235B-A22B-Instruct-2507 \
    --context-length 1010000 \
    --mem-frac 0.75 \
    --attention-backend dual_chunk_flash_attn \
    --tp 8 \
    --chunked-prefill-size 131072
关键参数
参数作用
--attention-backend dual_chunk_flash_attn启用双分块闪存注意力机制
--context-length 1010000设置最大输入长度
--mem-frac 0.75静态内存分配比例(用于模型权重和KV缓存内存池)。若出现内存不足错误,可调低此值
--tp 8张量并行度(需与模型分片配置匹配)
--chunked-prefill-size 131072长文本输入预填充分块大小(避免内存溢出)

故障排查:

  1. 出现错误:"模型的最大序列长度(xxxxx)超过KV缓存的最大token容量" 或 "RuntimeError: 内存不足,请尝试增加--mem-fraction-static参数"

    KV缓存预留显存不足

    • vLLM方案:可尝试降低max_model_len或增加tensor_parallel_size与gpu_memory_utilization。也可减少max_num_batched_tokens,但会显著降低推理速度
    • SGLang方案:可尝试降低context-length或增加tp与mem-frac。也可减少chunked-prefill-size,但会显著降低推理速度
  2. 出现错误:"torch.OutOfMemoryError: CUDA显存不足"

    激活权重预留显存不足。可尝试降低gpu_memory_utilization或mem-frac,但可能影响KV缓存可用显存

  3. 出现错误:"输入提示(xxxxx tokens)+前瞻槽位(0)过长,超出块管理器容量" 或 "输入长度(xxx tokens)超过模型上下文限制(xxx tokens)"

    输入文本过长。建议缩短序列或提升max_model_len/context-length

长上下文性能

我们在100万token版本的RULER基准测试中进行评估:

模型名称平均准确率4k8k16k32k64k96k128k192k256k384k512k640k768k896k1000k
Qwen3-235B-A22B (非思考模式)83.997.796.197.596.194.290.388.585.082.179.274.470.071.068.568.0
Qwen3-235B-A22B-Instruct-2507 (全注意力)92.598.597.696.997.395.894.993.994.591.092.290.987.884.886.584.5
Qwen3-235B-A22B-Instruct-2507 (稀疏注意力)91.798.597.297.397.796.694.692.894.390.589.789.586.483.684.282.5
  • 所有测试均启用双分块注意力机制
  • 因评估耗时,每个长度使用260个样本(13个子任务,每个任务20样本)

最佳实践

为获得最优性能,我们推荐以下设置:

  1. 采样参数:

    • 建议使用 Temperature=0.7、TopP=0.8、TopK=20 和 MinP=0。
    • 对于支持的框架,可将 presence_penalty 参数调整为 0 至 2 之间的值以减少无休止的重复。但数值过高可能导致偶尔出现语言混杂现象,并轻微降低模型性能。
  2. 合理输出长度:对于大多数查询,推荐输出长度为 16,384 tokens,这对指令模型已足够。

  3. 标准化输出格式:在基准测试时,建议通过提示词规范模型输出。

    • 数学题:在提示词中加入“请逐步推理,并将最终答案置于 \boxed{} 中。”
    • 选择题:在提示词中添加以下 JSON 结构以统一响应格式:“请在 answer 字段中仅显示选项字母,例如 "answer": "C"。”

引用

如果您认为我们的工作有帮助,欢迎引用。

@misc{qwen3technicalreport,
      title={Qwen3 Technical Report}, 
      author={Qwen Team},
      year={2025},
      eprint={2505.09388},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2505.09388}, 
}

@article{qwen2.5-1m,
      title={Qwen2.5-1M Technical Report}, 
      author={An Yang and Bowen Yu and Chengyuan Li and Dayiheng Liu and Fei Huang and Haoyan Huang and Jiandong Jiang and Jianhong Tu and Jianwei Zhang and Jingren Zhou and Junyang Lin and Kai Dang and Kexin Yang and Le Yu and Mei Li and Minmin Sun and Qin Zhu and Rui Men and Tao He and Weijia Xu and Wenbiao Yin and Wenyuan Yu and Xiafei Qiu and Xingzhang Ren and Xinlong Yang and Yong Li and Zhiying Xu and Zipeng Zhang},
      journal={arXiv preprint arXiv:2501.15383},
      year={2025}
}