Qwen3.6-27B是通义千问团队推出的全新开源稠密多模态模型,拥有270亿参数。作为社区备受期待的规格,它在保持稠密架构优势的同时,全面提升了智能体编程与多模态推理能力,达到了旗舰级表现。 该模型在各项主要编程基准测试中,全面超越前代开源旗舰 Qwen3.5-397B-A17B(总参数397B / 激活参数17B的MoE模型),为开发者在实用、可广泛部署的规模上获取顶尖编程能力提供了理想选择。Qwen3.6-27B原生支持多模态,能够处理图像、视频与文本的混合输入,并支持多模态思考与非思考模式。 该模型的主要特性包括:
本文档将展示该模型的主要验证步骤,包括支持特性、特性配置、环境准备、单节点与多节点部署、精度评估及性能评估。
请参阅 特性指南 获取特性配置说明。
Qwen3.6-27B(BF16 版本):AtomGit AI 社区, 魔塔社区, 魔乐社区,Qwen3.6-27B-w8a8(量化版本):敬请期待注: 建议将模型权重下载至多节点共享目录,例如 /root/.cache/。
您可以通过镜像链接下载镜像压缩包来进行部署,具体流程如下:
# 拉取0.18.0rc1镜像,以A3 openeuler为例
docker pull quay.io/ascend/vllm-ascend:v0.18.0rc1-a3-openeuler
# 配置对应的Image名
export IMAGE=vllm-ascend:v0.18.0rc1-a3-openeuler
export NAME=vllm-ascend
# 使用定义的变量运行容器
# 注意:若使用 Docker 桥接网络,请提前开放可供多节点通信的端口
# 根据您的设备更新 --device(Atlas A3:/dev/davinci[0-15])。
docker run --rm \
--name $NAME \
--net=host \
--shm-size=100g \
--device /dev/davinci0 \
--device /dev/davinci1 \
--device /dev/davinci2 \
--device /dev/davinci3 \
--device /dev/davinci4 \
--device /dev/davinci5 \
--device /dev/davinci6 \
--device /dev/davinci7 \
--device /dev/davinci_manager \
--device /dev/devmm_svm \
--device /dev/hisi_hdc \
-v /usr/local/dcmi:/usr/local/dcmi \
-v /usr/local/Ascend/driver/tools/hccn_tool:/usr/local/Ascend/driver/tools/hccn_tool \
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ \
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info \
-v /etc/ascend_install.info:/etc/ascend_install.info \
-v /root/.cache:/root/.cache \
-it $IMAGE bash如果您不希望使用上述 Docker 镜像,也可通过源码完整构建:
保证你的环境成功安装了CANN 8.5.0
从源码安装 vllm-ascend,请参考 安装指南。
从源码安装 vllm-ascend后,您需要将 vllm、vllm-ascend、transformers 升级至主分支:
# 升级 vllm
git clone https://github.com/vllm-project/vllm.git
cd vllm
git checkout bcf2be96120005e9aea171927f85055a6a5c0cf6
VLLM_TARGET_DEVICE=empty pip install -v .
# 升级 vllm-ascend
pip uninstall vllm-ascend -y
git clone https://github.com/vllm-project/vllm-ascend.git
cd vllm-ascend
git checkout 99e1ea0fe685e93f53ee5adfe4b41cdd42fb809f
pip install -v .
# 重新安装 transformers
git clone https://github.com/huggingface/transformers.git
cd transformers
git reset --hard fc9137225880a9d03f130634c20f9dbe36a7b8bf
pip install .如需部署多节点环境,您需要在每个节点上分别完成环境配置。
执行以下脚本进行在线推理。
export PYTORCH_NPU_ALLOC_CONF="expandable_segments:True"
export HCCL_OP_EXPANSION_MODE="AIV"
export HCCL_BUFFSIZE=1024
export OMP_NUM_THREADS=1
export TASK_QUEUE_ENABLE=1
export LD_PRELOAD=/usr/lib/aarch64-linux-gnu/libjemalloc.so.2:$LD_PRELOAD
vllm serve /root/.cache/Qwen3.6-27B \
--served-model-name "qwen3.6" \
--host 0.0.0.0 \
--port 8010 \
--data-parallel-size 1 \
--tensor-parallel-size 2 \
--max-model-len 262144 \
--max-num-batched-tokens 25600 \
--max-num-seqs 128 \
--gpu-memory-utilization 0.94 \
--compilation-config '{"cudagraph_capture_sizes":[1,2,3,4,8,12,16,24,32,48], "cudagraph_mode":"FULL_DECODE_ONLY"}' \
--trust-remote-code \
--async-scheduling \
--allowed-local-media-path / \
--no-enable-prefix-caching \
--mm-processor-cache-gb 0 \
--additional-config '{"enable_cpu_binding":true}'执行以下脚本进行在线推理。
export PYTORCH_NPU_ALLOC_CONF="expandable_segments:True"
export HCCL_OP_EXPANSION_MODE="AIV"
export HCCL_BUFFSIZE=1024
export OMP_NUM_THREADS=1
export TASK_QUEUE_ENABLE=1
export LD_PRELOAD=/usr/lib/aarch64-linux-gnu/libjemalloc.so.2:$LD_PRELOAD
vllm serve /root/.cache/Qwen3.6-27B \
--served-model-name "qwen3.6" \
--host 0.0.0.0 \
--port 8010 \
--data-parallel-size 1 \
--tensor-parallel-size 2 \
--max-model-len 262144 \
--max-num-batched-tokens 25600 \
--max-num-seqs 128 \
--gpu-memory-utilization 0.94 \
--compilation-config '{"cudagraph_capture_sizes":[1,2,3,4,8,12,16,24,32,48], "cudagraph_mode":"FULL_DECODE_ONLY"}' \
--trust-remote-code \
--async-scheduling \
--allowed-local-media-path / \
--no-enable-prefix-caching \
--mm-processor-cache-gb 0 \
--additional-config '{"enable_cpu_binding":true}'执行以下脚本向模型发送一条请求:
curl http://localhost:8010/v1/completions \
-H "Content-Type: application/json" \
-d '{
"prompt": "The future of AI is",
"path": "/path/to/model/Qwen3.6-27B/",
"max_tokens": 100,
"temperature": 0
}'执行结束后,您可以看到模型回答如下:
Prompt: 'The future of AI is', Generated text: ' not just about building smarter machines, but about creating systems that can collaborate with humans in meaningful, ethical, and sustainable ways. As AI continues to evolve, it will increasingly shape how we live, work, and interact — and the decisions we make today will determine whether this future is one of shared prosperity or deepening inequality.\n\nThe rise of generative AI, for example, has already begun to transform creative industries, education, and scientific research. Tools like ChatGPT, Midjourney, and'
也可执行以下脚本向模型发送一条多模态请求:
curl http://localhost:8010/v1/completions \
-H "Content-Type: application/json" \
-d '{
"model": "qwen3.6",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": [
{"type": "image_url", "image_url": {"url": "https://modelscope.oss-cn-beijing.aliyuncs.com/resource/qwen.png"}},
{"type": "text", "text": "What is the text in the illustrate?"}
]}
]
}'执行结束后,您可以看到模型回答如下:
{"id":"chatcmpl-9dab99d55addd8c0","object":"chat.completion","created":1771060145,"model":"qwen3.6","choices":[{"index":0,"message":{"role":"assistant","content":"TONGYI Qwen","refusal":null,"annotations":null,"audio":null,"function_call":null,"tool_calls":[],"reasoning":null},"logprobs":null,"finish_reason":"stop","stop_reason":null,"token_ids":null}],"service_tier":null,"system_fingerprint":null,"usage":{"prompt_tokens":112,"total_tokens":119,"completion_tokens":7,"prompt_tokens_details":null},"prompt_logprobs":null,"prompt_token_ids":null,"kv_transfer_params":null}尚未测试。
尚未测试。
尚未测试。
这里提供两种精度评估方法。
详细步骤请参阅 使用 AISBench 进行精度评估。执行后即可获得评估结果。
尚未测试。
详细步骤请参阅 使用 AISBench 进行性能评估。
更多信息请参考 vLLM 基准测试。
1)当前仅为尝鲜体验,性能优化中。
2)本代码仓提到的数据集和模型仅作为示例,这些数据集和模型仅供您用于非商业目的,如您使用这些数据集和模型来完成示例,请您特别注意应遵守对应数据集和模型的License,如您因使用数据集或模型而产生侵权纠纷,华为不承担任何责任。
3)如您在使用本代码仓的过程中,发现任何问题(包括但不限于功能问题、合规问题),请在本代码仓提交issue,我们将及时审视并解答。