📣 GGUF |
✒️ AngelSlim 报告 |
📖 文档 |
🤗 AngelSlim |
💬 微信
Hy-MT1.5-1.8B 翻译质量分数。来源:HY-MT1.5 技术报告
更多详细信息,请参考 [AngelSlim] 和 [HY-MT]
世界级翻译质量 Hy-MT1.5-1.8B-2bit 基于 Hy-MT1.5-1.8B 基础模型构建,该模型是腾讯混元团队通过整合面向机器翻译(MT)的预训练、有监督微调、策略蒸馏和强化学习的全流程多阶段训练 pipeline 开发的专业翻译模型。基础模型原生支持33种语言、5种方言/少数民族语言以及1056个翻译方向。尽管仅拥有 1.8B 参数,其综合性能全面超越了规模大得多的开源模型(如 Tower-Plus-72B、Qwen3-32B)和主流商业翻译 API(如 Microsoft Translator、豆包翻译)。详细信息请参考 HY-MT1.5 技术报告。
超紧凑 2-bit 量化 Hy-MT1.5-1.8B-2bit 采用业界领先的 Stretched Elastic Quantization (SEQ) 技术,将模型权重量化至 {-1.5, -0.5, 0.5, 1.5},并结合量化感知蒸馏。这使得原本 3.3GB 的 FP16 模型压缩至仅574MB,同时保持近乎无损的翻译质量,甚至超越了数百 GB 规模的模型。量化细节详见 AngelSlim 技术报告。
端侧部署 该 2-bit 模型针对支持 Arm SME2 的移动设备(如 Apple M4、vivo x300)进行了优化,可在手机上实现快速、完全离线的翻译,无需互联网连接。您的数据不会离开设备,确保完全隐私。
不同模型大小在 Flores-200 汉外互译基准上的性能对比:
不同模型大小在 Flores-200 汉外互译基准上的性能表现。
2-bit 模型在 SME2 和 Neon 内核上的速度对比:
2-bit 模型在 SME2 和 Neon 内核上的速度对比。
我们提供了一个即用型 Android 演示 APK,支持离线翻译。该应用具备后台取词模式,可在手机上的任何应用中运行——浏览邮件、网页或聊天消息时,无需切换应用即可获得即时翻译。无需网络,不收集数据,一次下载永久使用。
下载演示:
https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk
演示设备:骁龙 865,8GB 内存。
演示设备:骁龙 7+ Gen 2,16GB 内存。
本项目的代码根据 AngelSlim 许可证 开源。
@article{angelslim2026,
title={AngelSlim: A more accessible, comprehensive, and efficient toolkit for large model compression},
author={Hunyuan AI Infra Team},
journal={arXiv preprint arXiv:2602.21233},
year={2026}
}
@misc{zheng2025hymt,
title={HY-MT1.5 Technical Report},
author={Mao Zheng and Zheng Li and Tao Chen and Mingyang Song and Di Wang},
year={2025},
eprint={2512.24092},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2512.24092},
}