📣 模型权重 |
✒️ Sherry 论文 (ACL 2026) |
📖 文档 |
🤗 AngelSlim |
💬 微信交流
Hy-MT1.5-1.8B 翻译质量评分。来源:HY-MT1.5 技术报告
更多详细信息,请参考 [AngelSlim] 和 [HY-MT]
世界级翻译质量 Hy-MT1.5-1.8B-1.25bit 基于 Hy-MT1.5-1.8B 基础模型构建,该模型是腾讯混元团队通过整合面向机器翻译的预训练、监督微调、在线策略蒸馏和强化学习的整体多阶段训练流程开发的专业翻译模型。基础模型原生支持33种语言、5种方言/少数民族语言以及1056个翻译方向。尽管仅拥有18亿参数,它在综合性能上全面超越了规模更大的开源模型(如 Tower-Plus-72B、Qwen3-32B)和主流商业翻译 API(如 Microsoft Translator、豆包翻译)。详细信息请参考 HY-MT1.5 技术报告。
Sherry:极致1.25位量化 本模型采用了 Sherry(已被 ACL 2026 接收)——一种硬件高效的三值量化框架。Sherry 引入了3:4细粒度稀疏策略:每4个模型权重中,最重要的3个以1位({-1, +1})存储,剩余1个则置零。这使得4个权重仅需5位即可存储,实现了具有2的幂次对齐的有效1.25位宽度,将原始3.3GB的FP16模型压缩至仅440MB,且精度损失极小。
Sherry细粒度稀疏性:每4个权重中,最重要的3个以1位存储,剩余1个置零。
不同模型尺寸在Flores-200汉外互译基准上的性能对比:
不同模型尺寸在Flores-200汉外互译基准上的性能表现。
FP16(8倍速)与1.25位速度对比。
演示设备:骁龙888,8GB内存。
我们提供即用型Android演示APK,支持离线翻译。该应用具有后台取词模式,可在手机上的任何应用中运行——浏览邮件、网页或聊天消息时,无需切换应用即可获得即时翻译。无需网络,不收集数据,一次下载永久使用。
下载演示:
https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk
演示设备:骁龙865,8GB内存。
演示设备:骁龙7+ Gen 2,16GB内存。
我们的llama.cpp内核(包括STQ内核)即将发布。
本项目的代码基于 License for AngelSlim 开源。
@misc{huang2026sherry,
title={Sherry: Hardware-Efficient 1.25-Bit Ternary Quantization via Fine-grained Sparsification},
author={Hong Huang and Decheng Wu and Qiangqiang Hu and Guanghua Yu and Jinhai Yang and Jianchen Zhu and Xue Liu and Dapeng Wu},
year={2026},
eprint={2601.07892},
archivePrefix={arXiv},
primaryClass={cs.LG},
url={https://arxiv.org/abs/2601.07892},
}
@article{angelslim2026,
title={AngelSlim: A more accessible, comprehensive, and efficient toolkit for large model compression},
author={Hunyuan AI Infra Team},
journal={arXiv preprint arXiv:2602.21233},
year={2026}
}
@misc{zheng2025hymt,
title={HY-MT1.5 Technical Report},
author={Mao Zheng and Zheng Li and Tao Chen and Mingyang Song and Di Wang},
year={2025},
eprint={2512.24092},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2512.24092},
}