tencent_hunyuan/Hy-MT1.5-1.8B-2bit-GGUF
模型介绍文件和版本Pull Requests讨论分析
下载使用量0

AngelSlim

致力于打造更直观、全面且高效的LLMs压缩工具包。

📣 模型权重   |    ✒️ AngelSlim报告   |    📖 文档   |    🤗 AngelSlim   |    💬 微信

model_scores
Hy-MT1.5-1.8B翻译质量分数。来源:HY-MT1.5技术报告

📣 最新动态

  • [26/04/29] 我们发布了Hy-MT1.5-1.8B-2bit(574MB) 和Hy-MT1.5-1.8B-1.25bit(440MB),这是支持33种语言的端侧翻译模型,提供权重和GGUF格式。
  • [26/02/09] 我们发布了HY-1.8B-2Bit,这是一款2比特端侧大语言模型。
  • [26/01/13] 我们发布了v0.3版本。我们支持全尺度LLMs/VLMs/Audio模型的Eagle3训练与部署。此外,我们发布了Sherry,这是一种硬件高效的1.25比特量化算法 [论文] | [代码]

如需更详细的信息,请参考 [AngelSlim] 和 [HY-MT]

🌟 Hy-MT1.5-1.8B-2bit-GGUF 核心特性

  • 世界级翻译质量 Hy-MT1.5-1.8B-2bit 基于 Hy-MT1.5-1.8B 基础模型构建,该模型是腾讯混元团队通过整合面向机器翻译的预训练、有监督微调、在线策略蒸馏和强化学习的多阶段整体训练流程开发的专业翻译模型。基础模型原生支持33种语言、5种方言/少数民族语言以及1056个翻译方向。仅凭借18亿参数,它就在综合性能上超越了许多规模更大的开源模型(如 Tower-Plus-72B、Qwen3-32B)和主流商业翻译API(如 Microsoft Translator、豆包翻译)。详细信息请参考 HY-MT1.5 技术报告。

  • 超紧凑2位量化 Hy-MT1.5-1.8B-2bit 采用业界领先的拉伸弹性量化(SEQ)技术,将模型权重量化至 {-1.5, -0.5, 0.5, 1.5},并结合量化感知蒸馏。这使得原本3.3GB的FP16模型压缩至仅574MB,同时保持近乎无损的翻译质量,甚至超越了数百GB规模的模型。量化细节在 AngelSlim 技术报告 中有描述。

  • 端侧部署 该2位模型针对支持 Arm SME2 的移动设备(如 Apple M4、vivo x300)进行了优化,可在手机上实现快速、完全离线的翻译——无需互联网连接。您的数据不会离开设备,确保完全的隐私保护。

📈 翻译基准测试

不同模型规模在 Flores-200 中译外及外译中双向翻译基准上的性能比较:

flores_model_size
不同模型规模在 Flores-200 中译外及外译中双向翻译基准上的性能。

⚡ 速度演示

2-bit模型在SME2和Neon内核上的速度对比:

sme2_2bit_speed
2-bit模型在SME2和Neon内核上的速度对比。

📱 应用演示

我们提供即用型Android演示APK,支持离线翻译。该应用具备后台取词模式,可在手机任意应用中使用——浏览邮件、网页或聊天消息时,无需切换应用即可获取即时翻译。无需网络,不收集数据,一次下载永久使用。

下载演示:

https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk

翻译演示

app_demo
演示设备:骁龙865,8GB内存。

后台取词模式

demo2
演示设备:骁龙7+ Gen 2,16GB内存。

💻 部署

我们的llama.cpp内核即将发布。

📥 下载链接

  • 2-bit模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit
  • 2-bit模型GGUF:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-2bit-GGUF
  • 1.25-bit模型权重:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
  • 1.25-bit模型GGUF:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF
  • 演示应用:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/main/Hy-MT-demo.apk

📄 技术报告

  • HY-MT1.5技术报告:https://arxiv.org/abs/2512.24092
  • AngelSlim技术报告:https://arxiv.org/abs/2602.21233
  • Sherry论文:https://arxiv.org/abs/2601.07892

📝 许可证

本项目代码基于AngelSlim许可证开源。

🔗 引用

@article{angelslim2026,
  title={AngelSlim: A more accessible, comprehensive, and efficient toolkit for large model compression},
  author={Hunyuan AI Infra Team},
  journal={arXiv preprint arXiv:2602.21233},
  year={2026}
}

@misc{zheng2025hymt,
      title={HY-MT1.5 Technical Report}, 
      author={Mao Zheng and Zheng Li and Tao Chen and Mingyang Song and Di Wang},
      year={2025},
      eprint={2512.24092},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2512.24092}, 
}

💬 技术讨论

  • AngelSlim 正在持续迭代,新功能即将发布。如果您有任何问题或建议,请在 GitHub Issues 上提交 issue,或加入我们的 微信讨论群。