当前位置: 首页 » 资讯 » 新科技 » 正文

腾讯发布 HY-MT1.5:翻译又快又准,连手机都能跑

IP属地 中国·北京 编辑:沈瑾瑜 Chinaz 时间:2026-01-05 18:30:17

翻译软件我们天天用,但背后的模型通常很大,往往需要连接云端服务器才能运行。腾讯这次推出的 HY-MT1.5系列打破了这个限制,推出了两个版本,满足不同场景的需求:

1.8B 小尺寸版: 别看它体量小,它在性能上几乎能和体量大得多的模型叫板。经过优化后,它只需要约1GB 的内存就能在手机等端侧设备上流畅运行。翻译50个汉字左右的句子,平均响应时间仅需 0.18秒。

7B 升级版: 它是之前获得 WMT25冠军系统的升级版,更擅长处理复杂的混合语言翻译、专业术语解析以及特定的格式翻译,主要面向服务器部署。

为什么它比以前更聪明?

为了让模型更懂人类的语言习惯,腾讯的研究团队采用了“五步走”的训练方法:

打好语言基础: 先让模型学习海量的多语言文本,掌握基本的语言规律。

专项训练: 专门输入大量的对译数据,让它从“会说话”变成“会翻译”。

精雕细琢: 使用高质量的文档数据进行微调,让翻译结果更地道。

名师出高徒(蒸馏): 让7B 的大模型带1.8B 的小模型,把大模型的“智慧”传授给小模型,让它体积虽小但大脑依然聪明。

人类评判: 最后引入人类的审美标准,针对准确度、流畅度和文化差异进行打分优化。

实测表现:超越部分主流大模型

在多项权威测试中,这套模型的表现非常亮眼:

在 WMT25等国际测试中,7B 版本的得分超过了 Gemini3.0Pro 以及许多专业的翻译模型。

即便是在“普通话转少数民族语言”这种冷门领域,它的表现依然拔尖。

1.8B 版本在人类真实测试中的评分,也超过了百度、谷歌、微软等主流商业翻译系统。

除了翻译得准,HY-MT1.5还解决了一些实际使用中的痛点:

术语精准: 你可以告诉它特定的词怎么翻。比如“混元珠”必须翻成“Chaos Pearl”,它就不会自作聪明地翻成别的词。

联系上下文: 比如单词“pilot”,没有上下文它可能翻成“飞行员”,但如果这段话是讲美剧的,它能聪明地识别出这是指“试播集”。

格式不变: 如果你在翻译一段带有 HTML 标签或特殊格式的代码,它能在翻译内容的同时,完美保留原来的标签结构。

目前,腾讯已经将该模型的权重在GitHub和Hugging Face上开源,这意味着全球的开发者都可以使用这项技术来提升自己的应用体验。

github:https://github.com/Tencent-Hunyuan/HY-MT

huggingface:https://huggingface.co/collections/tencent/hy-mt15

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新