当前位置: 首页 » 资讯 » 新科技 » 正文

腾讯混元最新开源翻译模型发布,在国际机器翻译比赛获得多个冠军

IP属地 中国·北京 编辑:任飞扬 DeepTech深科技 时间:2025-09-01 20:27:00

9月1日,腾讯混元宣布将旗下刚刚获得国际翻译比赛冠军的模型开源,供开发者免费下载部署。这一模型命名为Hunyuan-MT-7B,总参数量仅7B,支持33个语种、5种民汉语言/方言互译,是一个能力全面的轻量级翻译模型。



同时开源的还有一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),是业界首个翻译集成模型,它能够根据原文和多个翻译模型给出的不同内容,再生成一个更优的翻译结果,不仅原生支持Hunyuan-MT-7B,也支持接入 Deepseek 等模型,对于一些有专业翻译需求的用户和场景,可以提供更加准确的回复。



图:翻译集成模型的优势在于可以综合多个模型的结果,给出更加符合需求的翻译结果

在8月底结束的国际计算语言学协会(ACL)WMT2025比赛中,腾讯混元Hunyuan-MT-7B(Shy-hunyuan-MT)拿下了全部 31个语种比赛中的30个第1名,处于绝对领先地位,这 31个语种除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。



图:在WMT2025官方提供的成绩报告中,腾讯混元“shy-hunyuan-MT”即Hunyuan-MT-7B模型拿下了全部31个语种比赛中30个第1名,以上是英语-简体中文翻译的得分情况。

WMT25竞赛对参赛模型的参数规模有明确限制,要求系统满足开源要求,并且只能使用公开数据进行训练,在这样的环境下,Hunyuan-MT-7B击败了众多参数更大的模型。



图:同尺寸模型下,Hunyuan-MT-7B效果领先于业界顶尖模型



图:Hunyuan-MT-7B效果与超大尺寸模型效果对比也不逊色

在业界常用的翻译能力测评数据集 Flores200上,腾讯混元Hunyuan-MT-7B模型也有卓越的效果表现,明显领先于同尺寸模型,与超大尺寸模型效果对比也不逊色。

取得全面领先的成绩,离不开技术上的全面突破,针对翻译场景,腾讯混元提出了一个完整的翻译模型训练范式,覆盖从预训练、到CPT再到监督调参、翻译强化和集成强化全链条,使得模型的翻译效果达到业界最优。



Hunyuan-MT-7B的特点在于仅用少量的参数,就达到甚至超过了更大规模模型的效果,这也为模型的应用带来了众多优势。

首先是计算效率,7B模型的推理速度明显快于大型模型,在相同硬件条件下能够处理更多的翻译请求,并且,基于腾讯自研的AngelSlim大模型压缩工具对Hunyuan-MT-7B进行FP8量化压缩,推理性能进一步提升30%。其次是部署友好性,Hunyuan-MT-7B能够在更多样化的硬件环境中部署,从高端服务器到边缘设备都能良好运行,并且模型的部署成本、运行成本和维护成本都相对更低,在保证翻译质量的前提下,为企业和开发者提供了更具吸引力的解决方案。

相比传统的机器翻译,基于大模型的翻译对于对话背景、上下文内容以及综合的翻译需求有更深度的了解,进而能够提供更加准确和“信达雅”的翻译,这也为翻译模型的落地应用打下了基础。目前,腾讯混元翻译模型已经接入腾讯多个业务,包括腾讯会议、企业微信、QQ浏览器、翻译君翻译、腾讯海外客服翻译等,助力产品体验提升。

自2023年亮相以来,腾讯混元积极拥抱开源,通过开放自研技术,推动大模型技术的共享和突破,在推出翻译模型之前,已经陆续开源了业界领先的文生文、文生图、视频生成和3D生成能力和相关工具集插件,提供商业模型性能的模型服务,相关模型多次登顶开源社区热度榜榜首。未来,腾讯混元还将开放更多模型和技术,和社区携手,共建开放大模型生态。

Hunyuan-MT-7B 模型已在腾讯混元官网上线体验入口,并在Huggingface和Github等开源社区提供下载,对应的技术报告和论文也已经在开源社区公开。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。