凤凰网科技报道 9月1日,腾讯混元团队当日将最新研发的轻量级翻译系统Hunyuan-MT-7B正式面向公众发布并实施开源,该系统仅含70亿参数量,在最近完成的世界机器翻译大赛WMT2025中,于涵盖31种语言的竞赛单元里夺得了30个单元的冠军,充分证明了其在小语种及通用语种翻译层面的卓越水平。
根据消息,Hunyuan-MT-7B能够处理中文、英语、日语等三十三个不同语言,并且专门为国内用户考虑,支持五种少数民族语言和汉语以及地方方言之间的相互转换。该模型采用先进的模型技术,与传统的机器翻译方法不同,它更善于把握对话的来龙去脉和语境信息,在翻译俚语、古诗、网络用语这类难度大的内容时,精准度很高,表达也很自然,达到了翻译界所追求的忠实、通顺、优美的境界。
WMT2025赛事有一个显著要求,那就是所有参赛的模型都必须公开源代码,并且只能借助已公开的数据进行训练,这样的规定为公正评估模型实际水平创造了条件。尽管受到这些约束,Hunyuan-MT-7B模型还是战胜了多个参数量明显大于它的竞争者。此外,依据业内通用的翻译水平测试平台Flores200的数据,这款模型的运作效果远超同等规模的同类方案,其成效甚至可以和众多巨型模型相提并论。这些突出的成就主要归功于腾讯混元研发的一种完整训练体系,该体系将预训练环节与强化学习过程整合在了一起。

一同公开的,还有首个翻译集成模型Hunyuan-MT-Chimera-7B(奇美拉)。该模型有个特别之处,就是能结合并审视来自好几个翻译模型(比如Hunyuan-MT-7B和DeepSeek这些外部模型)的翻译结果,然后在这个基础上,造出一个更优质的最终文本,给专业翻译工作带来了新的改进方法。
开发者和企业感受到,Hunyuan-MT-7B的精简设计具备突出的实际应用价值。该模型拥有7B的参数量级,使得运算过程更为迅捷,并且减少了部署所需的开销。它可以方便地安装在从云服务器到边缘计算单元的各种硬件配置中。消息显示,借助腾讯自主研制的AngelSlim压缩技术,在采用FP8量化处理后,其运算效率还能额外提高百分之三十。这项技术已经运用在腾讯会议、企业微信、QQ浏览器等多项内部业务上。
Hunyuan-MT-7B模型现在在腾讯混元官网提供试用,同时也在Huggingface和Github这些平台上发布模型供下载,并且公布了技术报告,这样它在人工智能领域的开源工作就不断推进着。