腾讯混元宣布开源支持33种语言互译的翻译模型1.5版本,将世界冠军级的翻译能力压缩至手机端可直接部署。
腾讯混元近日正式开源翻译模型1.5版本,包含Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B两个模型。
两个模型均支持33个语种互译以及5种民汉/方言,除了中文、英语、日语等常见语种,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。
01 核心产品:两个模型,不同定位
本次发布的腾讯混元翻译模型1.5包含两个不同规格的产品。
Tencent-HY-MT1.5-1.8B专为手机等消费级设备设计,经过量化处理,仅需1GB内存即可运行,响应速度极快,处理50个tokens的平均耗时仅为0.18秒。
该模型已在腾讯混元官网上线,开发者可通过Github和Huggingface等开源社区直接下载使用。
Tencent-HY-MT1.5-7B则是7B翻译模型的升级版,重点提升了翻译准确率,大幅减少了译文中夹带注释和语种混杂的情况。
这款模型是在WMT25比赛中获得30个语种翻译冠军的模型的改进版本。
02 技术突破:小尺寸,大能力
在多项主流翻译测试集中,Tencent-HY-MT1.5-1.8B的整体表现已经达到超大尺寸闭源模型的90分位水平。
在常用的中外互译和英外互译测试集Flores200、WMT25以及民汉语言的测试集中,它全面超越中等尺寸开源模型和主流商用翻译API。
Arm、高通、Intel以及沐曦等多个消费级终端平台均支持该模型的部署。
能够在小尺寸下实现高性能,得益于On-Policy Distillation等训练策略。大模型在训练过程中持续引导小模型纠偏,让1.8B学到的是能力分布,而不是死记答案。
03 实用功能:专业场景全覆盖
针对各类实际应用场景,两个模型均实现了对术语库、长对话、带格式文本的翻译支持。
用户可针对不同行业与专业场景(如医学、法律、金融、科技等)提前构建专属术语对照表,确保关键术语在翻译中保持高度一致与准确性。
模型具备长文本与对话上下文理解能力,可基于前文语境持续优化后续翻译结果,提升长对话、多轮问答、连续段落等场景下的翻译连贯性。
此外,通过指令遵循能力,混元翻译模型能够保持翻译前后的格式信息不变,让翻译结果更加准确实用。
04 应用落地与协同部署
腾讯混元翻译模型已经在腾讯内部多个业务场景落地应用,包括腾讯会议、企业微信、QQ浏览器、客服翻译等。
在部分前期用户使用案例中,1.8B和7B两个尺寸模型的协同使用,可以实现端侧和云侧模型的协同部署,实现了模型效果的一致性和稳定性。
这种协同部署模式既满足了移动端对低延迟、离线可用的要求,又能够利用云端更大模型的优势,提供更高质量的翻译服务。
模型对硬件环境要求友好,可在手机、边缘设备等消费级硬件上运行,大幅降低算力与部署成本。
05 行业影响与未来展望
腾讯混元翻译模型此前不仅在国际机器翻译比赛拿下30个第1名,也在首次开源一周内便登上了HuggingFace模型趋势榜第一位。
本次开源标志着端侧AI翻译技术的重要突破,有望推动更多应用场景的出现。
随着模型在开源社区的可获得性增强,更多开发者将能够基于该技术构建创新的翻译应用,进一步丰富端侧AI生态。
在保障翻译质量的同时,Tencent-HY-MT1.5-1.8B模型大幅降低算力与部署成本,为中小企业和个人开发者提供了高质量的翻译解决方案。
腾讯混元翻译模型1.5的开源发布,不仅是腾讯在AI翻译领域技术实力的展示,更是对推动AI技术普及和降低技术门槛的重要贡献。
随着该技术在更多设备和场景中的应用,用户将能够享受到更加便捷、准确和个性化的翻译服务,真正实现“翻译大师”装进口袋的愿景。