"Arm、高通、Intel、沐曦等多个平台均支持部署。"
作者:苏打
编辑:tuya
出品:财经涂鸦(ID:caijingtuya)

公司情报专家《财经涂鸦》获悉,12 月 30 日,腾讯混元宣布推出并开源翻译模型 1.5。
其中共包含两个模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B。两个模型均支持 33 个语种互译以及 5 种民汉 / 方言,除中文、英语、日语等常见语种外,也包含捷克语、马拉地语、爱沙尼亚语、冰岛语等小语种。
目前模型已在腾讯混元官网上线,通过开源社区也可以直接下载使用。
据了解,HY-MT1.5-1.8B 主要面向手机等消费级设备场景,经过量化,可支持端侧直接部署和离线实时翻译,仅需 1GB 内存即可流畅运行,并且在参数量极小的前提下,效果超过了大部分商用翻译 API。
模型在效率和性价比也表现突出,与主流商用翻译模型 API 对比,HY-MT1.5-1.8B 推理速度更快,处理 50 个 tokens 的平均耗时只有 0.18 秒,其他模型的时间在 0.4 秒左右。
HY-MT1.5-7B 模型效果相比前一版本有较大提升,是此前获得 WMT25 比赛 30 个语种翻译冠军模型的升级版,重点提升了翻译准确率,大幅减少了译文中夹带注释和语种混杂的情况,实用性进一步增加。
在部分用户实用场景下,混元翻译 1.8B 和 7B 两个尺寸模型同时使用,可以实现端侧和云侧模型的协同部署,提升模型的效果的一致性和稳定性。
针对各类场景,两个模型均实现了对术语库、长对话、带格式文本(例如网页)的翻译支持,更加全面。
首先是术语,腾讯混元翻译模型 1.5 具备强大的术语库自定义能力,用户可针对不同行业与专业场景(如医学、法律、金融、科技等)提前构建专属术语对照表,确保关键术语在翻译中保持高度一致与准确性。这一功能有效弥补了小尺寸模型在处理专业领域文本时的词汇短板。
其次是上下文翻译。混元翻译模型模型具备先进的长文本与对话上下文理解能力,可基于前文语境持续优化后续翻译结果,显著提升长对话、多轮问答、连续段落等场景下的翻译连贯性与一致性。
第三是,带格式翻译能力,通过精准的指令遵循能力,混元翻译模型得以保持翻译前后的格式信息不变,让翻译结果更加准确实用。
此前,腾讯混元翻译模型不仅在国际机器翻译比赛拿下 30 个第 1 名,也在首次开源一周内便登上了 HuggingFace 模型趋势榜第一位。
目前,混元翻译模型已经在腾讯内部多个业务场景落地应用,包括腾讯会议、企业微信、QQ 浏览器、客服翻译等。此外,为了便于开发者使用,本次开源的模型已经在 Github 和 Huggingface 等开源社区上线,Arm、高通、Intel、沐曦等多个平台均支持部署。
本文由公众号财经涂鸦(ID:caijingtuya)原创撰写,如需转载请联系涂鸦君。
添加涂鸦君个人微信(ID:tuyaclub)
加入【公司情报社群】
参与资本市场讨论
获取一手情报


登录后才可以发布评论哦
打开小程序可以发布评论哦