12月30日,騰訊混元宣布推出并開源翻譯模型1.5,共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-MT1.5-7B,兩個(gè)模型均支持 33 個(gè)語(yǔ)種互譯以及5種民漢/方言,除了中文、英語(yǔ)、日語(yǔ)等常見語(yǔ)種,也包含捷克語(yǔ)、馬拉地語(yǔ)、愛沙尼亞語(yǔ)、冰島語(yǔ)等小語(yǔ)種。模型已在騰訊混元官網(wǎng)上線,通過(guò)開源社區(qū)也可以直接下載使用。
![]()
HY-MT1.5-1.8B主要面向手機(jī)等消費(fèi)級(jí)設(shè)備場(chǎng)景,經(jīng)過(guò)量化,可支持端側(cè)直接部署和離線實(shí)時(shí)翻譯,僅需1GB內(nèi)存即可流暢運(yùn)行,并且在參數(shù)量極小的前提下,效果超過(guò)了大部分商用翻譯API。模型在效率和性價(jià)比也表現(xiàn)突出,與主流商用翻譯模型API對(duì)比,HY-MT1.5-1.8B 推理速度更快,處理50個(gè)tokens的平均耗時(shí)只有0.18秒,其他模型的時(shí)間在0.4秒左右。
HY-MT1.5-7B 模型效果相比前一版本有較大提升,是此前獲得WMT25比賽30個(gè)語(yǔ)種翻譯冠軍模型的升級(jí)版,重點(diǎn)提升了翻譯準(zhǔn)確率,大幅減少了譯文中夾帶注釋和語(yǔ)種混雜的情況,實(shí)用性進(jìn)一步增加。
在部分用戶實(shí)用場(chǎng)景下,混元翻譯1.8B和7B兩個(gè)尺寸模型同時(shí)使用,可以實(shí)現(xiàn)端側(cè)和云側(cè)模型的協(xié)同部署,提升模型的效果的一致性和穩(wěn)定性。
在常用的中外互譯和英外互譯測(cè)試集Flores200、WMT25以及民漢語(yǔ)言的測(cè)試集中,Tencent-HY-MT1.5-1.8B 全面超越中等尺寸開源模型和主流商用翻譯API,達(dá)到Gemini-3.0-Pro這種超大尺寸閉源模型的90分位水平。在WMT25和民漢翻譯測(cè)試集上,其效果僅略微差于Gemini-3.0-Pro,遠(yuǎn)超其他模型。
![]()
![]()
HY-MT1.5系列模型在翻譯質(zhì)量與響應(yīng)效率之間達(dá)到了出色的平衡。具體而言,HY-MT1.5-1.8B模型在FLORES-200質(zhì)量評(píng)估中取得了約78%的分?jǐn)?shù),同時(shí)平均響應(yīng)時(shí)間僅為0.18秒,超越主流商用翻譯API,顯示出明顯的速度優(yōu)勢(shì),憑借優(yōu)化的模型設(shè)計(jì)和推理邏輯,其領(lǐng)先的效率使其高度適用于即時(shí)通訊、智能客服、移動(dòng)翻譯應(yīng)用等高吞吐、實(shí)時(shí)翻譯場(chǎng)景。
實(shí)用性是混元翻譯模型長(zhǎng)期追求的目標(biāo),針對(duì)各類場(chǎng)景,兩個(gè)模型均實(shí)現(xiàn)了對(duì)術(shù)語(yǔ)庫(kù)、長(zhǎng)對(duì)話、帶格式文本(例如網(wǎng)頁(yè))的翻譯支持,更加全面。
首先是術(shù)語(yǔ),騰訊混元翻譯模型1.5具備強(qiáng)大的術(shù)語(yǔ)庫(kù)自定義能力,用戶可針對(duì)不同行業(yè)與專業(yè)場(chǎng)景(如醫(yī)學(xué)、法律、金融、科技等)提前構(gòu)建專屬術(shù)語(yǔ)對(duì)照表,確保關(guān)鍵術(shù)語(yǔ)在翻譯中保持高度一致與準(zhǔn)確性。
這一功能有效彌補(bǔ)了小尺寸模型在處理專業(yè)領(lǐng)域文本時(shí)的詞匯短板,使其在保障輕量化部署的同時(shí),也能勝任高要求的行業(yè)翻譯任務(wù)。用戶可通過(guò)簡(jiǎn)單配置導(dǎo)入術(shù)語(yǔ)庫(kù),模型將在翻譯過(guò)程中優(yōu)先采納用戶定義的標(biāo)準(zhǔn)術(shù)語(yǔ),從而提升專業(yè)文檔、技術(shù)手冊(cè)、合同文本等內(nèi)容翻譯的可靠性與權(quán)威性。
其次是上下文翻譯。混元翻譯模型模型具備先進(jìn)的長(zhǎng)文本與對(duì)話上下文理解能力,可基于前文語(yǔ)境持續(xù)優(yōu)化后續(xù)翻譯結(jié)果,顯著提升長(zhǎng)對(duì)話、多輪問(wèn)答、連續(xù)段落等場(chǎng)景下的翻譯連貫性與一致性。無(wú)論是會(huì)議記錄、訪談內(nèi)容、小說(shuō)章節(jié)還是技術(shù)文檔的長(zhǎng)篇翻譯,模型均能有效捕捉并保持上下文邏輯關(guān)系,避免出現(xiàn)指代不清、語(yǔ)義斷裂或風(fēng)格不統(tǒng)一的問(wèn)題。該能力尤其適用于實(shí)時(shí)對(duì)話翻譯、長(zhǎng)篇文獻(xiàn)翻譯及多輪交互場(chǎng)景,助力用戶在跨語(yǔ)言溝通與內(nèi)容處理中獲得更自然、準(zhǔn)確的翻譯體驗(yàn)。
第三是,帶格式翻譯能力,通過(guò)精準(zhǔn)的指令遵循能力,混元翻譯模型得以保持翻譯前后的格式信息不變,讓翻譯結(jié)果更加準(zhǔn)確實(shí)用。
為了直觀展示混元Tencent-HY-MT1.5-1.8B的翻譯能力,下圖展示了與蘋果手機(jī)自帶離線翻譯的結(jié)果對(duì)比:
![]()
技術(shù)上,HY-MT1.5-1.8B能夠用小尺寸實(shí)現(xiàn)大尺寸模型的效果,得益于On-Policy Distillation(大尺寸模型蒸餾)策略的引入,讓 HY-MT1.5-7B 作為 Teacher,實(shí)時(shí)引導(dǎo) 1.8B 的 Student 模型,讓其避免死記硬背標(biāo)準(zhǔn)答案,通過(guò)糾正在預(yù)測(cè)序列分布時(shí)的偏移,讓小模型從錯(cuò)誤中學(xué)習(xí),切實(shí)提升能力。
![]()
騰訊混元翻譯模型此前不僅在國(guó)際機(jī)器翻譯比賽拿下30個(gè)第1名,也在首次開源一周內(nèi)便登上了HuggingFace 模型趨勢(shì)榜第一位。目前,混元翻譯模型已經(jīng)在騰訊內(nèi)部多個(gè)業(yè)務(wù)場(chǎng)景落地應(yīng)用,包括騰訊會(huì)議、企業(yè)微信、QQ瀏覽器、客服翻譯等。此外,為了便于開發(fā)者使用,本次開源的模型已經(jīng)在 Github 和 Huggingface 等開源社區(qū)上線,Arm、高通、Intel、沐曦等多個(gè)平臺(tái)均支持部署。
【模型體驗(yàn)鏈接】
混元官網(wǎng):https://hunyuan.tencent.com/modelSquare/home/list
github鏈接:https://github.com/Tencent-Hunyuan/HY-MT
huggingface鏈接:https://huggingface.co/collections/tencent/hy-mt15
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.