鳳凰網(wǎng)科技訊 9月1日,騰訊混元團隊今日正式對外發(fā)布并開源了其最新的輕量級翻譯模型Hunyuan-MT-7B。該模型以僅7B(70億)的參數(shù)規(guī)模,在剛剛結(jié)束的國際權威機器翻譯競賽WMT2025中,于31個語種的競賽項目中取得了30個第一名的壓倒性成績,展現(xiàn)了其在小語種和常見語種翻譯領域的領先能力。
據(jù)了解,Hunyuan-MT-7B不僅支持包括中文、英語、日語在內(nèi)的33個語種,還特別針對國內(nèi)用戶需求,實現(xiàn)了5種民漢語言及方言的互譯。與傳統(tǒng)機器翻譯相比,該模型依托大模型技術,能夠更好地理解對話背景與上下文,在處理俚語、古詩詞及網(wǎng)絡縮寫等復雜翻譯場景時,表現(xiàn)出高度的準確性和流暢性,實現(xiàn)了翻譯領域追求的“信達雅”標準。
此次WMT2025競賽的一大特點是要求參賽模型必須開源,且只能使用公開數(shù)據(jù)訓練,這為評估模型真實能力提供了公平的環(huán)境。在這樣的限制下,Hunyuan-MT-7B依然擊敗了眾多參數(shù)規(guī)模遠超于它的對手。同時,在行業(yè)公認的翻譯能力評測基準Flores200上,該模型的表現(xiàn)也顯著優(yōu)于同尺寸模型,效果堪比許多超大規(guī)模模型。這一系列成果得益于騰訊混元提出的覆蓋預訓練到強化學習的全鏈條訓練范式。
與模型一同開源的,還有業(yè)界首個翻譯集成模型Hunyuan-MT-Chimera-7B(奇美拉)。該模型的獨特之處在于,它能夠整合并評估來自不同翻譯模型(包括Hunyuan-MT-7B及DeepSeek等第三方模型)的譯文,并在此基礎上生成一個質(zhì)量更高的最終版本,為專業(yè)翻譯場景提供了新的優(yōu)化路徑。
對于開發(fā)者和企業(yè)而言,Hunyuan-MT-7B的輕量化特性帶來了顯著的實際應用優(yōu)勢。其7B的參數(shù)規(guī)模確保了更快的推理速度和更低的部署成本,能夠靈活部署于從云端服務器到邊緣設備的各類硬件環(huán)境中。官方透露,通過騰訊自研的AngelSlim壓縮工具進行FP8量化后,其推理性能可再提升30%。目前,該模型技術已應用于騰訊會議、企業(yè)微信、QQ瀏覽器等多個內(nèi)部業(yè)務。
目前,Hunyuan-MT-7B模型已在騰訊混元官網(wǎng)開放體驗,并已在Huggingface和Github等社區(qū)提供模型下載和技術報告,持續(xù)其在AI領域的開源生態(tài)貢獻。