0
| 本文作者: 二維馬曉寧 | 2025-10-24 10:43 |
雷峰網(wǎng)(公眾號(hào):雷峰網(wǎng))訊,2025年國(guó)際機(jī)器翻譯大賽WMT (Conference on Machine Translation) 宣布最終排名,阿里國(guó)際AI Business的翻譯大模型Marco-MT-Algharb斬獲6項(xiàng)冠軍,4項(xiàng)亞軍和2項(xiàng)季軍。
其中,在最受關(guān)注的英中語(yǔ)向上,Marco-MT超越了Gemini 2.5 Pro、GPT-4.1、Claude 4和Mistral-Medium等所有頂尖閉源AI系統(tǒng),登頂榜首。
阿里國(guó)際的Marco-MT模型參加的是WMT競(jìng)賽中難度更高的受限賽道。相比于非受限賽道,受限賽道不僅要求模型能夠處理文學(xué)、新聞、社交媒體等多樣化內(nèi)容,還需嚴(yán)格遵守僅使用開(kāi)源數(shù)據(jù)和開(kāi)源模型,且模型規(guī)模不超過(guò)20B的限制條件。
Marco-MT此次奪冠,關(guān)鍵在于將豐富的電商翻譯模型訓(xùn)練經(jīng)驗(yàn)與一套原創(chuàng)訓(xùn)練方法M2PO(多階段偏好優(yōu)化)相結(jié)合,成功將強(qiáng)化學(xué)習(xí)范式應(yīng)用于大模型翻譯領(lǐng)域。
該系統(tǒng)分三步提升翻譯質(zhì)量:先通過(guò)兩輪監(jiān)督微調(diào)拓寬知識(shí)基礎(chǔ);再引入強(qiáng)化學(xué)習(xí),讓模型學(xué)會(huì)判斷譯文優(yōu)劣;最后在解碼階段融合詞對(duì)齊與重排序技術(shù),在保證流暢的同時(shí)精準(zhǔn)還原原文,顯著提升翻譯的準(zhǔn)確性和忠實(shí)度。
此次比賽模型已開(kāi)源,可在Hugging Face了解技術(shù)詳情、在線體驗(yàn)翻譯:
Hugging Face: https://huggingface.co/AIDC-AI/Marco-MT-Algharb
演示系統(tǒng): https://huggingface.co/spaces/AIDC-AI/Marco-MT-Algharb
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。