Google以多語言訓練單一神經機器翻譯模型,可同時提升低資源和多資源語言翻譯品質

Google在其最新一系列的機器翻譯的研究,使用超過100種語言共計250億個句子,訓練單一神經機器翻譯(Neural Machine Translation,NMT)模型,結果顯示,這種大量語言的大規模神經機器翻譯方法(M4)無論是在低資源還是多資源的語言上,都能大幅改進語言翻譯品質。

臉書留言

胡 自文

(這個頁面共進入 1 次, 今天進入 1 次)