谷歌神經網路機器翻譯系統有何應用前景?

時間 2021-06-01 11:38:20

1樓:Tattletale

機器翻譯瓶頸差不多要到了。想達到或超過人類的水平,需要把人類平日生活的直觀常識,和乾枯的文字樣本,在某種程度上對應起來。然而直觀常識與文字樣本的對應,資料量少得可憐,無法用在目前的常規機器學習訓練方法上。

NMT說到底仍然是在純文字與純文字之間玩統計,在這條路上繼續走,就算做到完美,離手工翻譯的差距還是會有點大。

2樓:

谷歌翻譯號稱要實現zero-shot,那很明顯,不同語言之間的橋梁就是詞嵌入。

詞嵌入的出現和計算能力的發展使得像谷歌這樣的巨型公司能在海量文字中挖掘資訊。語言畢竟都是人類所使用的, 既然都是人類用的,那必然存在相似性。

預計憑現在的發展,這些巨型公司有希望徹底解決不同語言之間的翻譯問題,再加上深度學習定製硬體的發展,有希望將這套系統融入到移動裝置中。而且目前語音識別的發展也已經比較成熟了。可能用不了多久,那種科幻的頭戴式實時翻譯就真的能出現,翻譯專業可能要失業了。

下一步可能是要針對專業領域做特別優化,通用翻譯系統可能比較難處理專業名詞問題,這些可能是這些大公司的下乙個目標。

另外,在融合了多種語言之後,可能可以找到乙個通用的,真正體現語言本質的模型,這個模型也許能催生出一門更合理,更容易學的語言?相比起世界語而言,有希望真正統一全球語種的語言。

如何評價Google神經機器翻譯(GNMT)系統?

語言的意境,AI是不懂得。首先AI行業的從業人員就靈性極低。比如身是菩提樹,心如明鏡臺,時時勤拂拭,莫使有塵埃。菩提本無樹,明鏡亦非台,本來無一物,何處惹塵埃。AI行業的從業人員有幾人可解答。吾心似秋月,碧潭清皎潔。列物堪比倫,教我如何說。南台靜坐一爐香,終日凝然萬慮忘。不是息心去妄想,都緣無事可商...

如何理解谷歌團隊的機器翻譯新作《Attention is all you need》?

阿力阿哩哩 之前寫了一篇文章,正好回答一波。阿力阿哩哩 BERT的原理與應用 BERT是self attention的多層堆疊,所以了解BERT的同時也在順便了解self attention。1.Self Attention Layer原理 1 Self Attention Layer的出現原因 為...

RBF神經網路和BP神經網路有什麼區別?

DomainAdaptation 1,從模型結構上來看 RBF神經網路從圖形結構上來說,就是一種單隱層的神經網路.這個隱層的每個神經元輸出的是乙個RBF函式的值,這些RBF函式的核寬都是一樣的,它們中心要麼是每個訓練樣本點,要麼是訓練樣本點的聚類中心,當然還可以有其他。核化的支援向量機就可以看成是一...