第七色在线视频,2021少妇久久久久久久久久,亚洲欧洲精品成人久久av18,亚洲国产精品特色大片观看完整版,孙宇晨将参加特朗普的晚宴

為了賬號安全,請及時綁定郵箱和手機立即綁定
已解決430363個問題,去搜搜看,總會有你想問的

深度學習在自然語言處理方面的運用有哪些?

深度學習在自然語言處理方面的運用有哪些?

阿晨1998 2019-02-01 16:03:24
深度學習在自然語言處理方面的運用有哪些
查看完整描述

1 回答

?
猛跑小豬

TA貢獻1858條經(jīng)驗 獲得超8個贊

深度學習在自然語言處理中的應(yīng)用已經(jīng)非常廣泛,可以說橫掃自然語言處理的各個應(yīng)用,從底層的分詞、語言模型、句法分析等到高層的語義理解、對話管理、知識問答、聊天、機器翻譯等方面都幾乎全部都有深度學習的模型,并且取得了不錯的效果。可以參看ACL2017年的accepted papers list。Accepted Papers, Demonstrations and TACL Articles for ACL 2017。從這里可以看到大部分論文都使用了深度學習的模型。
那為什么深度學習在自然語言中取得這么大的進步呢?
一、從數(shù)據(jù)上看,經(jīng)過前些年互聯(lián)網(wǎng)的發(fā)展,很多應(yīng)用都積累到了足夠量的數(shù)據(jù)。當數(shù)據(jù)量增大,以SVM、CRF等為代表的淺層模型,因為模型較淺,無法對海量數(shù)據(jù)中的非線性關(guān)系進行建模,所以不能帶來性能的提升。相反,以CNN、RNN為代表的深度模型,能夠隨著模型復雜性的增加,對數(shù)據(jù)進行更精準的建模,從而得到更好的效果。
二、從算法上看,深度學習也給自然語言處理的任務(wù)帶來了很多好處。首先,word2vec的出現(xiàn),使得我們可以將word高效的表示為低維稠密的向量(distributed representation),相比于獨熱表示表示(one-hot-representation),這一方面一定程度上緩解了獨熱表示所帶來的語義鴻溝的問題,另一方面降低了輸入特征的維度,從而降低了輸入層的復雜性。其次,由于深度學習模型的靈活性,使得之前比較復雜的包含多流程的任務(wù),可以使用end to end方法進行解決。比如機器翻譯任務(wù),如果用傳統(tǒng)的方法,需要分詞模塊、對齊模塊、翻譯模塊、語言模型模塊等多個模塊相互配合,每個模塊產(chǎn)生的誤差都有可能對其他模塊產(chǎn)生影響,這使得原來的傳統(tǒng)方法的構(gòu)建復雜度很大。在機器翻譯使用encoder-decoder架構(gòu)后,我們可以將源語言直接映射到目標語言,從而可以從整體上優(yōu)化,避免了誤差傳遞的問題,而且極大的降低了系統(tǒng)的復雜性。

深度學習雖然是把利器,但是并不能完全解決自然語言中的所有問題,這主要是由于不同于語音和圖像這種自然界的信號,自然語言是人類知識的抽象濃縮表示。人在表達的過程中,由于背景知識的存在會省略很多的東西,使得自然語言的表達更加簡潔,但這也給自然語言的處理帶來很大的挑戰(zhàn)。比如短文本分類問題,由于文本比較簡短,文本所攜帶的信息有限,因此比較困難。像這樣的問題,當樣本量不夠時,如何將深度學習方法和知識信息進行融合來提升系統(tǒng)的性能,將是未來一段時間內(nèi)自然語言處理領(lǐng)域研究的主要問題。



查看完整回答
反對 回復 2019-03-04
  • 1 回答
  • 0 關(guān)注
  • 919 瀏覽

添加回答

舉報

0/150
提交
取消
微信客服

購課補貼
聯(lián)系客服咨詢優(yōu)惠詳情

幫助反饋 APP下載

慕課網(wǎng)APP
您的移動學習伙伴

公眾號

掃描二維碼
關(guān)注慕課網(wǎng)微信公眾號