基於深度學習的自然語言處理 計算機與互聯網 書籍|7891598

基於深度學習的自然語言處理 計算機與互聯網 書籍|7891598 pdf epub mobi txt 電子書 下載 2025

以 約阿夫 戈爾德貝格Yoav Gold 著,車萬翔 郭江 張偉男 譯
圖書標籤:
  • 深度學習
  • 自然語言處理
  • NLP
  • 計算機科學
  • 互聯網
  • 書籍
  • 人工智能
  • 機器學習
  • 文本分析
  • 算法
想要找書就要到 新城書站
立刻按 ctrl+D收藏本頁
你會得到大驚喜!!
店鋪: 互動齣版網圖書專營店
齣版社: 機械工業齣版社
ISBN:9787111593737
商品編碼:27964272228
叢書名: 智能科學與技術叢書
齣版時間:2018-05-01

具體描述

 書[0名0]:  基於深度學]習的自然語言處理|7891598
 圖書定價:  69元
 圖書作者:  (以)約阿夫·戈爾德貝格(Yoav Goldberg)
 齣版社:   機械工業齣版社
 齣版日期:  2018/5/1 0:00:00
 ISBN號:  9787111593737
 開本:  16開
 頁數:  0
 版次:  1-1
 內容簡介
本書重點介紹瞭神經網絡模型在自然語言處理中的應用。先介紹有監督的 機器學習和前饋神經網絡的基本知識,如何將機器學習方法應用在自然語言處理中,以及詞嚮量錶示(而不是符號錶示)的應用。然後介紹更多專門的神經網絡結構,包括一維捲積神經網絡、循環神經網絡、條件生成模型和基於注意力的模型。後討論樹形網絡、結構化預測以及多任務學習的前景。

 目錄

譯者序

前言

緻謝 

[第]1章引言

1.1自然語言處理的挑戰

1.2神經網絡和深度學習

1.3自然語言處理中的深度學習

1.4本書的覆蓋麵和組織結構

1.5本書未覆蓋的內容

1.6術語

1.7數學符號

注釋

第一部分有監督分類與前饋神經網絡

第2章學習基礎與綫性模型

2.1有監督學習和參數化函數

2.2訓練集、測試集和驗證集

2.3綫性模型

2.3.1二分類

2.3.2對數綫性二分類

2.3.3多分類

2.4錶示

2.5獨熱和稠密嚮量錶示

2.6對數綫性多分類

2.7訓練和優化

2.7.1損失函數

2.7.2正則化

2.8基於梯度的優化

2.8.1隨機梯度下降

2.8.2實例

2.8.3其他訓練方法

第3章從綫性模型到多層感知器

3.1綫性模型的局限性:異或問題

3.2非綫性輸入轉換

3.3核方法 

3.4可訓練的映射函數 

第4章前饋神經網絡

4.1一個關於大腦的比喻

4.2數學錶示

4.3錶達能力

4.4常見的非綫性函數

4.5損失函數

4.6正則化與丟棄法

4.7相似和距離層

4.8嵌入層

第5章神經網絡訓練

5.1計算圖的抽象概念

5.1.1前嚮計算

5.1.2反嚮計算(導數、反嚮傳播)

5.1.3軟件

5.1.4實現流程

5.1.5網絡構成

5.2實踐經驗

5.2.1優化算法的選擇

5.2.2初始化

5.2.3重啓與集成

5.2.4梯度消失與梯度爆炸

5.2.5飽和神經元與死神經元

5.2.6隨機打亂

5.2.7學習率

5.2.8minibatch

第二部分處理自然語言數據

第6章文本特徵構造

6.1NLP分類問題中的拓撲結構

6.2NLP問題中的特徵

6.2.1直接可觀測特徵

6.2.2可推斷的語言學特徵

6.2.3核心特徵與組閤特徵

6.2.4n元組特徵

6.2.5分布特徵

第7章NLP特徵的案例分析

7.1文本分類:語言識彆

7.2文本分類:主題分類

7.3文本分類:作者歸屬

7.4上下文中的單詞:詞性標注

7.5上下文中的單詞:命名實體識彆

7.6上下文中單詞的語言特徵:介詞詞義消歧

7.7上下文中單詞的關係:弧分解分析

第8章從文本特徵到輸入

8.1編碼分類特徵

8.1.1獨熱編碼

8.1.2稠密編碼(特徵嵌入)

8.1.3稠密嚮量與獨熱錶示

8.2組閤稠密嚮量

8.2.1基於窗口的特徵

8.2.2可變特徵數目:連續詞袋

8.3獨熱和稠密嚮量間的關係

8.4雜項

8.4.1距離與位置特徵

8.4.2補齊、未登錄詞和詞丟棄

8.4.3特徵組閤

8.4.4嚮量共享

8.4.5維度

8.4.6嵌入的詞錶

8.4.7網絡的輸齣

8.5例子:詞性標注

8.6例子:弧分解分析

第9章語言模型

9.1語言模型任務

9.2語言模型評估:睏惑度

9.3語言模型的傳統方法

9.3.1延伸閱讀

9.3.2傳統語言模型的限製

9.4神經語言模型

9.5使用語言模型進行生成

9.6副産品:詞的錶示

第10章預訓練的詞錶示

10.1隨機初始化

10.2有監督的特定任務的預訓練

10.3無監督的預訓練

10.4詞嵌入算法

10.4.1分布式假設和詞錶示

10.4.2從神經語言模型到分布式錶示

10.4.3詞語聯係

10.4.4其他算法

10.5上下文的選擇

10.5.1窗口方法

10.5.2句子、段落或文檔

10.5.3句法窗口

10.5.4多語種

10.5.5基於字符級彆和子詞的錶示

10.6處理多字單元和字變形

10.7分布式方法的限製

第11章使用詞嵌入

11.1詞嚮量的獲取

11.2詞的相似度

11.3詞聚類

11.4尋找相似詞

11.5同中選異

11.6短文檔相似度

11.7詞的類比

11.8改裝和映射

11.9實用性和陷阱

第12章案例分析:一種用於句子意義推理的前饋結構

12.1自然語言推理與SNLI數據集

12.2文本相似網絡

第三部分特殊的結構

第13章n元語法探測器:捲積神經網絡

13.1基礎捲積池化

13.1.1文本上的一維捲積

13.1.2嚮量池化

13.1.3變體

13.2其他選擇:特徵哈希

13.3層次化捲積

第14章循環神經網絡:序列和棧建模

14.1RNN抽象描述

14.2RNN的訓練

14.3RNN常見使用模式

14.3.1接收器

14.3.2編碼器

14.3.3傳感器

14.4雙嚮RNN

14.5堆疊RNN

14.6用於錶示棧的RNN

14.7文獻閱讀的注意事項

第15章實際的循環神經網絡結構

15.1作為RNN的CBOW

15.2簡單RNN

15.3門結構

15.3.1長短期記憶網絡

15.3.2門限循環單元

15.4其他變體

15.5應用到RNN的丟棄機製

第16章通過循環網絡建模

16.1接收器

16.1.1情感分類器

16.1.2主謂一緻語法檢查

16.2作為特徵提取器的RNN

16.2.1詞性標注

16.2.2RNN�睠NN文本分類

16.2.3弧分解依存句法分析

第17章條件生成

17.1RNN生成器

17.2條件生成(編碼器解碼器)

17.2.1序列到序列模型

17.2.2應用

17.2.3其他條件上下文

17.3無監督的句子相似性

17.4結閤注意力機製的條件生成

17.4.1計算復雜性

17.4.2可解釋性

17.5自然語言處理中基於注意力機製的模型

17.5.1 機器翻譯

17.5.2形態屈摺

17.5.3句法分析

第四部分其他主題

第18章用遞歸神經網絡對樹建模

18.1形式化定義

18.2擴展和變體

18.3遞歸神經網絡的訓練

18.4一種簡單的替代——綫性化樹

18.5前景

第19章結構化輸齣預測

19.1基於搜索的結構化預測

19.1.1基於綫性模型的結構化預測

19.1.2非綫性結構化預測

19.1.3概率目標函數(CRF)

19.1.4近似搜索

19.1.5重排序

19.1.6參考閱讀

19.2貪心結構化預測

19.3條件生成與結構化輸齣預測

19.4實例

19.4.1基於搜索的結構化預測:一階依存句法分析

19.4.2基於Neural�睠RF的命名實體識彆

19.4.3基於柱搜索的NER�睠RF近似

第20章級聯、多任務與半監督學習

20.1模型級聯

20.2多任務學習

20.2.1多任務設置下的訓練

20.2.2選擇性共享

20.2.3作為多任務學習的詞嵌入預訓練

20.2.4條件生成中的多任務學習

20.2.5作為正則的多任務學習

20.2.6注意事項

20.3半監督學習

20.4實例

20.4.1眼動預測與句子壓縮

20.4.2弧標注與句法分析

20.4.3介詞詞義消歧與介詞翻譯預測

20.4.4條件生成:多語言機器翻譯、句法分析以及圖像描述生成

20.5前景

第21章結論

21.1我們學到瞭什麼

21.2未來的挑戰

參考文獻

譯者序
自然語言處理(Natural Language Processing,NLP)主要研究用計算機來處理、理解以及運用人類語言(又稱自然語言)的各種理論和方法,屬於人工智能領域的一個重要研究方嚮,是計算機科學與語言學的交叉學科,又常被稱為計算語言學。隨著互聯網的快速發展,網絡文本尤其是用戶生成的文本呈爆炸性增長,為自然語言處理帶來瞭巨大的應用需求。同時,自然語言處理研究的進步,也為人們更深刻地理解語言的機理和社會的機製提供瞭一種新的途徑,因此具有重要的科學意義。
然而,自然語言具有歧義性、動態性和非規範性,同時語言理解通常需要豐富的知識和一定的推理能力,這些都給自然語言處理帶來瞭極大的挑戰。目前,統計機器學習技術為以上問題提供瞭一種可行的解決方案,成為研究的主流,該研究領域又被稱為統計自然語言處理。一個統計自然語言處理係統通常由兩部分組成,即訓練數據(也稱樣本)和統計模型(也稱算法)。
但是,傳統的機器學習方法在數據獲取和模型構建等諸多方麵都存在嚴重的問題。首先,為獲得大規模的標注數據,傳統方法需要花費大量的人力、物力、財力,雇用語言學專傢進行繁瑣的標注工作。由於這種方法存在標注代價高、規範性差等問題,很難獲得大規模、高質量的人工標注數據,由此帶來瞭嚴重的數據稀疏問題。其次,在傳統的自然語言處理模型中,通常需要人工設計模型所需要的特徵以及特徵組閤。這種人工設計特徵的方式,需要開發人員對所麵對的問題有深刻的理解和豐富的經驗,這會消耗大量的人力和時間,即便如此也往往很難獲得有效的特徵。
近年來,如火如荼的深度學習技術為這兩方麵的問題提供瞭一種可能的解決思路,有效推動瞭自然語言處理技術的發展。深度學習一般是指建立在含有多層非綫性變換的神經網絡結構之上,對數據的錶示進行抽象和學習的一係列機器學習算法。該方法已對語音識彆、圖像處理等領域的進步起到瞭極大的推動作用,同時也引起瞭自然語言處理領域學者的廣泛關注。
深度學習主要為自然語言處理的研究帶來瞭兩方麵的變化:一方麵是使用統一的分布式(低維、稠密、連續)嚮量錶示不同粒度的語言單元,如詞、短語、句子和篇章等;另一方麵是使用循環、捲積、遞歸等神經網絡模型對不同的語言單元嚮量進行組閤,獲得更大語言單元的錶示。除瞭不同粒度的單語語言單元外,不同種類的語言甚至不同模態(語言、圖像等)的數據都可以通過類似的組閤方式錶示在相同的語義嚮量空間中,然後通過在嚮量空間中的運算來實現分類、推理、生成等各種任務並應用於各種相關的任務之中。
雖然將深度學習技術應用於自然語言處理的研究目前非常熱門,但是市麵上還沒有一本書係統地闡述這方麵的研究進展,初學者往往通過學習一些在綫課程(如斯坦福的CS224N課程)來掌握相關的內容。本書恰好彌補瞭這一不足,深入淺齣地介紹瞭深度學習的基本知識及各種常用的網絡結構,並重點介紹瞭如何使用這些技術處理自然語言。
本書的作者Yoav Goldberg現就職於以色列巴伊蘭大學,是自然語言處理領域一位非常活躍的青年學者。Goldberg博士期間的主要研究方嚮為依存句法分析,隨著深度學習的興起,他也將研究興趣轉移至此,並成功地將該技術應用於依存句法分析等任務。與此同時,他在理論上對詞嵌入和傳統矩陣分解方法的對比分析也具有廣泛的影響力。另外,他還是DyNet深度學習庫的主要開發者之一。可見,無論在理論上還是實踐上,他對深度學習以及自然語言處理都具有非常深的造詣。這些都為本書的寫作奠定瞭良好的基礎。
由於基於深度學習的自然語言處理是一個非常活躍的研究領域,新的理論和技術層齣不窮,因此本書很難涵蓋所有的最新技術。不過,本書基本涵蓋瞭目前已經被證明非常有效的技術。關於這方麵的進展,讀者可以參閱自然語言處理領域最新的論文。
我們要感謝對本書的翻譯有所襄助的老師和學生。本書由哈爾濱工業大學的車萬翔、郭江、張偉男、劉銘四位老師主譯,劉挺教授主審。侯宇泰、薑天文、李傢琦、覃立波、宋皓宇、滕德川、王宇軒、嚮政鵬、張楊子、鄭桂東、硃海潮、硃慶福等對本書部分內容的初譯做瞭很多工作,機械工業齣版社華章公司策劃編輯硃劼和姚蕾在本書的整個翻譯過程中提供瞭許多幫助,在此一並予以衷心感謝。
譯文雖經多次修改和校對,但由於譯者的水平有限,加之時間倉促,疏漏及錯誤在所難免,我們真誠地希望讀者不吝賜教,不勝感激。
車萬翔
2017年10月於哈爾濱工業大學 

前言
自然語言處理(Natural Language Processing,NLP)這一術語指的是對人類語言進行自動的計算處理。它包括兩類算法:將人類産生的文本作為輸入;産生看上去很自然的文本作為輸齣。由於人類産生的文本每年都在不停增加,同時人們期望使用人類的語言與計算機進行交流,因此人們對該類算法的需求在不斷增加。然而,由於人類語言固有的歧義、不斷變化以及病態性(not well defined),導緻自然語言處理極具挑戰性。
自然語言本質上是符號化的,因此人們最開始也嘗試使用符號化的方式處理語言,即基於邏輯、規則以及本體的方法。然而,自然語言具有很強的歧義性和可變性,這就需要使用統計的方法。事實上,如今自然語言處理的主流方法都是基於統計機器學習(Statistical Machine Learning)的。過去十幾年,核心的NLP技術都是以有監督學習的綫性模型為主導,核心算法如感知機、綫性支持嚮量機、邏輯迴歸等都是在非常高維和稀疏的特徵嚮量上進行訓練的。
2014年左右,該領域開始看到一些從基於稀疏嚮量的綫性模型嚮基於稠密嚮量的非綫性神經網絡模型(Nonlinear Neural Network Model)切換的成功案例。一些神經網絡技術是綫性模型的簡單推廣,可用於替代綫性分類器。另一些神經網絡技術更進一步提齣瞭新的建模方法,這需要改變現有的思維方式。特彆是一係列基於循環神經網絡(Recurrent Neural Network,RNN)的方法,減輕瞭對馬爾可夫假設的依賴性,這曾普遍用於序列模型中。循環神經網絡可以處理任意長度的序列數據,並生成有效的特徵抽取器。這些進展導緻瞭語言模型、自動機器翻譯以及其他一些應用的突破。
雖然神經網絡方法很強大,但是由於各種原因,入門並不容易。本書中,我將試圖為自然語言處理的從業者以及剛入門的讀者介紹神經網絡的基本背景、術語、工具和方法論,幫助他們理解將神經網絡用於自然語言處理的原理,並且能夠應用於他們自己的工作中。我也希望為機器學習和神經網絡的從業者介紹自然語言處理的基本背景、術語、工具以及思維模式,以便他們能有效地處理語言數據。
最後,我希望本書能夠作為自然語言處理以及機器學習這兩個領域新手的一個較好的入門指導。
目標讀者
本書的目標讀者應具有計算機或相關領域的技術背景,他們想使用神經網絡技術來加速自然語言處理的研究。雖然本書的主要讀者是自然語言處理和機器學習領域的研究生,但是我試圖(通過介紹一些高級材料)使自然語言處理或者機器學習領域的研究者,甚至對這兩個領域都不瞭解的人也能閱讀本書,後者顯然需要更加努力。
雖然本書是自包含的,我仍然假設讀者具有數學知識,特彆是本科水平的概率、代數和微積分以及基本的算法和數據結構知識。有機器學習的先驗知識會很有幫助,但這並不是必需的。
本書是對一篇綜述文章[Goldberg, 2016]的擴展,內容上進行瞭重新組織,提供瞭更寬泛的介紹,涵蓋瞭一些更深入的主題,由於各種原因,這些主題沒有在那篇綜述文章中提及。本書也包括一些綜述文章中沒有的,將神經網絡用於語言數據的更具體的應用實例。本書試圖對那些沒有自然語言處理和機器學習背景的讀者也能有用,然而綜述文章假設他們對這些領域已經具備瞭一些知識。事實上,熟悉2006年到2014年期間自然語言處理實踐的讀者,可能發現期刊版本讀起來更快並且對於他們的需求組織得更好,這是因為那段時期人們大量使用基於綫性模型的機器學習技術。然而,這些讀者可能也會願意閱讀關於詞嵌入的章節(第10和11章)、使用循環神經網絡有條件生成的章節(第17章),以及結構化預測和多任務學習(Multi�瞭ask Learning,MTL)的章節(第19和20章)。
本書的焦點
本書試圖是自包含的,因此將不同的方法在統一的錶示和框架下加以錶述。然而,本書的主要目的是介紹神經網絡(深度學習)的機製及其在語言數據上的應用,而不是深入介紹機器學習理論和自然語言處理技術。如果需要這些內容,建議讀者參考外部資源。
類似地,對於那些想開發新的神經網絡機製的人,本書不是一個全麵的資源(雖然本書可能是一個很好的入門)。確切地講,本書的目標讀者是那些對現有技術感興趣,並且想將其以創造性的方式應用於他們喜歡的語言處理任務的人。
擴展閱讀對神經網絡更深入、一般性的討論以及它們背後的理論、最新的優化方法和其他主題,讀者可以參考其他資源。強烈推薦Bengio等人[2016]的書。
對於更友好而且更嚴密的實用機器學習介紹,強烈推薦Daumé III [2015]的免費書。對於機器學習更理論化的介紹,參見Shalev�睸hwartz和Ben�睤avid [2014]的免費書以及Mohri等人[2012]的教科書。
對於自然語言處理的更深入介紹參見Jurafsky和Martin [2008]的書。Manning等人[2008]的信息檢索書也包括語言數據處理的一些相關信息。
最後,如要快速瞭解語言學的背景,Bender [2013]的書提供瞭簡單但全麵的介紹,對於有計算思維的讀者有指導意義。Sag等人[2003]的介紹性語法書的前幾章也值得一讀。
本書寫作之際,神經網絡和深度學習的研究也在快速進展之中。最好的方法在不斷變化,所以我不能保證介紹的都是最新、最好的方法。因此,我會專注於涵蓋更確定、更魯棒的技術(它們在很多場景下都被證明有效),同時選取那些還沒完全發揮作用但有前途的技術。
Yoav Goldberg
2017年3月 

用戶評價

評分

評分

評分

評分

評分

評分

評分

評分

評分

相關圖書

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 book.cndgn.com All Rights Reserved. 新城书站 版權所有