發表於2024-11-23
適閤入門學習的機器學習教程,讓你全麵掌握機器學習的方法和技術。
機器學習的目標是對計算機編程,以便使用樣本數據或以往的經驗來解決給定的問題。已經有許多機器學習的成功應用,包括分析以往銷售數據來預測客戶行為,優化機器人的行為以便使用較少的資源來完成任務,以及從生物信息數據中提取知識的各種係統。本書是關於機器學習的內容全麵的教科書,其中有些內容在一般的在機器學習導論書中很少介紹。主要內容包括監督學習,貝葉斯決策理論,參數、半參數和非參數方法,多元分析,隱馬爾可夫模型,增強學習,核機器,圖模型,貝葉斯估計和統計檢驗。
機器學習正在迅速成為計算機科學專業的學生必須掌握的一門技能。本書第3版反映瞭這種變化,增加瞭對初學者的支持,包括給齣瞭部分習題的參考答案和補充瞭實例數據集(提供在綫代碼)。其他顯著的變化包括離群點檢測的討論、感知器和支持嚮量機的排名算法、矩陣分解和譜方法、距離估計、新的核算法、多層感知器的深度學習和非參數貝葉斯方法。書中對所有學習算法都進行瞭解釋,以便讀者可以很容易地將書中的公式轉變為計算機程序。本書可以用作高年級本科生和碩士研究生的教材,也可供研究機器學習方法的技術人員參考。
埃塞姆·阿培丁(Ethem Alpaydin),土耳其伊斯坦布爾博阿齊奇大學計算機工程係的教授。於1990年在洛桑聯邦理工學院獲博士學位,先後在美國麻省理工學院和伯剋利大學工作和進行博士後研究。Ethem博士主要從事機器學習方麵的研究,是劍橋大學《The Computer Journal》雜誌編委和Elsevier《Pattern Recognition》雜誌的副主編。2001年和2002年,Ethem博士先後獲得土耳其科學院青年科學傢奬和土耳其科學與技術研究委員會科學奬。
本書把機器學習的熱門話題(如Tom Mitchell)與概率論基礎(如Christopher Bishop)很好地融閤在一起。第3版嚮這個重要和迅速發展領域中的學生和研究者介紹瞭機器學習的一些新和重要的課題(例如,譜方法、深度學習和學習排名)。
—— John W. Sheppard 濛大拿州立大學計算機科學教授
我已經在機器學習的研究生課程中使用本書多年。這本書很好地平衡瞭理論和實踐,並且在第3版中擴充瞭許多新的先進算法。我期待在我的下一次機器學習課程中使用它。
—— Larry Holder 華盛頓州立大學電子工程和計算機科學教授
對於機器學習而言,這是一本完整、易讀的機器學習導論,是這個快速演變學科的“瑞士軍刀”。盡管本書旨在作為導論,但是它不僅對於學生,而且對於尋求這一領域綜閤教程的專傢也是有用的。新人會從中找到清晰解釋的概念,專傢會從中發現新的參考和靈感。
—— Hilario Gómez-Moreno IEEE高級會員
齣版者的話
譯者序
前言
符號說明
第1章引言1
1.1什麼是機器學習1
1.2機器學習的應用實例2
1.2.1學習關聯性2
1.2.2分類3
1.2.3迴歸5
1.2.4非監督學習6
1.2.5增強學習7
1.3注釋8
1.4相關資源10
1.5習題11
1.6參考文獻12
第2章監督學習13
2.1由實例學習類13
2.2VC維16
2.3概率近似正確學習16
2.4噪聲17
2.5學習多類18
2.6迴歸19
2.7模型選擇與泛化21
2.8監督機器學習算法的維23
2.9注釋24
2.10習題25
2.11參考文獻26
第3章貝葉斯決策理論27
3.1引言27
3.2分類28
3.3損失與風險29
3.4判彆式函數30
3.5關聯規則31
3.6注釋33
3.7習題33
3.8參考文獻36
第4章參數方法37
4.1引言37
4.2最大似然估計37
4.2.1伯努利密度38
4.2.2多項式密度38
4.2.3高斯(正態)密度39
4.3評價估計:偏倚和方差39
4.4貝葉斯估計40
4.5參數分類42
4.6迴歸44
4.7調整模型的復雜度:偏倚/方差兩難選擇46
4.8模型選擇過程49
4.9注釋51
4.10習題51
4.11參考文獻53
第5章多元方法54
5.1多元數據54
5.2參數估計54
5.3缺失值估計55
5.4多元正態分布56
5.5多元分類57
5.6調整復雜度61
5.7離散特徵62
5.8多元迴歸63
5.9注釋64
5.10習題64
5.11參考文獻66
第6章維度歸約67
6.1引言67
6.2子集選擇67
6.3主成分分析70
6.4特徵嵌入74
6.5因子分析75
6.6奇異值分解與矩陣分解78
6.7多維定標79
6.8綫性判彆分析82
6.9典範相關分析85
6.10等距特徵映射86
6.11局部綫性嵌入87
6.12拉普拉斯特徵映射89
6.13注釋90
6.14習題91
6.15參考文獻92
第7章聚類94
7.1引言94
7.2混閤密度94
7.3k均值聚類95
7.4期望最大化算法98
7.5潛在變量混閤模型100
7.6聚類後的監督學習101
7.7譜聚類102
7.8層次聚類103
7.9選擇簇個數104
7.10注釋104
7.11習題105
7.12參考文獻106
第8章非參數方法107
8.1引言107
8.2非參數密度估計108
8.2.1直方圖估計108
8.2.2核估計109
8.2.3k最近鄰估計110
8.3推廣到多變元數據111
8.4非參數分類112
8.5精簡的最近鄰112
8.6基於距離的分類113
8.7離群點檢測115
8.8非參數迴歸:光滑模型116
8.8.1移動均值光滑116
8.8.2核光滑117
8.8.3移動綫光滑119
8.9如何選擇光滑參數119
8.10注釋120
8.11習題121
8.12參考文獻122
第9章決策樹124
9.1引言124
9.2單變量樹125
9.2.1分類樹125
9.2.2迴歸樹128
9.3剪枝130
9.4由決策樹提取規則131
9.5由數據學習規則132
9.6多變量樹134
9.7注釋135
9.8習題137
9.9參考文獻138
第10章綫性判彆式139
10.1引言139
10.2推廣綫性模型140
10.3綫性判彆式的幾何意義140
10.3.1兩類問題140
10.3.2多類問題141
10.4逐對分離142
10.5參數判彆式的進一步討論143
10.6梯度下降144
10.7邏輯斯諦判彆式145
10.7.1兩類問題145
10.7.2多類問題147
10.8迴歸判彆式150
10.9學習排名151
10.10注釋152
10.11習題152
10.12參考文獻154
第11章多層感知器155
11.1引言155
11.1.1理解人腦155
11.1.2神經網絡作為並行處理的典範156
11.2感知器157
11.3訓練感知器159
11.4學習布爾函數160
11.5多層感知器161
11.6作為普適近似的MLP162
11.7嚮後傳播算法163
11.7.1非綫性迴歸163
11.7.2兩類判彆式166
11.7.3多類判彆式166
11.7.4多個隱藏層167
11.8訓練過程167
11.8.1改善收斂性167
11.8.2過分訓練168
11.8.3構造網絡169
11.8.4綫索169
11.9調整網絡規模170
11.10學習的貝葉斯觀點172
11.11維度歸約173
11.12學習時間174
11.12.1時間延遲神經網絡175
11.12.2遞歸網絡175
11.13深度學習176
11.14注釋177
11.15習題178
11.16參考文獻180
第12章局部模型182
12.1引言182
12.2競爭學習182
12.2.1在綫k均值182
12.2.2自適應共鳴理論184
12.2.3自組織映射185
12.3徑嚮基函數186
12.4結閤基於規則的知識189
12.5規範化基函數190
12.6競爭的基函數191
12.7學習嚮量量化193
12.8混閤專傢模型193
12.8.1協同專傢模型194
12.8.2競爭專傢模型195
12.9層次混閤專傢模型195
12.10注釋196
12.11習題196
12.12參考文獻198
第13章核機器200
13.1引言200
13.2最佳分離超平麵201
13.3不可分情況:軟邊緣超平麵203
13.4v�睸VM205
13.5核技巧205
13.6嚮量核206
13.7定義核207
13.8多核學習208
13.9多類核機器209
13.10用於迴歸的核機器210
13.11用於排名的核機器212
13.12一類核機器213
13.13大邊緣最近鄰分類215
13.14核維度歸約216
13.15注釋217
13.16習題217
13.17參考文獻218
第14章圖方法221
14.1引言221
14.2條件獨立的典型情況222
14.3生成模型226
14.4d分離227
14.5信念傳播228
14.5.1鏈228
14.5.2樹229
14.5.3多樹230
14.5.4結樹232
14.6無嚮圖:馬爾科夫隨機場232
14.7學習圖模型的結構234
14.8影響圖234
14.9注釋234
14.10習題235
14.11參考文獻237
第15章隱馬爾科夫模型238
15.1引言238
15.2離散馬爾科夫過程238
15.3隱馬爾科夫模型240
15.4HMM的三個基本問題241
15.5估值問題241
15.6尋找狀態序列244
15.7學習模型參數245
15.8連續觀測247
15.9HMM作為圖模型248
15.10HMM中的模型選擇250
15.11注釋251
15.12習題252
15.13參考文獻254
第16章貝葉斯估計255
16.1引言255
16.2離散分布的參數的貝葉斯估計257
16.2.1K>2個狀態:狄利剋雷分布257
16.2.2K=2個狀態:貝塔分布258
16.3高斯分布的參數的貝葉斯估計258
16.3.1一元情況:未知均值,已知方差258
16.3.2一元情況:未知均值,未知方差259
16.3.3多元情況:未知均值,未知協方差260
16.4函數的參數的貝葉斯估計261
16.4.1迴歸261
16.4.2具有噪聲精度先驗的迴歸264
16.4.3基或核函數的使用265
16.4.4貝葉斯分類266
16.5選擇先驗268
16.6貝葉斯模型比較268
16.7混閤模型的貝葉斯估計270
16.8非參數貝葉斯建模272
16.9高斯過程272
16.10狄利剋雷過程和中國餐館275
16.11本徵狄利剋雷分配276
16.12貝塔過程和印度自助餐277
16.13注釋278
16.14習題278
16.15參考文獻279
第17章組閤多學習器280
17.1基本原理280
17.2産生有差異的學習器280
17.3模型組閤方案282
17.4投票法282
17.5糾錯輸齣碼285
17.6裝袋286
17.7提升287
17.8重溫混閤專傢模型288
17.9層疊泛化289
17.10調整係綜290
17.10.1選擇係綜的子集290
17.10.2構建元學習器290
17.11級聯291
17.12注釋292
17.13習題293
17.14參考文獻294
第18章增強學習297
18.1引言297
18.2單狀態情況:K臂賭博機問題298
18.3增強學習的要素299
18.4基於模型的學習300
18.4.1價值迭代300
18.4.2策略迭代301
18.5時間差分學習301
18.5.1探索策略301
18.5.2確定性奬勵和動作302
18.5.3非確定性奬勵和動作303
18.5.4資格跡304
18.6推廣305
18.7部分可觀測狀態306
18.7.1場景306
18.7.2例子:老虎問題307
18.8注釋310
18.9習題311
18.10參考文獻312
第19章機器學習實驗的設計與分析314
19.1引言314
19.2因素、響應和實驗策略315
19.3響應麵設計317
19.4隨機化、重復和阻止317
19.5機器學習實驗指南318
19.6交叉驗證和再抽樣方法320
19.6.1K摺交叉驗證320
19.6.25×2交叉驗證320
19.6.3自助法321
19.7度量分類器的性能321
19.8區間估計324
19.9假設檢驗326
19.10評估分類算法的性能327
19.10.1二項檢驗327
19.10.2近似正態檢驗328
19.10.3t檢驗328
19.11比較兩個分類算法329
19.11.1McNemar檢驗329
19.11.2K摺交叉驗證配對t檢驗329
19.11.35×2交叉驗證配對t檢驗330
19.11.45×2交叉驗證配對F檢驗330
19.12比較多個算法:方差分析331
19.13在多個數據集上比較333
19.13.1比較兩個算法334
19.13.2比較多個算法335
19.14多元檢驗336
19.14.1比較兩個算法336
19.14.2比較多個算法337
19.15注釋338
19.16習題339
19.17參考文獻340
附錄A概率論341
索引348
前言Introduction to Machine Learning,Third Edition機器學習肯定是計算機科學成長最快的領域之一。不僅數據在持續變“大”,而且處理數據並將它轉換成知識的理論也在不斷發展。在科學的各個領域,從天文學到生物學,以及在日常生活中,隨著數字技術日益滲透到我們的日常生活中,隨著數字足跡的深入,更多的數據被源源不斷地産生和收集。無論是科學的還是個人的,被動蟄伏的數據沒有任何用處,而聰明的人們一直在尋找新的方法來利用數據,把它轉換成有用的産品或服務。在這種轉換中,機器學習正發揮著越來越大的作用。
自從本書第2版2010年麵世以來,數據進化一直在持續,甚至更快。每年,數據集都在變大。不僅觀測的數量在增長,而且觀測屬性的數量也在顯著增加。數據有瞭更多的結構:不再僅僅是數和字符串,而且還有圖像、視頻、音頻、文檔、網頁、點擊日誌、圖等。數據與我們以前常做的參數假設(例如正態性)漸行漸遠。數據常常是動態的,因而存在一個時間維度。有時,我們的觀測是多視圖的——對於相同的對象或事件,我們有來自不同傳感器和不同模式的多個信息源。
我們相信,在這看似復雜和龐大的數據背後存在簡單的解釋。雖然數據很大,但是它可以使用具有少量隱藏因子及其相互作用的相對簡單的模型來解釋。想想數百萬客戶,他們每天在綫或從當地超市購買數韆種産品。這意味著一個非常大的交易數據庫,但是該數據存在模式。沒有人隨機購物。舉辦酒會的人購買産品的某個子集,傢有嬰兒的人購買産品的不同子集;存在解釋客戶行為的隱藏因子。
從觀測數據推斷這種隱藏模型是近年來已經做瞭大量研究的領域之一。新版中的修改大部分都與這些進展有關。第6章新增瞭關於特徵嵌入、奇異值分解和矩陣分解、典範相關分析、拉普拉斯特徵映射的內容。
第8章和關於核機器的第13章新增瞭關於距離估計的內容。維度歸約、特徵提取和距離估計是同一個東西的三個名稱——理想的距離度量定義在理想的隱藏特徵的空間中,而從數量上看,它們少於我們觀測的值。
重寫並顯著擴充瞭第16章,以便涵蓋生成模型。我們對所有主要的機器學習模型,即對分類、迴歸、混閤模型和維度歸約,討論貝葉斯方法。非參數貝葉斯建模在過去的幾年中日益流行,尤其令人感興趣,因為它允許調整模型的復雜度,以適應數據的復雜度。
新版各處新增瞭一些章節,主要是突齣相同或非常類似方法的新的不同應用。第8章新增瞭一節離群點檢測。第10和13章新增兩節,分彆討論用於排名的綫性模型和核機器。拉普拉斯特徵映射添加到第6章,還在第7章新增一節討論譜聚類。鑒於深度神經網絡的最近復蘇,有必要在第11章新增一節討論深度學習。第19章新增一節討論方法比較的多元檢驗。
自第1版麵世以來,許多使用本書自學的讀者提齣索取習題答案的請求。在這個新的版本中,已經包括瞭部分習題的答案。它們有時是完整的答案,有時隻是一個提示,或隻提供多種可能答案中的一種。
機器學習導論(原書第3版) 下載 mobi pdf epub txt 電子書 格式 2024
機器學習導論(原書第3版) 下載 mobi epub pdf 電子書經典之作,必讀之作,必須贊一個
評分&哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈斤斤計較哈哈哈哈哈哈哈哈
評分機器學習是新興課題,前景明朗。書本包裝挺好,是正版書!
評分挺好的挺好的,價格便宜,不錯不錯挺好的挺好的,價格便宜,不錯不錯
評分都說機器學習很火的買本來屯著,有空可以看看
評分有點偏理論,公式特彆多。
評分很好,正在看,沒想到京東的書籍也很靠譜,今後會繼續關注!
評分能引進這麼多優秀的書籍(????)╭ ~ ?愛你
評分每次圖書滿減優惠都相當棒!
機器學習導論(原書第3版) mobi epub pdf txt 電子書 格式下載 2024