數(shù)據(jù)挖掘?qū)д?/span>一書基本上涵蓋了數(shù)據(jù)挖掘的許多經(jīng)典算法,分類,聚類,關聯(lián)規(guī)則,是一本比較適合對數(shù)據(jù)挖掘感興趣的人閱讀的書籍。該書內(nèi)容以實例為重,給出了常用算法的偽代碼,和《模式識別》、《模式分類》等專著比起來,該書略去了各個定理的證明部分,并通過大量枚舉具體的分類實例,來簡要說明算法的流程和意義。本節(jié)內(nèi)容東坡小編為大家整理帶來的是一份pdf格式完整電子版數(shù)據(jù)挖掘?qū)д?中文版),歡迎有需要的朋友前來下載查閱。
數(shù)據(jù)挖掘?qū)д?中文版)簡介
本書是明尼蘇達大學和密歇根州立大學數(shù)據(jù)挖掘課程的教材,由于獨具特色,正式出版之前就已經(jīng)被斯坦福大學、得克薩斯大學奧斯汀分校等眾多名校采用。
該書全面介紹了數(shù)據(jù)挖掘,涵蓋了五個主題:數(shù)據(jù)、分類、關聯(lián)分析、聚類和異常檢測。除異常檢測外,每個主題都有兩章。前一章涵蓋基本概念、代表性算法和評估技術,而后一章討論高級概念和算法。這樣讀者在透徹地理解數(shù)據(jù)挖掘的基礎的同時,還能夠了解更多重要的高級主題。
數(shù)據(jù)挖掘中文版目錄
第1章 緒論 1
1.1 什么是數(shù)據(jù)挖掘 2
1.2 數(shù)據(jù)挖掘要解決的問題 2
1.3 數(shù)據(jù)挖掘的起源 3
1.4 數(shù)據(jù)挖掘任務 4
1.5 本書的內(nèi)容與組織 7
文獻注釋 7
參考文獻 8
習題 10
第2章 數(shù)據(jù) 13
2.1 數(shù)據(jù)類型 14
2.1.1 屬性與度量 15
2.1.2 數(shù)據(jù)集的類型 18
2.2 數(shù)據(jù)質(zhì)量 22
2.2.1 測量和數(shù)據(jù)收集問題 22
2.2.2 關于應用的問題 26
2.3 數(shù)據(jù)預處理 27
2.3.1 聚集 27
2.3.2 抽樣 28
2.3.3 維歸約 30
2.3.4 特征子集選擇 31
2.3.5 特征創(chuàng)建 33
2.3.6 離散化和二元化 34
2.3.7 變量變換 38
2.4 相似性和相異性的度量 38
2.4.1 基礎 39
2.4.2 簡單屬性之間的相似度和相異度 40
2.4.3 數(shù)據(jù)對象之間的相異度 41
2.4.4 數(shù)據(jù)對象之間的相似度 43
2.4.5 鄰近性度量的例子 43
2.4.6 鄰近度計算問題 48
2.4.7 選取正確的鄰近性度量 50
文獻注釋 50
參考文獻 52
習題 53
第3章 探索數(shù)據(jù) 59
3.1 鳶尾花數(shù)據(jù)集 59
3.2 匯總統(tǒng)計 60
3.2.1 頻率和眾數(shù) 60
3.2.2 百分位數(shù) 61
3.2.3 位置度量:均值和中位數(shù) 61
3.2.4 散布度量:極差和方差 62
3.2.5 多元匯總統(tǒng)計 63
3.2.6 匯總數(shù)據(jù)的其他方法 64
3.3 可視化 64
3.3.1 可視化的動機 64
3.3.2 一般概念 65
3.3.3 技術 67
3.3.4 可視化高維數(shù)據(jù) 75
3.3.5 注意事項 79
3.4 OLAP和多維數(shù)據(jù)分析 79
3.4.1 用多維數(shù)組表示鳶尾花數(shù)據(jù) 80
3.4.2 多維數(shù)據(jù):一般情況 81
3.4.3 分析多維數(shù)據(jù) 82
3.4.4 關于多維數(shù)據(jù)分析的最后評述 84
文獻注釋 84
參考文獻 85
習題 86
第4章 分類:基本概念、決策樹與模型評估 89
4.1 預備知識 89
4.2 解決分類問題的一般方法 90
4.3 決策樹歸納 92
4.3.1 決策樹的工作原理 92
4.3.2 如何建立決策樹 93
4.3.3 表示屬性測試條件的方法 95
4.3.4 選擇最佳劃分的度量 96
4.3.5 決策樹歸納算法 101
4.3.6 例子:Web 機器人檢測 102
4.3.7 決策樹歸納的特點 103
4.4 模型的過分擬合 106
4.4.1 噪聲導致的過分擬合 107
4.4.2 缺乏代表性樣本導致的過分擬合 109
4.4.3 過分擬合與多重比較過程 109
4.4.4 泛化誤差估計 110
4.4.5 處理決策樹歸納中的過分擬合 113
4.5 評估分類器的性能 114
4.5.1 保持方法 114
4.5.2 隨機二次抽樣 115
4.5.3 交叉驗證 115
4.5.4 自助法 115
4.6 比較分類器的方法 116
4.6.1 估計準確度的置信區(qū)間 116
4.6.2 比較兩個模型的性能 117
4.6.3 比較兩種分類法的性能 118
文獻注釋 118
參考文獻 120
習題 122
第5章 分類:其他技術 127
5.1 基于規(guī)則的分類器 127
5.1.1 基于規(guī)則的分類器的工作原理 128
5.1.2 規(guī)則的排序方案 129
5.1.3 如何建立基于規(guī)則的分類器 130
5.1.4 規(guī)則提取的直接方法 130
5.1.5 規(guī)則提取的間接方法 135
5.1.6 基于規(guī)則的分類器的特征 136
5.2 最近鄰分類器 137
5.2.1 算法 138
5.2.2 最近鄰分類器的特征 138
5.3 貝葉斯分類器 139
5.3.1 貝葉斯定理 139
5.3.2 貝葉斯定理在分類中的應用 140
5.3.3 樸素貝葉斯分類器 141
5.3.4 貝葉斯誤差率 145
5.3.5 貝葉斯信念網(wǎng)絡 147
5.4 人工神經(jīng)網(wǎng)絡 150
5.4.1 感知器 151
5.4.2 多層人工神經(jīng)網(wǎng)絡 153
5.4.3 人工神經(jīng)網(wǎng)絡的特點 155
5.5 支持向量機 156
5.5.1 最大邊緣超平面 156
5.5.2 線性支持向量機:可分情況 157
5.5.3 線性支持向量機:不可分情況 162
5.5.4 非線性支持向量機 164
5.5.5 支持向量機的特征 168
5.6 組合方法 168
5.6.1 組合方法的基本原理 168
5.6.2 構建組合分類器的方法 169
5.6.3 偏倚—方差分解 171
5.6.4 裝袋 173
5.6.5 提升 175
5.6.6 隨機森林 178
5.6.7 組合方法的實驗比較 179
5.7 不平衡類問題 180
5.7.1 可選度量 180
5.7.2 接受者操作特征曲線 182
5.7.3 代價敏感學習 184
5.7.4 基于抽樣的方法 186
5.8 多類問題 187
文獻注釋 189
參考文獻 190
習題 193
第6章 關聯(lián)分析:基本概念和算法 201
6.1 問題定義 202
6.2 頻繁項集的產(chǎn)生 204
6.2.1 先驗原理 205
6.2.2 Apriori算法的頻繁項集產(chǎn)生 206
6.2.3 候選的產(chǎn)生與剪枝 208
6.2.4 支持度計數(shù) 210
6.2.5 計算復雜度 213
6.3 規(guī)則產(chǎn)生 215
6.3.1 基于置信度的剪枝 215
6.3.2 Apriori算法中規(guī)則的產(chǎn)生 215
6.3.3 例:美國國會投票記錄 217
6.4 頻繁項集的緊湊表示 217
6.4.1 極大頻繁項集 217
6.4.2 閉頻繁項集 219
6.5 產(chǎn)生頻繁項集的其他方法 221
6.6 FP增長算法 223
6.6.1 FP樹表示法 224
6.6.2 FP增長算法的頻繁項集產(chǎn)生 225
6.7 關聯(lián)模式的評估 228
6.7.1 興趣度的客觀度量 228
6.7.2 多個二元變量的度量 235
6.7.3 辛普森悖論 236
6.8 傾斜支持度分布的影響 237
文獻注釋 240
參考文獻 244
習題 250
第7章 關聯(lián)分析:高級概念 259
7.1 處理分類屬性 259
7.2 處理連續(xù)屬性 261
7.2.1 基于離散化的方法 261
7.2.2 基于統(tǒng)計學的方法 263
7.2.3 非離散化方法 265
7.3 處理概念分層 266
7.4 序列模式 267
7.4.1 問題描述 267
7.4.2 序列模式發(fā)現(xiàn) 269
7.4.3 時限約束 271
7.4.4 可選計數(shù)方案 274
7.5 子圖模式 275
7.5.1 圖與子圖 276
7.5.2 頻繁子圖挖掘 277
7.5.3 類Apriori方法 278
7.5.4 候選產(chǎn)生 279
7.5.5 候選剪枝 282
7.5.6 支持度計數(shù) 285
7.6 非頻繁模式 285
7.6.1 負模式 285
7.6.2 負相關模式 286
7.6.3 非頻繁模式、負模式和負相關模式比較 287
7.6.4 挖掘有趣的非頻繁模式的技術 288
7.6.5 基于挖掘負模式的技術 288
7.6.6 基于支持度期望的技術 290
文獻注釋 292
參考文獻 293
習題 295
第8章 聚類分析:基本概念和算法 305
8.1 概述 306
8.1.1 什么是聚類分析 306
8.1.2 不同的聚類類型 307
8.1.3 不同的簇類型 308
8.2 K均值 310
8.2.1 基本K均值算法 310
8.2.2 K均值:附加的問題 315
8.2.3 二分K均值 316
8.2.4 K均值和不同的簇類型 317
8.2.5 優(yōu)點與缺點 318
8.2.6 K均值作為優(yōu)化問題 319
8.3 凝聚層次聚類 320
8.3.1 基本凝聚層次聚類算法 321
8.3.2 特殊技術 322
8.3.3 簇鄰近度的Lance-Williams公式 325
8.3.4 層次聚類的主要問題 326
8.3.5 優(yōu)點與缺點 327
8.4 DBSCAN 327
8.4.1 傳統(tǒng)的密度:基于中心的方法 327
8.4.2 DBSCAN算法 328
8.4.3 優(yōu)點與缺點 329
8.5 簇評估 330
8.5.1 概述 332
8.5.2 非監(jiān)督簇評估:使用凝聚度和分離度 332
8.5.3 非監(jiān)督簇評估:使用鄰近度矩陣 336
8.5.4 層次聚類的非監(jiān)督評估 338
8.5.5 確定正確的簇個數(shù) 339
8.5.6 聚類趨勢 339
8.5.7 簇有效性的監(jiān)督度量 340
8.5.8 評估簇有效性度量的顯著性 343
文獻注釋 344
參考文獻 345
習題 347
第9章 聚類分析:其他問題與算法 355
9.1 數(shù)據(jù)、簇和聚類算法的特性 355
9.1.1 例子:比較K均值和DBSCAN 355
9.1.2 數(shù)據(jù)特性 356
9.1.3 簇特性 357
9.1.4 聚類算法的一般特性 358
9.2 基于原型的聚類 359
9.2.1 模糊聚類 359
9.2.2 使用混合模型的聚類 362
9.2.3 自組織映射 369
9.3 基于密度的聚類 372
9.3.1 基于網(wǎng)格的聚類 372
9.3.2 子空間聚類 374
9.3.3 DENCLUE:基于密度聚類的一種基于核的方案 377
9.4 基于圖的聚類 379
9.4.1 稀疏化 379
9.4.2 最小生成樹聚類 380
9.4.3 OPOSSUM:使用METIS的稀疏相似度最優(yōu)劃分 381
9.4.4 Chameleon:使用動態(tài)建模的層次聚類 381
9.4.5 共享最近鄰相似度 385
9.4.6 Jarvis-Patrick聚類算法 387
9.4.7 SNN密度 388
9.4.8 基于SNN密度的聚類 389
9.5 可伸縮的聚類算法 390
9.5.1 可伸縮:一般問題和方法 391
9.5.2 BIRCH 392
9.5.3 CURE 393
9.6 使用哪種聚類算法 395
文獻注釋 397
參考文獻 398
習題 400
第10章 異常檢測 403
10.1 預備知識 404
10.1.1 異常的成因 404
10.1.2 異常檢測方法 404
10.1.3 類標號的使用 405
10.1.4 問題 405
10.2 統(tǒng)計方法 406
10.2.1 檢測一元正態(tài)分布中的離群點 407
10.2.2 多元正態(tài)分布的離群點 408
10.2.3 異常檢測的混合模型方法 410
10.2.4 優(yōu)點與缺點 411
10.3 基于鄰近度的離群點檢測 411
10.4 基于密度的離群點檢測 412
10.4.1 使用相對密度的離群點檢測 413
10.4.2 優(yōu)點與缺點 414
10.5 基于聚類的技術 414
10.5.1 評估對象屬于簇的程度 415
10.5.2 離群點對初始聚類的影響 416
10.5.3 使用簇的個數(shù) 416
10.5.4 優(yōu)點與缺點 416
文獻注釋 417
參考文獻 418
習題 420
附錄A 線性代數(shù) 423
附錄B 維歸約 433
附錄C 概率統(tǒng)計 445
附錄D 回歸 451
附錄E 優(yōu)化 457
數(shù)據(jù)挖掘中文版內(nèi)容截圖
- PC官方版
- 安卓官方手機版
- IOS官方手機版