-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

機器學習從入門到入職——用sklearn與keras搭建人工智能模型

( 簡體 字)
作者:張威類別:1. -> 程式設計 -> 機器學習
譯者:
出版社:電子工業出版社機器學習從入門到入職——用sklearn與keras搭建人工智能模型 3dWoo書號: 52442
詢問書籍請說出此書號!

缺書
NT售價: 495

出版日:1/1/2020
頁數:472
光碟數:0
站長推薦:
印刷:語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121381997
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

為什么要寫本書
人工智能是目前比較火熱的概念,存在諸多觀點。例如,有人認為人工智能系統的智能水平即將全面超越人類的水平,甚至在不久的將來,超級人工智能(“天網”“終結者”)將會出現,人類將會被消滅或者奴役;也有人認為人工智能只是一個炒作概念,因為人工智能的相關理論在20世紀六七十年代就引發過一波熱潮,但是在之后的若干年中,由于互聯網革命,人工智能的熱度逐漸消退,而如今熱潮再起,只不過是老調重彈。
上述觀點都有失偏頗,人工智能在某些特定領域具有良好的表現:AlphaGo在對陣柯潔時以巨大優勢獲勝;在特定醫療影像處理上,無論處理速度還是診斷的準確度,人工智能都完勝經驗豐富的醫師;人臉識別現在不僅可以對近期人臉進行判斷,還可以根據以往面貌特征推斷將來的面貌,并且在失蹤人口的搜索上已經出現了成功案例。從上述例子來看,人工智能似乎在不久的將來會統治人類,其實不然,針對上述應用場景的人工智能通常被稱為專用人工智能,是局限于某個特定任務(任務單一、需求明確、應用邊界清晰、領域知識豐富、建模相對簡單)進行的專門應用。總的來說,人工智能的應用現如今局限于專用性,遠遠沒有達到諸如“終結者”這種具有通用性任務能力的程度。
人工智能總體發展水平仍處于起步階段——通用人工智能領域的研究與應用仍然任重道遠,對超級人工智能(“天網”“終結者”)的擔憂大可不必,因為超級人工智能本質上是通用人工智能的高級形式,而通用人工智能尚處于起步階段。例如,人腦是一個通用的智能系統,能夠歸納與推理,具有諸多感官信息,可以處理視覺、聽覺、判斷、推理、學習、思考、規劃、設計等各類問題。當前的人工智能系統在信息感知、機器學習等“淺層智能”方面進步顯著,但是在概念抽象和推理決策等“深層智能”方面的能力還很薄弱。
人工智能的熱潮是否是另外一個炒作概念?為什么20世紀六七十年代出現的學科到現在又被炒作了一番?其實任何一項技術都要經歷以下幾個階段:一是理論的提出,理論的產生奠定整個學科的框架,由此衍生出3個學派,即符號主義、連接主義及行為主義;二是理論的實驗室應用或者小規模應用,主要解決理論落地的問題,這些應用通常與大規模商業應用有一步之遙,之所以沒有投入大規模商業應用主要是由于生態的限制;三是大規模的商業應用,該階段已經具備一定的技術及商業生態,如互聯網技術的誕生比計算機技術晚,但互聯網革命爆發于20世紀90年代中后期,這是因為最初計算機占地面積較大,且算力較低,而價格又使大部分家庭難以負擔,隨著計算機的普及,以及計算機系統使用的簡易化等諸多合力,互聯網革命開始興起。同樣的發展邏輯也出現在移動互聯網上,并且人工智能的發展也適用于該邏輯。
人工智能在20世紀的發展比較緩慢主要是因為相關的生態并沒有很完善地建立起來,而現在已經截然不同。
成為人工智能的參與者是一個不錯的想法。對大多數人來說,人工智能的印象源自科幻電影。像先知或者智囊團一樣的計算機,或者像忍者一樣靈活運動的機器人,充滿了神秘;同樣,掌握人工智能也并不是一件容易的事情,首先它是多門學科的綜合,既各有體系,又相互交融,而相關的理論也日新月異,初學者在這多如牛毛的資料中容易迷失,最終只能“從入門到放棄”。
本書主要從以下幾個方面使讀者向“從入門到入職”的目標逐步靠近。
? 從知識體系及算法原理上盡可能全面而翔實地進行介紹,使讀者能夠形成完整的知識架構,同時對相關算法的底層邏輯有清晰的了解。
? 對基于成熟的機器學習框架(Sklearn、Keras)的使用方法進行講解,避免讀者在學習過程中重復“造輪子”,使其在閱讀完本書之后可以擁有基本的模型開發能力。
? 從職業的角度,首先對工作中實際模型開發流程的4個步驟進行詳細介紹,并搭配相應的代碼講解,而不是局限于模型的實現;然后對目前人工智能崗位做出了詳細的分析,使讀者在求職過程中能夠精確地匹配自己的能力和有意愿擔任的職位,并且給出了具有參考意義的進階之路。
如何閱讀本書
本書包括13章,可分為4個部分:第1章至第3章主要介紹機器學習的概念、開發環境的搭建及模型開發的基本流程等;第4章至第7章涵蓋回歸、分類、聚類、降維的實現原理,以及機器學習框架Sklearn的具體實現與應用;第8章至第12章主要闡述深度學習,如卷積神經網絡、生成性對抗網絡、循環神經網絡的實現原理,以及深度學習框架Keras的具體實現與應用;第13章簡單介紹機器學習崗位的入職技巧。
第一部分
第1章:機器學習概述,主要介紹機器學習的概念、發展歷程及趨勢。
第2章:機器學習的準備工作,主要介紹機器學習的知識準備和環境準備步驟,以及機器學習模型開發的工作流程。
第3章:Sklearn概述,主要介紹Sklearn的環境搭建與安裝,以及Sklearn常用類及其結構。
第二部分
第4章:Sklearn之數據預處理,主要介紹常用的數據預處理方法,如缺失值處理、數據的規范化、非線性變換、自定義預處理及非結構性數據預處理等。
第5章:Sklearn之建立模型(上),主要介紹監督學習的概念及相關的監督學習模型,如線性回歸、廣義線性模型、穩健回歸、支持向量機、高斯過程、梯度下降、決策樹及分類等算法原理。
第6章:Sklearn之建立模型(下),主要介紹無監督學習的概念及相關的無監督學習模型,主要包括聚類和降維。聚類方法包括K-mean聚類、均值偏移聚類、DBSCAN聚類等;降維方法包括主成因分析、隱含狄利克雷分布、流形學習等。
第7章:Sklearn之模型優化,模型優化有很多種方法,有針對數據本身的優化,如一些采樣方法;有針對模型本身的優化,如超參數調整;還有一些集成學習方法,用于提高模型的健壯性及表現能力。
第三部分
第8章:Keras主要API及架構介紹,主要闡述Keras的環境搭建與安裝,以及Keras的架構、API與模型形式。
第9章:一個神經網絡的迭代優化,主要介紹神經網絡的組成、結構、學習機制,以及通用的調優方法。
第10章:卷積神經網絡,主要介紹卷積神經網絡的重要組件及其實現原理,并列舉常用的卷積神經網絡模型,如LeNet、AlexNet、VGGNet、殘差網絡等。
第11章:生成性對抗網絡,主要介紹生成性對抗網絡的原理、常見的生成性對抗網絡、自動編碼器模型及代碼實現。
第12章:循環神經網絡,主要介紹循環神經網絡的常見模型層及代碼實現。
第四部分
第13章:機器學習的入職準備,主要介紹機器學習崗位及求職者的分布、機器學習崗位的面試技巧,以及機器學習相關崗位的技能側重點。
勘誤和支持
鑒于筆者對機器學習部分理論的理解與認知存在局限性,并且由于機器學習的理論體系發展迅速,故無法做到完備且詳盡地將相關理論收錄到本書中。針對特定方向(如人工視覺、推薦系統、語義識別等)的相關知識將在后續系列叢書中詳細闡述。
對人工智能感興趣的讀者朋友,歡迎以電子郵件(bllizard@yeah.net)的方式與筆者取得聯系,期待能夠得到廣大讀者真摯的反饋,在技術的道路上互勉共進。
特別致謝
筆者花費大量時間總結了機器學習的相關理論框架及代碼實現,在本書的編寫過程中,首先要感謝我的父母,感謝你們在我寫書的過程中的支持和照顧。此外,還要感謝曾經的同事李毅、王志遠、謝瑞杰、朱琦焱、李云海、溫海、丁錦城、楊永邦、張擇儀等人的支持和理解。在此一起表示衷心的感謝。
內容簡介:

近年來機器學習是一個熱門的技術方向,但機器學習本身并不是一門新興學科,而是多門成熟學科(微積分、統計學與概率論、線性代數等)的集合。其知識體系結構龐大而復雜,為了使讀者朋友能夠把握機器學習的清晰的脈絡,本書盡可能從整體上對機器學習的知識架構進行整理,并以Sklearn和Keras等機器學習框架對涉及的相關理論概念進行代碼實現,使理論與實踐相結合。本書分為4個部分:第1章至第3章主要介紹機器學習的概念、開發環境的搭建及模型開發的基本流程等;第4章至第7章涵蓋回歸、分類、聚類、降維的實現原理,以及機器學習框架Sklearn的具體實現與應用;第8章至第12章主要闡述深度學習,如卷積神經網絡、生成性對抗網絡、循環神經網絡的實現原理,以及深度學習框架Keras的具體實現與應用;第13章簡單介紹機器學習崗位的入職技巧。本書可作為機器學習入門者、對機器學習感興趣的群體和相關崗位求職者的參考用書。


目錄:

第1章 機器學習概述 1
1.1 什么是機器學習 2
1.2 人工智能的發展趨勢 3
1.2.1 人工智能的發展程度 3
1.2.2 人工智能的應用 4
第2章 機器學習的準備工作 7
2.1 機器學習的知識準備 8
2.2 機器學習的環境準備 10
2.2.1 安裝編譯語言Python 10
2.2.2 安裝包 11
2.2.3 安裝適用于Python的集成開發環境 12
2.3 機器學習模型開發的工作流程 14
第3章 Sklearn概述 16
3.1 Sklearn的環境搭建與安裝 17
3.2 Sklearn常用類及其結構 18
3.2.1 數據源、數據預處理及數據提取 19
3.2.2 模型建立 20
3.2.3 模型驗證 21
3.2.4 模型調優 21
3.3 本章小結 22
第4章 Sklearn之數據預處理 23
4.1 數據預處理的種類 24
4.2 缺失值處理 24
4.3 數據的規范化 26
4.3.1 縮放規范化 26
4.3.2 標準化 29
4.3.3 范數規范化 31
4.4 非線性變換 34
4.4.1 二值化變換 34
4.4.2 分位數變換 34
4.4.3 冪變換 39
4.4.4 多項式變換 42
4.5 自定義預處理 44
4.6 非結構性數據預處理 45
4.7 文本數據處理 46
4.7.1 分詞技術 46
4.7.2 對已提取數據的處理 47
4.7.3 文本的特征提取 52
4.8 圖形的特征提取 57
第5章 Sklearn之建立模型(上) 59
5.1 監督學習概述 60
5.2 線性回歸 61
5.2.1 最小二乘法 62
5.2.2 線性回歸中的收斂方法 64
5.2.3 嶺回歸 65
5.2.4 LASSO回歸 69
5.2.5 彈性網絡回歸 79
5.2.6 匹配追蹤 80
5.2.7 多項式回歸 84
5.3 廣義線性模型 86
5.3.1 極大似然估計 87
5.3.2 最大后驗估計 88
5.3.3 貝葉斯估計 89
5.3.4 二項式回歸 91
5.3.5 邏輯回歸 93
5.3.6 貝葉斯回歸 94
5.4 穩健回歸 97
5.4.1 隨機樣本一致法 98
5.4.2 泰爾-森估計 102
5.5 支持向量機 103
5.5.1 硬間隔和軟間隔 104
5.5.2 核函數 106
5.6 高斯過程 110
5.7 梯度下降 115
5.8 決策樹 117
5.8.1 特征選擇 117
5.8.2 決策樹的剪枝 121
5.9 分類 122
5.9.1 多類別分類 122
5.9.2 多標簽分類 126
第6章 Sklearn之建立模型(下) 128
6.1 無監督學習概述 129
6.2 聚類 129
6.2.1 K-mean聚類 131
6.2.2 均值偏移聚類 136
6.2.3 親和傳播 139
6.2.4 譜聚類 143
6.2.5 層次聚類 151
6.2.6 DBSCAN聚類 155
6.2.7 BIRCH聚類 159
6.2.8 高斯混合模型 164
6.3 降維 168
6.3.1 主成因分析 169
6.3.2 獨立成因分析 175
6.3.3 隱含狄利克雷分布 179
6.3.4 流形學習 185
6.3.5 多維度縮放 186
6.3.6 ISOMAP 189
6.3.7 局部線性嵌入 191
6.3.8 譜嵌入 195
第7章 Sklearn之模型優化 198
7.1 模型優化 199
7.2 模型優化的具體方法 199
7.2.1 訓練樣本對模型的影響 200
7.2.2 訓練樣本問題的解決方案 201
7.2.3 第三方采樣庫imbalanced-learn 203
7.3 過采樣 205
7.3.1 隨機過采樣 205
7.3.2 合成少數類過采樣技術 207
7.3.3 自適應綜合過采樣方法 210
7.4 欠采樣 212
7.4.1 近丟失方法 212
7.4.2 編輯最鄰近方法 216
7.4.3 Tomek鏈接移除 218
7.4.4 混合采樣方法 219
7.5 調整類別權重 220
7.6 針對模型本身的調優 223
7.7 集成學習 228
7.7.1 投票分類器 229
7.7.2 套袋法 230
7.7.3 隨機森林 232
7.7.4 提升法 234
7.7.5 自適應性提升法 235
7.7.6 梯度提升法 237
7.7.7 套袋法和提升法的比較 239

第8章 Keras主要API及架構介紹 241
8.1 Keras概述 242
8.1.1 為什么選擇Keras 242
8.1.2 Keras的安裝 243
8.2 序列模型和函數式模型 243
8.2.1 兩種模型的代碼實現 244
8.2.2 模型的其他API 248
8.3 Keras的架構 250
8.4 網絡層概述 250
8.4.1 核心層 251
8.4.2 卷積層 252
8.4.3 池化層 253
8.4.4 局部連接層 255
8.4.5 循環層 257
8.4.6 嵌入層 259
8.4.7 融合層 259
8.4.8 高級激活層 261
8.4.9 規范化層 261
8.4.10 噪聲層 261
8.4.11 層級包裝器 262
8.5 配置項 265
8.5.1 損失函數 265
8.5.2 驗證指標 268
8.5.3 初始化函數 269
8.5.4 約束項 271
8.5.5 回調函數 272
第9章 一個神經網絡的迭代優化 279
9.1 神經網絡概述 281
9.2 神經網絡的初步實現 283


9.3 感知器層 284
9.3.1 梯度消失/爆炸問題 287
9.3.2 激活函數及其進化 288
9.3.3 激活函數的代碼實現 294
9.3.4 批量規范化 295
9.4 準備訓練模型 299
9.5 定義一個神經網絡模型 301
9.6 隱藏層對模型的影響 306
9.7 關于過擬合的情況 310
9.7.1 規則化方法 311
9.7.2 Dropout方法 313
9.8 優化器 314
9.8.1 批量梯度下降 316
9.8.2 靈活的學習率 318
9.8.3 適應性梯度法 319
9.8.4 適應性差值法 320
9.8.5 均方差傳播 322
9.8.6 Nesterov加速下降 324
9.8.7 Adam 325
9.8.8 優化器之間的對比 326
9.9 模型調優的其他途徑 329
9.10 本章小結 331
第10章 卷積神經網絡 333
10.1 卷積神經網絡概述 335
10.1.1 局部感受場 335
10.1.2 共享權重和偏差 338
10.1.3 卷積層 339
10.1.4 池化層 342
10.1.5 卷積神經網絡的代碼實現 344
10.1.6 卷積神經網絡的調優 348

10.2 常見的卷積神經網絡 352
10.2.1 LeNet 352
10.2.2 AlexNet 356
10.2.3 VGGNet 359
10.2.4 殘差網絡 366
10.2.5 Inception網絡模型 373
10.2.6 膠囊網絡 378
10.2.7 結語 388
第11章 生成性對抗網絡 389
11.1 生成性對抗網絡概述 391
11.1.1 生成性對抗網絡的原理 391
11.1.2 生成性對抗網絡的代碼實現 393
11.2 常見的生成性對抗網絡 399
11.2.1 深度卷積生成性對抗網絡 399
11.2.2 環境條件生成性對抗網絡 406
11.3 自動編碼器 411
11.3.1 自動編碼器的代碼實現 412
11.3.2 變分自動編碼器 414
第12章 循環神經網絡 420
12.1 詞嵌入 422
12.1.1 Word2Vec 423
12.1.2 GloVe 428
12.1.3 詞嵌入的代碼實現 429
12.2 循環神經網絡概述 430
12.2.1 簡單循環神經網絡單元 432
12.2.2 關于循環神經網絡的梯度下降 433
12.2.3 長短期記憶單元 435
12.2.4 門控遞歸單元 443
12.2.5 雙向循環神經網絡 444
第13章 機器學習的入職準備 448
13.1 人工智能崗位及求職者的分布 449
13.1.1 機器學習的生態 449
13.1.2 應用場景 450
13.2 機器學習崗位的發展路徑 454
13.2.1 機器學習崗位畫像 454
13.2.2 面試考察什么 456
序: