-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

深度學習與TensorFlow實踐

( 簡體 字)
作者:張玉宏類別:1. -> 程式設計 -> 深度學習
譯者:
出版社:電子工業出版社深度學習與TensorFlow實踐 3dWoo書號: 53866
詢問書籍請說出此書號!

缺書
NT售價: 395

出版日:1/1/2021
頁數:312
光碟數:0
站長推薦:
印刷:語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121401992
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

自序
當下,人工智能非常火爆,而深度學習矗立于人工智能的前沿。但是,在某種程度上,很多人對深度學習的態度可以用周敦頤的《愛蓮說》里的名句“可遠觀而不可褻玩焉”來形容。
的確,在深度學習算法的加持下,出現了很多炫酷的應用,讓我們應接不暇。大到名聲赫赫的AlphaGo,小到你手機里的美顏相機,都有深度學習的影子。
然而,“擁抱”深度學習,并成為這個社區的參與者,卻并不容易。目前,有無數關于深度學習的書籍占據著我們的書架,也有數不盡的博客充斥著我們的屏幕。但很多時候,我們對深度學習的態度依然是“敬而遠之”。這個“敬”可能是真實的(因為深度學習的確魅力十足),而這個“遠”通常是被迫的(因為找到一本通俗易懂的有關深度學習的讀物并非易事)。
于是,本書的特色就體現出來了。這是一本零基礎入門、通俗易懂、圖文并茂、理論結合實戰的深度學習書籍。巧妙的比喻、合理的推斷、趣味的故事,散落在書里,讓一本科技圖書也能妙趣橫生。
2018年,筆者出版了《深度學習之美》,該書面市后,受到了讀者好評。在此基礎上,本書做了很多升級和改善工作。例如,在內容上,更加簡練;在代碼上,升級為TensorFlow 2;在排版上,提升為可讀性更高的全彩留白排版。
當然,本書并非十全十美,但瑕不掩瑜,如果你想零基礎入門深度學習,那么相信這本書一定能夠給你提供很多幫助。
閱讀準備
要想運行本書中的示例代碼,需要提前安裝如下系統及軟件。
?操作系統:Windows、macOS、Linux均可。
?Python環境:建議使用Anaconda安裝,確保版本為Python 3.6及以上。
?sklearn:建議使用Anaconda安裝sklearn 0.22.1及以上版本。
?TensorFlow:建議使用Anaconda安裝TensorFlow 2.0及以上版本。
本書所有源代碼和配套資源均可在線下載,下載網址:https://www. hxedu.com.cn。
聯系作者
深度學習是一個前沿且廣袤的研究領域,很少有人能對其每個研究方向都有深刻的認知。限于圖書篇幅,很多深度學習的議題并未涉及。且筆者自認才疏學淺,書中難免會出現理解偏差和錯繆之處。若讀者朋友們在閱讀本書的過程中發現任何問題,希望能及時與筆者聯系,筆者將在第一時間修正并對此不勝感激。
郵件地址:zhangyuhong001@gmail.com。
致謝
本書能得以面市,得益于多方面的幫助和支持。在信息獲取上,筆者學習并吸納了很多精華知識,書中也盡可能地給出了文獻出處,如有疏漏,望來信告知。在這里,對這些高價值資料的提供者、生產者表示深深的敬意和感謝。同時,感謝自然科學基金(項目編號:61705061, 61975053, U1904120)的部分支持。
此外,很多人在這本書的出版過程中扮演了重要角色,例如電子工業出版社的孟宇編輯在選題策劃和文字編輯上,河南工業大學的陳偉楷、潘世澤、張開元和石巖松等在文稿校對上,都付出了辛勤的勞動,在此對他們一并表示感謝。

張玉宏
2020年8月于美國卡梅爾
內容簡介:

深度學習是人工智能的前沿技術。本書深入淺出地介紹了深度學習的相關理論和TensorFlow實踐,全書共8章。第1章給出了深度學習的基本概況。第2章詳細介紹了神經網絡相關知識,內容包括M-P神經元模型、感知機、多層神經網絡。第3章介紹了被廣泛認可的深度學習框架TensorFlow 2的安裝流程與新特性。第4章詳細介紹了TensorFlow 2的相關語法。第5章介紹了BP算法和常見的優化方法。第6章介紹了Keras模塊的使用。第7章和第8章詳細講解了卷積神經網絡和循環神經網絡,并給出了相關的實戰項目。 本書結構完整、行文流暢,是一本零基礎入門、通俗易懂、圖文并茂、理論結合實戰的深度學習書籍。對于計算機、人工智能及相關專業的本科生和研究生,這是一本適合入門與系統學習的教材;對于從事深度學習產品研發的工程技術人員,本書也有一定的參考價值。


目錄:

第1章 深度學習導論 1
1.1 從人工智能到深度學習 2
1.1.1 從感知機到深度學習 2
1.1.2 深度學習的巨大影響 6
1.2 從學習到機器學習 7
1.2.1 什么是學習 7
1.2.2 什么是機器學習 8
1.2.3 機器學習的4個象限 9
1.3 深度學習的內涵 10
1.3.1 什么是深度學習 10
1.3.2 生活中的深度學習 12
1.3.3 有沒有淺度學習 13
1.4 本章小結 14
1.5 思考與習題 14
參考資料 14
第2章 神經網絡學習 16
2.1 人工神經網絡的定義 17
2.2 神經網絡的原子單元——感知機 18
2.2.1 感知機的形式化描述 18
2.2.2 感知機名稱的由來 19
2.2.3 感性認識感知機 20
2.2.4 感知機是如何學習的 22
2.2.5 感知機訓練法則 24
2.2.6 感知機中的激活函數 26
2.2.7 感知機的幾何意義 26
2.2.8 實戰:基于Python的感知機實現 27
2.2.9 感知機的表征能力 31
2.3 多層前饋網絡 32
2.3.1 多層網絡解決“異或”問題 32
2.3.2 多層前饋神經網絡 34
2.3.3 機器學習本質與通用近似定理 35
2.3.4 神經網絡結構的設計 37
2.4 神經網絡中的損失函數 38
2.5 常用的激活函數 40
2.5.1 Sigmoid函數 40
2.5.2 Tanh函數 41
2.5.3 ReLU函數 42
2.6 實戰:利用sklearn搭建多層神經網絡 43
2.6.1 sklearn簡介 44
2.6.2 sklearn的安裝 44
2.6.3 sklearn搭建多層神經網絡實現紅酒分類 45
2.7 本章小結 57
2.8 思考與習題 58
參考資料 58
第3章 初識TensorFlow 60
3.1 TensorFlow概述 61
3.2 TensorFlow特征 62
3.3 深度學習框架比較 63
3.3.1 Theano 63
3.3.2 Keras 64
3.3.3 Caffe 65
3.3.4 PyTorch 66
3.4 利用Anaconda安裝TensorFlow 67
3.4.1 Anaconda的下載與安裝 67
3.4.2 驗證Python是否安裝成功 70
3.4.3 利用conda安裝TensorFlow 71
3.5 運行“Hello World!”版的TensorFlow程序 72
3.5.1 利用TensorFlow 2 編寫的第二個程序 74
3.5.2 TensorFlow 2 的新特性 75
3.6 本章小結 79
3.7 思考與提高 79
參考資料 79
第4章 TensorFlow 基礎語法 80
4.1 TensorFlow的張量思維 81
4.1.1 張量的階 81
4.1.2 張量的尺寸 83
4.2 TensorFlow中的數據類型 86
4.2.1 Python基本數據類型與TensorFlow的關系 86
4.2.2 數值類型 87
4.2.3 字符串類型 89
4.2.4 布爾類型 91
4.2.5 張量類型轉換 92
4.2.6 TensorFlow中的張量與NumPy數組 93
4.3 TensorFlow中的常量與變量 97
4.3.1 constant常量 97
4.3.2 Variable變量 98
4.4 常用張量生成方法 100
4.4.1 生成全0的張量 100
4.4.2 生成全1的張量 102
4.4.3 生成全為給定值的張量 103
4.4.4 生成已知分布的隨機數張量 103
4.4.5 創建特定張量序列 104
4.5 張量的索引和切片 105
4.5.1 索引 105
4.5.2 通過切片訪問 107
4.6 張量的維度伸縮與交換 111
4.6.1 張量中的軸方向 111
4.6.2 張量維度的增加與刪除 111
4.7 張量的合并、分割與復制 112
4.7.1 張量合并 113
4.7.2 張量分割 115
4.8 TensorFlow中的計算 118
4.8.1 按元素計算 118
4.8.2 張量的按軸計算 119
4.9 張量的廣播機制 122
4.9.1 廣播的定義 122
4.9.2 廣播的操作與適用規則 122
4.10 張量在神經網絡中的典型應用 124
4.10.1 標量 124
4.10.2 向量 126
4.10.3 矩陣 126
4.10.4 三維張量 129
4.10.5 四維張量 130
4.10.6 五維張量 130
4.11 本章小結 131
4.12 思考與練習 132
參考資料 132
第5章 BP算法與優化方法 133
5.1 為何需要優化函數 134
5.1.1 優化的意義 134
5.1.2 優化函數的流程 134
5.2 基于梯度的優化算法 136
5.2.1 什么是梯度 136
5.2.2 梯度的代碼實現 138
5.2.3 梯度遞減 142
5.2.4 批量梯度遞減法 145
5.2.5 隨機梯度遞減法 146
5.2.6 小批量梯度遞減法 148
5.2.7 實戰:基于梯度遞減的線性回歸算法 148
5.2.8 基于梯度遞減優化算法的挑戰 151
5.3 BP算法 152
5.3.1 BP算法的發展歷程 152
5.3.2 正向傳播信息 153
5.3.3 求導中的鏈式法則 156
5.3.4 誤差反向傳播 158
5.3.5 實戰:利用BP算法解決異或問題 160
5.4 TensorFlow中的其他優化算法 163
5.5 本章小結 166
5.6 思考與習題 166
參考資料 167
第6章 Keras模塊的使用 168
6.1 Keras與tf.keras模塊 169
6.2 數據的加載 170
6.2.1 TensorFlow的經典數據集 170
6.2.2 Dataset對象 171
6.3 Dataset的變換 173
6.3.1 隨機打散 173
6.3.2 設置批大小 174
6.3.3 數據映射 174
6.3.4 循環訓練 175
6.4 實戰:基于梯度遞減的手寫數字識別MNIST 176
6.4.1 MNIST數據集簡介 176
6.4.2 MNIST數據的獲取 178
6.4.3 手寫識別任務的分類模型 180
6.4.4 Softmax回歸模型 182
6.4.5 手寫數字識別MNIST中的Softmax回歸模型 184
6.4.6 TensorFlow中搭建模型的三種方式 185
6.4.7 常用的序貫模型 186
6.4.8 利用tf.keras進行模型搭建 188
6.4.9 利用梯度遞減算法構建模型 191
6.4.10 損失函數的交叉熵模型 193
6.4.11 tf.keras中的模型編譯 196
6.4.12 模型的訓練與預測 198
6.4.13 訓練模型的保存與讀取 201
6.5 本章小結 205
6.6 思考與練習 206
參考資料 206
第7章 卷積神經網絡 207
7.1 概述 208
7.1.1 前饋神經網絡的問題所在 208
7.1.2 卷積神經網絡的生物學啟示 209
7.1.3 卷積神經網絡的發展歷程 210
7.1.4 深度學習的“端到端”范式 212
7.2 卷積神經網絡的概念 213
7.2.1 卷積的數學定義 213
7.2.2 生活中的卷積 215
7.3 圖像處理中的卷積 215
7.3.1 計算機“視界”中的圖像 215
7.3.2 卷積運算 216
7.3.3 卷積在圖像處理中的應用 219
7.4 卷積神經網絡的結構 221
7.5 卷積層要義 222
7.5.1 卷積層的局部連接 222
7.5.2 卷積核深度 223
7.5.3 步幅 223
7.5.4 填充 224
7.5.5 權值共享 226
7.6 激活層 227
7.7 池化層 228
7.8 全連接層 230
7.9 防止過擬合的Dropout機制 231
7.10 經典的卷積神經網絡結構 232
7.10.1 LeNet-5 233
7.10.2 AlexNet 233
7.10.3 VGGNet 235
7.11 實戰:基于卷積神經網絡的手寫數字識別 236
7.11.1 數據讀取 237
7.11.2 搭建模型 238
7.11.3 模型訓練 240
7.11.4 可視化展現TensorBoard 242
7.11.5 模型預測 246
7.12 本章小結 248
7.13 思考與練習 248
參考資料 249
第8章 循環神經網絡與LSTM 250
8.1 標準神經網絡的缺點 251
8.2 循序神經網絡的發展歷程 252
8.2.1 Hopfield網絡 252
8.2.2 Jordan循環神經網絡 252
8.2.3 Elman循環神經網絡 253
8.2.4 RNN的應用領域 254
8.3 RNN的理論基礎 254
8.3.1 RNN的形式化定義 255
8.3.2 循環神經網絡的生物學機理 256
8.4 常見的RNN拓撲結構 257
8.4.1 one-to-one 257
8.4.2 one-to-many 258
8.4.3 many-to-one 258
8.4.4 many-to-many 258
8.5 RNN的訓練 259
8.5.1 單向RNN建模 259
8.5.2 雙向RNN建模 261
8.5.3 確定優化目標函數 262
8.5.4 參數求解與BPTT 262
8.6 LSTM的來歷 263
8.7 拆解LSTM 264
8.7.1 改造的神經元 264
8.7.2 遺忘門 266
8.7.3 輸入門 267
8.7.4 調節門 267
8.7.5 輸出門 268
8.7.6 LSTM的部件功能 269
8.7.7 GRU優化 270
8.8 LSTM的訓練流程 270
8.9 自然語言處理的假說 271
8.10 詞向量表示方法 273
8.10.1 獨熱編碼表示 273
8.10.2 分布式表示 275
8.10.3 詞嵌入表示 277
8.11 基于RNN的語言模型 279
8.12 實戰:基于RNN 的文本情感分類問題 281
8.12.1 數據讀取 281
8.12.2 感性認知數據 282
8.12.3 數據預處理 284
8.12.4 搭建簡易RNN 286
8.12.5 基于LSTM的優化 290
8.12.6 基于GRU的優化 291
8.13 本章小結 293
8.14 思考與練習 294
參考資料 294
序: