|
-- 會員 / 註冊 --
|
|
|
|
Hadoop+Spark大數據巨量分析與機器學習整合開發實戰 ( 繁體 字) |
作者:林大貴 | 類別:1. -> 程式設計 -> Spark |
譯者: |
出版社:博碩文化 | 3dWoo書號: 42907 詢問書籍請說出此書號!【缺書】 【不接受訂購】 |
出版日:11/1/2015 |
頁數:528 |
光碟數:0 |
|
站長推薦: |
印刷:黑白印刷 | 語系: ( 繁體 版 ) |
|
【不接受訂購】 | ISBN:9789864340545 |
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 序 |
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證) |
作者序: |
譯者序: |
前言: |
內容簡介:◆技術為金融財務、行銷分析、商業趨勢預測帶來全新的變革◆詳實的安裝設定與程式編寫說明降低學習入門門檻◆可單機執行或以實機/虛擬機器建立多臺演算陣列◆具備大量實務案例分析與程式碼範例實作大數據分析與機器學習人工智慧帶來資訊科技革命的第五波新浪潮 創新產業 大量商機 人才需求一般人可能會認為大數據需要很多臺機器的環境才能學習,但是本書透過虛擬機器的方法,就能在自家電腦演練建立Hadoop叢集,並且建立Spark開發環境。以實機操作介紹Hadoop MapReduce與HDFS基本概念,以及Spark RDD與MapReduce基本觀念。以大數據分析實務案例:MoiveLens(電影喜好推薦引擎)、StumbleUpon(網頁二元分類)、CovType(林相土地演算)、Bike Sharing(Ubike類租賃預測分析)。配合範例程式碼來介紹各種機器學習演算法,示範如何擷取資料、訓練資料、建立模型、預測結果,由淺而深介紹Spark機器學習。 大數據對每個領域都造成影響。在商業、經濟及其他領域中,將大量資料進行分析後,就可得出許多資料關聯性。可用於預測商業趨勢、行銷研究、金融財務、疾病研究、打擊犯罪等。大數據對每一個公司的決策方式將發生變革-決策方式將基於資料和分析的結果,而不是依靠經驗和直覺。 資訊科技浪潮第一波是大型電腦,第二波是個人電腦,第三波是網路,第四波是社群媒體,第五波科技則是「大數據」。每一波的的資訊科技浪潮,總是帶來工作與生活方式的改變,創造大量商機、新的產業、大量的工作機會。像是在網路時代,創造了Google、Amazon 等大公司,以及無數.com 公司。 每一波浪潮開始時,需求的相關人才最多,但是此時也是相關人才供應最少。因此對個人而言,如果能在浪潮興起時就投入,往往成果最豐碩,並且有機會占有重要職位。像是網路剛興起時,每個公司都需要建立網站,但是相對這方面的人才不夠。那時候能撰寫網頁相關程式語言的工程師就能夠獲得高薪。但是後來投入的人越來越多,這方面的工程師就沒有那麼吃香了。 之前的科技浪潮,也許你沒有機會躬逢其盛,或是沒有機會在浪潮初期進入。但是大數據的浪潮方興未艾,正是進入的好時機。根據IBM 調查預估,大數據目前的商機是71 億美元,並將以每年增長20%速度持續成長,預計2015 年達到180 億美元。機會是給有準備的人,學會了大數據分析的相關技能,讓你有機會獲得更好的薪資與發展前景。根據美國調查機構Robert Half Technology 2016 年趨勢報告,在美國大數據工程師,薪水年成長8.9%,年薪大約13 萬至18 萬美金(約新臺幣429 萬元~594 萬元)。因為人才短缺,企業不惜重金挖角。(你可以在google 搜尋Robert Half Technology 2016 就可以下載此調查報告) 本書的主題是Haddop+Spark大數據分析與機器學習。Hadoop 大家已經知道是運用最多的大數據平臺,然而Spark 異軍突起,與Hadoop 相容而且執行速度更快,各大公司也開始加入Spark 開發。例如IBM 加入Apache Spark 社群打算培育百萬名資料科學家。Google 與微軟也分別應用了Spark 的功能來建置服務、發展大數據分析雲端與機器學習平臺。這些大公司的加入,也意味著未來更多公司會採用Hadoop+Spark 進行大數據資料分析。 然而目前市面上雖然很多大數據的書,但是多半偏向理論或應用層面的介紹,網路上的資訊雖然很多,但是也很雜亂。本書介紹希望能夠用淺顯易懂原理說明,再加上實機操作、範例程式,能夠降低大數據技術的學習門檻,帶領讀者進入大數據與機器學習的領域。當然整個大數據的生態系非常龐大,需要學習的東西太多。希望讀者能透過本書有了基本概念後,比較容易踏入這門領域,能繼續深入研究其他大數據的相關技術。 |
目錄:Chapter01 大數據與機器學習 1-1 大數據定義 1-2 Hadoop 簡介 1-3 Hadoop HDFS 分散式檔案系統 1-4 Hadoop MapReduce 介紹 1-5 Spark 介紹 1-6 機器學習介紹
Chapter02 Virtual Box 虛擬機器軟體安裝 2-1 VirtualBox 下載安裝 2-2 設定Virtual Box 儲存資料夾 2-3 在VirtualBox 建立虛擬機器
Chapter03 Ubuntu Linux 作業系統安裝 3-1 下載Ubuntu 安裝光碟檔案 3-2 在Virtual Box 設定Ubuntu 虛擬光碟檔案 3-3 開始安裝Ubuntu 3-4 啟動Ubuntu 3-5 安裝Guest Additions 3-6 設定預設輸入法 3-7 設定終端機程式 3-8 設定終端機白底黑字 3-9 設定共用剪貼簿
Chapter04 Hadoop Single Node Cluster 安裝 4-1 安裝JDK 4-2 設定SSH 無密碼登入 4-3 下載安裝Hadoop 4-4 設定Hadoop 環境變數 4-5 修改Hadoop 組態設定檔 4-6 建立與格式化HDFS 目錄 4-7 啟動Hadoop 4-8 開啟Hadoop Resource Manager Web 介面 4-9 NameNode HDFS Web 介面
Chapter05 Hadoop Multi Node Cluster 安裝 5-1 複製Single Node Cluster 到data1 5-2 設定data1 伺服器 5-3 複製data1 伺服器至data2、data3、master 5-4 設定data2、data3 伺服器 5-5 設定master 伺服器 5-6 master 連線至data1、data2、data3 建立HDFS 目錄 5-7 建立與格式化NameNode HDFS 目錄 5-8 啟動Hadoop Multi Node Cluster 5-9 開啟Hadoop ResourceManager Web 介面 5-10 開啟NameNode HDFS Web 介面
Chapter06 Hadoop HDFS 命令介紹 6-1 啟動Hadoop Multi-Node Cluster 6-2 建立與查看HDFS 目錄 6-3 從本機複製檔案到HDFS 6-4 將HDFS 上的檔案複製到本機 6-5 複製與刪除HDFS 檔案 6-6 Hadoop HDFS Web UI 介面瀏覽HDFS
Chapter07 Hadoop MapReduce 介紹 7-1 wordCount.java 介紹 7-2 編輯wordCount.java 7-3 編譯wordCount.java 7-4 下載測試文字檔 7-5 上傳文字檔至HDFS 7-6 執行wordCount.java 7-7 查看執行結果 7-8 Hadoop MapReduce 的缺點
Chapter08 Spark 安裝介紹 8-1 SPARK 的cluster 模式架構圖 8-2 Scala 介紹與安裝 8-3 安裝SPARK 8-4 啟動spark-shell 互動介面 8-5 設定spark-shell 顯示訊息 8-6 啟動Hadoop 8-7 本機執行Spark-shell 程式 8-8 在Hadoop YARN 執行spark-shell 8-9 建置Spark standalone cluster 執行環境 8-10 在Spark standalone 執行spark-shell
Chapter09 Spark RDD 介紹 9-1 RDD 的特性 9-2 基本RDD「轉換」運算 9-3 多個RDD「轉換」運算 9-4 基本「動作」運算 9-5 RDD Key-Value 基本「轉換」運算 9-6 多個RDD Key-Value「轉換」運算 9-7 Key-Value「動作」運算 9-8 Broadcast 廣播變數 9-9 accumulator 累加器 9-10 RDD Persistence 持久化 9-11 使用Spark 建立WordCount 9-12 Spark WordCount 詳細解說
Chapter10 Spark 整合開發環境介紹 10-1 下載與安裝Scala IDE 10-2 下載專案所需要的Library 10-3 啟動eclipse 10-4 建立新Spark 專案 10-5 設定專案程式庫 10-6 新增scala 程式 10-7 下載WordCount 測試資料 10-8 建立WordCount.scala 10-9 編譯WordCount.scala 程式 10-10 執行WordCount.scala 程式 10-11 匯出jar 檔 10-12 spark-submit 詳細介紹 10-13 在本機local 模式執行WordCount 程式 10-14 在hadoop yarn-client 執行WordCount 程式 10-15 WordCount 程式在Spark Standalone Cluster 執行 10-16 本書範例程式安裝說明
Chapter11 建立推薦引擎 11-1 推薦演算法介紹 11-2 「推薦引擎」大數據分析使用情境 11-3 ALS 推薦演算法介紹 11-4 ml-100k 推薦資料下載與介紹 11-5 使用spark-shell 匯入ml-100k 資料 11-6 查看匯入的資料 11-7 使用ALS.train 進行訓練 11-8 使用模型進行推薦 11-9 顯示推薦的電影的名稱 11-10 建立Recommend 專案 11-11 Recommend.scala 程式碼 11-12 建立PrepareData() 資料準備 11-13 recommend() 推薦程式碼 11-14 執行Recommend.scala 11-15 建立AlsEv alution.scala 調校訓練參數 11-16 建立PrepareData() 資料準備 11-17 進行訓練評估 11-18 執行AlsEv aluation 11-19 修改Recommend.scala 為最佳參數組合
Chapter12 StumbleUpon 資料集介紹 12-1 StumbleUpon 資料集 12-2 下載StumbleUpon 資料 12-3 以LibreOffice Calc 試算表查看train.tsv 12-4 二元分類演算法
Chapter13 決策樹二元分類 13-1 決策樹介紹 13-2 建立Classi fication 專案 13-3 建立RunDecisionTreeBinary.scala 程式 13-4 資料準備階段 13-5 訓練評估階段 13-6 預測階段 13-7 執行RunDecisionTreeBinary.scala 13-8 修改RunDecisionTreeBinary 調校訓練參數 13-9 RunDecisionTreeBinary 執行參數調校程式 13-10 RunDecisionTreeBinary 不執行參數調校程式
Chapter14 邏輯迴歸二元分類 14-1 邏輯迴歸分析介紹 14-2 RunLogisticRegressionWithSGDBinary.scala 程式說明 14-3 執行RunDecisionTreeRegression.scala 進行參數調校 14-4 執行RunDecisionTreeRegression.scala 不進行參數調校
Chapter15 支援向量機器SVM 二元分類 15-1 支援向量機器SVM 演算法基本概念 15-2 RunSVMWithSGDBinary.scala 程式說明 15-3 執行SVMWithSGD.scala 進行參數調校 15-4 執行SVMWithSGD.scala 不進行參數調校
Chapter16 單純貝氏二元分類 16-1 單純貝氏分析原理介紹 16-2 RunNaiveBayesBinary.scala 程式說明 16-3 執行NaiveBayes.scala 進行參數調校 16-4 執行NaiveBayes.scala 不進行參數調校
Chapter17 決策樹多元分類 17-1 「森林覆蓋樹種」大數據問題分析情境 17-2 UCI Covertype 資料集介紹 17-3 下載與查看資料 17-4 建立RunDecisionTreeMulti.scala 17-5 修改RunDecisionTreeMulti.scala 程式 17-6 執行RunDecisionTreeMulti.scala 進行參數調校 17-7 執行RunDecisionTreeMulti.scala 不進行參數調校
Chapter18 決策樹迴歸分析 18-1 Bike Sharing 大數據問題分析 18-2 Bike Sharing 資料集 18-3 下載與查看資料 18-4 建立RunDecisionTreeRegression.scala 18-5 修改RunDecisionTreeRegression.scala 18-6 執行RunDecisionTreeRegression.scala 執行參數調校 18-7 執行RunDecisionTreeRegression.scala 不執行參數調校
Chapter19 使用Apache Zeppelin 資料視覺化 19-1 Apache Zeppelin 介紹 19-2 安裝Zeppelin 前的準備 19-3 Apache Zeppelin 安裝 19-4 啟動Apache Zeppelin 19-5 建立新的Notebook 19-6 使用Zeppelin 執行Shell 命令 19-7 建立暫存資料表「UserTable」 19-8 使用Zeppelin 執行年齡統計Spark SQL 19-9 使用Zeppelin 執行性別統計Spark SQL 19-10 依照職業統計 19-11 Spark SQL 加入文字方塊輸入參數 19-12 加入選項參數 19-13 Zeppelin 在firefox 瀏覽器使用的問題 19-14 同時顯示多個統計欄位 19-15 工具列設定 19-16 設定段落標題 19-17 設定Paragraph 段落寬度 19-18 設定顯示模式 |
序: |
|