*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202407*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:集成學習實戰 ISBN:9787302660927 出版社:清華大學 著編譯者:高塔姆.庫納普利 頁數:314 所在地:中國大陸 *此為代購商品 書號:1655463 可大量預訂,請先連絡。 內容簡介 集成學習通過自動對比多個模型的輸出,將輸出結合起來,融合成強大的集成模型,得出最優結果。集成學習發揮「集體智慧」,結果更準確,克服了單一模型的局限性。這種創新方法能夠綜合多個視角的響應;即使在沒有大規模數據集的情況下,也能給出可靠的預測結果。 《集成學習實戰》呈現同時應用多種機器學習方法的實用技巧。每章都列舉一個獨特案例(如醫學診斷、情感分析等),展示一個功能完備的集成方法。本書不探討深奧的數學知識,所講內容淺顯易懂,代碼豐富,供你輕鬆進行實驗! 主要內容: Bagging法、提升法和梯度提升法; 分類、回歸和檢索方法; 集成方法的模型和決策可解釋性; 特徵工程和集成多樣性。作者簡介 郭濤,Turing Lab發起人,主要從事模式識別與人工智慧、智能機器人技術、軟體工程技術和地理人工智慧(GeoAI)、時空大數據挖掘與分析等前沿交叉領域研究。曾翻譯過《複雜性思考:複雜性科學和計算模型(第2版)》《神經網路設計與實現》等多本圖書。目錄 第Ⅰ部分 集成學習基礎知識第1章 集成方法:炒作還是福音 1 1 集成方法:集體智慧 1 2 關注集成學習原因 1 3 單個模型中的擬合度與複雜性 1 3 1 決策樹回歸 1 3 2 支持向量回歸 1 4 第一個集成模型 1 5 集成方法的術語和分類 1 6 小結 第Ⅱ部分 基本集成方法 第2章 同質并行集成:Bagging法和隨機森林 2 1 并行集成 2 2 Bagging法:Bootstrapl結合演算法 2 2 1 直覺:重採樣和模型結合 2 2 2 實現Bagging法 2 2 3 使用scikit-learn實現Bagging法 2 2 4 使用并行化進行更快的訓練 2 3 隨機森林 2 3 1 隨機決策樹 2 3 2 使用scikit-learn實現隨機森林 2 3 3 特徵重要十峰 2 4 更多同質并行集成 2 4 1 Pasting 2 4 2 隨機子空間和randompatch法 2 4 3 極度隨機樹 2 5 案例研究:乳腺癌診斷 2 5 1 載入和預處理 2 5 2 Bagging法、隨機森林和極度隨機樹 2 5 3 隨機森林中的特徵重要性 2 6 小結 第3章 異質并行集成:結合強學習器 3 1 異質集成的基礎估計器 3 1 1 擬合基礎估計器 3 1 2 基礎估計器的單個預測 3 2 通過加權結合預測 3 2 1 多數投票 3 2 2 準確率加權 3 2 3 熵加權法 3 2 4 Dempster-Shafer結合 3 3 通過元學習結合預測 3 3 1 Stacking 3 3 2 通過交叉驗證進行Stacking 3 4 案例研究:情感分析 3 4 1 預處理 3 4 2 降低維度 3 4 3 blending分類器 3 5 小結 第4章 順序集成:自適應提升 4 1 弱學習器的順序集成 4 2 AdaBoost:自適應提升 4 2 1 直覺法:使用加權樣本進行學習 4 2 2 實現AdaBoost 4 2 3 使用scikit-leaill的AdaBoost 4 3 AdaBoost在實踐中的應用 4 3 1 學習翠 4 3 2 早停和剪枝 4 4 案例研究:手寫數字分類 4 4 1 利用t-SNE降維 4 4 2 提升 4 5 LogitBoost:使用邏輯損失進行提升 4 5 1 邏輯損失函數與指數損失函數 4 5 2 將回歸作為分類的弱學習演算法 4 5 3 實現LogitBoost 4 6 小結 第5章 順序集成:梯度提升 5 1 用梯度下降實現最小化 5 1 1 舉例說明梯度下降 5 1 2 在損失函數上進行梯度下降訓練 5 2 梯度提升:梯度下降+提升 5 2 1 直覺:使用殘差學習 5 2 2 實現梯度提升 5 2 3 使用scikit-learn進行梯度提升 5 2 4 基於直方圖的梯度提升 5 3 LightGBM:梯度提升框架 5 3 1 為何將LightGBM稱為「輕量級」 5 3 2 利用LightGBM進行梯度提升 5 4 LightGBM在實踐中的應用 5 4 1 學習率 5 4 2 早停 5 4 3 自定義損失函數 5 5 案例研究:文檔檢索 5 5 1 LETOR數據集 5 5 2 使用LightGBM進行文檔檢索 5 6 小結 第6章 順序集成:牛頓提升 6 1 最小化牛頓法 6 1 1 舉例說明牛頓法 6 1 2 訓練過程中的損失函數的牛頓下降 6 2 牛頓提升:牛頓法+Boosting 6 2 1 直覺:使用加權殘差進行學習 6 2 2 直覺:使用正則化損失函數進行學習 6 2 3 實現牛頓提升 6 3 XGBoost:牛頓提升框架 6 3 1 XGBoost的「極端」之處在哪裡 6 3 2 XGBoost的牛頓提升 6 4 XGBoost實踐 6 4 1 學習率 6 4 2 早停 6 5 案例研究:文檔檢索 6 5 1 LETOR數據集 6 5 2 使用XGBoost進行文檔檢索 6 6 小結 第Ⅲ部分 集成之外:將集成方法應用於你的數據 第7章 學習連續和計數標籤 7 1 回歸的簡要回顧 7 1 1 連續標籤的線性回歸 7 1 2 用於計數標籤的泊松回歸 7 1 3 用於分類標籤的邏輯回歸 7 1 4 廣義線性模型 7 1 5 非線性回歸 7 2 回歸的并行集成 7 2 1 隨機森林和極度隨機樹 7 2 2 結合回歸模型 7 2 3 Stacking回歸模型 7 3 用於回歸的順序集成 7 3 1 用於回歸的損失和似然函數 7 3 2 LightGBM和XGBoost的梯度提升 7 4 案例研究:需求預測 7 4 1 UcI自行車共享數據集 7 4 2 GLM和Stacking 7 4 3 隨機森林和極度隨機樹 7 4 4 XGBoost和LightGBM 7 5 小結 第8章 學習分類特徵 8 1 編碼分類特徵 8 1 1 分類特徵的類型 8 1 2 有序編碼和獨熱編碼 8 1 3 使用目標統計信息進行編碼 8 1 4 類別編碼器包 8 2 CatBoost:有序提升框架 8 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |