集成學習實戰 高塔姆.庫納普利 9787302660927 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
NT$814
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202407*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:集成學習實戰
ISBN:9787302660927
出版社:清華大學
著編譯者:高塔姆.庫納普利
頁數:314
所在地:中國大陸 *此為代購商品
書號:1655463
可大量預訂,請先連絡。

內容簡介

集成學習通過自動對比多個模型的輸出,將輸出結合起來,融合成強大的集成模型,得出最優結果。集成學習發揮「集體智慧」,結果更準確,克服了單一模型的局限性。這種創新方法能夠綜合多個視角的響應;即使在沒有大規模數據集的情況下,也能給出可靠的預測結果。 《集成學習實戰》呈現同時應用多種機器學習方法的實用技巧。每章都列舉一個獨特案例(如醫學診斷、情感分析等),展示一個功能完備的集成方法。本書不探討深奧的數學知識,所講內容淺顯易懂,代碼豐富,供你輕鬆進行實驗! 主要內容: Bagging法、提升法和梯度提升法; 分類、回歸和檢索方法; 集成方法的模型和決策可解釋性; 特徵工程和集成多樣性。

作者簡介

郭濤,Turing Lab發起人,主要從事模式識別與人工智慧、智能機器人技術、軟體工程技術和地理人工智慧(GeoAI)、時空大數據挖掘與分析等前沿交叉領域研究。曾翻譯過《複雜性思考:複雜性科學和計算模型(第2版)》《神經網路設計與實現》等多本圖書。

目錄

第Ⅰ部分 集成學習基礎知識
第1章 集成方法:炒作還是福音
1 1 集成方法:集體智慧
1 2 關注集成學習原因
1 3 單個模型中的擬合度與複雜性
1 3 1 決策樹回歸
1 3 2 支持向量回歸
1 4 第一個集成模型
1 5 集成方法的術語和分類
1 6 小結
第Ⅱ部分 基本集成方法
第2章 同質并行集成:Bagging法和隨機森林
2 1 并行集成
2 2 Bagging法:Bootstrapl結合演算法
2 2 1 直覺:重採樣和模型結合
2 2 2 實現Bagging法
2 2 3 使用scikit-learn實現Bagging法
2 2 4 使用并行化進行更快的訓練
2 3 隨機森林
2 3 1 隨機決策樹
2 3 2 使用scikit-learn實現隨機森林
2 3 3 特徵重要十峰
2 4 更多同質并行集成
2 4 1 Pasting
2 4 2 隨機子空間和randompatch法
2 4 3 極度隨機樹
2 5 案例研究:乳腺癌診斷
2 5 1 載入和預處理
2 5 2 Bagging法、隨機森林和極度隨機樹
2 5 3 隨機森林中的特徵重要性
2 6 小結
第3章 異質并行集成:結合強學習器
3 1 異質集成的基礎估計器
3 1 1 擬合基礎估計器
3 1 2 基礎估計器的單個預測
3 2 通過加權結合預測
3 2 1 多數投票
3 2 2 準確率加權
3 2 3 熵加權法
3 2 4 Dempster-Shafer結合
3 3 通過元學習結合預測
3 3 1 Stacking
3 3 2 通過交叉驗證進行Stacking
3 4 案例研究:情感分析
3 4 1 預處理
3 4 2 降低維度
3 4 3 blending分類器
3 5 小結
第4章 順序集成:自適應提升
4 1 弱學習器的順序集成
4 2 AdaBoost:自適應提升
4 2 1 直覺法:使用加權樣本進行學習
4 2 2 實現AdaBoost
4 2 3 使用scikit-leaill的AdaBoost
4 3 AdaBoost在實踐中的應用
4 3 1 學習翠
4 3 2 早停和剪枝
4 4 案例研究:手寫數字分類
4 4 1 利用t-SNE降維
4 4 2 提升
4 5 LogitBoost:使用邏輯損失進行提升
4 5 1 邏輯損失函數與指數損失函數
4 5 2 將回歸作為分類的弱學習演算法
4 5 3 實現LogitBoost
4 6 小結
第5章 順序集成:梯度提升
5 1 用梯度下降實現最小化
5 1 1 舉例說明梯度下降
5 1 2 在損失函數上進行梯度下降訓練
5 2 梯度提升:梯度下降+提升
5 2 1 直覺:使用殘差學習
5 2 2 實現梯度提升
5 2 3 使用scikit-learn進行梯度提升
5 2 4 基於直方圖的梯度提升
5 3 LightGBM:梯度提升框架
5 3 1 為何將LightGBM稱為「輕量級」
5 3 2 利用LightGBM進行梯度提升
5 4 LightGBM在實踐中的應用
5 4 1 學習率
5 4 2 早停
5 4 3 自定義損失函數
5 5 案例研究:文檔檢索
5 5 1 LETOR數據集
5 5 2 使用LightGBM進行文檔檢索
5 6 小結
第6章 順序集成:牛頓提升
6 1 最小化牛頓法
6 1 1 舉例說明牛頓法
6 1 2 訓練過程中的損失函數的牛頓下降
6 2 牛頓提升:牛頓法+Boosting
6 2 1 直覺:使用加權殘差進行學習
6 2 2 直覺:使用正則化損失函數進行學習
6 2 3 實現牛頓提升
6 3 XGBoost:牛頓提升框架
6 3 1 XGBoost的「極端」之處在哪裡
6 3 2 XGBoost的牛頓提升
6 4 XGBoost實踐
6 4 1 學習率
6 4 2 早停
6 5 案例研究:文檔檢索
6 5 1 LETOR數據集
6 5 2 使用XGBoost進行文檔檢索
6 6 小結
第Ⅲ部分 集成之外:將集成方法應用於你的數據
第7章 學習連續和計數標籤
7 1 回歸的簡要回顧
7 1 1 連續標籤的線性回歸
7 1 2 用於計數標籤的泊松回歸
7 1 3 用於分類標籤的邏輯回歸
7 1 4 廣義線性模型
7 1 5 非線性回歸
7 2 回歸的并行集成
7 2 1 隨機森林和極度隨機樹
7 2 2 結合回歸模型
7 2 3 Stacking回歸模型
7 3 用於回歸的順序集成
7 3 1 用於回歸的損失和似然函數
7 3 2 LightGBM和XGBoost的梯度提升
7 4 案例研究:需求預測
7 4 1 UcI自行車共享數據集
7 4 2 GLM和Stacking
7 4 3 隨機森林和極度隨機樹
7 4 4 XGBoost和LightGBM
7 5 小結
第8章 學習分類特徵
8 1 編碼分類特徵
8 1 1 分類特徵的類型
8 1 2 有序編碼和獨熱編碼
8 1 3 使用目標統計信息進行編碼
8 1 4 類別編碼器包
8 2 CatBoost:有序提升框架
8
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。
規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理