*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202406*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:機器學習-工程師和科學家的第一本書 ISBN:9787111753698 出版社:機械工業 著編譯者:安德里亞斯.林霍爾姆 頁數:265 所在地:中國大陸 *此為代購商品 書號:1651816 可大量預訂,請先連絡。 內容簡介 在連貫的統計框架中,本書涵蓋了一系列有監督的機器學習方法,包括基礎方法(k-NN、決策樹、線性和邏輯回歸等)和高級方法(深度神經網路、支持向量機、高斯過程、隨機森林和提升等),以及常用的無監督方法(生成模型、k-均值聚類、自動編碼器、主成分分析和生成對抗網路等)。所有方法都包含詳細的解釋和偽代碼。通過在方法之間建立聯繫,討論一般概念(例如損失函數、zuida似然、偏差-方差分解、核和貝葉斯方法),同時介紹常規的實用工具(例如正則化、交叉驗證、評估指標和優化方法),本書始終將關注點放在基礎知識上。最後兩章為解決現實世界中有監督的機器學習問題和現代機器學習的倫理問題提供了實用建議。作者簡介 托馬斯·B 舍恩(Thomas B Sch?n) 烏普薩拉大學人工智慧方向教授。2018年當選瑞典皇家工程科學院和烏普薩拉皇家科學學會院士。他曾獲得瑞典皇家科學院頒發的Tage Erlander獎和Arnberg獎。他是ELLIS協會會士。目錄 譯者序致謝 符號表 第1章 引言 1 1 機器學習的示例 1 2 關於本書 1 3 拓展閱讀 第2章 有監督學習:第一個方法 2 1 有監督機器學習 2 1 1 從有標記的數據中學習 2 1 2 數值型和分類型變數 2 1 3 分類和回歸 2 1 4 在訓練數據之外進行泛化 2 2 一個基於距離的方法:k-NN 2 2 1 k-NN演算法 2 2 2 分類器的決策邊界 2 2 3 k的選擇 2 2 4 輸入標準化 2 3 一種基於規則的方法:決策樹 2 3 1 學習回歸樹 2 3 2 分類樹 2 3 3 決策樹應該多深? 2 4 拓展閱讀 第3章 基本參數模型和統計 視角上的學習 3 1 線性回歸 3 1 1 線性回歸模型 3 1 2 用訓練數據訓練線性回歸模型 3 1 3 損失函數和代價函數 3 1 4 最小二乘法和正規方程 3 1 5 最大似然視角 3 1 6 分類型輸入變數 3 2 分類和邏輯回歸 3 2 1 從統計角度看分類問題 3 2 2 二元分類的邏輯回歸模型 3 2 3 通過最大似然法訓練邏輯回歸模型 3 2 4 預測和決策邊界 3 2 5 兩類以上的邏輯回歸 3 3 多項式回歸和正則化 3 4 廣義線性模型 3 5 拓展閱讀 3 A 正規方程的推導 3 A 1 微積分方法 3 A 2 線性代數方法 第4章 理解、評估和提高性能 4 1 預期的新數據錯誤:實際生產環境中的性能 4 2 估計 4 2 1 我們無法從訓練數據中估計 4 2 2 我們可以從保留的驗證數據中估計 4 2 3 k-fold 交叉驗證無須設置保留驗證數據 4 2 4 使用測試數據集 4 3 的訓練誤差:泛化差距分解 4 3 1 什麼影響泛化差距? 4 3 2 在實際應用中降低 4 3 3 模型複雜度的缺陷 4 4 的偏差-方差分解 4 4 1 什麼影響偏差和方差? 4 4 2 偏差、方差和泛化差距之間的聯繫 4 5 用於評估二元分類器的其他工具 4 5 1 混淆矩陣和ROC曲線 4 5 2 分數和精確率-召回率曲線 4 6 拓展閱讀 第5章 學習參數模型 5 1 參數化建模原則 5 1 1 非線性參數函數 5 1 2 損失最小化作為泛化替代 5 2 損失函數和基於似然的模型 5 2 1 回歸中的損失函數 5 2 2 二元分類中的損失函數 5 2 3 多類分類 5 2 4 基於似然的模型和最大似然方法 5 2 5 嚴格正確的損失函數和漸近最小化器 5 3 正則化 5 3 1 正則化 5 3 2 正則化 5 3 3 一般顯式正則化 5 3 4 隱式正則化 5 4 參數優化 5 4 1 閉式解優化 5 4 2 梯度下降 5 4 3 二階梯度法 5 5 大型數據集優化 5 5 1 隨機梯度下降 5 5 2 隨機梯度下降的學習率和收斂度 5 5 3 隨機二階梯度法 5 5 4 自適應方法 5 6 超參數優化 5 7 拓展閱讀 第6章 神經網路和深度學習 6 1 神經網路模型 6 1 1 廣義線性回歸 6 1 2 雙層神經網路 6 1 3 單元向量化 6 1 4 深度神經網路 6 1 5 數據點向量化 6 1 6 用於分類的神經網路 6 2 訓練神經網路 6 2 1 反向傳播 6 2 2 初始化 6 3 卷積神經網路 6 3 1 圖像的數據表示 6 3 2 卷積層 6 3 3 稀疏相互作用 6 3 4 參數共享 6 3 5 卷積層和步幅 6 3 6 池化層 6 3 7 多通道 6 3 8 完整的CNN架構 6 4 dropout 6 4 1 子網路集成 6 4 2 通過dropout訓練 6 4 3 測試時的預測 6 4 4 dropout和bagging 6 4 5 將dropout作為正則化方法 6 5 拓展閱讀 6 A 反向傳播方程的推導 第7章 集成方法:bagging和提升方法 第8章 非線性輸入變換和核 第9章 貝葉斯方法和高斯過程 第10章 生成模型和無標記學習 第11章 機器學習的用戶視角 第12章 機器學習中的倫理學 參考文獻 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |