*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202309*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:機器學習中的統計思維 (Python實現) ISBN:9787302634010 出版社:清華大學 著編譯者:董平 頁數:411 所在地:中國大陸 *此為代購商品 書號:1582807 可大量預訂,請先連絡。 內容簡介 機器學習是人工智慧的核心,而統計思維則是機器學習方法的核心:從隨機性中尋找規律性。例如,利用方差對不確定性的捕捉構造k維樹,採用貝葉斯公式構建分類決策模型,等等。只有樹立正確的統計思維,才能準確高效地運用機器學習方法開展數據處理與分析。本書以統計思維的視角,揭示監督學習中回歸和分類模型的核心思想,幫助讀者構建理論體系。具體模型包括線性回歸模型、K近鄰模型、貝葉斯推斷、邏輯回歸模型、決策樹模型、感知機模型、支持向量機、EM演算法和提升方法。 本書共12章,緒論介紹貫穿本書的兩大思維模式,以及關於全書的閱讀指南;第1章介紹一些基本術語,並給出監督學習的流程;第2章介紹關於回歸問題的機器學習方法;第3∼9章介紹關於分類問題的機器學習方法;第10章介紹可應用於具有隱變數模型的參數學習演算法——EM演算法;第11章簡單介紹集成學習,並重點闡述其中的提升(Boosting)方法。為滿足個性化學習需求的不同需求,本書從核心思想、方法流程及實際案例應用等不同角度,詳細描述各種方法的原理和實用價值,非常適合數據科學、機器學習專業的本科生和研究生學習,也可供相關從業者參考。作者簡介 董平(博士),上海對外經貿大學統計與信息學院講師。曾獲概率論與數理統計理學博士學位(山東大學2018)、理學學士學位和經濟學學士學位(山東大學2012);美國邁阿密大學訪問學者。主要研究領域為高維數據、假設檢驗、半監督回歸、統計機器學習等。參与多項科研項目和工程類項目,主持多項校級課程建設項目,曾獲第三屆上海市高校教師教學創新大賽二等獎。目錄 緒論0 1 本書講什麼,初衷是什麼 0 2 貫穿本書的兩大思維模式 0 2 1 提問的思維方式 0 2 2 發散的思維方式 0 3 這本書決定它還想要這樣 0 3 1 第一性原理 0 3 2 奧卡姆剃刀原理 0 4 如何使用本書 第1章 步入監督學習之旅 1 1 機器學習從數據開始 1 2 監督學習是什麼 1 2 1 基本術語 1 2 2 學習過程如同一場科學推理 1 3 如何評價模型的好壞 1 3 1 評價模型的量化指標 1 3 2 擬合能力 1 3 3 泛化能力 1 4 損失最小化思想 1 5 怎樣理解模型的性能:方差-偏差折中思想 1 6 如何選擇最優模型 1 6 1 正則化:對模型複雜程度加以懲罰 1 6 2 交叉驗證:樣本的多次重複利用 1 7 本章小結 1 8 習題 第2章 線性回歸模型 2 1 探尋線性回歸模型 2 1 1 諾貝爾獎中的線性回歸模型 2 1 2 回歸模型的誕生 2 1 3 線性回歸模型結構 2 2 最小二乘法 2 2 1 回歸模型用哪種損失:平方損失 2 2 2 如何估計模型參數:最小二乘法 2 3 線性回歸模型的預測 2 3 1 一元線性回歸模型的預測 2 3 2 多元線性回歸模型的預測 2 4 拓展部分:嶺回歸與套索回歸 2 4 1 嶺回歸 2 4 2 套索回歸 2 5 案例分析——共享單車數據集 2 6 本章小結 2 7 習題 第3章 K近鄰模型 3 1 鄰友思想 3 2 K近鄰演算法 3 2 1 聚合思想 3 2 2 K近鄰模型的具體演算法 3 2 3 K近鄰演算法的三要素 3 2 4 K近鄰演算法的可視化 3 3 最近鄰分類器的誤差率 3 4 k維樹 3 4 1 k維樹的構建 3 4 2 k維樹的搜索 3 5 拓展部分:距離度量學習的K近鄰分類器 3 6 案例分析——鶯尾花數據集 3 7 本章小結 3 8 習題 第4章 貝葉斯推斷 4 1 貝葉斯思想 4 1 1 什麼是概率 4 1 2 從概率到條件概率 4 1 3 貝葉斯定理 4 2 貝葉斯分類器 4 2 1 貝葉斯分類 4 2 2 樸素貝葉斯分類 4 3 如何訓練貝葉斯分類器 4 3 1 極大似然估計:概率最大化思想 4 3 2 貝葉斯估計:貝葉斯思想 4 4 常用的樸素貝葉斯分類器 4 4 1 離散屬性變數下的樸素貝葉斯分類器 4 4 2 連續特徵變數下的樸素貝葉斯分類器 4 5 拓展部分 4 5 1 半樸素貝葉斯 4 5 2 貝葉斯網路 4 6 案例分析——蘑菇數據集 4 7 本章小結 4 8 習題 4 9 閱讀時間:貝葉斯思想的起源 第5章 邏輯回歸模型 5 1 一切始於邏輯函數 5 1 1 邏輯函數 5 1 2 邏輯斯諦分佈 5 1 3 邏輯回歸 5 2 邏輯回歸模型的學習 5 2 1 加權最小二乘法 5 2 2 極大似然法 5 3 邏輯回歸模型的學習演算法 5 3 1 梯度下降法 5 3 2 牛頓法 5 4 拓展部分 5 4 1 拓展1:多分類邏輯回歸模型 5 4 2 拓展2:非線性邏輯回歸模型 5 5 案例分析——離職數據集 5 6 本章小結 5 7 習題 5 8 閱讀時間:牛頓法是牛頓提出的嗎 第6章 最大熵模型 6 1 問世間熵為何物 6 1 1 熱力學熵 6 1 2 信息熵 6 2 最大熵思想 6 2 1 離散隨機變數的分佈 6 2 2 連續隨機變數的分佈 6 3 最大熵模型的學習問題 6 3 1 最大熵模型的定義 6 3 2 最大熵模型的原始問題與對偶問題 6 3 3 最大熵模型的學習 6 4 模型學習的最優化演算法 6 4 1 最速梯度下降法 6 4 2 擬牛頓法:DFP演算法和BFGS演算法 6 4 3 改進的迭代尺度法 6 5 案例分析——湯圓小例子 6 6 本章小結 6 7 習題 6 8 閱讀時間:奇妙的對數 第7章 決策樹模型 7 1 決策樹中蘊含的基本思想 7 1 1 什麼是決策樹 7 1 2 決策樹的基本思想 7 2 決策樹的特徵選擇 7 2 1 錯分類誤差 7 2 2 基於熵的信息增益和信息增益比 7 2 3 基尼不純度 7 2 4 比較錯分類誤差、信息熵和基尼不純度 7 3 決策樹的生成演算法 7 3 1 ID3演算法 7 3 2C4 5 演算法 7 3 3 CART演算法 7 4 決策樹的剪枝過程 7 4 1 預剪枝 7 4 2 后剪枝 7 5 拓展部分:隨機森林 7 6 案例分析——帕爾默企鵝數據集 7 7 本章小結 7 8 習題 7 9 閱讀時間:經濟學中的基尼指數 第8章 感知機模型 8 1 感知機制——從邏輯回歸到感知機 8 2 感知機的學習 8 3 感知機的優化演算法 8 3 1 原始形式演算法 8 3 2 對偶形式演算法 8 4 案例分析——鶯尾花數據集 8 5 本章小結 8 6 習題 第9章 支持向量機 9 1 從感知機到支持向量機 9 2 線性可分支持向量機 9 2 1 線性可分支持向量機與最大間隔演算法 9 2 2 對偶問題與硬間隔演算法 9 3 線性支持向量機 9 3 1 線性支持 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |