編輯推薦
近年來,新型機器學習架構的種類和複雜性迅速增加,這就要求開發出更好的方法來設計、分析、評估和理解機器學習技術。本書為學生、工程師和科學家提供了數理統計和非線性優化理論方面的工具,幫助他們成為機器學習領域的專家。特別需要指出的是,本書的內容適用於傳統的、新發展的以及未來的非線性高維機器學習算法的數學分析和設計。 本書內容自成體系,讀者僅需掌握線性代數和概率論相關基礎知識即可理解。讀者對象包括統計學、計算機科學、電子工程以及應用數學領域的研究生或學習積極性較高的本科生。此外,專業工程師和科研人員在驗證確定性和隨機機器學習優化算法的收斂性,以及表徵算法的採樣誤差和泛化性能時,也可參考本書。內容簡介
本書主要介紹由一組核心定理支撐的統計機器學習框架,書中通過相關機器學習案例幫助學生理解框架中的核心定理。對於實踐型的專業工程師和科學家來說,本書可以幫助他們驗證確保許多常用的確定性和隨機機器學習優化算法收斂的充分條件,以及正確使用常用的統計工具來表徵抽樣誤差和泛化性能。此外,由於本書包含大量示例,機器學習課程的教師以及從事機器學習應用的研究人員也會發現本書非常有用。 本書的讀者需要具備統計學、計算機科學、電子工程或應用數學方面的基本知識。全書共分為四部分: 第一部分包含第1~3章,通過實例介紹機器學習算法概念和描述算法的數學工具; 第二部分包含第4~7章,討論確定性學習機的漸近行為; 第三部分包含第8~12章,討論隨機推理機和隨機學習機的漸近行為; 第四部分包含第13~16章,關注機器學習算法的泛化性能表徵問題。作者簡介
理查德·M 戈爾登(Richard M Golden),得克薩斯大學達拉斯分校認知科學教授,併兼任該校電子工程系教授。在過去三十年間,戈爾登教授在統計學與機器學習領域發表了大量學術論文,並在國際學術會議上就廣泛議題發表演講。他的長期研究興趣包括:確立確定性及隨機性機器學習算法的收斂條件,以及探究存在概率模型誤設情況下的估計與推斷問題。目錄
譯者序