圖說深度學習-用可視化方法理解複雜概念 (美)安德魯.格拉斯納 9787515369006 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:中國青年
NT$1,196
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*數量非實際在台庫存
*完成訂單後正常情形下約兩周可抵台

*本賣場提供之資訊僅供參考,以到貨標的為實際資訊。
印行年月:202403*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:圖說深度學習-用可視化方法理解複雜概念
ISBN:9787515369006
出版社:中國青年
著編譯者:(美)安德魯.格拉斯納
頁數:646
所在地:中國大陸 *此為代購商品
書號:1603618
可大量預訂,請先連絡。

編輯推薦
本書幫助讀者入門深度學習深度學習入門,與其他深度學習入門圖書的區別在於,本書中包含大量圖解,並且採用口語化文字寫作。由於作者是計算機圖形學和深度學習方面的專家,所以在用圖形圖像來解釋專業概念上具有一定優勢和經驗,因此本書中的大量圖解也是本書一大特色。有了圖解就意味著一些比較專業知識不一定需要用大量數學和公式去解釋,所以這本書面向讀者人群可以擴大到非計算機專業人士,哪怕是對深度學習、人工智能完全沒有學習基礎的人,也可以讀懂。

內容簡介
本書適合任何想要深入瞭解深度學習這個迷人領域的人,您不需要具備高級數學和編程知識就可以掌握其根本原理。如果您想知道這些工具是如何工作的,並學會自己使用它們,答案盡在書中。而且,如果您已經準備好編寫自己的程序,那麼隨附的Github存儲庫中還有大量補充的Python筆記本可以幫助您。
本書講解語言通俗易懂,包含大量的的彩色插圖和具有啟發性的類比,以及豐富的現實世界的例子,深入地地解釋了深度學習的關鍵概念,包括:
•文本生成器如何創建新穎的故事和文章 。
•深度學習系統如何在人類遊戲中學習遊戲並獲勝。
•圖像分類系統如何識別照片中的物體或人。
•如何以對日常生活有用的方式思考概率。
•如何使用構成現代人工智能核心的機器學習技術。
各種各樣的智力冒險家都可以使用本書中涵蓋的強大思想來構建智能系統,幫助我們更好地理解世界和生活在其中的每個人。這就是人工智能的未來,這本書可以讓你充分想像它的未來。

目錄

詳細

目錄

致謝
前言
這本書是為誰準備的
這本書沒有複雜的數學和代碼
如果你想要的話,這裡有代碼
圖片也可以找到!
勘誤
關於本書
第1部分:基礎理論
第2部分:初級機器學習
第3部分:深度學習的基礎
第4部分:進階知識
最後的話
第一部分 基礎理論 1
第1 章 機器學習技術概述 2
1 1 專家系統
1 2 監督學習
1 3 無監督學習
1 4 強化學習
1 5 深度學習
1 6 本章 總結
第2 章 統計學基礎 11
2 1 描述隨機性
2 2 隨機變量與概率分佈
2 3 常見的分佈
詳細
目錄 VII
2 3 1 連續分佈
2 3 2 離散分佈
2 4 隨機值的集合
2 4 1 期望值
2 4 2 依賴
2 4 3 獨立同分佈變量
2 5 採樣與替換
2 5 1 替換採樣法
2 5 2 無替換採樣法
2 6 自採樣法
2 7 協方差和相關性
2 7 1 協方差
2 7 2 相關性
2 8 統計數據的局限性
2 9 高維空間
2 10 本章 總結
第3 章 性能度量 37
3 1 不同類型的概率
3 1 1 投擲飛鏢
3 1 2 簡單概率
3 1 3 條件概率
3 1 4 聯合概率
3 1 5 邊緣概率
3 2 評價正確性
3 2 1 樣本分類
3 2 2 混淆矩陣
3 2 3 錯誤的特徵
3 2 4 評價正確與否
3 2 5 準確率
3 2 6 精度
3 2 7 召回率
3 2 8 精度與召回率的權衡
3 2 9 誤導性結果
3 2 10 F1分數
3 2 11 關於這些指標
3 2 12 其他評價方式
3 3 正確構造混淆矩陣
3 4 本章 總結
第4 章 貝葉斯方法 66
4 1 頻率法與貝葉斯概率
4 1 1 頻率法
4 1 2 貝葉斯方法
4 1 3 頻率派與貝葉斯派
4 2 頻率法拋擲硬幣
4 3 貝葉斯方法拋擲硬幣
4 3 1 啟發性的例子
4 3 2 繪製拋擲硬幣的概率
4 3 3 用概率表示拋擲硬幣
4 3 4 貝葉斯公式
4 3 5 關於貝葉斯公式的討論
4 4 貝葉斯公式與混淆矩陣
4 5 再論貝葉斯公式
4 5 1 後驗-先驗循環
4 5 2 貝葉斯循環實戰
4 6 多重假設
4 7 本章 總結
第5 章 曲線和曲面
5 1 函數的性質
5 2 導數
5 2 1 值和最小值
5 2 2 切線
5 2 3 用導數求最小值和值
5 3 梯度
5 3 1 水、重力和梯度
5 3 2 用梯度求值和最小值
5 3 3 鞍點
5 4 本章 總結
第6 章 信息論
6 1 信息帶給我們的驚訝感
6 1 1 為什麼會驚訝
6 1 2 信息解密
6 2 衡量信息量
6 3 自適應碼
6 3 1 摩斯電碼
6 3 2 調整摩斯電碼
6 4 熵
6 5 交叉熵
6 5 1 兩種自適應碼
6 5 2 使用編碼
6 5 3 實踐中的交叉熵
6 6 KL散度
6 7 本章 總結
第二部分 初級機器學習
第7 章 分類
7 1 二維空間的二元分類問題
7 2 二維空間的多分類問題
7 3 多元分類
7 3 1 一對多
7 3 2 一對一
7 4 聚類
7 5 維度詛咒
7 5 1 維度和密度
7 5 2 高維奇異性
7 6 本章 總結
第8 章 訓練和測試
8 1 訓練
8 2 測試
8 2 1 測試集
8 2 2 驗證集
8 3 交叉驗證
8 4 k-Fold交叉驗證法
8 5 本章 總結
第9 章 過擬合與欠擬合
9 1 找到一個好的擬合
9 1 1 過擬合
9 1 2 欠擬合
9 2 檢測和解決過擬合
9 2 1 提前停止
9 2 2 正則化
9 3 偏差和方差
9 3 1 匹配基礎數據
9 3 2 高偏差與低方差
9 3 3 低偏差與高方差
9 3 4 比較曲線
9 4 用貝葉斯方法擬合直線
9 5 本章 總結
第10 章 數據預處理
10 1 基本數據清洗
10 2 數據一致性
10 3 數據類型
10 4 獨熱編碼
10 5 歸一化與標準化
10 5 1 歸一化
10 5 2 標準化
10 5 3 記錄轉換過程
10 6 其他轉換方式
10 6 1 切片處理
10 6 2 樣本切片
10 6 3 特徵切片
10 6 4 元素切片
10 7 逆變換
10 8 交叉驗證中的信息洩露
10 9 收縮數據集
10 9 1 特徵選擇
10 9 2 降維
10 10 主成分分析
10 10 1 簡單圖像的PCA處理
10 10 2 真實圖像的主成分分析
10 11 本章 總結
第11 章 分類器
11 1 常見分類器
11 2 k-最近鄰算法
11 3 決策樹
11 3 1 決策樹概覽
11 3 2 決策樹構建
11 3 3 過擬合樹
11 3 4 拆分節 點
11 4 支持向量機
11 4 1 基礎算法
11 4 2 支持向量機核函數
11 5 樸素貝葉斯
11 6 分類器的對比
11 7 本章 總結
第12 章 集成學習
12 1 投票
12 2 決策樹的集成
12 2 1 裝袋算法
12 2 2 隨機森林
12 2 3 極端隨機樹集成
12 3 助推法
12 4 本章 總結
第三部分 深度學習的基礎
第13 章 神經網絡
13 1 生物神經元
13 2 人工神經元
13 2 1 感知器
13 2 2 現代人工神經元
13 3 繪製神經元
13 4 前饋網絡
13 5 神經網絡圖
13 6 初始化權重
13 7 深度神經網絡
13 8 全連接層
13 9 張量
13 10 防止坍縮
13 11 激活函數
13 11 1 直線函數
13 11 2 階躍函數
13 11 3 分段線性函數
13 11 4 平滑函數
13 11 5 激活函數圖像總結
13 11 6 比較激活函數
13 12 Softmax函數
13 13 本章 總結
第14 章 反向傳播算法
14 1 訓練過程概述
14 1 1 降低誤差
14 1 2 一種緩慢的學習算法
14 1 3 梯度下降
14 2 快速開始
14 3 微型神經網絡中的反向傳播
14 3 1 尋找輸出神經元的增量
14 3 2 使用δ來調整權重
14 3 3 其他神經元的δ值
14 4 大型神經網絡中的反向傳播算法
14 5 學習率
14 5 1 構建二分類器
14 5 2 選擇學習率
14 5 3 更小的學習率
14 6 本章 總結
第15 章 優化器
15 1 用二維曲線表示誤差
15 2 調整學習率
15 2 1 恒定大小的更新
15 2 2 隨著時間的推移改變學習率
15 2 3 衰減調整策略
15 3 更新策略
15 3 1 批量梯度下降法
15 3 2 隨機梯度下降法
15 3 3 小批次梯度下降法
15 4 梯度下降的變體
15 4 1 動量
15 4 2 內斯特羅夫動量
15 4 3 AdaGrad算法
15 4 4 Adadelta和RMSProp算法
15 4 5 Adam算法
15 5 優化器的選擇
15 6 正則化
15 6 1 Dropout
15 6 2 BatchNorm
15 7 本章 總結
第四部分 進階知識
第16 章 卷積神經網絡
16 1 初識卷積
16 1 1 顏色檢測
16 1 2 權重共享
16 1 3 大一點的卷積核
16 1 4 卷積核和特徵
16 1 5 填充
16 2 多維卷積
16 3 多重卷積核
16 4 卷積層
16 4 1 一維卷積
16 4 2 1×1卷積
16 5 更改輸出大小
16 5 1 池化
16 5 2 跨步前進
16 5 3 轉置卷積
16 6 卷積核的層次結構
16 6 1 簡化假設
16 6 2 尋找面具
16 6 3 尋找眼睛、鼻子和嘴巴
16 6 4 應用卷積核
16 7 本章 總結
第17 章 卷積網絡實踐
17 1 手寫數字分類
17 2 VGG16
17 3 圖解卷積核(1)
17 4 圖解卷積核(2)
17 5 對抗樣本
17 6 本章 總結
第18 章 自編碼器
18 1 編碼簡介
18 2 混合表示
18 3 最簡單的自編碼器
18 4 更好的自編碼器
18 5 探索自編碼器
18 5 1 探索潛在變量
18 5 2 參數空間
18 5 3 混合潛在變量
18 5 4 基於新輸入的預測
18 6 卷積自編碼器
18 6 1 混合潛在變量
18 6 2 基於新輸入的預測
18 7 去噪
18 8 可變自編碼器
18 8 1 潛在變量的分佈
18 8 2 可變自編碼器結構
18 9 探索VAE
18 9 1 使用MNIST樣本
18 9 2 使用兩個潛在變量
18 9 3 產生新的輸入
18 10 本章 總結
第19 章 循環神經網絡
19 1 處理語言
19 1 1 常見的NLP任務
19 1 2 文本數值化
19 1 3 微調和下游網絡
19 2 全連接預測
19 2 1 測試網絡
19 2 2
19 3 循環神經網絡
19 3 1 狀態
XVI
19 3 2 卷起圖表
19 3 3 實踐循環單元
19 3 4 訓練循環神經網絡
19 3 5 長短期記憶與門控循環網絡
19 4 使用循環神經網絡
19 4 1 處理太陽黑子數據
19 4 2 生成文本
19 4 3 其他架構
19 5 Seq2Seq
19 6 本章 總結
第20 章 注意力機制和Transformer模型
20 1 嵌入
20 1 1 詞嵌入技術
20 1 2

規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理