*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202408*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:深度學習精粹與PyTorch實踐 ISBN:9787302669111 出版社:清華大學 著編譯者:愛德華.拉夫 頁數:494 所在地:中國大陸 *此為代購商品 書號:1674976 可大量預訂,請先連絡。 內容簡介 深度學習絕非不可窺探的黑箱!深入理解其模型和演算法的實際運作機制,是駕馭並優化結果的關鍵。你無需成為數學專家或資深數據科學家,同樣能夠掌握深度學習系統內部的工作原理。本書旨在通過深入淺出的方式,為你揭示這些原理,讓你在理解和解釋自己的工作時更加自信與從容。 《深度學習精粹與PyTorch實踐》以淺顯易懂的方式揭示了深度學習演算法的內部運作機制,即使是機器學習初學者也能輕鬆理解。本書通過平實的語言解析、詳盡的代碼註釋,以及數十個基於PyTorch框架的實戰示例,逐步引導你探索深度學習的核心概念與實用工具。本書避免了複雜的數學公式堆砌,而是採用直觀易懂的方式闡述每種神經網路類型的運作邏輯。更令人興奮的是,書中提供的所有解決方案均可在現有的GPU硬體上順暢運行! 主要內容: 選擇正確的深度學習組件; 訓練和評估深度學習模型; 微調深度學習模型以實現性能最大化; 了解深度學習術語。作者簡介 愛德華·拉夫(Edward Raff)博士是Booz Allen Hamilton公司的首席科學家,也是戰略創新集團機器學習研究團隊的共同負責人。他的工作涉及監督內部研究、招聘和培養技術人才、與高校合作夥伴合作以及專門從事高端機器學習的業務開發。Raff博士還協助幾位客戶開展高級研究。目錄 第1章 學習的機制1 1 Colab入門 1 2 張量 1 3 自動微分 1 3 1 使用導數將損失降至最低 1 3 2 使用自動微分計算導數 1 3 3 知識整合:使用導數最小化函數 1 4 優化參數 1 5 載入數據集對象 1 6 練習 1 7 小結 第2章 全連接網路 2 1 優化神經網路 2 1 1 訓練神經網路的符號 2 1 2 建立線性回歸模型 2 1 3 訓練循環 2 1 4 定義數據集 2 1 5 定義模型 2 1 6 定義損失函數 2 1 7 知識整合:在數據上訓練線性回歸模型 2 2 構建第一個神經網路 2 2 1 全連接網路的符號 2 2 2 PyTorch中的全連接網路 2 2 3 增加非線性 2 3 分類問題 2 3 1 分類簡單問題 2 3 2 分類損失函數 2 3 3 訓練分類網路 2 4 更好地訓練代碼 2 4 1 自定義指標 2 4 2 訓練和測試階段 2 4 3 保存檢查點 2 4 4 知識整合:更好的模型訓練函數 2 5 批量訓練 2 6 練習 2 7 小結 第3章 卷積神經網路 3 1 空間結構先驗信念 3 2 什麼是卷積 3 2 1 一維卷積 3 2 2 二維卷積 3 2 3 填充 3 2 4 權重共享 3 3 卷積如何有益於圖像處理 3 4 付諸實踐:我們的第一個CNN 3 4 1 使用多個過濾器生成卷積層 3 4 2 每層使用多個過濾器 3 4 3 通過展平將卷積層與線性層混合 3 4 4 第一個CNN的PyTorch代碼 3 5 添加池化以減少對象移動 3 6 數據增強 3 7 練習 3 8 小結 第4章 循環神經網路 4 1 作為權重共享的循環神經網路 4 1 1 全連接網路的權重共享 4 1 2 隨時間共享權重 4 2 在PyTorch中實現RNN 4 2 1 一個簡單的序列分類問題 4 2 2 嵌入層 4 2 3 使用最後一個時間步長進行預測 4 3 通過打包減短訓練時間 4 3 1 填充和打包 4 3 2 可打包嵌入層 4 3 3 訓練批量RNN 4 3 4 同時打包和解包輸入 4 4 更為複雜的RNN 4 4 1 多層 4 4 2 雙向RNN 4 5 練習 4 6 小結 第5章 現代訓練技術 5 1 梯度下降分兩部分進行 5 1 1 添加學習率調度器 5 1 2 添加優化器 5 1 3 實現優化器和調度器 5 2 學習率調度器 5 2 1 指數衰減:平滑不穩定訓練 5 2 2 步長下降調整:更平滑 5 2 3 餘弦退火:準確率更高但穩定性較差 5 2 4 驗證平台:基於數據的調整 5 2 5 比較調度器 5 3 更好地利用梯度 5 3 1 SGD與動量:適應梯度一致性 5 3 2 Adam:增加動量變化 5 3 3 梯度修剪:避免梯度爆炸 5 4 使用Optuna進行超參數優化 5 4 1 Optuna 5 4 2 使用PyTorch的Optuna 5 4 3 使用Optuna修剪試驗 5 5 練習 5 6 小結 第6章 通用設計構建塊 6 1 更好的激活函數 6 1 1 梯度消失 6 1 2 校正線性單位(ReLU):避免梯度消失 6 1 3 使用LeakyReLU激活訓練 6 2 歸一化層:神奇地促進收斂 6 2 1 歸一化層用於何處 6 2 2 批量歸一化 6 2 3 使用批量歸一化進行訓練 6 2 4 層歸一化 6 2 5 使用層歸一化進行訓練 6 2 6 使用哪個歸一化層 6 2 7 層歸一化的特點 6 3 跳躍連接:網路設計模式 6 3 1 實施全連接的跳躍 6 3 2 實現卷積跳躍 6 41 ×1卷積:在通道中共享和重塑信息 6 5 殘差連接 6 5 1 殘差塊 6 5 2 實現殘差塊 6 5 3 殘差瓶頸 6 5 4 實現殘差瓶頸 6 6 長短期記憶網路RNN 6 6 1 RNN:快速回顧 6 6 2 LSTM和門控機制 6 6 3 LSTM訓練 6 7 練習 6 8 小結 第Ⅱ部分構建高級網路 第7章 自動編碼和自監督 7 1 自動編碼的工作原理 7 1 1 主成分分析是自動編碼器的瓶頸 7 1 2 實現PCA 7 1 3 使用PyTorch實現PCA 7 1 4 可視化PCA結果 7 1 5 簡單的非線性PCA 7 2 設計自動編碼神經網路 7 2 1 實現自動編碼器 7 2 2 可視化自動編碼器結果 7 3 更大的自動編碼器 7 4 自動編碼器去噪 7 5 時間序列和序列的自回歸模型 7 5 1 實現char-RNN自回歸文本模型 7 5 2 自回歸模型是生成模型 7 5 3 隨著溫度調整採樣 7 5 4 更快地採樣 7 6 練習 7 7 小結 第8章 目標檢測 8 1 圖像分割 8 1 1 核檢測:載入數據 8 1 2 在PyTorch中表示圖像分割問題 8 1 3 建立第一個圖像分割網路 8 2 用於擴展圖像大小的轉置卷積 8 3 U-Net:查看精細和粗糙的細節 8 4 帶邊界框的目標檢測 8 4 1 FasterR-CNN 8 4 2 在PyTorch中實現FasterR-CNN 8 4 3 抑制重疊框 8 5 使用預訓練的FasterR-CNN 8 6 練習 8 7 小結 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |