*數量非實際在台庫存 *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為實際資訊。 印行年月:202401*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:基於TensorFlow的深度學習-神經網絡,計算機視覺和NLP的理論與實踐 ISBN:9787111741725 出版社:機械工業 著編譯者:馬格努斯.埃克曼 頁數:407 所在地:中國大陸 *此為代購商品 書號:1615502 可大量預訂,請先連絡。 【台灣高等教育出版社簡體書】 基於TensorFlow的深度學習-神經網絡,計算機視覺和NLP的理論與實踐 787111741725 馬格努斯.埃克曼 內容簡介 本書系統地講解了深度學習技術,闡明核心概念和實踐編程技術,是開發者、數據科學家、分析師,以及之前沒有機器學習或統計經驗的人員人員的理想選擇。 本書介紹了深度神經網路的人工神經元和全連接、卷積和循環層等基本構建模塊,展示了如何使用它們來構建先進的架構。書中還講解了如何使用這些概念構建計算機視覺和自然語言處理(NLP)網路,包括Mask R-CNN、GPT和BERT。此外,書中還描述了自然語言翻譯器和能根據圖像內容生成自然語言系統的原理。 本書基於TensorFlow和Keras提供了簡潔、註釋良好的代碼示例,還提供了相應的PyTorch示例,涵蓋了工業和學術界關於深度學習的兩個主要Python庫。最後,介紹了神經結構搜索(NAS),並探索了重要的倫理問題,為進一步學習深度學習提供了資源。作者簡介 馬格努斯·埃克曼博士是NVIDIA公司的架構總監,帶領Al數據中心的工程團隊,致力於自動駕駛晶元的研究。他還受聘于NVIDIA深度學習研究學院(NVIDIA DeepLearning Institute,DLI),從事人工智慧、加速計算和數據科學方面的實踐培訓。目錄 推薦序一推薦序二 前言 第1章 Rosenblatt感知器 1 1 雙輸入感知器示例 1 2 感知器學習演算法 1 3 感知器的局限性 1 4 組合多個感知器 1 5 感知器的幾何解釋 1 6 理解偏差項 第2章 基於梯度的學習 2 1 感知器學習演算法的直觀解釋 2 2 用梯度下降法解決學習問題 2 3 網路中的常量與變數 2 4 感知器學習演算法的解析 2 5 感知器學習演算法的幾何描述 2 6 重新審視不同類型的感知器 2 7 使用感知器進行模式識別 第3章 Sigmoid神經元與反向傳播 3 1 改進的神經元實現多層網路的梯度下降 3 2 激活函數的選擇 3 3 複合函數和鏈式法則 3 4 利用反向傳播計算梯度 3 4 1 前向傳播階段 3 4 2 後向傳播階段 3 4 3 權重調整 3 5 每層具有多個神經元的反向傳播 3 6 編程示例:學習XOR函數 3 7 網路結構 第4章 用於多分類的全連接網路 4 1 訓練網路時所用數據集簡介 4 1 1 探索數據集 4 1 2 數據集中的人為偏見 4 1 3 訓練集、測試集和泛化 4 1 4 超參數調優和測試集信息泄漏 4 2 訓練與推理 4 3 擴展網路和學習演算法以進行多分類 4 4 用於數字分類的網路 4 5 多分類的損失函數 4 6 編程示例:手寫數字分類 4 7 小批量梯度下降 第5章 走向DL:框架和網路調整 5 1 編程示例:轉移到DL框架 第6章 全連接網路在回歸中的應用 第7章 卷積神經網路在圖像分類中的應用 第8章 深度卷積神經網路和預訓練模型 第9章 用循環神經網路預測時間序列 第10章 長短期記憶 第11章 使用LSTM和集束搜索自動補全文本 第12章 神經語言模型和詞嵌入 第13章 Word2vec和GloVe的詞嵌入 第14章 序列到序列網路和自然語言翻譯 第15章 注意力機制和Transformer架構 第16章 用於圖像字幕的一對多網路 第17章 其他主題 第18章 總結和未來展望 附錄A 線性回歸和線性分類 附錄B 目標檢測和分割 附錄C Word2vec和GloVe之外的詞嵌入 附錄D GPT、BERT和RoBERTa 附錄E Newton-Raphson法與梯度下降法 附錄F 數字分類網路的矩陣實現 附錄G 卷積層與數學卷積的關係 附錄H 門控循環單元 附錄I 搭建開發環境 附錄J 備忘清單 參考文獻 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |