深度學習框架及系統部署實戰-微課視頻版 袁雪 9787302647294 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
NT$222
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202311*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:深度學習框架及系統部署實戰-微課視頻版
ISBN:9787302647294
出版社:清華大學
著編譯者:袁雪
頁數:116
所在地:中國大陸 *此為代購商品
書號:1584620
可大量預訂,請先連絡。

內容簡介

在數字化時代,嵌入式人工智慧系統和深度學習等技術變得越來越重要。在嵌入式平台上進行深度學習推理時會受到計算能力、存儲空間、能耗等資源限制的挑戰。本書從深度學習模型在資源受限的硬體平台上部署的角度,介紹嵌入式AI系統的基本概念、需求、挑戰,以及其軟硬體解決方案。 本書共分為7章。第1章介紹了邊緣計算;第2章介紹了嵌入式AI系統的基本概念及其面臨的需求與挑戰;第3章介紹了嵌入式AI系統的硬體解決方案;第4∼6章介紹了嵌入式AI系統的軟體解決方案,包括DNN模型的構建及實現、輕量級DNN模型的構建、模型輕量化方法及實現;第7章介紹了DNN模型的硬體部署。本書提供了基於Python語言和TorchAPI的大量代碼解析,並針對Intel系列和NVIDIA系列晶元的硬體部署分別進行介紹。 本書適合作為高等院校計算機專業、軟體工程專業的教材,也可供對深度學習、計算機視覺、嵌入式AI系統等感興趣的開發人員、廣大科技工作者和研究人員參考。

目錄

第1章 邊緣計算
1 1 雲計算與邊緣計算
1 2 邊緣計算的挑戰
1 2 1 DNN模型設計
1 2 2 DNN模型輕量化
1 2 3 硬體優化部署
1 3 雲一邊一端任務協作
1 4 本章小結
1 5 習題
第2章 嵌入式AI系統
2 1 嵌入式AI系統的概念
2 2 嵌入式AI系統的硬體結構
2 3 嵌入式AI系統的軟體結構
2 3 1 驅動層
2 3 2 操作系統層
2 3 3 中間件層
2 3 4 應用層
2 4 嵌入式深度學習技術
2 5 嵌入式AI系統的應用
2 5 1 車載輔助駕駛系統
2 5 2 無人機智能巡檢系統
2 5 3 VR設備
2 6 嵌入式AI系統的需求與挑戰
2 7 本章小結
2 8 習題
第3章 嵌入式AI系統的硬體解決方案
3 1 通用類晶元——GPU
3 2 半定製化晶元——FPGA
3 3 全定製化晶元——ASIC
3 4 類腦晶元
3 5 對四大類型Al晶元的總結與展望
3 5 1 對AI晶元的總結
3 5 2 對AI晶元的展望
3 6 本章小結
3 7 習題
第4章 深度卷積神經網路(DCNN)模型的構建及實現典
4 1 神經網路的概念及發展歷史
4 1 1 神經元的結構
4 1 2 感知機
4 1 3 BP演算法
4 1 4 神經網路的發展歷史
4 2 深度卷積神經網路(DCNN)
4 2 1 深度學習的概念
4 2 2 DCNN的概念
4 2 3 DCNN的構成
4 2 4 DCNN的訓練
4 3 幾種常用的DNN模型結構
4 3 1 AlexNet
4 3 2 VGG
4 3 3 GoogLeNet
4 3 4 ResNet
4 3 5 網路模型對比
4 3 6 遷移學習
4 4 圖像識別項目實戰
4 5 本章小結
4 6 習題
第5章 輕量級DCNN模型
5 1 MobiIeNet系列
5 1 1 MobileNet V1
5 1 2 M0bileNet V2
5 1 3 MobileNet V3
5 2 ShuffIeNet系列
5 2 1 ShuffleNet V1
5 2 2 ShuffleNet V2
5 3 輕量級DCNN模型對比
5 4 項目實戰
5 4 1 MobileNet V3模型構建
5 4 2 ShuffleNet V2模型構建
5 5 本章小結
5 6 習題
第6章 深度學習模型輕量化方法及實現
6 1 網路模型剪枝
6 1 1 基本原理
6 1 2 網路模型的剪枝分類
6 1 3 剪枝標準
6 1 4 剪枝流程
6 1 5 代碼實現
6 2 參數量化
6 2 1 基本原理
6 2 2 參數量化演算法的分類
6 2 3 參數量化流程
6 2 4 代碼實現
6 3 知識蒸餾法
6 3 1 基本原理
6 3 2 知識蒸餾演算法流程
6 3 3 代碼實現
6 4 本章小結
6 5 習題
第7章 AI模型的硬體部署
7 1 開放神經網路交換(ONNX)格式
7 1 1 ONNX模型
7 1 2 Torch模型轉ONNX模型實例
7 1 3 ONNX工作原理
7 1 4 ONNX型推理
7 1 5 推理速度對比
7 2 Intel系列晶元部署方法
7 2 1 OpenVINO的簡介
7 2 2 OpenVINO的安裝
7 2 3 OpenVINO工作流程
7 2 4 OpenVINO推理示例
7 3 NVIDIA系列晶元部署方法
7 3 1 TensorRT的簡介
7 3 2 TensorRT的安裝
7 3 3 TensorRT模型轉換
7 3 4 部署TensorRT模型
7 4 本章小結
7 5 習題
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。
規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理