DeepSeek大模型高性能核心技術與多模態融合開發 王曉華 9787302684893 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$757
商品編號: 9787302684893
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202503*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:DeepSeek大模型高性能核心技術與多模態融合開發
ISBN:9787302684893
出版社:清華大學
著編譯者:王曉華
叢書名:人工智能技術叢書
頁數:346
所在地:中國大陸 *此為代購商品
書號:1722349
可大量預訂,請先連絡。

內容簡介

本書深入剖析國產之光DeepSeek多模態大模型的核心技術,從高性能注意力機制切入,深入揭示DeepSeek的技術精髓與獨特優勢,詳細闡述其在人工智能領域成功的技術秘訣。本書循序漸進地講解深度學習注意力機制的演進,從經典的多頭注意力(MHA)逐步深入DeepSeek的核心技術—多頭潛在注意力(MLA)與混合專家模型(MoE)。此外,本書還將詳細探討DeepSeek中的多模態融合策略、技術及應用實例,為讀者提供全面的理論指導與應用實踐。本書配套所有示例源碼、PPT課件、配圖PDF文件與讀者微信技術交流群。 本書共分15章,內容涵蓋高性能注意力與多模態融合概述、PyTorch深度學習環境搭建、DeepSeek注意力機制詳解(包括基礎篇、進階篇、高級篇及調優篇)、在線與本地部署的DeepSeek實戰(如旅遊特種兵迪士尼大作戰、廣告文案撰寫與微調、智能客服等),以及多模態融合技術與實戰應用(如Diffusion可控圖像生成、多模態圖文理解與問答、交叉注意力語音轉換、端到端視頻分類等)。 本書既適合DeepSeek核心技術初學者、注意力機制初學者、大模型應用開發人員、多模態融合開發人員、大模型研究人員,也適合高等院校及高職高專院校人工智能大模型方向的師生。

作者簡介

王曉華,高校計算機專業講師,研究方向為雲計算、大數據與人工智能。其著作包括《深入探索Mamba模型架構與應用》《PyTorch深度學習與計算機視覺實踐》《PyTorch語音識別實戰》《ChatGLM3大模型本地化部署、應用開發與微調》《從零開始大模型開發與微調:基於PyTorch與ChatGLM》《PyTorch 2 0深度學習從零開始學》《Spark 3 0大數據分析與挖掘:基於機器學習》《TensorFlow深度學習應用實踐》《OpenCV+TensorFlow深度學習與計算機視覺實戰》《TensorFlow語音識別實戰》《TensorFlow 2 0卷積神經網絡實戰》《深度學習的數學原理與實現》。

目錄

第1章 高性能注意力與多模態融合
1 1 從湧現到飛躍:高性能大模型的崛起
1 1 1 大模型的「湧現」
1 1 2 大模型的發展歷程
1 1 3 高性能大模型的崛起
1 2 大模型的內功:高性能注意力機制的崛起
1 2 1 注意力機制的基本原理
1 2 2 注意力機制的變革與發展
1 2 3 高性能注意力機制崛起:GQA與MLA
1 3 大模型的外拓:多模態融合
1 3 1 多模態外拓及其挑戰
1 3 2 融合策略與技術概覽
1 3 3 深度學習在多模態融合中的應用場景
1 4 高性能注意力與多模態融合的未來展望
1 4 1 融合技術的創新方向
1 4 2 注意力機制的前沿探索
1 5 本章小結
第2章 PyTorch深度學習環境搭建
2 1 安裝Python開發環境
2 1 1 Miniconda的下載與安裝
2 1 2 PyCharm的下0
2 2 1 NVIDIA 10/20/30/40系列顯卡選擇的GPU版本
2 2 2 PyTorch 2 0 GPU NVIDIA運行庫的安裝
2 2 3 Hello PyTorch
2 3 多模態大模型DeepSeek初探與使用
2 3 1 DeepSeek模型簡介
2 3 2 DeepSeek帶來的技術創新
2 3 3 DeepSeek的第三方服務與使用示例
2 4 本章小結
第3章 注意力機制詳解之基礎篇
3 1 注意力機制與模型詳解
3 1 1 注意力機制詳解
3 1 2 自注意力(Self-Attention)機制
3 1 3 自注意力的代碼實現
3 1 4 ticks和Layer Normalization
3 1 5 多頭自注意力
3 2 注意力機制的應用實踐:編碼器
3 2 1 自編碼器的總體架構
3 2 2 回到輸入層:初始詞向量層和位置編碼器層
3 2 3 前饋層的實現
3 2 4 將多層模塊融合的TransformerBlock層
3 2 5 編碼器的實現
3 3 基礎篇實戰:自編碼架構的拼音漢字生成模型
3 3 1 漢字拼音數據集處理
3 3 2 搭建文本與向量的橋樑——Embedding
3 3 3 自編碼模型的確定
3 3 4 模型訓練部分的編寫
3 4 本章小結
第4章 注意力機制詳解之進階篇
4 1 注意力機制的第二種形態:自回歸架構
4 1 1 自回歸架構重大突破:旋轉位置編碼
4 1 2 添加旋轉位置編碼的注意力機制與現有庫包的實現
4 1 3 新型的激活函數SwiGLU詳解
4 1 4 「因果掩碼」與「錯位」輸入輸出格式詳解
4 2 進階篇實戰1:無須位置表示的酒店評論情感判斷
4 2 1 數據集的準備與讀取
4 2 2 使用sentencepiece建立文本詞彙表
4 2 3 編碼情感分類數據集
4 2 4 基於新架構文本分類模型設計
4 2 5 情感分類模型的訓練與驗證
4 3 進階篇實戰2:基於自回歸模型的酒店評論生成
4 3 1 數據集的準備與讀取
4 3 2 基於自回歸文本生成模型的設計
4 3 3 評論生成模型的訓練
4 3 4 使用訓練好的模型生成評論
4 4 本章小結
第5章 注意力機制詳解之高級篇
5 1 替代前饋層的混合專家模型詳解
5 1 1 混合專家模型的基本結構
5 1 2 混合專家模型中的「專家」與「調控」代碼實現
5 2 高級篇實戰1:基於混合專家模型的情感分類實戰
5 2 1 基於混合專家模型的MoE評論情感分類實戰
5 2 2 混合專家模型中負載平衡的實現
5 2 3 修正後的MoE門控函數
5 3 帶有MoE的注意力模型
5 3 1 注意力機制中的前饋層不足
5 3 2 MoE天然可作為前饋層
5 3 3 結合MoE的注意力機制
5 4 高級篇實戰2:基於通道注意力的圖像分類
5 4 1 數據集的準備
5 4 2 圖像識別模型的設計
5 4 3 結合通道注意力圖像分類模型
5 4 4 圖像識別模型SENet的訓練與驗證
5 5 高級篇實戰3:基於MoE與自注意力的圖像分類
5 5 1 基於注意力機制的ViT模型
5 5 2 Patch和Position Embedding
5 5 3 可視化的V-MoE詳解
5 5 4 V-MoE模型的實現
5 5 5 基於圖像識別模型V-MoE的訓練與驗證
5 5 6 使用已有的庫包實現MoE
5 6 本章小結
第6章 注意力機制詳解之調優篇
6 1 注意力模型優化方案講解
6 1 1 注意力模型優化1:MQA模型
6 1 2 注意力模型優化2:MLA模型
6 1 3 注意力模型優化3:GQA模型
6 1 4 注意力模型優化4:差分注意力模型
6 2 調優篇實戰1:基於MLA的人類語音情感分類
6 2 1 情緒數據的獲取與標籤的說明
6 2 2 情緒數據集的讀取
6 2 3 語音情感分類模型的設計和訓練
6 3 本章小結
第7章 旅遊特種兵迪士尼大作戰:DeepSeek API調用與高精準路徑優化
7 1 基於在線API的大模型調用
7 1 1 DeepSeek的註冊與API獲取
7 1 2 帶有特定格式的DeepSeek的API調用
7 1 3 帶有約束的DeepSeek的API調用
7 2 智能化DeepSeek工具調用詳解
7 2 1 Python使用工具的基本原理
7 2 2 在DeepSeek中智能地使用工具
7 2 3 在DeepSee
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理