*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。*完成訂單後正常情形下約兩周可抵台。
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202504*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:深度剖析DeepSeek大模型-原理.開發與優化部署
ISBN:9787111779223
出版社:機械工業
著編譯者:丁小晶 崔遠
頁數:312
所在地:中國大陸 *此為代購商品書號:1718925
可大量預訂,請先連絡。內容簡介
DeepSeek-R1大模型是一款具備強大自然語言處理能力的人工智能模型,能夠高效完成文本生成、翻譯、問答、代碼編寫等多種任務,適合企業級應用和開發者集成。本書系統性地解析了大模型的核心原理、關鍵技術以及DeepSeek的多個實際應用場景。 全書共分為12章,首先介紹大模型的基礎知識與發展歷程,從神經網絡的起源到大規模預訓練模型的演化,再到Transformer、BERT與GPT等模型架構的深入剖析,幫助讀者理解大模型的技術基石。其次詳細解析了DeepSeek-R1及其Zero版本在強化學習與模型架構上的核心技術,包括混合專家模型、動態學習率調度、分散式訓練及高效推理優化策略等。再次聚焦于模型訓練與開發實踐,介紹API調用、上下文拼接、多輪對話管理、模型微調、知識蒸餾等關鍵技術,並結合DeepSeek實際案例展示其在數學推理、代碼生成等領域的應用。最後著重探討了大模型在商業化落地場景中的高級應用,如FIM補全、多輪對話、業務代碼自動化生成以及基於雲部署的智能推薦搜索系統等。 本書內容兼具理論深度與實戰價值,同時附贈相關案例代碼、各章思考題及教學視頻等學習資源,適合大模型開發者、AI研究人員、工程師、數據科學家、企業技術決策者以及對人工智能技術感興趣的高校師生閱讀。無論是希望深入理解大模型技術的專業人士,還是尋求在實際業務中應用AI技術的從業者,都能從中獲得有價值的信息和實踐指導。
作者簡介
丁小晶 資深大模型AI應用技術專家與管理者,擁有超過15年的計算機及AI領域經驗、5年團隊管理經驗的技術創新與項目管理複合型人才,精通大模型技術及多語言編程,致力於AI大模型的應用和創新。 畢業於中國科學院計算技術研究所,從事高性能計算技術研究。先後在三星中國、百度等世界知名企業工作,有多年旅日工作經歷,屢獲百度榮譽並持多項專利。目前作為小度教育業務技術負責人及大模型應用專家,研究基於大模型Al教育產品創新,引領小度教育成為行業先鋒。
目錄
前言
第1部分 大模型基礎與核心技術
第1章 大模型簡介
1 1 大模型基本概念與發展歷程
1 1 1 從神經網絡到大規模預訓練模型
1 1 2 深度學習時代:模型規模與數據驅動
1 1 3 以DeepSeek為例:大模型應用場景擴展及其商業化進程
1 2 大模型關鍵技術概覽
1 2 1 Transformer架構簡述
1 2 2 自監督學習與預訓練技術
1 2 3 分散式計算與大模型并行化
1 3 大模型訓練、微調與推理
1 3 1 數據預處理與模型初始化
1 3 2 微調技術:全參數微調與參數高效微調
1 3 3 高效推理優化:量化、剪枝與知識蒸餾
1 4 對話大模型V3與推理大模型R1
1 4 1 自然語言理解與自然語言生成模型的異同
1 4 2 推理大模型的性能優化與低延遲處理
1 4 3 推理模型在數學推理與代碼編寫中的應用
1 5 DeepSeek中的模型壓縮與模型蒸餾技術
1 5 1 模型量化技術:PTQ與QAT
1 5 2 知識蒸餾:教師模型與學生模型
1 5 3 壓縮技術對模型性能與推理速度的影響
1 6 本章小結
第2章 深度學習與強化學習基礎
2 1 神經網絡與損失函數
2 1 1 前饋神經網絡與卷積神經網絡概述
2 1 2 交叉熵與均方誤差損失
2 1 3 自適應損失函數與動態權重調整
2 2 梯度下降、反向傳播與神經網絡的訓練
2 2 1 SGD、Adam與LAMB優化器
2 2 2 反向傳播算法與計算圖
2 2 3 學習率衰減與訓練收斂加速
2 3 基於PyTorch的深度學習框架簡介
2 3 1 PyTorch張量操作與自動求導機制
2 3 2 構建神經網絡模型的模塊化設計
2 3 3 動態計算圖與GPU加速的實現
2 4 強化學習基礎
2 4 1 強化學習環境、智能體與獎勵機制
2 4 2 時間差分學習與QLearning詳解
2 5 監督學習、無監督學習與強化學習對比
2 5 1 不同學習範式假設
2 5 2 半監督與自監督學習的實際應用場景
2 6 基於神經網絡的強化學習
2 6 1 深度Q網絡與策略梯度方法融合
2 6 2 ActorCritic算法與優勢函數的優化
2 6 3 多智能體強化學習框架概述
2 7 經驗平衡:EpsilonGreedy
2 7 1 探索與利用的基本矛盾及其解決思路
2 7 2 Epsilon參數動態調整策略
2 7 3 基於分散式系統的Epsilon優化方法
2 8 基於QLearning的神經網絡:DQN
2 8 1 經驗回放機制的實現
2 8 2 目標網絡的穩定性優化
2 8 3 DQN的改進版本:Double DQN與Dueling DQN
2 9 本章小結
第3章 早期自然語言處理與大模型基本網絡架構
3 1 詞嵌入與循環神經網絡
3 1 1 Word2Vec與GloVe詞向量模型的實現原理
3 1 2 RNN的時間序列數據建模能力
3 1 3 RNN中的梯度消失與梯度爆炸問題及其緩解策略
3 2 長短期記憶網絡與門控循環單元
3 2 1 LSTM的門控機制與長期依賴建模
3 2 2 GRU的簡化結構與性能對比
3 2 3 LSTM與GRU在自然語言處理任務中的應用場景
3 3 Transformer與注意力機制
3 3 1 自注意力機制
3 3 2 Transformer的編碼器與解碼器架構分析
3 4 編碼器-解碼器架構
3 4 1 Seq2Seq模型與注意力機制的結合
3 4 2 Transformer的編碼器-解碼器架構在機器翻譯中的優勢
3 5 大模型家族:BERT與GPT簡介
3 5 1 BERT的預訓練任務:MLM與NSP詳解
3 5 2 GPT的自回歸語言建模機制與訓練方法
3 6 本章小結
第2部分 DeepSeek-R1的核心架構與訓練技術
第4章 基於大規模強化學習的DeepSeek-R1-Zero
4 1 強化學習算法
4 1 1 基於策略優化的強化學習方法:PPO與TRPO
4 1 2 分散式強化學習架構及其在大模型中的應用
4 1 3 強化學習算法的收斂性與穩定性優化策略
4 2 DeepSeek-R1Zero獎勵模型
4 2 1 獎勵建模的理論基礎與設計方法
4 2 2 DeepSeek-R1Zero的自適應獎勵函數實現
4 2 3 獎勵信號稀疏性問題及其改進策略
4 3 DeepSeek-R1Zero訓練模板
4 3 1 基於強化學習的模型訓練流程設計
4 3 2 模板參數調優與多任務并行訓練策略
4 3 3 數據採樣與經驗回放在訓練中的作用
4 3 4 DeepSeek-R1Zero的自進化過程
4 4 本章小結
第5章 基於冷啟動強化學習的DeepSeek-R1
5 1 冷啟動問題
5 1 1 冷啟動場景下的數據稀缺
5 1 2 基於元學習的冷啟動
5 1 3 遷移學習在冷啟動問題中的應用
5 2 面向推理的強化學習
5 2 1 強化學習模型的泛化能力與推理性能優化
5 2 2 基於推理場景的多任務學習方法
5 3 拒絕抽樣與監督微調
5 3 1
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。