| *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202409*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:大語言模型開發-用開源模型開發本地系統 ISBN:9787302670513 出版社:清華大學 著編譯者:范煜 頁數:320 所在地:中國大陸 *此為代購商品 書號:1674831 可大量預訂,請先連絡。 內容簡介 本書旨在幫助讀者理解開源大語言模型的架構、訓練和推理過程,以及相關的源代碼。主要研究對象是Meta開源的Llama模型。本書從Python Numpy實現單層感知機和神經網路開始,逐步講解了如何實現Transformer模型和Llama模型。此外,本書還介紹了增量預訓練模型、監督微調和人類反饋強化學習等模型訓練過程。對於私有知識的加入,書中重點介紹了監督微調,也介紹了RAG中詞向量的計算。本書採用循序漸進的方式,通過功能框圖、代碼分解執行、執行結果顯示、背景知識補充等手段幫助讀者理解模型和演算法。 本書的核心讀者群體定位為大語言模型應用的開發人員,特別適合那些想從計算機視覺轉向自然語言處理的人。此外,本書還適合作為大學本科生及研究生相關課程的參考教材使用。作者簡介 范煜,江蘇南通人,研究員級高級工程師,大數據軟體專家,范思軟體有限公司創始人,畢業於南京航空航天大學,喜愛閱讀和旅行,對經濟、管理、歷史、地理等方面知識有濃厚興趣。目錄 第1章 自然語言處理1 1 人工智慧的技術構成 1 1 1 機器學習和深度學習的區別 1 1 2 表示學習與深度學習的關係 1 2 自然語言處理的發展階段 1 3 規則驅動的方法 1 4 統計方法 1 4 1 隱馬爾可夫模型 1 4 2 條件隨機場 1 5 深度學習方法 1 5 1 Word2Vec詞嵌入 1 5 2 循環神經網路 1 5 3 長短時記憶網路模型 1 5 4 門控循環單元模型 1 6 序列到序列模型 1 7 注意力機制 1 8 Transformer模型 1 9 預訓練模型 1 10 大語言模型 1 10 1 根據架構分類 1 10 2 根據訓練方式和預測方式分類 第2章 深度學習基礎 2 1 深度學習 2 2 感知機 2 2 1 前饋網路 2 2 2 權重更新 2 2 3 反向傳播 2 3 激活函數 2 3 1 常用激活函數 2 3 2 新型激活函數 2 4 優化函數(演算法) 2 4 1 梯度下降法 2 4 2 動量優化演算法 2 4 3 AdaGrad優化演算法 2 4 4 RMSProp優化演算法 2 4 5 Adam優化演算法 2 4 6 AdamW優化演算法 2 5 權值初始化 2 5 1 批歸一化 2 5 2 層歸一化 2 5 3 RMSNorm 2 6 損失函數 2 6 1 均方誤差 2 6 2 均方根誤差 2 6 3 交叉熵損失 2 7 模型評估 2 7 1 偏差/方差 2 7 2 過擬合與欠擬合 2 8 正則化 2 9 SoftMax函數 2 10 簡易神經網路搭建 2 11 模型優化 2 11 1 梯度消失 2 11 2 梯度爆炸 2 11 3 優化手段 2 11 4 調參技巧 第3章 PyTorch開發基礎 3 1 深度學習框架 3 2 PyTorch簡介 3 3 PyTorch安裝 3 3 1 CUDA安裝 3 3 2 阿里雲GPU雲伺服器 3 3 3 安裝PyTorch 3 3 4 安裝其他庫 3 3 5 檢查開發環境 3 4 張量 3 4 1 張量創建函數定義 3 4 2 張量創建函數清單 3 4 3 隨機張量:torch randn() 3 4 4 張量操作 3 4 5 CUDA張量 3 5 梯度計算 3 5 1 導數與偏導數 3 5 2 導數規則 3 5 3 梯度 3 5 4 公式推導 3 5 5 自動梯度計算 3 5 6 代碼解析 3 6 反向傳播 3 7 torch nn模塊構建神經網路 3 7 1 nn Linear層 3 7 2 nn Sigmoid激活函數 3 7 3 nn BCELoss損失函數 3 8 torch optim優化器 3 9 訓練、驗證和測試過程 3 10 用PyTorch實現神經網路 3 10 1 實現單層感知機 3 10 2 實現簡單神經網路 3 10 3 用torch nn實現簡單神經網路 3 11 源代碼常用模塊 3 11 1 nn Parameter類 3 11 2 typing模塊 3 11 3 logging模塊 3 11 4 dataclasses 3 11 5 Fire庫 第4章 Transformer模型詳解 4 1 大語言模型的簡介和分類 4 1 1 簡介 4 1 2 分類 4 2 Transformer模型 4 2 1 模型構成 4 2 2 因果解碼器結構 4 3 分詞 4 3 1 詞彙表 4 3 2 詞彙表的生成 4 3 3 分詞演算法 4 3 4 位元組對編碼 4 3 5 句子片段 4 3 6 分詞過程 4 3 7 詞彙索引 4 4 詞嵌入 4 4 1 標記嵌入 4 4 2 位置編碼 4 4 3 詞彙索引和詞嵌入向量關係 4 5 位置編碼方法 4 5 1 原生位置編碼 4 5 2 旋轉位置編碼 4 5 3 位置編碼的實現 4 5 4 Llama位置編碼 4 5 5 長度擴展 4 6 自注意力機制 4 6 1 原理 4 6 2 注意力分數的計算 4 6 3 多頭注意力機制 4 6 4 分組查詢注意力 4 6 5 Llama 2源代碼分析 4 7 殘差連接和層歸一化 4 7 1 預歸一化 4 7 2 RMSNorm 4 7 3 Llama 2源代碼分析 4 8 前饋網路 4 8 1 激活函數 4 8 2 前饋網路隱藏層維度 4 8 3 Llama 2源代碼分析 4 8 4 演示代碼 4 9 損失函數 4 10 掩碼 4 11 PyTorch的nn Transformer模塊 4 11 1 模塊組件 4 11 2 __call__函數 4 11 3 最簡單的標準Transformer模型 4 11 4 純解碼器模型 4 11 5 Llama 2模型 第5章 大語言模型 5 1 什麼是大語言模型 5 2 GPT簡介 5 3 Llama簡介 5 4 Llama的訓練 5 4 1 訓練數據 5 4 2 預訓練 5 5 Llama 2 chat 5 5 1 監督微調 5 5 2 基於人類反饋的強化學習 5 6 Llama 2模型結構 5 7 Llama 2權重文件夾 5 8 參數量計算 5 8 1 標準Transformer解碼器模型 5 8 2 Llama 2模型 5 8 3 用Transformers模塊計算 5 8 4 直接解析模型文件 第6章 模型訓練 6 1 模型訓練的種類 6 2 Hugging Face訓練環境 6 3 Transformers庫 6 3 1 主要功能 6 3 2 函數 6 4 訓練程序 6 5 分詞處理 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |