大語言模型開發-用開源模型開發本地系統 范煜 9787302670513 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
NT$750
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202409*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:大語言模型開發-用開源模型開發本地系統
ISBN:9787302670513
出版社:清華大學
著編譯者:范煜
頁數:320
所在地:中國大陸 *此為代購商品
書號:1674831
可大量預訂,請先連絡。

內容簡介

本書旨在幫助讀者理解開源大語言模型的架構、訓練和推理過程,以及相關的源代碼。主要研究對象是Meta開源的Llama模型。本書從Python Numpy實現單層感知機和神經網路開始,逐步講解了如何實現Transformer模型和Llama模型。此外,本書還介紹了增量預訓練模型、監督微調和人類反饋強化學習等模型訓練過程。對於私有知識的加入,書中重點介紹了監督微調,也介紹了RAG中詞向量的計算。本書採用循序漸進的方式,通過功能框圖、代碼分解執行、執行結果顯示、背景知識補充等手段幫助讀者理解模型和演算法。 本書的核心讀者群體定位為大語言模型應用的開發人員,特別適合那些想從計算機視覺轉向自然語言處理的人。此外,本書還適合作為大學本科生及研究生相關課程的參考教材使用。

作者簡介

范煜,江蘇南通人,研究員級高級工程師,大數據軟體專家,范思軟體有限公司創始人,畢業於南京航空航天大學,喜愛閱讀和旅行,對經濟、管理、歷史、地理等方面知識有濃厚興趣。

目錄

第1章 自然語言處理
1 1 人工智慧的技術構成
1 1 1 機器學習和深度學習的區別
1 1 2 表示學習與深度學習的關係
1 2 自然語言處理的發展階段
1 3 規則驅動的方法
1 4 統計方法
1 4 1 隱馬爾可夫模型
1 4 2 條件隨機場
1 5 深度學習方法
1 5 1 Word2Vec詞嵌入
1 5 2 循環神經網路
1 5 3 長短時記憶網路模型
1 5 4 門控循環單元模型
1 6 序列到序列模型
1 7 注意力機制
1 8 Transformer模型
1 9 預訓練模型
1 10 大語言模型
1 10 1 根據架構分類
1 10 2 根據訓練方式和預測方式分類
第2章 深度學習基礎
2 1 深度學習
2 2 感知機
2 2 1 前饋網路
2 2 2 權重更新
2 2 3 反向傳播
2 3 激活函數
2 3 1 常用激活函數
2 3 2 新型激活函數
2 4 優化函數(演算法)
2 4 1 梯度下降法
2 4 2 動量優化演算法
2 4 3 AdaGrad優化演算法
2 4 4 RMSProp優化演算法
2 4 5 Adam優化演算法
2 4 6 AdamW優化演算法
2 5 權值初始化
2 5 1 批歸一化
2 5 2 層歸一化
2 5 3 RMSNorm
2 6 損失函數
2 6 1 均方誤差
2 6 2 均方根誤差
2 6 3 交叉熵損失
2 7 模型評估
2 7 1 偏差/方差
2 7 2 過擬合與欠擬合
2 8 正則化
2 9 SoftMax函數
2 10 簡易神經網路搭建
2 11 模型優化
2 11 1 梯度消失
2 11 2 梯度爆炸
2 11 3 優化手段
2 11 4 調參技巧
第3章 PyTorch開發基礎
3 1 深度學習框架
3 2 PyTorch簡介
3 3 PyTorch安裝
3 3 1 CUDA安裝
3 3 2 阿里雲GPU雲伺服器
3 3 3 安裝PyTorch
3 3 4 安裝其他庫
3 3 5 檢查開發環境
3 4 張量
3 4 1 張量創建函數定義
3 4 2 張量創建函數清單
3 4 3 隨機張量:torch randn()
3 4 4 張量操作
3 4 5 CUDA張量
3 5 梯度計算
3 5 1 導數與偏導數
3 5 2 導數規則
3 5 3 梯度
3 5 4 公式推導
3 5 5 自動梯度計算
3 5 6 代碼解析
3 6 反向傳播
3 7 torch nn模塊構建神經網路
3 7 1 nn Linear層
3 7 2 nn Sigmoid激活函數
3 7 3 nn BCELoss損失函數
3 8 torch optim優化器
3 9 訓練、驗證和測試過程
3 10 用PyTorch實現神經網路
3 10 1 實現單層感知機
3 10 2 實現簡單神經網路
3 10 3 用torch nn實現簡單神經網路
3 11 源代碼常用模塊
3 11 1 nn Parameter類
3 11 2 typing模塊
3 11 3 logging模塊
3 11 4 dataclasses
3 11 5 Fire庫
第4章 Transformer模型詳解
4 1 大語言模型的簡介和分類
4 1 1 簡介
4 1 2 分類
4 2 Transformer模型
4 2 1 模型構成
4 2 2 因果解碼器結構
4 3 分詞
4 3 1 詞彙表
4 3 2 詞彙表的生成
4 3 3 分詞演算法
4 3 4 位元組對編碼
4 3 5 句子片段
4 3 6 分詞過程
4 3 7 詞彙索引
4 4 詞嵌入
4 4 1 標記嵌入
4 4 2 位置編碼
4 4 3 詞彙索引和詞嵌入向量關係
4 5 位置編碼方法
4 5 1 原生位置編碼
4 5 2 旋轉位置編碼
4 5 3 位置編碼的實現
4 5 4 Llama位置編碼
4 5 5 長度擴展
4 6 自注意力機制
4 6 1 原理
4 6 2 注意力分數的計算
4 6 3 多頭注意力機制
4 6 4 分組查詢注意力
4 6 5 Llama 2源代碼分析
4 7 殘差連接和層歸一化
4 7 1 預歸一化
4 7 2 RMSNorm
4 7 3 Llama 2源代碼分析
4 8 前饋網路
4 8 1 激活函數
4 8 2 前饋網路隱藏層維度
4 8 3 Llama 2源代碼分析
4 8 4 演示代碼
4 9 損失函數
4 10 掩碼
4 11 PyTorch的nn Transformer模塊
4 11 1 模塊組件
4 11 2 __call__函數
4 11 3 最簡單的標準Transformer模型
4 11 4 純解碼器模型
4 11 5 Llama 2模型
第5章 大語言模型
5 1 什麼是大語言模型
5 2 GPT簡介
5 3 Llama簡介
5 4 Llama的訓練
5 4 1 訓練數據
5 4 2 預訓練
5 5 Llama 2 chat
5 5 1 監督微調
5 5 2 基於人類反饋的強化學習
5 6 Llama 2模型結構
5 7 Llama 2權重文件夾
5 8 參數量計算
5 8 1 標準Transformer解碼器模型
5 8 2 Llama 2模型
5 8 3 用Transformers模塊計算
5 8 4 直接解析模型文件
第6章 模型訓練
6 1 模型訓練的種類
6 2 Hugging Face訓練環境
6 3 Transformers庫
6 3 1 主要功能
6 3 2 函數
6 4 訓練程序
6 5 分詞處理
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。
規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理