大模型實戰-微調 優化與私有化部署 莊建 騰海雲 莊金蘭 9787121493232 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:電子工業
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$630
商品編號: 9787121493232
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202412*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:大模型實戰-微調 優化與私有化部署
ISBN:9787121493232
出版社:電子工業
著編譯者:莊建 騰海雲 莊金蘭
頁數:308
所在地:中國大陸 *此為代購商品
書號:1700278
可大量預訂,請先連絡。

內容簡介

本書深入淺出地介紹了現代大型人工智能(Artificial Intelligence,AI)模型技術,從對話機器人的發展歷程和人工智能的理念出發,詳細闡述了大模型私有化部署過程,深入剖析了Transformer架構,旨在幫助讀者領悟大模型的核心原理和技術細節。 本書的講解風格獨樹一幟,將深奧的技術術語轉化為簡潔明了的語言,案例敘述既嚴謹又充滿趣味,讓讀者在輕鬆愉快的閱讀體驗中自然而然地吸收和理解AI知識。本書提供完整的代碼示例,可幫助讀者將抽象的理論知識轉化為手頭的實際技能。本書不僅理論知識豐富,實戰案例更能幫助讀者在專業領域內高效地應用AI技術。 無論是初學者還是有一定基礎的工程師,都能通過本書掌握大模型的核心原理和操作技巧,獲得私有化部署大模型的能力,精通Transformer架構,並能運用高效微調策略優化大模型,成為大模型領域的行家裡手。

目錄

第1章 從零開始大模型之旅
1 1 對話機器人歷史
1 1 1 人機同頻交流
1 1 2 人機對話發展歷史
1 2 人工智能
1 2 1 從感知到創造
1 2 2 通用人工智能
1 2 3 發展方向
1 2 4 本書焦點
1 3 本章小結
第2章 大模型私有化部署
2 1 CUDA環境準備
2 1 1 基礎環境
2 1 2 大模型運行環境
2 1 3 安裝顯卡驅動
2 1 4 安裝CUDA
2 1 5 安裝cuDNN
2 2 深度學習環境準備
2 2 1 安裝Anaconda環境
2 2 2 伺服器環境下的環境啟動
2 2 3 安裝PyTorch
2 3 GLM-3和GLM
2 3 1 GLM-3介紹
2 3 2 GLM-4介紹
2 4 GLM-4私有化部署
2 4 1 創建虛擬環境
2 4 2 下載GLM-4項目文件
2 4 3 安裝項目依賴包
2 4 4 下載模型權重
2 5 運行GLM-4的方式
2 5 1 基於命令行的互動式對話
2 5 2 基於Gradio庫的Web端對話應用
2 5 3 OpenAI風格的API調用方法
2 5 4 模型量化部署
2 6 本章小結
第3章 大模型理論基礎
3 1 自然語言領域中的數據
3 1 1 時間序列數據
3 1 2 分詞
3 1 3 Token
3 1 4 Embedding
3 1 5 語義向量空間
3 2 語言模型歷史演進
3 2 1 語言模型歷史演進
3 2 2 統計語言模型
3 2 3 神經網絡語言模型
3 3 注意力機制
3 3 1 RNN模型
3 3 2 Seq2Seq模型
3 3 3 Attention注意力機制
3 4 Transformer架構
3 4 1 整體架構
3 4 2 Self-Attention
3 4 3 Multi-Head Attention
3 4 4 Encoder
3 4 5 Decoder
3 4 6 實驗效果
3 5 本章小結
第4章 大模型開發工具
4 1 Huggingface
4 1 1 Huggingface介紹
4 1 2 安裝Transformers庫
4 2 大模型開發工具
4 2 1 開發範式
4 2 2 Transformers庫核心設計
4 3 Transformers庫詳解
4 3 1 NLP任務處理全流程
4 3 2 數據轉換形式
4 3 3 Tokenizer
4 3 4 模型載入和解讀
4 3 5 模型的輸出
4 3 6 模型的保存
4 4 全量微調訓練方法
4 4 1 Datasets庫和Accelerate庫
4 4 2 數據格式
4 4 3 數據預處理
4 4 4 模型訓練的參數
4 4 5 模型訓練
4 4 6 模型評估
4 5 本章小結
第5章 高效微調方法
5 1 主流的高效微調方法介紹
5 1 1 微調方法介紹
5 1 2 Prompt的提出背景
5 2 PEFT庫快速入門
5 2 1 介紹
5 2 2 設計理念
5 2 3 使用
5 3 Prefix Tuning
5 3 1 背景
5 3 2 核心技術解讀
5 3 3 實現步驟
5 3 4 實驗結果
5 4 Prompt Tuning
5 4 1 背景
5 4 2 核心技術解讀
5 4 3 實現步驟
5 4 4 實驗結果
5 5 P-Tuning
5 5 1 背景
5 5 2 核心技術解讀
5 5 3 實現步驟
5 5 4 實驗結果
5 6 P-Tuning V2
5 6 1 背景
5 6 2 核心技術解讀
5 6 3 實現步驟
5 6 4 實驗結果
5 7 本章小結
第6章 LoRA微調GLM-4實戰
6 1 LoRA
6 1 1 背景
6 1 2 核心技術解讀
6 1 3 LoRA的特點
6 1 4 實現步驟
6 1 5 實驗結果
6 2 AdaLoRA
6 2 1 LoRA的缺陷
6 2 2 核心技術解讀
6 2 3 實現步驟
6 2 4 實驗結果
6 3 QLoRA
6 3 1 背景
6 3 2 技術原理解析
6 4 量化技術
6 4 1 背景
6 4 2 量化技術分類
6 4 3 BitsAndBytes庫
6 4 4 實現步驟
6 4 5 實驗結果
6 5 本章小結
第7章 提示工程入門與實踐
7 1 探索大模型潛力邊界
7 1 1 潛力的來源
7 1 2 Prompt的六個建議
7 2 Prompt實踐
7 2 1 四個經典推理問題
7 2 2 大模型原始表現
7 3 提示工程
7 3 1 提示工程的概念
7 3 2 Few-shot
7 3 3 通過思維鏈提示法提升模型推理能力
7 3 4 Zero-shot-CoT提示方法
7 3 5 Few-shot-CoT提示方法
7 4 Least-to-Most Prompting(LtM提示方法)
7 4 1 Least-to-Most Prompting基本概念
7 4 2 Zero-shot-LtM提示過程
7 4 3 效果驗證
7 5 提示使用技巧
7 5 1 B R O K E提示框架
7 5 2 C O A S T提示框架
7 5 3 R O S E S提示框架
7 6 本章小結
第8章 大模型與中間件
8 1 AI Agent
8 1 1 從AGI到Agent
8 1 2 Agent概念
8 1 3 AI Agent應用領域
8 2 大模型對話模式
8 2 1 模型分類
8 2 2 多角色對話模式
8 3 多角色對話模式實戰
8 3 1 messages參數結構及功能解釋
8 3 2 messages參數中的角色劃分
8 4 Function Calling功能
8
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理