大語言模型工程師手冊-從概念到生產實踐 9787115667373 保羅.尤斯廷 馬克西姆.拉博納

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:人民郵電
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$635
商品編號: 9787115667373
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202505*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:大語言模型工程師手冊-從概念到生產實踐
ISBN:9787115667373
出版社:人民郵電
著編譯者:保羅.尤斯廷 馬克西姆.拉博納
頁數:344
所在地:中國大陸 *此為代購商品
書號:1732007
可大量預訂,請先連絡。

內容簡介

AI技術已取得飛速發展,而大語言模型(LLM)正在引領這場技術革命。本書基於MLOps最佳實踐,提供了在實際場景中設計、訓練和部署LLM的原理與實踐內容。本書將指導讀者構建一個兼具成本效益、可擴展且模塊化的LLM Twin系統,突破傳統Jupyter Notebook演示的局限,著重講解如何構建生產級的端到端LLM系統。 本書涵蓋數據工程、有監督微調和部署的相關知識,通過手把手地帶領讀者構建LLM Twin項目,幫助讀者將MLOps的原則和組件應用於實際項目。同時,本書還涉及推理優化、偏好對齊和實時數據處理等進階內容,是那些希望在項目中應用LLM的讀者的重要學習資源。 閱讀本書,讀者將熟練掌握如何部署強大的LLM——既能解決實際問題,又能具備低延遲和高可用的推理能力。無論是AI領域的新手還是經驗豐富的從業者,本書提供的深入的理論知識和實用的技巧,都將加深讀者對LLM的理解,並提升讀者在真實場景中應用它們的能力。

作者簡介

保羅·尤斯廷(Paul Iusztin),資深機器學習工程師,在生成式AI、計算機視覺和MLOps領域擁有超7年的實戰經驗。曾在Metaphysic擔任核心工程師,專註于將大型神經網絡推向生產環境。此前,先後任職于CoreAI、Everseen和Continental等企業。當前,作為Decoding ML的創始人,致力於搭建專業的機器學習教育平台,該平台通過發布高質量文章和開源課程,幫助技術人員構建生產級的機器學習系統。

目錄

第1章 理解LLM Twin的概念與架構
1 1 理解LLM Twin的概念
1 1 1 什麼是LLM Twin
1 1 2 為什麼構建LLM Twin
1 1 3 為什麼不使用ChatGPT(或其他類似的聊天機器人)
1 2 規劃LLM Twin的MVP
1 2 1 什麼是MVP
1 2 2 定義LLM Twin的MVP
1 3 基於特徵、訓練和推理流水線構建機器學習系統
1 3 1 構建生產級機器學習系統的挑戰
1 3 2 以往解決方案的問題
1 3 3 解決方案:機器學習系統的流水線
1 3 4 FTI流水線的優勢
1 4 設計LLM Twin的系統架構
1 4 1 列出LLM Twin架構的技術細節
1 4 2 使用FTI流水線設計LLM Twin架構
1 4 3 關於FTI流水線架構和LLM Twin架構的最終思考
1 5 小結
第2章 工具與安裝
2 1 Python生態環境與項目安裝
2 1 1 Poetry:Python項目依賴與環境管理利器
2 1 2 Poe the Poet:Python項目任務管理神器
2 2 MLOps與MLOps工具生態
2 2 1 Hugging Face:模型倉庫
2 2 2 ZenML:編排、工件和元數據
2 2 3 Comet ML:實驗跟蹤工具
2 2 4 Opik:提示監控
2 3 用於存儲NoSQL和向量數據的資料庫
2 3 1 MongoDB:NoSQL資料庫
2 3 2 Qdrant:向量資料庫
2 4 為AWS做準備
2 4 1 設置AWS賬戶、訪問密鑰和CLI
2 4 2 SageMaker:訓練與推理計算
2 5 小結
第3章 數據工程
3 1 設計LLM Twin的數據採集流水線
3 1 1 實現LLM Twin數據採集流水線
3 1 2 ZenML流水線及其步驟
3 1 3 分發器:實例化正確的爬蟲
3 1 4 爬蟲
3 1 5 NoSQL數據倉庫文檔
3 2 採集原始數據並存儲到數據倉庫
3 3 小結
第4章 RAG特徵流水線
4 1 理解RAG
4 1 1 為什麼使用RAG
4 1 2 基礎RAG框架
4 1 3 什麼是嵌入
4 1 4 關於向量資料庫的更多內容
4 2 高級RAG技術概覽
4 2 1 預檢索
4 2 2 檢索
4 2 3 后檢索
4 3 探索LLM Twin的RAG特徵流水線架構
4 3 1 待解決的問題
4 3 2 特徵存儲
4 3 3 原始數據從何而來
4 3 4 設計RAG特徵流水線架構
4 4 實現LLM Twin的RAG特徵流水線
4 4 1 配置管理
4 4 2 ZenML流水線與步驟
4 4 3 Pydantic領域實體
4 4 4 分發器層
4 4 5 處理器
4 5 小結
第5章 監督微調
5 1 構建指令訓練數據集
5 1 1 構建指令數據集的通用框架
5 1 2 數據管理
5 1 3 基於規則的過濾
5 1 4 數據去重
5 1 5 數據凈化
5 1 6 數據質量評估
5 1 7 數據探索
5 1 8 數據生成
5 1 9 數據增強
5 2 構建自定義指令數據集
5 3 探索SFT及其關鍵技術
5 3 1 何時進行微調
5 3 2 指令數據集格式
5 3 3 聊天模板
5 3 4 參數高效微調技術
5 3 5 訓練參數
5 4 微調技術實踐
5 5 小結
第6章 偏好對齊微調
6 1 理解偏好數據集
6 1 1 偏好數據
6 1 2 數據生成與評估
6 2 構建個性化偏好數據集
6 3 偏好對齊
6 3 1 基於人類反饋的強化學習
6 3 2 DPO
6 4 實踐DPO
6 5 小結
第7章 LLM的評估方法
7 1 模型能力評估
7 1 1 機器學習與LLM評估的對比
7 1 2 通用LLM評估
7 1 3 領域特定LLM評估
7 1 4 任務特定LLM評估
7 2 RAG系統的評估
7 2 1 Ragas
7 2 2 ARES
7 3 TwinLlama-3 1-8B模型評估
7 3 1 生成答案
7 3 2 答案評估
7 3 3 結果分析
7 4 小結
第8章 模型推理性能優化
8 1 模型優化方法
8 1 1 KV cache
8 1 2 連續批處理
8 1 3 投機解碼
8 1 4 優化的注意力機制
8 2 模型并行化
8 2 1 數據并行
8 2 2 流水線并行
8 2 3 張量并行
8 2 4 組合使用并行化方法
8 3 模型量化
8 3 1 量化簡介
8 3 2 基於GGUF和llama cpp的模型量化
8 3 3 GPTQ和EXL2量化技術
8 3 4 其他量化技術
8 4 小結
第9章 RAG推理流水線
9 1 理解LLM Twin的RAG推理流水線
9 2 探索LLM Twin的高級RAG技術
9 2 1 高級RAG預檢索優化:查詢擴展與自查詢
9 2 2 高級RAG檢索優化:過濾向量搜索
9 2 3 高級RAG后檢索優化:重排序
9 3 構建基於RAG的LLM Twin推理流水線
9 3 1 實現檢索模塊
9 3 2 整合RAG推理流水線
9 4 小結
第10章 推理流水線部署
10 1 部署方案的選擇
10 1 1 吞吐量和延遲
10 1 2 數據
10 1 3 基礎設施
10 2 深入理解推理部署方案
10 2 1 在線實時推理
10 2 2 非同步推理
10 2 3 離線批量轉換
10 3 模型服務的單體架構與微服務架構
10 3 1 單體架構
10 3 2
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理