*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202406*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:多模態大模型-演算法.應用與微調 ISBN:9787111754886 出版社:機械工業 著編譯者:劉兆峰 頁數:404 所在地:中國大陸 *此為代購商品 書號:1653113 可大量預訂,請先連絡。 內容簡介 本書詳盡地覆蓋了多模態大模型的演算法原理和應用實戰,提供了豐富的微調技術細節和實際案例,適合對多模態大模型有興趣的技術人員深入學習及應用。 本書分為兩篇: 第一篇演算法原理:詳細介紹了先進的深度學習模型,包括Transformer、GPT系列、深度生成模型,從基本架構、訓練方法到特定應用,包括但不限於Seq2Seq結構、位置編碼、注意力機制、殘差連接、變分自編碼器、GAN、ViT、CLIP、Stable Diffusion、各模型訓練實踐的知識點。此外,探討了預訓練模型的湧現能力、模型參數和通信數據量的估算,以及分散式訓練的各種技術,如數據并行、模型并行和混合精度訓練等。 第二篇應用實戰:聚焦于深度學習模型的實際應用,特別是文本和圖像生成,以及代碼生成的應用實戰。通過具體實戰項目,如利用Stable Diffusion進行圖像生成和Code Llama進行代碼生成,提供了微調技術的詳細細節,介紹了LangChain等大模型應用框架。作者簡介 劉兆峰 中國電信多模態演算法工程師,基於多模態大模型提升長尾業務能力。天津科技大學人工智慧專業碩士研究生。曾在京東科技擔任演算法工程師,從事京東白條申請評分卡開發。后加入創業公司,從事大規模預訓練語言模型的分散式微調和AIGC相關衍生產品的系統開發,對LLM的訓練和推理有深厚的理論基礎和實戰經驗。 現主要研究方向為多模態大模型與Aqent以及AGI系統研究,聚焦于多模態大模型的行業場景落地。工作期間技術成果豐碩,發表多篇論文,有多個軟體著作權。目錄 前言第一篇 演算法原理 第1章 Transformer模型 1 1 Seq2Seq結構 1 1 1 分詞器 1 1 2 編碼器-解碼器結構 1 1 3 注意力機制 1 1 4 實戰:日期轉換 1 2 Transformer模型介紹 1 2 1 位置編碼 1 2 2 模型架構 1 2 3 標準化和殘差連接 1 2 4 線性層和softmax層 1 2 5 損失函數 1 2 6 實戰:日期轉換 1 2 7 小結 1 3 ViT模型介紹 1 3 1 注意力機制在圖像上的應用 1 3 2 ViT模型架構 1 3 3 大數據預訓練 1 3 4 ViT模型訓練實踐 1 4 本章總結 第2章 GPT系列模型 2 1 GPT 2 1 1 語言模型 2 1 2 訓練框架 2 1 3 模型效果分析 2 2 GPT 2 2 1 模型架構分析 2 2 2 構造訓練數據集 2 2 3 模型效果分析 2 3 GPT 2 3 1 上下文學習 2 3 2 構造訓練數據集 2 3 3 訓練停止判定 2 3 4 重要潛力 2 4 GPT 2 4 1 代碼生成模型Codex 2 4 2 強化學習 2 4 3 ChatGPT的「孿生兄弟」:InstructGPT 2 4 4 RLAIF 2 5 GPT 2 5 1 GPT-4的非凡表現 2 5 2 基於規則的獎勵模型 2 5 3 多模態架構 2 5 4 訓練流程 2 5 5 局限性 2 6 語言模型的未來 2 6 1 自我學習與自我核實 2 6 2 稀疏專家模型 2 7 GPT系列的其他應用 2 7 1 MiniGPT 2 7 2 minGPT與nanoGPT 2 7 3 AutoGPT與AgentGPT 2 8 本章總結 第二篇 應用實戰 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |