多模態大模型-演算法.應用與微調 劉兆峰 9787111754886 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:機械工業
NT$757
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202406*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:多模態大模型-演算法.應用與微調
ISBN:9787111754886
出版社:機械工業
著編譯者:劉兆峰
頁數:404
所在地:中國大陸 *此為代購商品
書號:1653113
可大量預訂,請先連絡。

內容簡介

本書詳盡地覆蓋了多模態大模型的演算法原理和應用實戰,提供了豐富的微調技術細節和實際案例,適合對多模態大模型有興趣的技術人員深入學習及應用。 本書分為兩篇: 第一篇演算法原理:詳細介紹了先進的深度學習模型,包括Transformer、GPT系列、深度生成模型,從基本架構、訓練方法到特定應用,包括但不限於Seq2Seq結構、位置編碼、注意力機制、殘差連接、變分自編碼器、GAN、ViT、CLIP、Stable Diffusion、各模型訓練實踐的知識點。此外,探討了預訓練模型的湧現能力、模型參數和通信數據量的估算,以及分散式訓練的各種技術,如數據并行、模型并行和混合精度訓練等。 第二篇應用實戰:聚焦于深度學習模型的實際應用,特別是文本和圖像生成,以及代碼生成的應用實戰。通過具體實戰項目,如利用Stable Diffusion進行圖像生成和Code Llama進行代碼生成,提供了微調技術的詳細細節,介紹了LangChain等大模型應用框架。

作者簡介

劉兆峰 中國電信多模態演算法工程師,基於多模態大模型提升長尾業務能力。天津科技大學人工智慧專業碩士研究生。曾在京東科技擔任演算法工程師,從事京東白條申請評分卡開發。后加入創業公司,從事大規模預訓練語言模型的分散式微調和AIGC相關衍生產品的系統開發,對LLM的訓練和推理有深厚的理論基礎和實戰經驗。 現主要研究方向為多模態大模型與Aqent以及AGI系統研究,聚焦于多模態大模型的行業場景落地。工作期間技術成果豐碩,發表多篇論文,有多個軟體著作權。

目錄

前言
第一篇 演算法原理
第1章 Transformer模型
1 1 Seq2Seq結構
1 1 1 分詞器
1 1 2 編碼器-解碼器結構
1 1 3 注意力機制
1 1 4 實戰:日期轉換
1 2 Transformer模型介紹
1 2 1 位置編碼
1 2 2 模型架構
1 2 3 標準化和殘差連接
1 2 4 線性層和softmax層
1 2 5 損失函數
1 2 6 實戰:日期轉換
1 2 7 小結
1 3 ViT模型介紹
1 3 1 注意力機制在圖像上的應用
1 3 2 ViT模型架構
1 3 3 大數據預訓練
1 3 4 ViT模型訓練實踐
1 4 本章總結
第2章 GPT系列模型
2 1 GPT
2 1 1 語言模型
2 1 2 訓練框架
2 1 3 模型效果分析
2 2 GPT
2 2 1 模型架構分析
2 2 2 構造訓練數據集
2 2 3 模型效果分析
2 3 GPT
2 3 1 上下文學習
2 3 2 構造訓練數據集
2 3 3 訓練停止判定
2 3 4 重要潛力
2 4 GPT
2 4 1 代碼生成模型Codex
2 4 2 強化學習
2 4 3 ChatGPT的「孿生兄弟」:InstructGPT
2 4 4 RLAIF
2 5 GPT
2 5 1 GPT-4的非凡表現
2 5 2 基於規則的獎勵模型
2 5 3 多模態架構
2 5 4 訓練流程
2 5 5 局限性
2 6 語言模型的未來
2 6 1 自我學習與自我核實
2 6 2 稀疏專家模型
2 7 GPT系列的其他應用
2 7 1 MiniGPT
2 7 2 minGPT與nanoGPT
2 7 3 AutoGPT與AgentGPT
2 8 本章總結

第二篇 應用實戰

詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。
規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理