Python預訓練視覺和大語言模型 艾米麗.韋伯 9787302678311 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$381
商品編號: 9787302678311
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202501*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:Python預訓練視覺和大語言模型
ISBN:9787302678311
出版社:清華大學
著編譯者:艾米麗.韋伯
頁數:232
所在地:中國大陸 *此為代購商品
書號:1700204
可大量預訂,請先連絡。

內容簡介

基礎模型永久改變了機器學習。從BERT到ChatGPT,從CLIP到Stable Diffusion,當數十億個參數、大數據集與成百上千個GPU相結合時,結果刷新了紀錄。《Python預訓練視覺和大語言模型》呈現的真知灼見和示例代碼將幫你在AWS和Amazon SageMaker上從頭開始預訓練和優化基礎模型,並將它們應用到整個組織的數百個用例中。 《Python預訓練視覺和大語言模型》由經驗豐富的AWS和機器學習專家Emily Webber撰寫,涵蓋的內容十分廣泛,包括構思項目,準備數據集,訓練、評估和部署大型語言、視覺及多模態模型。本書循序漸進地講述基本概念並列舉實例,指導你預訓練和準備數據集及模型,配置環境,並訓練、微調、評估、部署和優化基礎模型。 學習本書後,你將能按照縮放法則在多個GPU上分佈模型和數據集,消除偏差,實現高吞吐量以及構建部署管道。最後,你將完全有能力開發個人項目,對基礎模型進行預訓練和微調。

作者簡介

艾米麗·韋伯,是AWS的首席ML專家解決方案架構師,專門從事大語言和視覺模型的分散式訓練。Emily在AWS社區廣為人知,在YouTube上發布了由16個視頻組成的SageMaker系列,視頻播放量高達21 1萬次。Emily曾在2019年倫敦人工智能大會上發表過主題演講。

目錄

第Ⅰ部分 預訓練前
第1章 預訓練基礎模型簡介
1 1 預訓練和微調藝術
1 2 Transformer模型架構和自注意力
1 3 最先進的視覺模型和語言模型
1 3 1 截至2023年4月的頂級視覺模型
1 3 2 對比預訓練與自然語言監督
1 3 3 截至2023年4月的頂級語言模型
1 3 4 語言技術重點——因果建模和縮放法則
1 4 編碼器和解碼器
1 5 本章小結
第2章 數據集準備:第1部分
2 1 為基礎建模尋找數據集和用例
2 2 你的數據集有多大區別
2 2 1 使用縮放法則調整數據集的大小
2 2 2 基礎——神經語言模型的縮放法則
2 3 偏差檢測和減少
2 4 增強數據集——多語言、多模態和增強
2 5 本章小結
第3章 模型準備
3 1 尋找最優基礎模型
3 1 1 從最小的基礎模型開始
3 1 2 權衡——簡單與複雜
3 1 3 權衡——應用於許多用例,而非局限於一個用例
3 1 4 找到最優基礎模型的技術方法
3 2 尋找預訓練損失函數
3 2 1 視覺的預訓練損失函數——ViT和CoCa
3 2 2 語言中的預訓練損失函數——Alexa教師模型
3 2 3 更改預訓練損失函數
3 3 設定模型大小
3 3 1 解決模型大小問題的實用方法
3 3 2 並非所有縮放法則的效果都相同
3 3 3 規劃未來的實驗
3 4 本章小結
第Ⅱ部分 配置環境
第4章 雲容器和雲加速器
4 1 什麼是加速器,為什麼它們很重要
4 2 準備使用加速器
4 3 優化加速器性能
4 3 1 超參數
4 3 2 AWS上加速器的基礎設施優化
4 4 加速器性能故障排除
4 5 本章小結
第5章 分散式基礎知識
5 1 理解關鍵概念——數據和模型并行性
5 1 1 什麼是數據并行
5 1 2 什麼是模型并行
5 2 將模型與數據并行相結合
5 3 Amazon SageMaker分散式訓練
5 3 1 分散式訓練軟體
5 3 2 SM DDP
5 3 3 SMP庫
5 4 減少GPU內存的高級技術
5 4 1 張量并行性
5 4 2 優化器狀態分片
5 4 3 激活檢查點
5 4 4 分片數據并行性
5 5 當今模型的示例
5 5 1 Stable Diffusion——大規模數據并行
5 5 2 GPT-3——大規模的模型和數據并行性
5 6 本章小結
第6章 數據集準備:第2部分
6 1 Python中的數據載入器
6 2 構建和測試自己的數據載入器——來自Stable Diffusion的案例研究
6 3 創建嵌入——詞元分析器和智能功能的其他關鍵步驟
6 4 在Amazon SageMaker上優化數據管道
6 5 在AWS上大規模轉換深度學習數據集
6 6 本章小結
第Ⅲ部分 訓練模型
第7章 尋找合適的超參數
7 1 超參數——批量大小、學習率等
7 2 微調策略
7 3 基礎模型的超參數微調
7 4 使用SageMaker根據world size放大
7 5 本章小結
第8章 SageMaker的大規模訓練
8 1 優化SageMaker訓練的腳本
8 1 1 導入程序包
8 1 2 參數解析
8 1 3 函數定義和用法
8 2 SageMaker訓練的頂級可用性功能
8 2 1 用於快速實驗的暖池
8 2 2 SSM和SSH進入訓練實例
8 2 3 跟蹤作業和實驗以複製結果
8 3 本章小結
第9章 高級訓練概念
9 1 評估和提高吞吐量
9 2 使用Flash注意力加速訓練運行
9 3 通過編譯加快作業速度
9 4 Amazon SageMaker訓練編譯器和Neo
9 5 在亞馬遜的Trainium和Inferentia自定義硬體上運行編譯后的模型
9 6 求解最優訓練時間
9 7 本章小結
第Ⅳ部分 評估模型
第10章 微調和評估
10 1 對語言、文本和其間的一切進行微調
10 1 1 微調純語言模型
10 1 2 微調純視覺模型
10 1 3 微調視覺語言模型
10 2 評估基礎模型
10 2 1 視覺模型評估指標
10 2 2 語言模型評估指標
10 2 3 聯合視覺-語言任務中的模型評估指標
10 2 4 通過SageMaker Ground Truth將人類視角與標籤相結合
10 3 從人類反饋中強化學習
10 4 本章小結
第11章 檢測、減少和監控偏差
11 1 檢測機器學習模型中的偏差
11 2 減少視覺和語言模型中的偏差
11 2 1 語言模型中的偏差減少——反事實數據增強和公平損失函數
11 2 2 視覺模型中的偏差減少——減少相關性並解決採樣問題
11 3 監控機器學習模型中的偏差
11 4 使用SageMaker Clarify檢測、減輕和監控偏差
11 5 本章小結
第Ⅴ部分 部署模型
第12章 如何部署模型
12 1 模型部署的定義
12 2 託管模型的最優方式
12 3 為什麼縮小模型,以及如何縮小
12 3 1 模型編譯
12 3 2
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理