內容簡介
基礎模型永久改變了機器學習。從BERT到ChatGPT,從CLIP到Stable Diffusion,當數十億個參數、大數據集與成百上千個GPU相結合時,結果刷新了紀錄。《Python預訓練視覺和大語言模型》呈現的真知灼見和示例代碼將幫你在AWS和Amazon SageMaker上從頭開始預訓練和優化基礎模型,並將它們應用到整個組織的數百個用例中。 《Python預訓練視覺和大語言模型》由經驗豐富的AWS和機器學習專家Emily Webber撰寫,涵蓋的內容十分廣泛,包括構思項目,準備數據集,訓練、評估和部署大型語言、視覺及多模態模型。本書循序漸進地講述基本概念並列舉實例,指導你預訓練和準備數據集及模型,配置環境,並訓練、微調、評估、部署和優化基礎模型。 學習本書後,你將能按照縮放法則在多個GPU上分佈模型和數據集,消除偏差,實現高吞吐量以及構建部署管道。最後,你將完全有能力開發個人項目,對基礎模型進行預訓練和微調。作者簡介
艾米麗·韋伯,是AWS的首席ML專家解決方案架構師,專門從事大語言和視覺模型的分散式訓練。Emily在AWS社區廣為人知,在YouTube上發布了由16個視頻組成的SageMaker系列,視頻播放量高達21 1萬次。Emily曾在2019年倫敦人工智能大會上發表過主題演講。目錄
第Ⅰ部分 預訓練前