內容簡介
AI技術已取得飛速發展,而大語言模型(LLM)正在引領這場技術革命。本書基於MLOps最佳實踐,提供了在實際場景中設計、訓練和部署LLM的原理與實踐內容。本書將指導讀者構建一個兼具成本效益、可擴展且模塊化的LLM Twin系統,突破傳統Jupyter Notebook演示的局限,著重講解如何構建生產級的端到端LLM系統。 本書涵蓋數據工程、有監督微調和部署的相關知識,通過手把手地帶領讀者構建LLM Twin項目,幫助讀者將MLOps的原則和組件應用於實際項目。同時,本書還涉及推理優化、偏好對齊和實時數據處理等進階內容,是那些希望在項目中應用LLM的讀者的重要學習資源。 閱讀本書,讀者將熟練掌握如何部署強大的LLM——既能解決實際問題,又能具備低延遲和高可用的推理能力。無論是AI領域的新手還是經驗豐富的從業者,本書提供的深入的理論知識和實用的技巧,都將加深讀者對LLM的理解,並提升讀者在真實場景中應用它們的能力。作者簡介
保羅·尤斯廷(Paul Iusztin),資深機器學習工程師,在生成式AI、計算機視覺和MLOps領域擁有超7年的實戰經驗。曾在Metaphysic擔任核心工程師,專註于將大型神經網絡推向生產環境。此前,先後任職于CoreAI、Everseen和Continental等企業。當前,作為Decoding ML的創始人,致力於搭建專業的機器學習教育平台,該平台通過發布高質量文章和開源課程,幫助技術人員構建生產級的機器學習系統。目錄
第1章 理解LLM Twin的概念與架構