內容簡介
近年來,在自然語言處理領域,基於預訓練語言模型的方法已形成全新範式。本書內容分為基礎知識、預訓練語言模型,以及實踐與應用3個部分,共9章。第一部分全面、系統地介紹自然語言處理、神經網絡和預訓練語言模型的相關知識。第二部分介紹幾種具有代表性的預訓練語言模型的原理和機制(涉及注意力機制和Transformer模型),包括BERT及其變種,以及近年來發展迅猛的GPT和提示工程。第三部分介紹了基於LangChain和ChatGLM-6B的知識庫問答系統、基於大型語言模型的自然語言處理任務應用研究和大模型訓練實戰等具體應用,旨在從應用的角度加深讀者對預訓練語言模型理論的理解,便於讀者在實踐中提高技能,達到理論和實踐的統一。 本書適合計算機相關專業的學生,以及其他對預訓練語言模型感興趣的讀者閱讀。目錄
第一部分 基礎知識