內容簡介
本書圍繞大語言模型構建的四個階段:預訓練、指令微調、獎勵建模和強化學習,詳述各階段所使用的算法、數據、難點及實踐經驗。在此基礎上,進一步探討了增強大語言模型能力、提升效率及如何將大語言模型落地應用的實踐經驗,涵蓋多模態、智能體等熱門方向,全面展現了大語言模型研究的最新進展。本書適合對深入研究大語言模型內在機制和實現方法感興趣的讀者閱讀,也可作為高年級本科生和研究生自然語言處理課程中相關部分的補充教材。作者簡介
黃萱菁,復旦大學計算機科學技術學院教授、博士生導師。主要從事自然語言處理、信息檢索和社會媒體分析研究。兼任中國中文信息學會常務理事、社會媒體專委會副主任,中國計算機學會自然語言處理專委會副主任、學術工作委員會委員、AACL執委。在高水平國際學術期刊和會議上發表了百余篇論文,負責的多個科研項目受到國家自然科學基金、科技部、教育部、上海市科委的支持。入選2020年度人工智能全球女性、2020年度AI 2000人工智能全球最具影響力提名學者及福布斯中國2020科技女性榜。目錄
第1章 緒論