| *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202404*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:大語言模型-基礎與前沿 ISBN:9787115634887 出版社:人民郵電 著編譯者:熊濤 頁數:260 所在地:中國大陸 *此為代購商品 書號:1626067 可大量預訂,請先連絡。 內容簡介 本書深入闡述了大語言模型的基本概念和演算法、研究前沿以及應用,涵蓋大語言模型的廣泛主題,從基礎到前沿,從方法到應用,涉及從方法論到應用場景方方面面的內容。首先,本書介紹了人工智慧領域的進展和趨勢;其次,探討了語言模型的基本概念和架構、Transformer、預訓練目標和解碼策略、上下文學習和輕量級微調、稀疏專家模型、檢索增強型語言模型、對齊語言模型與人類偏好、減少偏見和有害性以及視覺語言模型等內容;最後,討論了語言模型對環境的影響。 本書內容全面、系統性強,適合高年級本科生和研究生、博士后研究人員、講師以及行業從業者閱讀與參考。作者簡介 熊濤 美國明尼蘇達大學雙城分校電子與計算機工程博士。曾在多家中美知名高科技公司擔任高級管理職位和首席科學家,在人工智慧的多個領域,包括大語言模型、圖神經網路等從事研發和管理工作多年。目錄 第1章 大語言模型:辯論、爭議與未來發展方向1 1 新時代的曙光 1 2 LLM有意識嗎 1 2 1 理解LLM的層次結構 1 2 2 意識是否需要碳基生物學 1 2 3 具身化與落地 1 2 4 世界模型 1 2 5 溝通意圖 1 2 6 系統性和全面泛化 1 3 未來發展方向 1 4 小結 第2章 語言模型和分詞 2 1 語言建模的挑戰 2 2 統計語言建模 2 3 神經語言模型 2 4 評估語言模型 2 5 分詞 2 5 1 按空格分割 2 5 2 字元分詞 2 5 3 子詞分詞 2 5 4 無分詞器 2 5 5 可學習的分詞 2 6 小結 第3章 Transformer 3 1 Transformer編碼器模塊 3 2 編碼器-解碼器架構 3 3 位置嵌入 3 3 1 絕對位置編碼 3 3 2 相對位置編碼 3 4 更長的上下文 3 5 外部記憶 3 6 更快、更小的Transformer 3 6 1 高效注意力 3 6 2 條件計算 3 6 3 搜索高效Transformer 3 6 4 在單個GPU上一天內訓練一個語言模型 3 7 推理優化 3 7 1 推測解碼 3 7 2 簡化Transformer 3 7 3 修剪 3 7 4 蒸餾 3 7 5 混合精度 3 7 6 高效擴展Transformer推理 3 8 小結 第4章 預訓練目標和解碼策略 4 1 模型架構 4 2 預訓練目標 4 3 具有代表性的語言模型 4 4 解碼策略 4 5 小結 第5章 上下文學習和輕量級微調 5 1 上下文學習 5 1 1 示範樣本選擇 5 1 2 樣本排序 5 1 3 指令生成 5 1 4 思維鏈 5 1 5 遞歸提示 5 1 6 為什麼ICL有效 5 1 7 評估 5 2 提示語言模型的校準 5 3 輕量級微調 5 3 1 基於添加的方法 5 3 2 基於規範的方法 5 3 3 基於重新參數化的方法 5 3 4 混合方法 5 4 小結 第6章 訓練更大的模型 6 1 擴大尺度法則 6 1 1 預訓練Transformer擴大尺度的啟示 6 1 2 預訓練和微調Transformer帶來的新啟示 6 1 3 k比特推理擴大尺度法則 6 1 4 挑戰與機遇 6 2 湧現能力 6 3 人工智慧加速器 6 4 并行 6 4 1 數據并行 6 4 2 流水線并行 6 4 3 張量模型并行 6 4 4 專家混合 6 5 混合訓練和低精度訓練 6 5 1 單位縮放 6 5 2 FP8與INT 6 6 其他節省內存的設計 6 7 小結 第7章 稀疏專家模型 7 1 為什麼採用稀疏專家模型 7 2 路由演算法 7 2 1 每個詞元選擇top-k個專家 7 2 2 每個專家選擇top-k個詞元 7 2 3 全局最優分配 7 2 4 隨機路由 7 2 5 雙層路由 7 2 6 針對不同預訓練領域的不同專家 7 3 其他改進措施 7 3 1 加快訓練速度 7 3 2 高效的MoE架構 7 3 3 生產規模部署 7 3 4 通過稀疏MoE擴展視覺語言模型 7 3 5 MoE與集成 7 4 小結 第8章 檢索增強型語言模型 8 1 預訓練檢索增強型語言模型 8 2 詞元級檢索 8 3 通過高效和精簡檢索進行問答和多跳推理 8 4 檢索增強型Transformer 8 5 檢索增強型黑盒語言模型 8 6 視覺增強語言建模 8 7 小結 第9章 對齊語言模型與人類偏好 9 1 基於人類反饋進行微調 9 1 1 基於人類反饋的強化學習 9 1 2 KL散度:前向與反向 9 1 3 REINFORCE、TRPO和PPO 9 1 4 帶有KL懲罰的強化學習:貝葉斯推理觀點 9 1 5 通過分佈控制生成進行語言模型對齊 9 1 6 通過f散度最小化統一RLHF和GDC方法 9 2 基於語言反饋進行微調 9 3 基於監督學習進行微調 9 4 基於人工智慧反饋的強化學習 9 5 基於自我反饋進行迭代優化 9 6 基於人類偏好進行預訓練 9 7 小結 第10章 減少偏見和有害性 10 1 偏見 10 2 有害性 10 3 偏見和有害性的檢測與減少 10 3 1 基於解碼的策略 10 3 2 基於提示的脫毒 10 3 3 基於數據的策略 10 3 4 基於投影和正則化的方法 10 3 5 基於風格轉換的方法 10 3 6 基於強化學習的微調和基於人類偏好的預訓練 10 4 小結 第11章 視覺語言模型 11 1 語言處理的多模態落地 11 2 不需要額外訓練即可利用預訓練模型 11 2 1 視覺引導解碼策略 11 2 2 作為大語言模型提示的視覺輸入 11 2 3 基於相似性搜索的多模態對齊 11 3 輕量級適配 11 3 1 鎖定圖像調優 11 3 2 作為(凍結)語言模型前綴的學習視覺嵌入 11 3 3 視覺-文本交叉注意力融合 11 4 圖文聯合訓練 11 5 檢索增強視覺語言模型 11 6 視覺指令調整 11 7 小結 第12章 環境影響 12 1 能源消耗和溫室氣體排放 12 2 估算訓練模型的排放量 12 3 小結 參考文獻 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |