| *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202405*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:解構大語言模型-從線性回歸到通用人工智能 ISBN:9787121477409 出版社:電子工業 著編譯者:唐亙 頁數:414 所在地:中國大陸 *此為代購商品 書號:1639221 可大量預訂,請先連絡。 內容簡介 本書從模型的結構和數據基礎兩個方面解構大語言模型,以便幫助讀者理解和搭建類似ChatGPT的系統。在模型的結構方面,大語言模型屬於深度神經網路,其設計核心是注意力機制,因此,本書涵蓋了多層感知器、卷積神經網路和循環神經網路等經典模型。在模型的數據基礎方面,本書既涉及模型訓練的工程基礎,如反向傳播,又涉及數據的使用方式,如遷移學習、強化學習,以及傳統的監督學習和無監督學習。此外,本書還闡述了如何從計量經濟學和經典機器學習模型中汲取靈感,以提高模型的穩定性和可解釋性。 本書既適用於希望深入了解大語言模型、通過人工智慧技術解決實際問題的讀者,也適合作為高等院校計算機及相關專業的師生參考用書。作者簡介 唐?,數據科學家,專註于機器學習和大數據,熱愛並積极參与ApacheSpark、Scikit-Learn等開源項目。作為講師和技術顧問,為多家機構(包括惠普、華為、復旦大學等)提供百余場技術培訓。 此前的工作和研究集中於經濟和量化金融,曾參与經合組織(QECD)的研究項目並發表論文,並擔任英國最大在線出版社Packt的技術審稿人。曾獲得復旦大學的數學和計算機雙學士學位、巴黎綜合理工大學的金融碩士學位、法國國立統計與經濟管理學校的數據科學碩士學位。目錄 第1章 緒論1 1 是數字鸚鵡,還是自我意識 1 1 1 電車難題 1 1 2 任務分解 1 2 數據基礎 1 3 模型結構 1 4 關於本書 第2章 數學基礎:不可或缺的知識 2 1 向量、矩陣和張量 2 1 1 標量、向量、矩陣與張量 2 1 2 數學記號與特殊矩陣 2 1 3 矩陣運算 2 1 4 向量夾角 2 1 5 矩陣的秩 2 1 6 高維張量運算 2 2 概率 2 2 1 定義概率:事件和概率空間 2 2 2 條件概率:信息的價值 2 2 3 隨機變數 2 2 4 正態分佈:殊途同歸 2 2 5 P-value:自信的猜測 2 3 微積分 2 3 1 導數和積分 2 3 2 極限 2 3 3 鏈式法則 2 3 4 偏導數與梯度 2 3 5 極值與最值 2 4 本章小結 第3章 線性回歸:模型之母 3 1 一個簡單的例子 3 1 1 機器學習的建模方式 3 1 2 統計分析的建模方式 3 2 模型實現 3 2 1 機器學習的代碼實現 3 2 2 統計分析的代碼實現 3 3 模型陷阱 3 3 1 過擬合:模型越複雜越好嗎 3 3 2 假設檢驗:統計分析的解決方案 3 3 3 懲罰項:機器學習的解決方案 3 3 4 比較兩種方案 3 4 面向未來的準備 3 4 1 圖形表示與數學表達 3 4 2 模型的生命周期與持久化 3 5 本章小結 3 5 1 要點回顧 3 5 2 常見面試問題 第4章 邏輯回歸:隱藏因子 4 1 二元分類問題:是與否 4 1 1 線性回歸:為何失效 4 1 2 窗口效應:看不見的才是關鍵 4 1 3 邏輯分佈 4 1 4 似然函數:統計分析的參數估計 4 1 5 損失函數:機器學習的參數估計 4 1 6 最終預測:從概率到類別 4 2 模型實現 4 2 1 初步分析數據:直觀印象 4 2 2 搭建模型 4 2 3 理解模型結果 4 3 評估模型效果 4 3 1 查准率與查全率 4 3 2 F-score 4 3 3 ROC空間 4 3 4 ROC曲線與AUC 4 3 5 AUC的概率解釋 4 4 非均衡數據集 4 4 1 準確度悖論 4 4 2 模型效果影響 4 4 3 解決方案 4 5 多元分類問題:超越是與否 4 5 1 多元邏輯回歸 4 5 2 One-vs -All:從二元到多元 4 5 3 模型實現 4 6 本章小結 4 6 1 要點回顧 4 6 2 常見面試問題 第5章 計量經濟學的啟示:他山之石 5 1 定量與定性:特徵的數學運算合理嗎 5 2 定性特徵的處理 5 2 1 虛擬變數 5 2 2 定性特徵轉換為定量特徵 5 3 定量特徵的處理 5 3 1 定量特徵轉換為定性特徵 5 3 2 基於卡方檢驗的方法 5 4 多重共線性:多變數的煩惱 5 4 1 多重共線性效應 5 4 2 檢測多重共線性 5 4 3 解決方法 5 4 4 虛擬變數陷阱 5 5 本章小結 5 5 1 要點回顧 5 5 2 常見面試問題 第6章 最優化演算法:參數估計 6 1 演算法思路:模擬滾動 6 2 梯度下降法 6 2 1 演算法使用的竅門 6 2 2 演算法的局限性:局部最優與鞍點 6 3 梯度下降法的代碼實現 6 3 1 PyTorch基礎 6 3 2 利用PyTorch的封裝函數 6 4 隨機梯度下降法:更優化的演算法 6 4 1 演算法細節 6 4 2 代碼實現 6 4 3 進一步優化 6 5 本章小結 6 5 1 要點回顧 6 5 2 常見面試問題 第7章 反向傳播:神經網路的工程基礎 7 1 計算圖和向前傳播 7 1 1 什麼是計算圖 7 1 2 代碼實現 7 2 鏈式法則和反向傳播 7 2 1 拓撲排序 7 2 2 代碼實現 7 2 3 梯度傳播過程 7 3 參數估計的全流程 7 3 1 隨機梯度下降法回顧 7 3 2 計算圖膨脹 7 4 動態優化 7 4 1 梯度累積 7 4 2 參數凍結 7 4 3 隨機失活 7 5 真實世界:針對大規模模型的優化技巧 7 5 1 GPU計算 7 5 2 混合精度訓練 7 5 3 梯度檢查點 7 5 4 分散式計算 7 6 本章小結 7 6 1 要點回顧 7 6 2 常見面試問題 第8章 多層感知器:神經網路的「創世記」 8 1 感知器模型 8 1 1 神經元的數字孿生 8 1 2 圖示與計算圖 8 1 3 Sigmoid感知器與邏輯回歸 8 1 4 Softmax函數 8 2 從神經網路的視角重新理解邏輯回歸 8 2 1 回顧窗口效應 8 2 2 代碼實現 8 2 3 損失函數為模型注入靈魂 8 2 4 神經網路的建模文化:搭積木 8 3 多層感知器 8 3 1 圖形表示 8 3 2 數學基礎 8 3 3 令人驚訝的通用性 8 3 4 代碼實現 8 3 5 模型的聯結主義 8 4 訓練優化的關鍵:激活函數 8 4 1 壞死的神經細胞 8 4 2 數學基礎 8 4 3 監控模型訓練 8 4 4 不穩定的梯度 8 4 5 激活函數的改進 8 5 從第一步開始優化訓練 8 5 1 模 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |