| *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202404*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:Transformer&ChatGPT解密-原理、源碼及案例 ISBN:9787512443105 出版社:北京航空航天大學 著編譯者:王家林 段智華 編 頁數:485 所在地:中國大陸 *此為代購商品 書號:1647269 可大量預訂,請先連絡。 【台灣高等教育出版社簡體書】 Transformer&ChatGPT解密-原理、源碼及案例 787512443105 王家林 段智華 編 內容簡介 本書是一本系統介紹Transformer原理、源碼、應用的技術書籍,全書分為Transformer架構及源碼篇、ChatGPT技術:從基礎應用到進階實踐篇。 Transformer架構及源碼篇,從Transformer的基本原理入手,深入淺出進行講解,可使讀者能夠深刻理解Transformer的工作原理和設計思想,包括Transformer架構的理論知識、實際案例以及Transformer架構在時序預測等領域的應用等。本篇特點是採用大量的圖片和圖表,通過圖文並茂的方式讓讀者直觀地了解Trans-former的原理和應用和Bayesian Transformer思想及數學原理完整論證、Transformer架構源碼完整實現、Transformer語言模型架構、數學原理及內幕機制、GPT自回歸語言模型架構、數學原理及內幕機制、BERT下的自編碼語言模型架構、數學原理及內幕機制、BERT Pre - taining模型源碼完整實現、BERT Fine - tuning背後的數學原理詳解、使用BERT進行NER案例實戰、使用BERT進行多任務Fine - Tuning解密、使用BERT對影評數據分析的數據處理、模型代碼、線上部署等方面的內容,深入分析liansformer在自然語言處理中的應用。ChatGPT技術:從基礎應用到進階實踐篇,則以ChatGPT技術為主線,介紹了GPT系列模型的發展歷程和技術特點、ChatGPT技術的基本原理以及OpenAI API的基礎應用實踐等內容。 本書中既有理論講述,又有案例應用指導,結構清晰,詳略得當,既可作為機器學習、人工智慧及大數據等從業人員學慣用書,也可作為Transformer架構和源碼剖析高手修鍊的參考書,以及相關院校人工智慧專業教材使用。目錄 第1篇 Transformer架構及源碼篇第1章 Bayesian Transformer思想及數學原理完整論證 1 1 貝葉斯數學原理 1 2 MLE和MAP數學推導 1 3 語言模型Language Model原理機制、數學推導及神經網路實現 1 4 圖解 Transformer 精髓 1 5 Bayesian Transformer 和傳統 Transformer 的主要區別 1 6 Bayesian Transformer在學術和工業領域的意義 1 7 貝葉斯Bayesian Transformer數學推導論證過程全生命周期詳解及 底層神經網路物理機制剖析 第2章 Transformer架構源碼完整實現 2 1 Transformer架構內部的等級化結構及其在NLP中的應用內幕 2 2 數學內幕、注意力機制代碼實現及Transformer可視化 2 3 以對話機器人的流式架構為例闡述Transformer學習的第三境界 2 4 以智能對話機器人為例闡述Transformer的自編碼autoencoding和 自回歸autoregressive語言模型內幕機制 第3章 Transformer語言模型架構、數學原理及內幕機制 3 1 語言模型的鏈式法則、運行機制及其分類器特性 3 2 基於概率統計Statistical Language Models語言模型內部機制、數學 公式及完整的示例 3 3 基於神經網路Neural Language Models語言模型內部機制、數學公 式及完整的示例 3 4 使用困惑度及Cross Entropy來衡量語言模型質量的具體實現及數 學公式推導 3 5 Language Model底層的數學原理之最大似然估計MLE及最大后驗 概率MAP內部機制與關係詳解 3 6 語言模型底層的數學原理之Bayesian模型原理與實現 3 7 基於Transformer的AI時間序列動態預測方法 第4章 GPT自回歸語言模型架構、數學原理及內幕機制 4 1 語言模型的運行機制、架構內部及數學實現回顧 4 2 GPT可視化、Masking等工作機制解析 4 3 GPT中的Decoder-Only模式內部運行機制解析 4 4 數據在GPT模型中的流動生命周期Input Encodings Self-Attention 及 Model Output 詳解 4 5 GPT中的Masked多頭注意力機制及全連接神經網路內部運行機制 解析 第5章 BERT下的自編碼語言模型架構、數學原理及內幕機制 5 1 BERT下的自編碼Autoencoding語言模型架構設計及實現內幕解析 5 2 以MLM及分類為例具體分析BERT強大的能夠支持各種下游任務 的底層原因 5 3 BERT輸入內容Word Embeddings三大步驟及其內幕工作流程詳解 5 4 BERT位置編碼Positional Encoding能夠表達相對位置背後的數學 原因分析 5 5 BERT 的 Input Embeddings 三大組件解析 5 6 從Output結果向量和矩陣相乘的角度來解析BERT整個Encoder Stack的功能 5 7 BERT中的多頭注意力機制及Position-wise Feedforward神經網路 解析 5 8 BERT中的Dropout、殘差網路及Layer正則化數學原理剖析 5 9 BERT的預訓練任務 5 10 BERT在NER及問答等應用場景原理剖析 第6章 BERT Pre-taining模型源碼完整實現 6 1 BERT模型的Structure和MLM及NSP預訓練任務回顧及最佳實踐 分析 6 2 BERT 模型 Pre-Training 數據預處理、詞典構建、Tbken Embeddings、 Segment Embeddings、Postion Embeddings 完整源碼實現 6 3 BERT 模型 Pre-Training 多頭注意力機制 Multi-head Attention 完 整源碼實現 6 4 BERT 模型 Pre-Training F PositionwiseFeedForward、Sublayer Connection、LayerNorm 源碼實現 6 5 BERT模型Pre-Training下多任務語言模型訓練核心源碼實現 6 6 BERT模型Pre-Training中的MLM及NSP源碼實現及最佳實踐 第7章 BERT Fine-tuning背後的數學原理詳解 7 1 BERT Fine-tuning 數學原理剖析 7 2 BERT Fine-tuning文本分類數據預處理代碼 7 3 BERT Fine-tuning 訓練完整代碼 第8章 使用BERT進行NER案例實戰 8 1 BERT命名實體識別NER案例實體餐飲領域項目源碼實現 8 2 BERT命名實體識別NER案例實戰之CRF和BERT的對比及NER 原理剖析 第9章 使用BERT進行多任務Fine-Tuning解密 9 1 BERT多任務數學原理、層次化網路內幕及高層CLS分類 9 2 BERT多任務微調共享知識空間結構內幕解密 9 3 BERT 多任務微調示例 Transformers+NLP 第10章 使用BERT對影評數據分析(數據處理、模型代碼、線上部署) 10 1 影評案例數據處理 10 2 模型 model 源碼 10 3 模型訓練預測及部署 第2篇 ChatGPT技術:從基礎應用到進階實踐篇 第11章 ChatGPT技術概述 11 1 GPT-l、GPT-2、GPT-3、GPT-3 5、GPT4 的發展歷程與技術 特點 11 2 ChatGPT技術的基本原理簡介 11 3 ChatGPT項目案例實戰 第12章 Open AI API基礎應用實踐 12 1 OpenAI API模型及介面概述 12 2 使用OpenAI API進行向量檢索 12 3 使用OpenAI API進行文本生成 第13章 OpenAI API進階應用實踐 13 1 OpenAI AP 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |