Transformer&ChatGPT解密-原理、源碼及案例 9787512443105 王家林 段智華 編

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:北京航空航天大學
NT$820
商品編號:
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202404*若逾兩年請先於私訊洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:Transformer&ChatGPT解密-原理、源碼及案例
ISBN:9787512443105
出版社:北京航空航天大學
著編譯者:王家林 段智華 編
頁數:485
所在地:中國大陸 *此為代購商品
書號:1647269
可大量預訂,請先連絡。

【台灣高等教育出版社簡體書】 Transformer&ChatGPT解密-原理、源碼及案例 787512443105 王家林 段智華 編

內容簡介

本書是一本系統介紹Transformer原理、源碼、應用的技術書籍,全書分為Transformer架構及源碼篇、ChatGPT技術:從基礎應用到進階實踐篇。 Transformer架構及源碼篇,從Transformer的基本原理入手,深入淺出進行講解,可使讀者能夠深刻理解Transformer的工作原理和設計思想,包括Transformer架構的理論知識、實際案例以及Transformer架構在時序預測等領域的應用等。本篇特點是採用大量的圖片和圖表,通過圖文並茂的方式讓讀者直觀地了解Trans-former的原理和應用和Bayesian Transformer思想及數學原理完整論證、Transformer架構源碼完整實現、Transformer語言模型架構、數學原理及內幕機制、GPT自回歸語言模型架構、數學原理及內幕機制、BERT下的自編碼語言模型架構、數學原理及內幕機制、BERT Pre - taining模型源碼完整實現、BERT Fine - tuning背後的數學原理詳解、使用BERT進行NER案例實戰、使用BERT進行多任務Fine - Tuning解密、使用BERT對影評數據分析的數據處理、模型代碼、線上部署等方面的內容,深入分析liansformer在自然語言處理中的應用。ChatGPT技術:從基礎應用到進階實踐篇,則以ChatGPT技術為主線,介紹了GPT系列模型的發展歷程和技術特點、ChatGPT技術的基本原理以及OpenAI API的基礎應用實踐等內容。 本書中既有理論講述,又有案例應用指導,結構清晰,詳略得當,既可作為機器學習、人工智慧及大數據等從業人員學慣用書,也可作為Transformer架構和源碼剖析高手修鍊的參考書,以及相關院校人工智慧專業教材使用。

目錄

第1篇 Transformer架構及源碼篇
第1章 Bayesian Transformer思想及數學原理完整論證
1 1 貝葉斯數學原理
1 2 MLE和MAP數學推導
1 3 語言模型Language Model原理機制、數學推導及神經網路實現
1 4 圖解 Transformer 精髓
1 5 Bayesian Transformer 和傳統 Transformer 的主要區別
1 6 Bayesian Transformer在學術和工業領域的意義
1 7 貝葉斯Bayesian Transformer數學推導論證過程全生命周期詳解及 底層神經網路物理機制剖析
第2章 Transformer架構源碼完整實現
2 1 Transformer架構內部的等級化結構及其在NLP中的應用內幕
2 2 數學內幕、注意力機制代碼實現及Transformer可視化
2 3 以對話機器人的流式架構為例闡述Transformer學習的第三境界
2 4 以智能對話機器人為例闡述Transformer的自編碼autoencoding和 自回歸autoregressive語言模型內幕機制
第3章 Transformer語言模型架構、數學原理及內幕機制
3 1 語言模型的鏈式法則、運行機制及其分類器特性
3 2 基於概率統計Statistical Language Models語言模型內部機制、數學 公式及完整的示例
3 3 基於神經網路Neural Language Models語言模型內部機制、數學公 式及完整的示例
3 4 使用困惑度及Cross Entropy來衡量語言模型質量的具體實現及數 學公式推導
3 5 Language Model底層的數學原理之最大似然估計MLE及最大后驗 概率MAP內部機制與關係詳解
3 6 語言模型底層的數學原理之Bayesian模型原理與實現
3 7 基於Transformer的AI時間序列動態預測方法
第4章 GPT自回歸語言模型架構、數學原理及內幕機制
4 1 語言模型的運行機制、架構內部及數學實現回顧
4 2 GPT可視化、Masking等工作機制解析
4 3 GPT中的Decoder-Only模式內部運行機制解析
4 4 數據在GPT模型中的流動生命周期Input Encodings Self-Attention 及 Model Output 詳解
4 5 GPT中的Masked多頭注意力機制及全連接神經網路內部運行機制 解析
第5章 BERT下的自編碼語言模型架構、數學原理及內幕機制
5 1 BERT下的自編碼Autoencoding語言模型架構設計及實現內幕解析
5 2 以MLM及分類為例具體分析BERT強大的能夠支持各種下游任務 的底層原因
5 3 BERT輸入內容Word Embeddings三大步驟及其內幕工作流程詳解
5 4 BERT位置編碼Positional Encoding能夠表達相對位置背後的數學 原因分析
5 5 BERT 的 Input Embeddings 三大組件解析
5 6 從Output結果向量和矩陣相乘的角度來解析BERT整個Encoder Stack的功能
5 7 BERT中的多頭注意力機制及Position-wise Feedforward神經網路 解析
5 8 BERT中的Dropout、殘差網路及Layer正則化數學原理剖析
5 9 BERT的預訓練任務
5 10 BERT在NER及問答等應用場景原理剖析
第6章 BERT Pre-taining模型源碼完整實現
6 1 BERT模型的Structure和MLM及NSP預訓練任務回顧及最佳實踐 分析
6 2 BERT 模型 Pre-Training 數據預處理、詞典構建、Tbken Embeddings、 Segment Embeddings、Postion Embeddings 完整源碼實現
6 3 BERT 模型 Pre-Training 多頭注意力機制 Multi-head Attention 完 整源碼實現
6 4 BERT 模型 Pre-Training F PositionwiseFeedForward、Sublayer Connection、LayerNorm 源碼實現
6 5 BERT模型Pre-Training下多任務語言模型訓練核心源碼實現
6 6 BERT模型Pre-Training中的MLM及NSP源碼實現及最佳實踐
第7章 BERT Fine-tuning背後的數學原理詳解
7 1 BERT Fine-tuning 數學原理剖析
7 2 BERT Fine-tuning文本分類數據預處理代碼
7 3 BERT Fine-tuning 訓練完整代碼
第8章 使用BERT進行NER案例實戰
8 1 BERT命名實體識別NER案例實體餐飲領域項目源碼實現
8 2 BERT命名實體識別NER案例實戰之CRF和BERT的對比及NER 原理剖析
第9章 使用BERT進行多任務Fine-Tuning解密
9 1 BERT多任務數學原理、層次化網路內幕及高層CLS分類
9 2 BERT多任務微調共享知識空間結構內幕解密
9 3 BERT 多任務微調示例 Transformers+NLP
第10章 使用BERT對影評數據分析(數據處理、模型代碼、線上部署)
10 1 影評案例數據處理
10 2 模型 model 源碼
10 3 模型訓練預測及部署
第2篇 ChatGPT技術:從基礎應用到進階實踐篇
第11章 ChatGPT技術概述
11 1 GPT-l、GPT-2、GPT-3、GPT-3 5、GPT4 的發展歷程與技術 特點
11 2 ChatGPT技術的基本原理簡介
11 3 ChatGPT項目案例實戰
第12章 Open AI API基礎應用實踐
12 1 OpenAI API模型及介面概述
12 2 使用OpenAI API進行向量檢索
12 3 使用OpenAI API進行文本生成
第13章 OpenAI API進階應用實踐
13 1 OpenAI AP
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。
規格說明
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理