Transformer深度解析與NLP應用開發 梁志遠 韓曉晨 9787302685623 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$757
商品編號: 9787302685623
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202504*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:Transformer深度解析與NLP應用開發
ISBN:9787302685623
出版社:清華大學
著編譯者:梁志遠 韓曉晨
頁數:340
所在地:中國大陸 *此為代購商品
書號:1720984
可大量預訂,請先連絡。

內容簡介

本書系統解析Transformer的核心原理,從理論到實踐,幫助讀者全面掌握其在語言模型中的應用,並通過豐富案例剖析技術細節。本書共12章,內容涵蓋Transformer模型的架構原理、自注意力機制及其相對於傳統方法的優勢,並詳細剖析BERT、GPT等經典衍生模型的應用。書中圍繞數據預處理、文本分類、序列標註、文本生成、多語言模型等核心任務,結合遷移學習、微調與優化技術,展示Transformer在語義匹配、問答系統和文本聚類等場景中的實際應用。針對企業級開發需求,還特別介紹了ONNX與TensorRT優化推理性能的最佳實踐,為大規模數據處理及低資源部署提供了解決方案。 本書兼具理論深度與實際應用價值,內容系統,案例豐富,適合大模型及NLP研發人員、工程師、數據科學研究人員以及高校師生閱讀與參考。

作者簡介

梁志遠 畢業於北京航空航天大學。長期從事人工智能、大語言模型的開發,專註于深度學習、自然語言處理、數據分析與智能決策等領域。主持或參与過多項科研項目,涵蓋模型訓練優化、知識蒸餾、自動推理與多模態學習等方面。致力於推動人工智能技術在工業應用、智能交互與數據驅動中的實踐與發展。

目錄

引言
一、從統計學習到Transformer崛起
二、開發環境配置:構建高效的Transformer開發平台
第1章 Transformer與自然語言處理概述
1 1 Transformer的基礎架構與原理
1 1 1 多頭注意力機制的核心計算
1 1 2 位置編碼與網絡穩定性的設計
1 2 深度學習經典架構CNN和RNN的局限性
1 2 1 CNN在自然語言處理中的應用與局限
1 2 2 RNN架構與長序列建模問題
1 3 自注意力機制
1 3 1 自注意力機制的矩陣計算原理
1 3 2 計算複雜度與信息保持
1 4 BERT雙向編碼器與GPT單向生成器
1 4 1 BERT架構與雙向信息編碼
1 4 2 GPT架構與單向生成能力
1 5 基於Transformer的遷移學習
1 5 1 遷移學習方法與特定任務適應性
1 5 2 遷移學習的實際應用與優化策略
1 6 Hugging Face平台開發基礎
1 6 1 關於Hugging Face
1 6 2 環境準備
1 6 3 快速上手:使用預訓練模型
1 6 4 數據預處理與分詞
1 6 5 使用自定義數據集進行推理
1 6 6 微調預訓練模型
1 6 7 保存與載入模型
1 6 8 部署模型到Hugging Face Hub
1 7 本章小結
1 8 思考題
第2章 文本預處理與數據增強
2 1 文本數據清洗與標準化
2 1 1 正則表達式在文本清洗中的應用
2 1 2 詞幹提取與詞形還原技術
2 2 分詞與嵌入技術
2 2 1 n-gram分詞與BERT分詞原理
2 2 2 Word2Vec與BERT詞嵌入的動態表示
2 3 字元級別與詞級別的嵌入方法
2 3 1 字元級嵌入模型的實現與優勢
2 3 2 FastText在細粒度信息捕捉中的應用
2 4 數據集格式與標籤處理
2 4 1 JSON和CSV格式的數據讀取與處理
2 4 2 多標籤分類的標籤編碼與存儲優化
2 5 數據增強方法
2 5 1 同義詞替換與句子反轉的增強策略
2 5 2 EDA方法在數據擴充中的應用
2 6 本章小結
2 7 思考題
第3章 基於Transformer的文本分類
3 1 傳統的規則與機器學習的文本分類對比
3 1 1 基於邏輯樹和正則表達式的關鍵詞分類
3 1 2 TF-IDF與詞嵌入在傳統分類算法中的應用
3 2 BERT模型在文本分類中的應用
3 2 1 BERT特徵提取與分類頭的實現
3 2 2 BERT在二分類與多分類任務中的微調
3 3 數據集載入與預處理
3 3 1 使用Hugging Face datasets庫載入數據集
3 3 2 數據清洗與DataLoader的批處理優化
3 4 文本分類中的微調技巧
3 4 1 學習率調度器與參數凍結
3 4 2 Warmup Scheduler與線性衰減
3 5 本章小結
3 6 思考題
第4章 依存句法與語義解析
4 1 依存句法的基本概念
4 1 1 依存關係術語解析:主謂賓結構與修飾關係
4 1 2 使用SpaCy構建依存關係樹與句法提取
4 2 基於Tree-LSTM的依存句法打分方法
4 2 1 Tree-LSTM處理依存樹結構的實現
4 2 2 句法結構的打分與信息傳遞機制
4 3 使用GNN實現依存關係
4 3 1 圖神經網絡在依存結構建模中的應用
4 3 2 節點特徵與邊權重的依存關係表示
4 4 Transformer在依存解析中的應用
4 4 1 BERT上下文嵌入與GNN模型的結合
4 4 2 混合模型在依存關係建模中的應用
4 5 依存句法與語義角色標註的結合
4 5 1 語義角色標註的定義與依存關係融合
4 5 2 使用AllenNLP實現句法結構與語義角色標註的結合
4 6 本章小結
4 7 思考題
第5章 序列標註與命名實體識別
5 1 序列標註任務與常用方法
5 1 1 BIO編碼與標籤平滑技術
5 1 2 條件隨機場層的數學原理與實現
5 2 雙向LSTM與CRF的結合
5 2 1 雙向LSTM的結構與工作原理
5 2 2 ELMo模型的上下文嵌入與序列標註
5 3 BERT在命名實體識別中的應用
5 3 1 BERT的CLS標記與Token向量在NER中的作用
5 3 2 NER任務的微調流程與代碼實現
5 4 實體識別任務的模型評估
5 4 1 NER評估標準:準確率、召回率與F1分數
5 4 2 各類實體的性能評估與代碼實現
5 5 結合Gazetteers與實體識別
5 5 1 領域特定詞典的構建與應用
5 5 2 結合詞典信息提升實體識別準確性
5 6 本章小結
5 7 思考題
第6章 文本生成任務的Transformer實現
6 1 生成式文本任務的基本方法
6 1 1 n-gram模型與馬爾可夫假設
6 1 2 n-gram模型在長文本生成中的局限性
6 2 優化生成策略
6 2 1 Greedy Search與Beam Search算法
6 2 2 Top-K採樣與Top-P採樣
6 3 T5模型在文本摘要中的應用
6 3 1 T5編碼器-解碼器架構在文本摘要中的應用
6 3 2 T5模型的任務指令化微調與應用優化
6 4 生成式Transformer模型的比較
6 4 1 GPT-2、T5和BART的架構區別與生成任務適配
6 4 2 生成式模型在文本摘要和對話生成中的對比應用
6 5 Transform
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理