自然語言理解 趙海 9787302627784 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$439
商品編號: 9787302627784
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202307*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:自然語言理解
ISBN:9787302627784
出版社:清華大學
著編譯者:趙海
叢書名:高等學校計算機專業系列教材
頁數:368
所在地:中國大陸 *此為代購商品
書號:1542665
可大量預訂,請先連絡。

內容簡介

本書系統介紹自然語言處理(即自然語言理解)的經典和前沿技術內容,包括學科發展的簡要背景、基礎的建模方法和典型的語言處理任務。本書圍繞語言模型展開並貫穿其中,包括n元語言模型、連續空間語言模型(詞嵌入)以及前沿的預訓練語言模型。 現代自然語言處理建立在機器學習的基礎之上。無論針對傳統機器學習還是針對現代深度學習,本書統一以結構化學習的脈絡展開,統一闡述典型的語言處理任務的普遍性機器學習建模方式,包括詞切分、序列標註以及樹結構解析。同時,本書以一種統一的觀點梳理機器學習和深度學習方法的要點,服務於自然語言處理任務的建模方法。最後,本書綜述了經典和前沿的語言處理任務:句法分析、語義分析、閱讀理解和大語言模型。以閱讀理解為代表的自然語言理解任務賦予傳統的學科自然語言理解新的內涵。 本書適合作為高等學校相關專業高年級本科生和研究生的自然語言理解相關課程的教材,也可供自然語言理解研究人員閱讀參考。

目錄

第1章 自然語言處理概要
1 1 自然語言處理的概念和術語
1 1 1 自然語言
1 1 2 自然語言處理與自然語言理解
1 1 3 計算語言學
1 2 自然語言處理的技術性挑戰
1 3 機器翻譯
1 4 語言處理層次
1 5 應用型自然語言處理:人機對話系統
1 6 自然語言處理的學術出版體系
參考文獻
第2章 n元語言模型
2 1 概率論基礎
2 2 語言模型用於語言生成
2 3 n元語言模型的工作方式及馬爾可夫假設
2 3 1 n元機制
2 3 2 馬爾可夫假設
2 4 評價指標:困惑度
2 5 n元語言模型的平滑方法
2 5 1 Laplace平滑(加一平滑)
2 5 2 Good-Turing平滑
2 5 3 Jelinek-Mercer平滑
2 5 4 Katz平滑
2 5 5 Kneser-Ney平滑
2 5 6 Pitman-Yor語言模型
2 6 非n元機制的平滑方法
2 6 1 緩存
2 6 2 跳詞
2 6 3 聚類
2 7 平滑方法的經驗結果
2 8 n元語言模型的建模工具
參考文獻
第3章 語言編碼表示
3 1 獨熱表示
3 2 特徵函數
3 3 通用特徵模板
3 4 加權的獨熱表示:TF-IDF
參考文獻
第4章 非監督的結構化學習
4 1 自然語言處理的方法構成
4 2 簡單任務:詞/子詞切分
4 3 切分演算法
4 3 1 通用切分框架
4 3 2 全局優度最大化:Viterbi解碼演算法
4 3 3 局部優度最大化:貪心解碼演算法
4 4 優度度量
4 4 1 頻率
4 4 2 鄰接多樣性
4 4 3 分支熵
4 4 4 描述長度增益
4 4 5 點互信息
4 4 6 學生t測試
4 5 非監督分詞
4 5 1 數據集和評估指標
4 5 2 詞典預處理技巧
4 5 3 性能
4 6 推廣的位元組對編碼切分演算法
參考文獻
第5章 結構化學習
5 1 機器學習的粒度和語言單元
5 2 結構化學習的必要性
5 3 自然語言處理中的結構化學習任務
5 4 退化為分類任務
5 5 結構分解
5 6 共時結構分解:圖模型
5 7 歷時結構分解:轉移模型
5 8 兩類結構化分解方式的優劣
5 9 結構化學習的簡化情形
參考文獻
第6章 結構上的標註任務
6 1 從結構標註到序列標註
6 2 局部馬爾可夫模型
6 3 全局馬爾可夫模型和條件隨機場
6 3 1 全局馬爾可夫模型
6 3 2 馬爾可夫隨機場
6 3 3 條件隨機場
6 4 隱馬爾可夫模型
6 4 1 從馬爾可夫鏈到隱馬爾可夫模型
6 4 2 隱馬爾可夫模型的基本計算任務:概率估計
6 4 3 隱馬爾可夫模型的訓練:參數估計
6 4 4 隱馬爾可夫模型的解碼:Viterbi演算法
6 5 自然語言處理中的結構標註任務
6 5 1 再標註的序列標註任務
6 5 2 詞性標註任務的隱馬爾可夫模型實現示例
6 5 3 推廣的分詞建模:不等單元的結構分解
參考文獻
第7章 機器學習模型
7 1 機器學習模型的要素配置
7 2 損失函數
7 3 k近鄰方法
7 4 感知機
7 5 鉸鏈損失與支持向量機
7 5 1 最大化間隔
7 5 2 懲罰項導出的軟邊界
7 5 3 映射到高維空間
7 5 4 核函數
7 5 5 支持向量機的訓練演算法
7 5 6 多類支持向量機
7 5 7 支持向量機工具包
7 5 8 支持向量機總結
7 6 交叉熵損失與最大熵模型
7 6 1 最大似然估計:對數-線性模型
7 6 2 最大熵原理
7 6 3 平滑
7 6 4 最大熵模型的工具包
7 7 從神經元學習到神經網絡
參考文獻
第8章 深度學習模型
8 1 表示學習
8 2 連續空間語言模型:詞嵌入或詞向量
8 2 1 連續空間語言模型
8 2 2 連續空間語言模型的機器學習解釋
8 2 3 Word2Vec和GloVe詞嵌入
8 2 4 評估詞向量
8 3 神經網絡的結構配置
8 3 1 神經網絡的拓撲連接方式
3 3 2 激活函數
8 4 深度學習模型的訓練
8 4 1 訓練目標:輸出表示和損失函數
8 4 2 誤差反向傳播演算法
8 4 3 深度學習的訓練管理器
8 5 編碼器-解碼器建模
8 6 編碼器架構:循環神經網絡
8 6 1 循環神經網絡的BPTT訓練演算法
8 6 2 長短時記憶網路
8 7 編碼器架構:卷積神經網絡
8 7 1 卷積
8 7 2 池化
8 7 3 卷積神經網絡的結構
8 8 編碼器架構:Transformer
8 8 1 自注意力機制
8 8 2 Transformer網路結構
8 9 編碼器比較:RNN、CNN和Transformer
8 10 序列生成的解碼過程
8 11 符號主義對陣聯結主義
8 12 深度學習工具包
參考文獻
第9章 預訓練語言模型
9 1 從表示學習到自監督學習
9 2 從n元語言模型到預訓練語言模型
9 3 輸入單元管理
9 4 預訓練語言模型的自回歸解釋
9 5 以編輯操作定義自監督學習
9 6 採樣與預測目標的單元選擇
9 7 編碼器架構
9 8 預訓練語言模型方法的普適化
9 9 預訓
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理