HuggingFace自然語言處理詳解-基於BERT中文模型的任務實戰 9787302628538 李福林

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$439
商品編號: 9787302628538
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202304*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:HuggingFace自然語言處理詳解-基於BERT中文模型的任務實戰
ISBN:9787302628538
出版社:清華大學
著編譯者:李福林
叢書名:計算機技術開發與應用叢書
頁數:226
所在地:中國大陸 *此為代購商品
書號:1508080
可大量預訂,請先連絡。

【台灣高等教育出版社簡體書】 HuggingFace自然語言處理詳解-基於BERT中文模型的任務實戰 787302628538 李福林

內容簡介

本書綜合性講解HuggingFace社區提供的工具集datasets和transformers,書中包括最基礎的工具集的用例演示,具體的項目實戰,以及預訓練模型的底層設計思路和實現原理的介紹。通過本書的學習,讀者可以快速掌握HuggingFace工具集的使用方法,掌握自然語言處理項目的一般研發流程,並能研發自己的自然語言處理項目。 本書分為3篇共14章:工具集基礎用例演示篇(第1~6章),詳細講解HuggingFace工具集的基本使用目的一般流程;預訓練模型底層原理篇(第13、14章),詳細闡述了預訓練模型的設計思路和計算原理。 本書將使用最簡單淺顯的語言,帶領讀者快速了解HuggingFace工具集的使用方法。通過本書實戰項目的學習,讀者可以掌握一般的自然語言處理項目的研發流程。通過本書預訓練模型底層原理的學習,讀者能夠知其然也知其所以然,做到融會貫通。方法;中文項目實戰篇(第7~12章),通過幾個實戰項目演示使用HuggingFace工具集研發自然語言處理項 本書適合有PyTorch編程基礎的讀者閱讀,也適合作為對自然語言處理感興趣的讀者的參考圖書。

作者簡介

李福林,一個在IT領域摸爬滾打十多年的老程序員、培訓師,精通多種IT技術,具有軟體設計師職稱。分享了多部AI技術教程,受到了讀者的廣泛讚譽。現任職于陽獅集團,擔任演算法工程師職位。教學風格追求化繁為簡,務實而不空談,課程設計思路清晰,課程演繹說理透徹,對A領域技術有自己獨到的見解。

目錄

工具集基礎用例演示篇
第1章 HuggingFace簡介
第2章 使用編碼工具
2 1 編碼工具簡介
2 2 編碼工具工作流示意
2 3 使用編碼工具
2 4 小結
第3章 使用數據集工具
3 1 數據集工具介紹
3 2 使用數據集工具
3 2 1 數據集載入和保存
3 2 2 數據集基本操作
3 2 3 將數據集保存為其他格式
3 3 小結
第4章 使用評價指標工具
4 1 評價指標工具介紹
4 2 使用評價指標工具
4 3 小結
第5章 使用管道工具
5 1 管道工具介紹
5 2 使用管道工具
5 2 1 常見任務演示
5 2 2 替換模型執行任務
5 3 小結
第6章 使用訓練工具
6 1 訓練工具介紹
6 2 使用訓練工具
6 2 1 準備數據集
6 2 2 定義模型和訓練工具
6 2 3 訓練和測試
6 3 小結
中文項目實戰篇
第7章 實戰任務1:中文情感分類
7 1 任務簡介
7 2 數據集介紹
7 3 模型架構
7 4 實現代碼
7 4 1 準備數據集
7 4 2 定義模型
7 4 3 訓練和測試
7 5 小結
第8章 實戰任務2:中文填空
8 1 任務簡介
8 2 數據集介紹
8 3 模型架構
8 4 實現代碼
8 4 1 準備數據集
8 4 2 定義模型
8 4 3 訓練和測試
8 5 小結
第9章 實戰任務3:中文句子關係推斷
9 1 任務簡介
9 2 數據集介紹
9 3 模型架構
9 4 實現代碼
9 4 1 準備數據集
9 4 2 定義模型
9 4 3 訓練和測試
9 5 小結
第10章 實戰任務4:中文命名實體識別
10 1 任務簡介
10 2 數據集介紹
10 3 模型架構
10 4 實現代碼
10 4 1 準備數據集
10 4 2 定義模型
10 4 3 訓練和測試
10 5 小結
第11章 使用TensorFlow訓練
11 1 任務簡介
11 2 數據集介紹
11 3 模型架構
11 4 實現代碼
11 4 1 準備數據集
11 4 2 定義模型
11 4 3 訓練和測試
11 5 小結
第12章 使用自動模型
12 1 任務簡介
12 2 數據集介紹
12 3 模型架構
12 4 實現代碼
12 4 1 準備數據集
12 4 2 載入自動模型
12 4 3 訓練和測試
12 5 深入自動模型源代碼
12 6 小結
預訓練模型底層原理篇
第13章 手動實現Transformer
13 1 Transformer架構
13 2 注意力
13 2 1 為什麼需要注意力
13 2 2 注意力的計算過程
13 2 3 注意力計算的矩陣形式
13 2 4 多頭注意力
13 3 位置編碼
13 3 1 為什麼需要位置編碼
13 3 2 位置編碼計算過程
13 4 MASK
13 4 1 PAD MASK
13 4 2 上三角MASK
13 5 Transformer計算流程
13 5 1 編碼器
13 5 2 整體計算流程
13 5 3 解碼器解碼過程詳細講解
13 5 4 總體架構
13 6 簡單翻譯任務
13 6 1 任務介紹
13 6 2 定義數據集
13 6 3 定義MASK函數
13 6 4 定義Transformer工具子層
13 6 5 定義Transformer模型
13 6 6 訓練和測試
13 7 兩數相加任務
13 7 1 任務介紹
13 7 2 實現代碼
13 7 3 訓練和測試
13 8 小結
第14章 手動實現BERT
14 1 BERT架構
14 2 數據集處理
14 2 1 數據處理過程概述
14 2 2 數據集介紹
14 2 3 數據處理實現代碼
14 3 PyTorch提供的Transformer工具層介紹
14 4 手動實現BERT模型
14 4 1 準備數據集
14 4 2 定義輔助函數
14 4 3 定義BERT模型
14 4 4 訓練和測試
14 5 小結
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理