*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202403*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:PyTorch深度學習指南-序列與自然語言處理.卷III ISBN:9787111744597 出版社:機械工業 著編譯者:丹尼爾.沃格特.戈多伊 頁數:310 所在地:中國大陸 *此為代購商品 書號:1630081 可大量預訂,請先連絡。 【台灣高等教育出版社簡體書】 PyTorch深度學習指南-序列與自然語言處理.卷III 787111744597 丹尼爾.沃格特.戈多伊 內容簡介 「PyTorch深度學習指南」叢書循序漸進地詳細講解了與深度學習相關的重要概念、演算法和模型,並著重展示了PyTorch是如何實現這些演算法和模型的。其共分三卷:編程基礎、計算機視覺、序列與自然語言處理。 本書為該套叢書的第三卷:序列與自然語言處理。本書主要介紹了循環神經網路(RNN、GRU和LSTM)和一維卷積;Seq2Seq模型、注意力、自注意力、掩碼和位置編碼;Transformer、層歸一化和視覺Transformer(ViT);BERT、GPT-2、單詞嵌入和HuggingFace庫等內容。 本書適用於對深度學習感興趣,並希望使用PyTorch實現深度學習的Python程序員閱讀學習。作者簡介 趙春江,博士,畢業於上海交通大學。在信息處理領域有著十余年豐富的教學和科研經驗。在科研方面,主持過3項省級教科研項目,在國內外期刊和會議中共發表20餘篇學術論文,其中被SCl或EI檢索共計12篇。目錄 前言致謝 關於作者 譯者序 常見問題 為什麼選擇PyTorch? 為什麼選擇這套書? 誰應該讀這套書? 我需要知道什麼? 如何閱讀這套書? 下一步是什麼? 設置指南 官方資料庫 環境 谷歌Colab Binder 本地安裝 繼續 第8章 序列 劇透 Jupyter Notebook 導入 序列 數據生成 循環神經網路(RNN) RNN單元 RNN層 形狀 堆疊RNN 雙向RNN 正方形模型 可視化模型 我們能做得更好嗎? 門控循環單元(GRU) GRU單元 GRU層 正方形模型Ⅱ——速成 模型配置和訓練 可視化模型 我們能做得更好嗎? 長短期記憶(LSTM) LSTM單元 LSTM層 正方形模型Ⅲ——巫師 模型配置和訓練 可視化隱藏狀態 可變長度序列 填充 打包 解包(至填充) 打包(從填充) 可變長度數據集 數據準備 正方形模型Ⅳ——打包 模型配置和訓練 一維卷積 形狀 多特徵或通道 膨脹 數據準備 模型配置和訓練 可視化模型 歸納總結 固定長度數據集 可變長度數據集 選擇一個合適的模型 模型配置和訓練 回顧 第9章(上):序列到序列 劇透 Jupyter Notebook 導入 序列到序列 數據生成 編碼器-解碼器架構 編碼器 解碼器 編碼器+解碼器 數據準備 模型配置和訓練 可視化預測 我們能做得更好嗎? 注意力 「值」 「鍵」和「查詢」 計算上下文向量 評分方法 注意力分數 縮放點積 注意力機制 源掩碼 解碼器 編碼器+解碼器+注意力機制 模型配置和訓練 可視化預測 可視化注意力 多頭注意力 第9章(下):序列到序列 劇透 自注意力 編碼器 交叉注意力 解碼器 編碼器+解碼器+自注意力機制 模型配置和訓練 可視化預測 不再有序 位置編碼(PE) 編碼器+解碼器+位置編碼 模型配置和訓練 可視化預測 可視化注意力 歸納總結 數據準備 模型組裝 編碼器+解碼器+位置編碼 自注意力的「層」 注意力頭 模型配置和訓練 回顧 第10章 轉換和轉出 劇透 Jupyter Notebook 導入 轉換和轉出 狹義注意力 分塊 多頭注意力 堆疊編碼器和解碼器 包裹「子層」 Transformer編碼器 Transformer解碼器 層歸一化 批量與層 我們的Seq2Seq問題 投影或嵌入 Transformer 數據準備 模型配置和訓練 可視化預測 PyTorch的Transformer 模型配置和訓練 可視化預測 視覺Transformer 數據生成和準備 補丁 特殊分類器詞元 模型 模型配置和訓練 歸納總結 數據準備 模型組裝 模型配置和訓練 回顧 第11章 Down the Yellow Brick Rabbit Hole 劇透 Jupyter Notebook 附加設置 導入 「掉進黃磚兔子洞(Down the Yellow Brick Rabbit Hole)」 構建數據集 句子詞元化 HuggingFace的數據集 載入數據集 單詞詞元化 詞彙表 HuggingFace的詞元化器 單詞嵌入之前 獨熱(One-Hot)編碼(OHE) 詞袋(BoW) 語言模型 N元(N-gram) 連續詞袋(CBoW) 單詞嵌入 Word2Vec 什麼是嵌入? 預訓練的Word2Vec 全局向量(GloVe) 使用單詞嵌入 模型Ⅰ——GloVE+分類器 模型Ⅱ——GloVe+Transformer 上下文單詞嵌入 ELMo BERT 文檔嵌入 模型Ⅲ——預處理嵌入 BERT 詞元化 輸入嵌入 預訓練任務 輸出 模型Ⅳ——使用BERT進行分類 使用HuggingFace進行微調 序列分類(或回歸) 詞元化數據集 訓練器 預測 管道 更多管道 GPT-2 歸納總結 數據準備 模型配置和訓練 生成文本 回顧 謝謝您! 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |