大模型技術30講 塞巴斯蒂安.拉施卡 9787115659835 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:人民郵電
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$444
商品編號: 9787115659835
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202502*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:大模型技術30講
ISBN:9787115659835
出版社:人民郵電
著編譯者:塞巴斯蒂安.拉施卡
頁數:182
所在地:中國大陸 *此為代購商品
書號:1718937
可大量預訂,請先連絡。

內容簡介

本書採用獨特的一問一答式風格,探討了當今機器學習和人工智能領域中最重要的30個問題,旨在幫助讀者了解最新的技術進展。全書共分為五個部分:神經網絡與深度學習、計算機視覺、自然語言處理、生產與部署、預測性能與模型評測。每一章都圍繞一個問題展開,不僅針對問題做出了相應的解釋,並配有若干圖表,還給出了練習供讀者檢驗自身是否已理解所學內容。 本書適合機器學習初學者以及相關從業者和研究人員閱讀。

作者簡介

塞巴斯蒂安·拉施卡(Sebastian Raschka)從密歇根州立大學獲得博士學位,在此期間他主要關注計算生物學和機器學習交叉領域的方法研究。他在2018年夏季加入威斯康星-麥迪遜大學,擔任統計學助理教授。他的主要研究活動包括開發新的深度學習體繫結構來解決生物統計學領域的問題。 Sebastian在Python編程方面擁有多年經驗,多年來針對數據科學、機器學習和深度學習的實際應用組織過多次研討會,並在SciPy(重要的Python科學計算會議)上發布過機器學習教程。 本書是Sebastian的主要學術成就之一,也是Packt和Amazon com的暢銷書之一,曾獲《ACM計算評論》2016年度最佳獎,並被翻譯成包括德文、韓文、中文、日文、俄文、波蘭文和義大利文在內的多種語言。 在閑暇時間里,Sebastian熱衷於為開源項目做貢獻,他所實現的方法現已成功用於像Kaggle這樣的機器學習競賽。

目錄

第一部分 神經網絡與深度學習
第1章 嵌入、潛空間和表徵
1 1 嵌入
1 2 潛空間
1 3 表徵
1 4 練習
1 5 參考文獻
第2章 自監督學習
2 1 自監督學習與遷移學習
2 2 使用無標籤數據
2 3 自預測與對比自監督學習
2 4 練習
2 5 參考文獻
第3章 小樣本學習
3 1 數據集與術語
3 2 練習
第4章 彩票假設
4 1 彩票假設的訓練流程
4 2 實際意義與局限性
4 3 練習
4 4 參考文獻
第5章 利用數據來減少過擬合現象
5 1 常用方法
5 1 1 採集更多數據
5 1 2 數據增強
5 1 3 預訓練
5 2 其他方法
5 3 練習
5 4 參考文獻
第6章 通過改進模型減少過擬合現象
6 1 常用方法
6 1 1 正則化
6 1 2 選擇更小的模型
6 1 3 集成方法
6 2 其他方法
6 3 選擇正則化技術
6 4 練習
6 5 參考文獻
第7章 多GPU訓練模式
7 1 訓練模式
7 1 1 模型并行
7 1 2 數據并行
7 1 3 張量并行
7 1 4 流水線并行
7 1 5 序列并行
7 2 建議
7 3 練習
7 4 參考文獻
第8章 Transformer架構的成功
8 1 注意力機制
8 2 通過自監督學習進行預訓練
8 3 大規模參數
8 4 輕鬆并行化
8 5 練習
8 6 參考文獻
第9章 生成式AI模型
9 1 生成式模型與判別式模型
9 2 深度生成式模型的類型
9 2 1 能量模型
9 2 2 變分自編碼器
9 2 3 生成對抗網絡
9 2 4 流模型
9 2 5 自回歸模型
9 2 6 擴散模型
9 2 7 一致性模型
9 3 建議
9 4 練習
9 5 參考文獻
第10章 隨機性的由來
10 1 模型權重初始化
10 2 數據集採樣與重排
10 3 非確定性算法
10 4 不同運行時的算法
10 5 硬體與驅動程序
10 6 隨機性與生成式AI
10 7 練習
10 8 參考文獻
第二部分 計算機視覺
第11章 計算參數量
11 1 如何計算參數量
11 1 1 卷積層
11 1 2 全連接層
11 2 實際應用
11 3 練習
第12章 全連接層和卷積層
12 1 當卷積核與輸入大小相同時
12 2 當卷積核大小為1時
12 3 建議
12 4 練習
第13章 ViT架構所需的大型訓練集
13 1 CNN中的歸納偏置
13 2 ViT可以比CNN表現得更好
13 3 ViT中的歸納偏置
13 4 建議
13 5 練習
13 6 參考文獻
第三部分 自然語言處理
第14章 分佈假設
14 1 Word2vec、BERT和GPT
14 2 假設成立嗎
14 3 練習
14 4 參考文獻
第15章 文本數據增強
15 1 同義詞替換
15 2 詞語刪除
15 3 詞語位置交換
15 4 句子亂序
15 5 雜訊注入
15 6 回譯
15 7 合成數據生成
15 8 建議
15 9 練習
15 10 參考文獻
第16章 自注意力
16 1 RNN中的注意力
16 2 自注意力機制
16 3 練習
16 4 參考文獻
第17章 編碼器和解碼器風格的Transformer架構
17 1 原始的Transformer
17 1 1 編碼器
17 1 2 解碼器
17 2 編碼器-解碼器混合模型
17 3 專業術語
17 4 當代Transformer模型
17 5 練習
17 6 參考文獻
第18章 使用和微調預訓練Transformer
18 1 使用Transformer執行分類任務
18 2 上下文學習、索引和提示詞調優
18 3 參數高效的微調方法
18 4 基於人類反饋的強化學習
18 5 適配預訓練語言模型
18 6 練習
18 7 參考文獻
第19章 評測生成式大模型
19 1 大模型的評測指標
19 1 1 困惑度
19 1 2 BLEU
19 1 3 ROUGE
19 1 4 BERTScore
19 2 替代指標
19 3 練習
19 4 參考文獻
第四部分 生產與部署
第20章 無狀態訓練與有狀態訓練
20 1 無狀態(重)訓練
20 2 有狀態訓練
20 3 練習
第21章 以數據為中心的人工智能
21 1 以數據為中心的人工智能與以模型為中心的人工智能
21 2 建議
21 3 練習
21 4 參考文獻
第22章 加速推理
22 1 并行化
22 2 向量化
22 3 循環分塊
22 4 運算元融合
22 5 量化
22 6 練習
22 7 參考文獻
第23章 數據分佈偏移
23 1 協變數偏移
23 2 標籤偏移
23 3 概念偏移
23 4 領域偏移
23 5 數據分佈偏移的類型
23 6 練習
23 7 參考文獻
第五部分 預測性能與模型評測
第24章 泊松回歸與序回歸
第25章 置信區
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理