ChatGPT的基本原理與核心演算法 鄧志東 9787302682639 【台灣高等教育出版社】

圖書均為代購,正常情形下,訂後約兩周可抵台。
物品所在地:中國大陸
原出版社:清華大學
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
NT$439
商品編號: 9787302682639
供貨狀況: 尚有庫存

此商品參與的優惠活動

加入最愛
商品介紹
*書籍均為代購,我們向大陸付款發訂後即無法取消,為避免造成不必要的損失,
下訂前請慎重考慮!下訂前請慎重考慮!謝謝。

*完成訂單後正常情形下約兩周可抵台
*本賣場提供之資訊僅供參考,以到貨標的為正確資訊。
印行年月:202503*若逾兩年請先於客服中心或Line洽詢存貨情況,謝謝。
台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。
書名:ChatGPT的基本原理與核心演算法
ISBN:9787302682639
出版社:清華大學
著編譯者:鄧志東
頁數:219
所在地:中國大陸 *此為代購商品
書號:1721047
可大量預訂,請先連絡。

內容簡介

能夠模仿人類語言智能與思維,具有世界一般性知識的ChatGPT,開啟了通用人工智能的新時代,正成為引爆第四次工業革命的火種。本書是第一本體系化介紹ChatGPT基本原理與核心算法的教材及專業圖書。全書共分5章:第1章為人工神經網絡基礎;第2章詳細剖析了Transformer及其緣起,分析了視覺領域的Transformer算法;第3章綜述了各種大型語言模型框架,分享了創建GPT系列模型的思想之旅;第4章重點介紹了ChatGPT的預訓練方法與微調算法,系統地闡述了強化學習基礎與基於人類反饋的強化學習;第5章為ChatGPT的應用,包括上下文學習提示與思維鏈提示,並討論了智能湧現。本書體系嚴謹、系統性強、邏輯嚴密、內容豐富,不僅深入淺出、圖文並茂、特色鮮明,而且具有引領性、前瞻性和思想啟迪性。 本書可作為高等院校人工智能、智能科學與技術、計算機科學與技術、大數據、自動駕駛、新一代機器人及相關專業高年級本科生與研究生教材,也可供上述專業的研究人員、算法工程師及從事AI產品研發,產業發展與決策諮詢等的工程技術人員、投資者、戰略研究者和廣大科技工作者參考。

作者簡介

鄧志東,CAA會士,CCF傑出會員。清華大學計算機科學與技術系教授,博士生導師,清華大學人工智能研究院視覺智能研究中心主任。目前的主要研究方向為人工智能(深度神經網絡與大模型、深度強化學習)、自動駕駛、人形機器人。發表學術論文300餘篇。

目錄

第1章 人工神經網絡基礎
1 1 引言
1 2 人工神經元模型
1 2 1 基準神經元模型:MP模型
1 2 2 第一代神經元模型:WSN模型
1 2 3 第二代神經元模型:RBF模型
1 2 4 第三代神經元模型:發放模型
1 3 人工神經網絡模型
1 3 1 神經網絡的基本概念與方法
1 3 2 前饋神經網絡模型
1 3 3 深度卷積神經網絡模型
1 3 4 反饋神經網絡模型
1 3 5 遞歸神經網絡模型
1 4 本章小結
第2章 從LSTM到Transformer
2 1 引言
2 2 遞歸神經網絡:編碼器-解碼器框架
2 2 1 從前饋神經網絡到遞歸神經網絡
2 2 2 Elman網絡:經典遞歸神經網絡
2 2 3 長短期記憶網絡
2 2 4 遞歸神經網絡的編碼器-解碼器框架
2 3 遞歸神經網絡的注意力與點積相似性
2 3 1 長短期記憶網絡的注意力
2 3 2 點積相似性
2 4 Transformer模型
2 4 1 傳統編碼器-解碼器框架下的Transformer網絡結構
2 4 2 嵌入向量與位置編碼
2 4 3 殘差直連結構及前置歸一化層
2 4 4 Transformer的核心結構單元:多頭灃意力機制與逐位置前饋神經網絡
2 4 5 學習機制:層堆疊自監督學習與基於誤差反向傳播的監督微調
2 4 6 Transformer的主要特性
2 4 7 與遞歸神經網絡的聯繫與區別
2 5 應用領域:從NLP擴展到
2 5 1 CV領域的Transformer
2 5 2 視覺目標檢測與分割任務:DETR
2 5 3 圖像分類任務
2 5 4 三維點雲處理任務:Point Transformer
2 5 5 對比式語言圖像預訓練模型:CLIP
2 5 6 其他視覺任務及展望
2 6 本章小結
第3章 GPT系列預訓練大型語言模型
3 1 引言
3 2 大型語言模型的Transformer框架
3 2 1 前綴(編碼器)解碼器架構的Transformer框架
3 2 2 編碼器架構的Transformer框架
3 2 3 解碼器架構的Transformer框架
3 3 混合式預訓練大型語言模型
3 3 1 T5模型
3 3 2 GLM模型
3 4 判別式預訓練大型語言模型
3 4 1 BERT模型
3 4 2 RoBERTa模型
3 5 GPT系列生成式預訓練大型語言模型
3 5 1 GPT-1:利用生成式預訓練改善語言理解
3 5 2 GPT-2:無監督多任務學習的語言模型
3 5 3 GPT-3:少樣本學習的大型語言模型
3 5 4 GPT-4:罔義多模態大型語言模型
3 6 本章小結
第4章 ChatGPT的大規模預訓練與微調
4 1 引言
4 2 大型語言模型的大規模預訓練
4 2 1 預訓練任務與模型選擇
4 2 2 大規模預訓練方法
4 2 3 生成式Transformer大型語言模型的對比式自監督學習
4 3 ChatGPT預訓練模型的微調
4 3 1 強化學習基礎
4 3 2 預訓練大型語言模型的指令調優與RLHF調優
4 3 3 初始動作器:SFT模型的監督訓練
4 3 4 初始評判器:RM模型的監督訓練
4 3 5 A2C框架下的PPO-ptx強化學習:策略更新與價值對齊
4 4 性能評估
4 4 1 與人類意圖及價值觀對齊的性能評估
4 4 2 定量評測
4 5 ChatGPT規模化與丁程化中的關鍵技術
4 5 1 大規模高質量數據資源的準備
4 5 2 大規模分散式預訓練與微調所需的AI算力支撐
4 6 本章小結
第5章 ChatGPT的應用
5 1 引言
5 2 提示工程
5 2 1 預訓練一提示微調範式
5 2 2 零樣本提示與少樣本提示
5 3 上下義學習提示
5 3 1 語言模型的元學習
5 3 2 上下義學習提示
5 4 思維鏈提示
5 4 1 思維鏈提示的兩種方式
5 4 2 少樣本思維鏈提示
5 4 3 零樣本思維鏈提示
5 4 4 自動少樣本思維鏈提示
5 5 思維樹提示
5 5 1 思維樹提示的基本思想
5 5 2 思維樹:大型語言模型深思熟慮的問題求解方法
5 5 3 分析與討論
5 6 智能湧現能力
5 6 1 智能湧現能力的定義
5 6 2 湧現能力發生的幾種情形
5 6 3 湧現能力的分析與展望
5 7 本章小結
詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於客服中心或Line或本社留言板留言,我們即儘速上架。
規格說明
大陸簡體正版圖書,訂購後正常情形下約兩周可抵台。
運送方式
已加入購物車
已更新購物車
網路異常,請重新整理