| *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202403*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:人工智能注意力機制-體系,模型與演算法剖析 ISBN:9787111744764 出版社:機械工業 著編譯者:傅罡 叢書名:人工智慧科學與技術叢書 頁數:428 所在地:中國大陸 *此為代購商品 書號:1630094 可大量預訂,請先連絡。 內容簡介 「注意」作為一切思維活動的起點,一直是哲學、心理學和認知神經科學的重點研究對象。隨著計算機技術的發展,人類對注意力機制的模擬和應用成為計算機科學領域的熱點研究方向——讓計算機能夠具有類似人類的注意力機制,使其能夠有效地應用於對數據的理解和分析。Transformer模型誕生后,注意力機制在人工智慧各大重要領域的研究和應用更是如火如荼,成果豐碩。 本書從注意力機制這一重要角度入手,闡述注意力機制的產生背景和發展歷程,通過詳實的理論剖析,以深入淺出的方式著重介紹注意力機制在計算機視覺、自然語言處理,以及多模態機器學習三大人工智慧方向中的應用思路、模型與演算法。 本書以人工智慧相關專業研究人員,特別是計算機視覺與自然語言處理等領域的研發人員作為主要讀者對象,一方面幫其梳理技術的發展脈絡、開拓思路、構建完整的認知體系;另一方面為其剖析演算法原理、深刻理解演算法細節。作者簡介 傅罡,博士,畢業於清華大學,高級工程師。現就職于同方威視技術股份有限公司人工智慧研發中心,長期負責人工智慧演算法研發和研發管理工作。2015年,進入清華大學同方威視校企聯合博士后工作站進行博士后研究工作。2017年至今,作為技術負責人或骨幹參与多個國家級和省部級重點研究項目。長期關注人工智慧技術的進展,對自然語言處理、計算機視覺等領域的各類人工智慧演算法有著深刻的理解和獨到的見解,並擅長用通俗易懂的語言進行闡述和表達。目錄 第1章 人類注意力與計算機注意力——從認識自我到改造世界1 1 本源思考:哲學中的注意力 1 1 1 早期哲學的樸素觀點 1 1 2 注意力視為一般認知現象 1 1 3 注意力作為重要研究對象 1 2 心路歷程:心理學中的注意力 1 2 1 實驗心理學中的注意力 1 2 2 認知心理學中的注意力 1 3 深入腦海:認知神經科學中的注意力 1 3 1 認知神經科學的研究基礎和方法 1 3 2 認知神經科學中的注意力研究 1 4 改造世界:計算機科學中的注意力 1 4 1 人工智慧為什麼要討論注意力? 1 4 2 注意力與計算機視覺 1 4 3 注意力與自然語言處理 1 4 4 注意力機制的多模態應用 參考文獻 第2章 計算機視覺中的注意力 2 1 注意力模型的分類 2 1 1 客觀與主觀:自下而上的注意力與自上而下的注意力 2 1 2 目的與手段:視覺顯著性檢測與視覺注意力機制 2 1 3 掩膜與權重:硬性注意力與柔性注意力 2 1 4 特徵與位置:特徵域注意力與空間域注意力 2 1 5 自己與相互:自注意力與互注意力 2 2 視覺顯著性檢測原理與模型剖析 2 2 1 注視點預測 2 2 2 顯著物體檢測 2 3 注意力機制的計算機視覺應用與模型剖析 2 3 1 目標搜索與識別 2 3 2 細粒度分類 2 3 3 神經網路中的通用注意力模塊 參考文獻 第3章 自然語言處理中的注意力——「前Transformer」的時代 3 1 機器翻譯與Seq2Seq模型 3 1 1 機器翻譯 人工智慧注意力機制:體系、模型與演算法剖析3 1 2 Seq2Seq模型 3 2 自然語言處理中注意力機制的起源 3 2 1 Seq2Seq模型的問題 3 2 2 注意力Seq2Seq模型 3 3 經典演算法剖析 3 3 1 全局注意力與局部注意力機制 3 3 2 層級注意力機制 3 3 3 自注意力機制 3 4 注意力機制的形式化表示 參考文獻 第4章 「只要注意力」的Transformer 4 1 Transformer的誕生 4 2 Transformer的編碼器-解碼器架構 4 2 1 編碼器結構 4 2 2 解碼器結構 4 3 Transformer的輸入與輸出 4 3 1 詞嵌入 4 3 2 位置編碼 4 3 3 Transformer的輸出 4 4 Transformer的注意力機制 4 4 1 縮放點積注意力 4 4 2 多頭注意力 4 4 3 編碼器與解碼器中的注意力模塊 4 5 一些其他問題 4 5 1 BatchNorm與LayerNorm 4 5 2 模型訓練的Teacher Forcing模式 4 5 3 序列預測的Beam Search方法 參考文獻 第5章 自然語言處理中的預訓練範式與Transformer的「一統江湖」 5 1 語言建模 5 1 1 從統計語言模型到神經網路語言模型 5 1 2 單向語言模型與雙向語言模型 5 1 3 自回歸語言模型與自編碼語言模型 5 2 自然語言處理中的預訓練範式 5 2 1 「預訓練+微調」範式 5 2 2 「預訓練+提示」範式 5 3 預訓練模型概覽 5 4 基於Transformer的預訓練模型 5 4 1 GPT:Transformer的「右手」 5 4 2 BERT:Transformer的「左手」 5 4 3 Transformer-XL與XLNet:從任意長輸入到「更好的BERT」 5 4 4 RoBERTa與ALBERT:「魯棒版BERT」與「瘦身版BERT」 5 4 5 MASS、BART與UniLM:序列到序列的模型 5 4 6 ERNIE「雙雄」:藉助外部數據的增強模型 5 4 7 XLM:跨語種預訓練語言模型 5 4 8GPT-2 0與GPT-3 0:超級模型 參考文獻 第6章 計算機視覺中的Transformer 6 1 視覺Transformer模型概覽 6 2 卷積還是注意力? 6 3 Transformer的計算機視覺應用與演算法剖析 6 3 1 圖像分類與通用主幹網路 6 3 2 目標檢測 6 3 3 圖像分割 6 3 4 自監督預訓練模型 參考文獻 第7章 多模態機器學習中的注意力機制 7 1 多模態技術發展史 7 2 多模態機器學習面臨的挑戰 7 3 視覺語言多模態模型 7 3 1 視覺語言任務簡介 7 3 2 視覺語言模型中的注意力機制 7 4 經典多模態模型剖析 7 4 1 早期單任務視覺語言模型 7 4 2 視覺語言預訓練模型 7 4 3 提示驅動CV模型 7 4 4 新型生成模型 參考文獻 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |