*完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為正確資訊。 印行年月:202402*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:遊戲人工智能方法 ISBN:9787030770950 出版社:科學 著編譯者:趙冬斌 朱圓恆 叢書名:新一代人工智慧理論技術及應用叢書 頁數:180 所在地:中國大陸 *此為代購商品 書號:1632257 可大量預訂,請先連絡。 內容簡介 本書嘗試總結近年來遊戲人工智慧方向的優秀研究工作,以及作者的一些探索成果。主要內容包括遊戲人工智慧的背景、經典的遊戲人工智慧方法、DeepMind針對棋牌和視頻類遊戲的人工智慧方法,以及作者團隊針對即時遊戲的人工智慧方法,如格鬥遊戲、星際爭霸的宏觀生產和微觀操作等。從理論分析到演算法設計到編程實現,旨在為讀者提供一個針對不同遊戲人工智慧問題的系統性論述。 本書適合人工智慧等相關領域科技人員參考使用,也可供高校相關專業的研究生學習。目錄 「新一代人工智慧理論、技術及應用叢書」序前言 第1章 遊戲人工智慧介紹 1 1 引言 1 1 1 遊戲人工智慧背景和意義 1 1 2 遊戲人工智慧研究發展 1 2 回合制遊戲人工智慧 1 2 1 棋類遊戲人工智慧發展歷程 1 2 2 牌類遊戲人工智慧發展歷程 1 2 3 棋牌類遊戲人工智慧測試平台 1 3 即時制遊戲人工智慧 1 3 1 即時制遊戲平台和競賽 1 3 2 雅達利遊戲 1 3 3 第一人稱視角遊戲 1 3 4 即時策略遊戲 1 4 遊戲人工智慧的關鍵性挑戰與研究思路 1 5 遊戲人工智慧的未來發展趨勢與展望 1 5 1 基於深度強化學習方法的策略模型泛化性 1 5 2 構建高效魯棒合理的前向推理模型 1 5 3 增強模型的環境適應和學習優化性能 1 5 4 從虛擬環境到實際應用的遷移 1 6 本章小結 參考文獻 第2章 基本遊戲人工智慧方法 2 1 引言 2 2 經典博弈樹模型 2 2 1 極小化極大演算法 2 2 2 α-β剪枝演算法 2 3 統計前向規劃 2 3 1 蒙特卡羅樹搜索演算法 2 3 2 滾動時域演化演算法 2 4 強化學習 2 4 1 蒙特卡羅演算法 2 4 2 時間差分強化學習演算法 2 4 3 策略梯度學習演算法 2 5 深度強化學習 2 5 1 深度Q網路及其擴展 2 5 2 非同步優勢執行器-評價器演算法及其擴展 2 5 3 策略梯度深度強化學習 2 5 4 面向對抗博弈的深度強化學習 2 6 本章小結 參考文獻 第3章 DeepMind遊戲人工智慧方法 3 1 引言 3 2 AlphaGo 3 2 1 演算法概述 3 2 2 計算機圍棋的發展歷史與現狀 3 2 3 原理分析 3 2 4 性能分析 3 2 5 評價 3 3 AlphaGoZero 3 3 1 演算法概述 3 3 2 深度神經網路結構 3 3 3 蒙特卡羅樹搜索 3 3 4 訓練流程 3 3 5 討論 3 4 AlphaZero和MuZero 3 4 1 AlphaZero概述 3 4 2 MuZero概述 3 4 3 演算法解析 3 4 4 性能分析 3 5 AlphaStar 3 5 1 星際爭霸研究意義 3 5 2 演算法概述 3 5 3 演算法解析 3 5 4 性能分析 3 6 本章小結 參考文獻 第4章 兩人零和馬爾可夫博弈的極小化極大Q網路演算法 4 1 引言 4 2 兩人零和馬爾可夫博弈的基本知識 4 2 1 兩人零和馬爾可夫博弈 4 2 2 納什均衡或極小化極大均衡 4 2 3 極小化極大價值和極小化極大方程 4 2 4 線性規劃求解極小化極大解 4 3 動態規劃求解貝爾曼極小化極大方程 4 3 1 值迭代 4 3 2 策略迭代 4 3 3 廣義策略迭代 4 4 極小化極大Q網路演算法 4 4 1 Q函數神經網路 4 4 2 在線學習 4 4 3 M2QN演算法在查表法下的收斂性 4 5 模擬實驗 4 5 1 足球博弈 4 5 2 守護領土 4 5 3 格鬥遊戲 4 6 本章小結 參考文獻 第5章 格鬥遊戲的對手模型和滾動時域演化演算法 5 1 引言 5 2 基於滾動時域演化的統計前向規劃建模 5 2 1 格鬥遊戲問題定義 5 2 2 滾動時域演化演算法 5 3 基於自適應對手模型的神經網路建模 5 3 1 對手模型建模 5 3 2 監督學習式對手模型 5 3 3 強化學習式對手模型 5 4 實驗設計與測試結果 5 4 1 實驗設置與測試平台 5 4 2 內部比較 5 4 3 對抗2018年格鬥遊戲程序 5 4 4 兩種統計前向規劃與對手建模結合的性能比較 5 4 5 2019年格鬥遊戲競賽結果 5 4 6 2020年格鬥遊戲競賽結果 5 4 7 性能指標分析 5 4 8 討論 5 5 本章小結 參考文獻 第6章 星際爭霸宏觀生產的深度強化學習演算法 6 1 引言 6 2 星際爭霸宏觀生產決策分析與建模 6 2 1 問題定義 6 2 2 輸入狀態特徵 6 2 3 決策動作定義 6 2 4 決策神經網路模型結構 6 2 5 基於策略和價值混合式網路的決策系統優化方法 6 3 實驗設置與結果分析 6 3 1 星際爭霸宏觀決策對抗優化場景 6 3 2 對抗優化場景下的實驗結果 6 3 3 星際爭霸學生天梯賽 6 4 本章小結 參考文獻 第7章 星際爭霸微操的強化學習和課程遷移學習演算法 7 1 引言 7 2 星際爭霸微操任務分析與建模 7 2 1 問題定義 7 2 2 高維狀態表示 7 2 3 動作定義 7 2 4 網路結構 7 3 基於強化學習的星際爭霸多單位控制 7 3 1 共享參數多智能體梯度下降Sarsa(λ)演算法 7 3 2 獎賞函數 7 3 3 幀跳躍 7 3 4 課程遷移學習 7 4 實驗設置和結果分析 7 4 1 星際爭霸微操場景設置 7 4 2 結果討論 7 4 3 策略分析 7 5 本章小結 參考文獻 第8章 星際爭霸微操的可變數量多智能體強化學習演算法 8 1 引言 8 2 背景知識與相關工作 8 2 1 多智能體強化學習 8 2 2 聯合觀 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |