內容簡介
本書面向智能化時代遙感影像處理與應用的需求,結合作者近年來在遙感影像智能解譯方面的研究工作,系統地闡述了高解析度遙感影像解譯與變化檢測的方法,以「數據-像素-目標-場景」的層次認知模型為基礎,引入基於深度學習的全要素遙感影像語義分割模型,在此基礎上提出顧及拓撲結構與空間上下文的線狀、面狀地物專題要素提取方法,並構建了融合高階注意力機制的人機交互半自動提取模型。同時,引入密集連接與幾何結構約束機制,提升變化檢測模型的特徵復用與結構感知能力。 本書可作為普通高校攝影測量與遙感、遙感科學與技術、測繪工程、模式識別與智能處理等專業的研究生教材,也可作為遙感智能解譯相關從業人員的技術參考書籍。作者簡介
張覓,武漢大學副研究員,長期從事智能遙感影像解譯研究,擔任中國遙感應用協會智能遙感開源聯盟副秘書長、湖北珞珈實驗室智能遙感解譯中心副主任。主持或參与20餘項國家自然科學基金、重點研發計劃等項目,發表論文30餘篇,擔任CVPR/ICCV/ECCV、ISPRS/TGRS/TIP等頂級會議與期刊審稿人。參与研發的EasyFeature系統支撐了「全球測圖」等國家重大工程,經濟效益逾2億元。開發首個遙感深度學習框架LuoJiaNET,吸引全球5000+用戶;提出LuoJiaSET分類體系,支撐OGCTrainingDML國際標準制定。與華為、百度等企業合作,主導研發28億參數的多模態人機協同大模型LuoJia SmartSensing(珞珈·靈感),顯著提升了遙感解譯的魯棒性和遷移能力。相關成果榮獲「測繪科學技術特等獎」「地理信息科技進步特等獎」等重要科技獎勵。目錄
第1章 緒論