| *數量非實際在台庫存 *完成訂單後正常情形下約兩周可抵台。 *本賣場提供之資訊僅供參考,以到貨標的為實際資訊。 印行年月:202309*若逾兩年請先於私訊洽詢存貨情況,謝謝。 台灣(台北市)在地出版社,每筆交易均開具統一發票,祝您中獎最高1000萬元。 書名:自然語言處理領域中差分隱私和可解釋技術的應用 ISBN:9787509693018 出版社:經濟管理 著編譯者:陳珂銳 頁數:191 所在地:中國大陸 *此為代購商品 書號:1591082 可大量預訂,請先連絡。 內容簡介 自然語言處理技術經歷了小規模專家知識(20世紀50年代-90年代)、大規模語料庫統計模型(20世紀90年代至21世紀初)、大規模語料庫深度學習(2010-2017年)和大規模預訓練語言模型(2018年至今)四個階段。預訓練模型的研究和應用是從2013年開始的,標誌性事件是2018年10月谷歌的Bert模型的出現,顛覆了NLP領域的研究範式,多數的NLP任務都轉換成在預訓練語言模型上的學習,然後在下游任務中使用微調的模式。特別是2023年初OpenAl公司的ChatGPT的火爆問世,ChatGPT的API已於2023年3月1日公開,而其背後的大規模語言模型的公開,必將導致包含隱私敏感數據訓練的模型被提取出訓練數據中的隱私敏感信息。差分隱私技術和可解釋性技術可以有效地解決隱私數據泄露和模型不透明的問題。本書先介紹了自然語言和差分隱私的理論基礎,論述當前自然語言模型所面臨的隱私攻擊類型,在此基礎之上根據文本處理粒度和擾動位置的不同,分別介紹單詞層級的差分隱私、Token層級的差分隱私、句子層級的差分隱私、主題層級的差分隱私和基於梯度擾動的差分隱私。最後論述自然語言處理模型中相關的可解釋性技術。該書研究成果廣泛適用於多種交叉學科,如社交網路、情感分析、聊天機器人、城市交通、金融風控等領域,從而發揮巨大的研究意義和經濟價值。作者簡介 陳珂銳,吉林大學計算機應用技術博士,現為河南財經政法大學計算機與信息工程學院講師。在《計算機研究與發展》等權威期刊發表論文4篇。擔任過1項國家自然科學基金重大研究計劃研究、2項國家自然基金研究。曾獲得吉林省科學技術獎三等獎,中國商業聯合會科學技術獎三等獎。目錄 1 導論1 1 小規模專家知識階段 1 2 大規模語料庫統計模型階段 1 3 大規模語料庫深度學習階段 1 4 大規模預訓練語言模型階段 2 自然語言處理基礎 2 1 文本表示 2 2 自然語言處理任務 2 3 評價指標 3 預訓練模型 3 1 靜態詞向量預訓練模型 3 2 動態詞向量預訓練模型 3 3 預訓練語言模型 4 自然語言處理中的神經網路 4 1 多層感知機 4 2 卷積神經網路 4 3 循環神經網路 4 4 注意力機制 4 5 Transformer模型 4 6 提示學習Prompt Learning 5 差分隱私相關基礎 5 1 中心化差分隱私 5 2 本地差分隱私 5 3 度量差分隱私 5 4 UMLDP (Utility-optimized MLDP) 5 5 雜訊機制 6 攻擊類型 6 1 成員推理攻擊 6 2 重建攻擊 6 3 屬性推理攻擊 6 4 模型抽取攻擊 6 5 梯度信息攻擊 6 6 基於提示信息攻擊 7 基於單詞層級的差分隱私方法 7 1 中心化差分隱私場景下 7 2 本地化差分隱私場景下 7 3 度量差分隱私場景下 8 基於Token層級的差分隱私方法 8 1 SANTEXT和SANTEXT+ 8 2 基於Bett系列的差分隱私方法 9 基於句子層級的差分隱私方法 9 1 Skip-Thoughts向量 9 2 Sent2Vec 9 3 Doc2Vec 9 4 SBERT 9 5 模糊詞袋方法Fuzzy Bag-of-Words 9 6 其他方法 9 7 句子層級差分隱私方法框架 10 基於主題層級的差分隱私方法 1O 1 LDA方法 10 2 基於LDA方法的差分隱私技術 10 3 基於編碼擾動方法 1O 4 基於文檔層級的方法 10 5 SynTF方法 10 6 基於計數布隆過濾器差分隱私方法 11 基於梯度的差分隱私方法 11 1 DP-SGD 11 2 DP-Adam 11 3 DP-BERT 11 4 RGP 12 自然語言模型的可解釋性 12 1 模型的解釋技術 12 2 預測結果和解釋技術 12 3 模仿者模型解釋技術 12 4 性能評估 12 5 未來的挑戰 參考文獻 詳細資料或其他書籍請至台灣高等教育出版社查詢,查後請於PChome商店街私訊告知ISBN或書號,我們即儘速上架。 |