定 價(jià):¥158.00
作 者: | 楊強(qiáng),范力欣,朱軍,陳一昕,張拳石,朱松純 等 |
出版社: | 電子工業(yè)出版社 |
叢編項(xiàng): | |
標(biāo) 簽: | 暫缺 |
ISBN: | 9787121431876 | 出版時(shí)間: | 2022-04-01 | 包裝: | 精裝 |
開(kāi)本: | 16開(kāi) | 頁(yè)數(shù): | 380 | 字?jǐn)?shù): |
目錄
推薦序
前言
作者介紹
第1章可解釋人工智能概述
1.1為什么人工智能需要可解釋性
1.2可解釋人工智能
1.2.1目的、定義及范式
1.2.2層次、分類(lèi)及應(yīng)用場(chǎng)景
1.2.3解釋的范疇
1.2.4解釋的評(píng)價(jià)與度量
1.3可解釋AI的歷史及發(fā)展現(xiàn)狀
1.3.1可解釋AI歷史回顧
1.3.2可解釋AI發(fā)展現(xiàn)狀
1.4本書(shū)結(jié)構(gòu)及閱讀建議
第2章貝葉斯方法
2.1貝葉斯網(wǎng)絡(luò)
2.1.1貝葉斯網(wǎng)絡(luò)的表示
2.1.2貝葉斯網(wǎng)絡(luò)的推斷
2.1.3貝葉斯網(wǎng)絡(luò)的學(xué)習(xí)
2.1.4貝葉斯規(guī)劃學(xué)習(xí)
2.2貝葉斯深度學(xué)習(xí)
2.2.1深度生成模型
2.2.2貝葉斯神經(jīng)網(wǎng)絡(luò)
2.3從貝葉斯網(wǎng)絡(luò)到可解釋的因果模型
2.4延伸閱讀
2.5小結(jié)
第3章基于因果啟發(fā)的穩(wěn)定學(xué)習(xí)和反事實(shí)推理
3.1將因果引入機(jī)器學(xué)習(xí)的增益
3.1.1制約人工智能技術(shù)的可解釋性和穩(wěn)定性問(wèn)題
3.1.2關(guān)聯(lián)性和因果性
3.2挖掘數(shù)據(jù)中的因果關(guān)聯(lián)
3.2.1因果推理框架和因果效應(yīng)定義
3.2.2潛在結(jié)果框架下的因果效應(yīng)評(píng)估
3.3穩(wěn)定學(xué)習(xí)
3.3.1二值特征下的穩(wěn)定學(xué)習(xí)
3.3.2連續(xù)特征下的穩(wěn)定學(xué)習(xí)
3.3.3從統(tǒng)計(jì)學(xué)習(xí)角度的解釋
3.3.4區(qū)分性變量去關(guān)聯(lián)的穩(wěn)定學(xué)習(xí)
3.3.5與深度神經(jīng)網(wǎng)絡(luò)相結(jié)合的穩(wěn)定學(xué)習(xí)
3.4反事實(shí)推理
3.4.1二值類(lèi)型干預(yù)的反事實(shí)推理
3.4.2多維類(lèi)型干預(yù)下的反事實(shí)推理
3.4.3存在未觀測(cè)混淆變量的反事實(shí)推理
3.5小結(jié)
第4章基于與或圖模型的人機(jī)協(xié)作解釋
4.1與或圖模型
4.2基于與或圖的多路徑認(rèn)知過(guò)程
4.3人機(jī)協(xié)作對(duì)齊人類(lèi)認(rèn)知結(jié)構(gòu)和與或圖模型
4.3.1通過(guò)交互式問(wèn)答構(gòu)建與人類(lèi)認(rèn)知系統(tǒng)對(duì)齊的與或圖模型
4.3.2評(píng)價(jià)模型的可解讀性:“氣泡游戲”實(shí)驗(yàn)
4.3.3模型通過(guò)主動(dòng)建模用戶(hù)認(rèn)知提升可解讀性
4.4小結(jié)
第5章對(duì)深度神經(jīng)網(wǎng)絡(luò)的解釋
5.1神經(jīng)網(wǎng)絡(luò)特征可視化
5.1.1最大激活響應(yīng)可視化
5.1.2網(wǎng)絡(luò)解剖與特征語(yǔ)義分析
5.1.3基于反向傳播的輸入重建可視化
5.1.4CAM/Grad-CAM
5.2輸入單元重要性歸因
5.2.1SHAP算法
5.2.2導(dǎo)向反向傳播算法
5.2.3逐層相關(guān)性傳播算法
5.2.4積分梯度算法
5.2.5LIME
5.3博弈交互解釋性理論
5.3.1理論基礎(chǔ):沙普利值
5.3.2博弈交互的定義
5.3.3博弈交互的性質(zhì)
5.3.4博弈交互與語(yǔ)義表達(dá)
5.3.5解釋隨機(jī)失活操作
5.3.6解釋批規(guī)范化操作
5.3.7解釋對(duì)抗遷移性和對(duì)抗魯棒性
5.4對(duì)神經(jīng)網(wǎng)絡(luò)特征質(zhì)量解構(gòu)、解釋和可視化
5.4.1解釋表征一致性
5.4.2解釋復(fù)雜度
5.5對(duì)表達(dá)結(jié)構(gòu)的解釋
5.5.1代理模型解釋
5.5.2對(duì)自然語(yǔ)言網(wǎng)絡(luò)中語(yǔ)言結(jié)構(gòu)的提取和解釋
5.6可解釋的神經(jīng)網(wǎng)絡(luò)
5.6.1膠囊網(wǎng)絡(luò)
5.6.2β-變分自編碼器
5.6.3可解釋的卷積神經(jīng)網(wǎng)絡(luò)
5.6.4可解釋的組成卷積神經(jīng)網(wǎng)絡(luò)
5.7小結(jié)
第6章生物醫(yī)療應(yīng)用中的可解釋人工智能
6.1基因編輯系統(tǒng)優(yōu)化設(shè)計(jì)中的可解釋人工智能
6.1.1基因編輯系統(tǒng)背景介紹
6.1.2基因編輯系統(tǒng)優(yōu)化設(shè)計(jì)可解釋AI模型構(gòu)建
6.2醫(yī)學(xué)影像中的可解釋性
6.2.1概述
6.2.2可解釋性胸片診斷
6.2.3具有自適應(yīng)性的通用模型學(xué)習(xí)
6.3小結(jié)
第7章金融應(yīng)用中的可解釋人工智能
7.1簡(jiǎn)介
7.1.1金融行業(yè)背景介紹
7.1.2金融市場(chǎng)介紹
7.1.3可解釋AI面向各金融行業(yè)對(duì)象的必要性
7.1.4金融監(jiān)管對(duì)于可解釋性的要求
7.2金融可解釋AI的案例
7.2.1事后可解釋模型解釋人工智能量化模型
7.2.2高風(fēng)險(xiǎn)客戶(hù)信用違約預(yù)測(cè)
7.2.3對(duì)金融人工智能模型可解釋性的監(jiān)管
7.3金融可解釋AI的發(fā)展方向
7.3.1安全性
7.3.2平衡性
7.3.3完整性
7.3.4交互性
7.3.5時(shí)效性
7.3.6深化推廣應(yīng)用
7.4延伸閱讀
7.5小結(jié)
第8章計(jì)算機(jī)視覺(jué)應(yīng)用中的可解釋人工智能
8.1背景
8.1.1機(jī)器視覺(jué)與可解釋性
8.1.2可解釋性與機(jī)器視覺(jué)發(fā)展
8.2視覺(jué)關(guān)系抽取
8.2.1基本概念
8.2.2視覺(jué)關(guān)系檢測(cè)中可解釋性的重要性
8.2.3可解釋視覺(jué)關(guān)系抽取
8.3視覺(jué)推理
8.3.1基本概念
8.3.2可解釋視覺(jué)推理示例
8.4視覺(jué)魯棒性
8.4.1動(dòng)態(tài)與靜態(tài)可解釋性分析
8.4.2數(shù)字世界與物理世界模型安全可解釋性
8.5視覺(jué)問(wèn)答
8.5.1基本概念
8.5.2視覺(jué)問(wèn)答中可解釋性的重要性
8.5.3可解釋性視覺(jué)問(wèn)答示例
8.6知識(shí)發(fā)現(xiàn)
8.6.1基本概念
8.6.2視覺(jué)可解釋性與知識(shí)發(fā)現(xiàn)的關(guān)系
8.6.3可解釋性知識(shí)發(fā)現(xiàn)案例
8.7小結(jié)
第9章自然語(yǔ)言處理中的可解釋人工智能
9.1簡(jiǎn)介.243
9.2可解釋自然語(yǔ)言處理中的模型結(jié)構(gòu)分析
9.2.1為什么模型結(jié)構(gòu)分析很重要
9.2.2設(shè)置探針任務(wù)窺探模型結(jié)構(gòu)的功能
9.2.3錯(cuò)誤類(lèi)型分析
9.2.4可解釋評(píng)估
9.3可解釋自然語(yǔ)言處理中的模型行為分析
9.3.1為什么模型行為分析很重要
9.3.2預(yù)測(cè)行為分析
9.4自然語(yǔ)言處理任務(wù)中的可解釋性
9.4.1對(duì)話系統(tǒng)
9.4.2智能問(wèn)答系統(tǒng)
9.4.3情感分析系統(tǒng)
9.4.4自動(dòng)文摘系統(tǒng)
9.5延伸閱讀
9.5.1魯棒性分析
9.5.2泛化性分析
9.6小結(jié)
第10章推薦系統(tǒng)中的可解釋人工智能
10.1簡(jiǎn)介
10.2初探可解釋推薦
10.3可解釋推薦的歷史與背景
10.4推薦系統(tǒng)基礎(chǔ)
10.4.1推薦系統(tǒng)的輸入
10.4.2推薦系統(tǒng)的輸出
10.4.3推薦系統(tǒng)的三大核心問(wèn)題
10.5基本的推薦模型
10.5.1協(xié)同過(guò)濾
10.5.2協(xié)同推理
10.6可解釋的推薦模型
10.7可解釋推薦的應(yīng)用
10.7.1電子商務(wù)
10.7.2社交網(wǎng)站
10.7.3基于位置的服務(wù)
10.7.4多媒體系統(tǒng)
10.7.5其他應(yīng)用
10.8延伸閱讀:其他可解釋推薦模型
10.8.1基于圖和知識(shí)圖譜的可解釋推薦模型
10.8.2深度學(xué)習(xí)推薦系統(tǒng)的可解釋性
10.8.3基于自然語(yǔ)言生成的解釋
10.8.4基于因果和反事實(shí)推理的解釋
10.9小結(jié)
第11章結(jié)論
附錄A傳統(tǒng)機(jī)器學(xué)習(xí)中的可解釋模型
A.1線性回歸
A.2邏輯回歸
A.3決策樹(shù)
附錄B可解釋人工智能相關(guān)研究資源
B.1圖書(shū)
B.2綜述論文
B.3Workshop及論文集
B.4Tutorial
B.5代碼
參考文獻(xiàn)
索引