注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術計算機/網(wǎng)絡軟件與程序設計其他編程語言/工具AI可解釋性(Python語言版)

AI可解釋性(Python語言版)

AI可解釋性(Python語言版)

定 價:¥59.80

作 者: [意] 列奧尼達·詹法納(Leonida Gianfagna)、安東尼奧·迪·塞科(Antonio Di Cecco)著,郭濤 譯
出版社: 清華大學出版社
叢編項:
標 簽: 暫缺

ISBN: 9787302605690 出版時間: 2022-08-01 包裝: 平裝-膠訂
開本: 32開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  《AI可解釋性(Python語言版)》全面介紹了AI可解釋性的概念和可用技術,使機器學習系統(tǒng)更易于解釋。書中提出的方法可以應用于幾乎所有現(xiàn)有的機器學習模型:線性和邏輯回歸、深度學習神經(jīng)網(wǎng)絡、自然語言處理和圖像識別等等。 隨著機器學習的發(fā)展,如今人們越來越多地使用人工智能體來執(zhí)行以前由人類處理的關鍵任務(醫(yī)療、法律和金融等等)。雖然智能體的設計原則已被理解,但目前的大多數(shù)深度學習模型對人類理解而言是“不透明的”?!禔I可解釋性(Python語言版)》從理論和實踐的角度填補了這個新興主題文獻方面的空白,使讀者能夠快速地使用可解釋性AI的工具和代碼。

作者簡介

  Leonida Gianfagna博士是一位理論物理學家,目前在網(wǎng)絡安全領域工作,擔任Cyber Guru的研發(fā)總監(jiān)。在加入Cyber Guru之前,他在IBM工作了15年,擔任ITSM(IT服務管理)軟件開發(fā)的領導。Leonida發(fā)表了多篇理論物理和計算機科學的論文,被授予IBM發(fā)明大師(IBM Master Inventor)。Antonio Di Cecco是一位理論物理學家,擁有強大的數(shù)學背景。他完全致力于提供從入門到專家等不同層次的線上或線下AIML教育,使用深入挖掘AIML模型的數(shù)學基礎的教育方法,并打開了新的角度來展示AIML知識和現(xiàn)有技術的改進空間。Antonio還擁有專注于創(chuàng)新和教學經(jīng)驗的經(jīng)濟學碩士學位。他還是一家意大利人工智能學院的領導,該學院在羅馬和佩斯卡拉都有分支機構。譯者:郭濤,主要從事模式識別與人工智能、智能機器人、軟件工程、地理人工智能(GeoAI)和時空大數(shù)據(jù)挖掘與分析等前沿交叉技術的研究。翻譯出版了《復雜性思考:復雜性科學與計算模型(第2版)》《神經(jīng)網(wǎng)絡設計與實現(xiàn)》和《概率圖模型及計算機視覺應用》等暢銷書。

圖書目錄

第1章 前景   1
1.1  AI可解釋性示例   2
1.1.1  學習階段   3
1.1.2  知識發(fā)現(xiàn)   4
1.1.3  可靠性和魯棒性   5
1.1.4  三個示例的啟示   5
1.2  ML和XAI   6
1.2.1  ML分類法   8
1.2.2  常見誤解   11
1.3  對AI可解釋性的需求   12
1.4  可解釋性與可理解性:是否為表達相同事物的不同詞語   14
1.4.1  從物質(zhì)世界到人類   15
1.4.2  相關性不是因果性   16
1.4.3  那么可理解性和可解釋性的區(qū)別是什么   19
1.5  使ML系統(tǒng)具備可解釋性   21
1.5.1  XAI工作流程   21
1.5.2  全局視覺   24
1.6  我們真的需要ML模型的可解釋性嗎   26
1.7  小結   28
參考文獻   29
第2章 AI可解釋性:需求、機遇和挑戰(zhàn)   31
2.1  人工介入   32
2.1.1  半人馬座XAI系統(tǒng)   32
2.1.2  從“人工介入”的角度評估XAI   35
2.2  如何使ML模型具備可解釋性   37
2.2.1  內(nèi)在可解釋性   41
2.2.2  事后可解釋性   44
2.2.3  全局或局部可解釋性   46
2.3  解釋的性質(zhì)   49
2.4  小結   51
參考文獻   52
第3章 內(nèi)在可解釋性模型   53
3.1  損失函數(shù)   54
3.2  線性回歸   57
3.3  邏輯回歸   67
3.4  決策樹   78
3.5  K最近鄰算法(KNN)   87
3.6  小結   90
參考文獻   91
第4章 XAI的模型不可知方法   93
4.1  全局可解釋性:排序重要性與部分依賴圖   94
4.1.1  根據(jù)排序重要性將特征排序   95
4.1.2  訓練集中的排序重要性   99
4.1.3  部分依賴圖   100
4.1.4  解釋的性質(zhì)   104
4.2  局部可解釋性:XAI與Shapley加法解釋   106
4.2.1  Shapley值:一種博弈論方法   107
4.2.2  SHAP的首次應用   108
4.2.3  解釋的性質(zhì)   111
4.3  KernelSHAP   111
4.3.1  Shapley公式   112
4.3.2  如何計算Shapley值   112
4.3.3  局部線性代理模型(LIME)   113
4.3.4  KernelSHAP是一種特殊的LIME   115
4.4  KernelSHAP與交互   116
4.4.1  紐約出租車情境   116
4.4.2  通過初步分析訓練模型   116
4.4.3  用KernelShap使模型具備可解釋性   120
4.4.4  特征交互   120
4.5  提升樹的更快速SHAP   122
4.5.1  TreeShap的應用   122
4.5.2  提供解釋   123
4.6  對SHAP的樸素評價   125
4.7  小結   127
參考文獻   128
第5章 解釋深度學習模型   129
5.1  不可知方法   130
5.1.1  對抗性特征   130
5.1.2  增強方法   132
5.1.3  將遮擋用作增強方法   133
5.1.4  將遮擋用作不可知XAI方法   134
5.2  神經(jīng)網(wǎng)絡(NN)   138
5.2.1  神經(jīng)網(wǎng)絡結構   138
5.2.2  為什么神經(jīng)網(wǎng)絡是深層網(wǎng)絡(與淺層網(wǎng)絡相對)   140
5.2.3  修正激活(和批量歸一化)   142
5.2.4  顯著圖   143
5.3  打開深度網(wǎng)絡   144
5.3.1  不同層解釋   144
5.3.2  CAM(類激活圖,Class Activation Maps)和Grad-CAM   144
5.3.3  DeepShap/ DeepLift   146
5.4  對顯著性方法的評判   150
5.4.1  網(wǎng)絡所見   150
5.4.2  可解釋性逐層批量標準化   151
5.5  無監(jiān)督方法   152
5.5.1  無監(jiān)督降維   152
5.5.2  卷積濾波器降維   154
5.5.3  激活圖集:如何區(qū)分炒鍋與煎鍋   156
5.6 小結   158
參考文獻   159
第6章 用ML和XAI創(chuàng)造科學   161
6.1  數(shù)據(jù)時代的科學方法   162
6.2  因果關系階梯   166
6.3  用ML和XAI發(fā)現(xiàn)物理概念   172
6.3.1  自動編碼器的魔力   173
6.3.2  利用ML和XAI發(fā)現(xiàn)阻尼擺的物理特性   177
6.3.3  攀登因果關系階梯   181
6.4  ML和XAI時代的科學   182
6.5  小結   184
參考文獻   185
第7章 對抗性機器學習和可解釋性   187
7.1  對抗性示例(AE)速成課程   188
7.2  使用對抗性示例運行XAI   201
7.3  用XAI抵御對抗性攻擊   205
7.4  小結   208
參考文獻   209
第8章 關于XAI可持續(xù)模型的建議   211
8.1  XAI“Fil Rouge”   212
8.2  XAI和GDPR   214
8.3  結語   220
8.4  小結   224
參考文獻   224
附錄 F.A.S.T. XAI認證   227
 

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) ranfinancial.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號