-
>
決戰(zhàn)行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優(yōu)實踐之路
-
>
第一行代碼Android
-
>
深度學習
-
>
Unreal Engine 4藍圖完全學習教程
-
>
深入理解計算機系統(tǒng)-原書第3版
-
>
Word/Excel PPT 2013辦公應用從入門到精通-(附贈1DVD.含語音視頻教學+辦公模板+PDF電子書)
可解釋AI實戰(zhàn)(PYTORCH版) 版權信息
- ISBN:9787302654865
- 條形碼:9787302654865 ; 978-7-302-65486-5
- 裝幀:線裝
- 冊數:暫無
- 重量:暫無
- 所屬分類:>>
可解釋AI實戰(zhàn)(PYTORCH版) 本書特色
對于深度學習模型,常常很難解釋其工作方式,即使是創(chuàng)建這些模型的數據科學家也不例外。提高機器學習模型的透明度和可解釋性可以*大限度地減少錯誤,減少意想不到的偏見,增加用戶對結果的信任!犊山忉孉I實戰(zhàn)(PyTorch版)》講述了探索“黑盒”模型內部的技術,提供了設計可靠算法的方法,并揭示了導致結果偏差的各種關鍵因素。
可解釋AI實戰(zhàn)(PYTORCH版) 內容簡介
可解釋AI(Interpretable AI)將教會你識別模型所學習的模式及其產生結果的原因。通過閱讀《可解釋AI實戰(zhàn)(PyTorch版)》,你將掌握一些用于解釋白盒模型(如線性回歸和廣義可加模型)的方法,以及一些用于解釋復雜深度學習模型的方法?山忉孉I是一個快速發(fā)展的領域,本書將該領域的前沿研究簡化為你可以在Python中實現的實際方法。 主要內容 ● 解釋AI模型的技術 ● **限度地減少錯誤、偏見、數據泄露和概念漂移 ● 度量公平性和減少偏見 ● 構建符合GDPR的AI系統(tǒng)
可解釋AI實戰(zhàn)(PYTORCH版) 目錄
第1章 導論 3
1.1 Diagnostics AI——AI系統(tǒng)示例 3
1.2 機器學習系統(tǒng)的類型 4
1.2.1 數據的表示 4
1.2.2 監(jiān)督學習 6
1.2.3 無監(jiān)督學習 7
1.2.4 強化學習 7
1.2.5 *適合Diagnostics AI的機器學習系統(tǒng) 8
1.3 構建Diagnostics AI 8
1.4 Diagnostics 的主要問題 10
1.4.1 數據泄露 10
1.4.2 偏見 10
1.4.3 監(jiān)管不合規(guī) 11
1.4.4 概念漂移 11
1.5 如何解決這些主要問題 11
1.6 Interpretability與Explainability 13
1.7 你將在本書學到什么 15
1.7.1 本書使用的工具 17
1.7.2 閱讀本書所需的基礎知識 17
1.8 本章小結 18
第2章 白盒模型 19
2.1 白盒模型概述 20
2.2 Diagnostics AI示例:預測糖尿病進展情況 21
2.3 線性回歸 24
2.3.1 解釋線性回歸 27
2.3.2 線性回歸的局限性 29
2.4 決策樹 30
2.4.1 解釋決策樹 32
2.4.2 決策樹的局限性 35
2.5 廣義可加模型(GAM) 36
2.5.1 回歸樣條 38
2.5.2 GAM用于Diagnostics AI預測糖尿病進展 42
2.5.3 解釋GAM 43
2.5.4 GAM的局限性 46
2.6 展望黑盒模型 46
2.7 本章小結 48 第Ⅱ部分 解釋模型處理
第3章 全局與模型無關可解釋技術 51
3.1 高中生成績預測器 52
3.2 集成樹 57
3.3 解釋隨機森林 63
3.4 模型無關方法:全局可解釋 65
3.4.1 部分依賴圖 66
3.4.2 特征的相互作用 71
3.5 本章小結 77
第4章 局部與模型無關可解釋技術 79
4.1 Diagnostics AI示例:乳腺癌診斷 80
4.2 探索性數據分析 81
4.3 深度神經網絡 84
4.3.1 數據準備 88
4.3.2 訓練和評估DNN 90
4.4 解釋DNN 92
4.5 LIME 94
4.6 SHAP 103
4.7 錨定 106
4.8 本章小結 110
第5章 顯著圖 113
5.1 Diagnostics AI示例:浸潤性導管癌檢測 114
5.2 探索性數據分析 114
5.3 卷積神經網絡 117
5.3.1 數據準備 121
5.3.2 訓練和評估CNN 123
5.4 解釋CNN 126
5.4.1 概率分布圖 126
5.4.2 LIME 127
5.4.3 視覺歸因法 132
5.5 標準反向傳播 134
5.6 導向反向傳播 138
5.7 其他基于梯度的方法 140
5.8 Grad-CAM和導向Grad-CAM 141
5.9 我應該使用哪種歸因法 145
5.10 本章小結 147 第Ⅲ部分 解釋模型表示
第6章 理解層和單元 151
6.1 視覺理解 152
6.2 回顧卷積神經網絡 153
6.3 神經網絡剖析框架 155
6.3.1 概念定義 156
6.3.2 網絡探測 157
6.3.3 量化對齊 160
6.4 解釋層和單元 160
6.4.1 運行網絡剖析 161
6.4.2 概念檢測器 165
6.4.3 訓練任務的概念檢測器 171
6.4.4 可視化概念檢測器 176
6.4.5 網絡剖析的局限性 179
6.5 本章小結 179
第7章 理解語義相似性 181
7.1 情感分析 182
7.2 探索性數據分析 183
7.3 神經網絡詞嵌入 187
7.3.1 獨熱編碼 187
7.3.2 Word2Vec 188
7.3.3 GloVe嵌入 191
7.3.4 情感分析模型 193
7.4 解釋語義相似性 194
7.4.1 度量相似性 196
7.4.2 主成分分析(PCA) 199
7.4.3 t分布隨機近鄰嵌入(t-SNE) 204
7.4.4 驗證語義相似性的可視化 208
7.5 本章小結 210
第Ⅳ部分 公平和偏見
第8章 公平和減少偏見 213
8.1 成年人收入預測 215
8.1.1 探索性數據分析 216
8.1.2 預測模型 218
8.2 公平性概念 221
8.2.1 人口平等 222
8.2.2 機會和幾率平等 225
8.2.3 其他公平性概念 228
8.3 可解釋和公平性 229
8.3.1 源自輸入特征的歧視 229
8.3.2 源自表示的歧視 233
8.4 減少偏見 234
8.4.1 無意識公平 234
8.4.2 通過重新加權糾正標注偏見 235
8.5 數據集的數據表 238
8.6 本章小結 240
第9章 XAI 243
9.1 XAI概述 245
9.2 反事實說明 247
9.3 本章小結 251
附錄A 設置環(huán)境 253
A.1 Python代碼 253
A.2 Git代碼庫 253
A.3 Conda環(huán)境 253
A.4 Jupyter notebooks 254
A.5 Docker 254
附錄B PyTorch 257
B.1 什么是PyTorch 257
B.2 安裝PyTorch 257
B.3 張量 258
B.3.1 數據類型 259
B.3.2 CPU和GPU張量 260
B.3.3 運算 260
B.4 Dataset和DataLoader 261
B.5 建模 263
B.5.1 自動微分法 263
B.5.2 模型定義 265
B.5.3 訓練 267
可解釋AI實戰(zhàn)(PYTORCH版) 作者簡介
Ajay Thampi 在機器學習領域具有扎實的基礎。他的博士研究主要專注于信號處理和機器學習。他發(fā)表過許多關于強化學習、凸優(yōu)化和傳統(tǒng)機器學習技術應用于5G移動網絡的論文。Ajay 目前在一家大型科技公司擔任機器學習工程師,主要關注負責任的AI和AI公平性。在此之前,Ajay是微軟的高級數據科學家,負責為各行各業(yè)(如制造業(yè)、零售業(yè)和金融業(yè))的客戶部署復雜的人工智能解決方案。
- >
伊索寓言-世界文學名著典藏-全譯本
- >
月亮與六便士
- >
羅庸西南聯大授課錄
- >
上帝之肋:男人的真實旅程
- >
經典常談
- >
我與地壇
- >
企鵝口袋書系列·偉大的思想20:論自然選擇(英漢雙語)
- >
莉莉和章魚