解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐
-
>
決戰(zhàn)行測(cè)5000題(言語理解與表達(dá))
-
>
軟件性能測(cè)試.分析與調(diào)優(yōu)實(shí)踐之路
-
>
第一行代碼Android
-
>
深度學(xué)習(xí)
-
>
Unreal Engine 4藍(lán)圖完全學(xué)習(xí)教程
-
>
深入理解計(jì)算機(jī)系統(tǒng)-原書第3版
-
>
Word/Excel PPT 2013辦公應(yīng)用從入門到精通-(附贈(zèng)1DVD.含語音視頻教學(xué)+辦公模板+PDF電子書)
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 版權(quán)信息
- ISBN:9787121345289
- 條形碼:9787121345289 ; 978-7-121-34528-9
- 裝幀:簡裝本
- 冊(cè)數(shù):暫無
- 重量:暫無
- 所屬分類:>
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 本書特色
適讀人群 :人工智能領(lǐng)域的從業(yè)者及對(duì)此方向有興趣的人群
《解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐》是對(duì)治深度學(xué)習(xí)恐懼癥的一劑良藥。作者魏秀參博士,畢業(yè)于著名的南京大學(xué)LAMDA研究所,現(xiàn)為曠視科技南京研究院負(fù)責(zé)人。本書凝聚了他多年的功力,集原理與實(shí)踐于一體,將卷積神經(jīng)網(wǎng)絡(luò)這顆仙丹煉得出神入化,以此攻克計(jì)算機(jī)視覺實(shí)踐中的一個(gè)又一個(gè)難題。
全書沒有佶屈聱牙的文字、沒有艱澀難懂的術(shù)語,只有明明白白的道理、由淺入深的論證、清晰流暢的架構(gòu)。在內(nèi)容的安排上,兼顧了基礎(chǔ)知識(shí)和學(xué)習(xí)難點(diǎn),各有側(cè)重,讓初學(xué)者不僅可以看明白、而且能夠讀懂,知其所以然并舉一反三運(yùn)用到自己的工程實(shí)踐中。
無怪乎,業(yè)內(nèi)專家認(rèn)為“本書可能是我知道的“醉”好的深度學(xué)習(xí)的中文入門教材”。
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 內(nèi)容簡介
深度學(xué)習(xí),特別是深度卷積神經(jīng)網(wǎng)絡(luò)是人工智能的重要分支領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)也被廣泛應(yīng)用于各種現(xiàn)實(shí)場(chǎng)景,在許多問題上都取得了超越人類智能的結(jié)果。本書作為該領(lǐng)域的入門書籍,在內(nèi)容上涵蓋深度卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)和實(shí)踐應(yīng)用兩大方面。全書共14 章,分為三個(gè)部分:靠前部分為緒論;第二部分(~4 章)介紹卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)、基本部件、經(jīng)典結(jié)構(gòu)和模型壓縮等基礎(chǔ)理論內(nèi)容;第三部分(第5~14 章)介紹深度卷積神經(jīng)網(wǎng)絡(luò)自數(shù)據(jù)準(zhǔn)備開始,到模型參數(shù)初始化、不同網(wǎng)絡(luò)部件的選擇、網(wǎng)絡(luò)配置、網(wǎng)絡(luò)模型訓(xùn)練、不平衡數(shù)據(jù)處理,很終到模型集成等實(shí)踐應(yīng)用技巧和經(jīng)驗(yàn)。本書并不是一本編程類書籍,而是希望通過“基礎(chǔ)知識(shí)”和“實(shí)踐技巧”兩方面使讀者從更高維度了解、掌握并成功構(gòu)建針對(duì)自身應(yīng)用問題的深度卷積神經(jīng)網(wǎng)絡(luò)。本書可作為深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)愛好者的入門書籍,也可供沒有機(jī)器學(xué)習(xí)背景但希望能快速掌握該方面知識(shí)并將其應(yīng)用于實(shí)際問題的各行從業(yè)者閱讀參考。
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 目錄
**部分緒論1
0.1 引言 . 2
0.2 什么是深度學(xué)習(xí) 3
0.3 深度學(xué)習(xí)的前世今生 . 6
第二部分基礎(chǔ)理論篇9
1 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)10
1.1 發(fā)展歷程 11
1.2 基本結(jié)構(gòu) 13
1.3 前饋運(yùn)算 16
1.4 反饋運(yùn)算 16
1.5 小結(jié) . 19
2 卷積神經(jīng)網(wǎng)絡(luò)基本部件21
2.1 “端到端”思想 21
2.2 網(wǎng)絡(luò)符號(hào)定義 . 23
2.3 卷積層 . 24
2.3.1 什么是卷積 24
2.3.2 卷積操作的作用 27
2.4 匯合層 . 28
2.4.1 什么是匯合 29
2.4.2 匯合操作的作用 30
2.5 激活函數(shù) 31
2.6 全連接層 33
2.7 目標(biāo)函數(shù) 34
2.8 小結(jié) . 34
3 卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典結(jié)構(gòu)35
3.1 CNN 網(wǎng)絡(luò)結(jié)構(gòu)中的重要概念 . 35
3.1.1 感受野 . 35
3.1.2 分布式表示 37
3.1.3 深度特征的層次性 39
3.2 經(jīng)典網(wǎng)絡(luò)案例分析 . 42
3.2.1 Alex-Net 網(wǎng)絡(luò)模型 . 42
3.2.2 VGG-Nets 網(wǎng)絡(luò)模型 46
3.2.3 Network-In-Network 48
3.2.4 殘差網(wǎng)絡(luò)模型 . 49
3.3 小結(jié) . 54
4 卷積神經(jīng)網(wǎng)絡(luò)的壓縮56
4.1 低秩近似 58
4.2 剪枝與稀疏約束 60
4.3 參數(shù)量化 64
4.4 二值網(wǎng)絡(luò) 68
4.5 知識(shí)蒸餾 71
4.6 緊湊的網(wǎng)絡(luò)結(jié)構(gòu) 74
4.7 小結(jié) . 76
第三部分實(shí)踐應(yīng)用篇77
5 數(shù)據(jù)擴(kuò)充78
5.1 簡單的數(shù)據(jù)擴(kuò)充方式 . 78
5.2 特殊的數(shù)據(jù)擴(kuò)充方式 . 80
5.2.1 Fancy PCA . 80
5.2.2 監(jiān)督式數(shù)據(jù)擴(kuò)充 80
5.3 小結(jié) . 82
6 數(shù)據(jù)預(yù)處理83
7 網(wǎng)絡(luò)參數(shù)初始化85
7.1 全零初始化 . 86
7.2 隨機(jī)初始化 . 86
7.3 其他初始化方法 90
7.4 小結(jié) . 90
8 激活函數(shù)91
8.1 Sigmoid 型函數(shù) . 92
8.2 tanh(x) 型函數(shù) . 93
8.3 修正線性單元(ReLU) 93
8.4 Leaky ReLU . 94
8.5 參數(shù)化ReLU 95
8.6 隨機(jī)化ReLU 97
8.7 指數(shù)化線性單元(ELU) . 98
8.8 小結(jié) . 99
9 目標(biāo)函數(shù)100
9.1 分類任務(wù)的目標(biāo)函數(shù) . 100
9.1.1 交叉熵?fù)p失函數(shù) 101
9.1.2 合頁損失函數(shù) . 101
9.1.3 坡道損失函數(shù) . 101
9.1.4 大間隔交叉熵?fù)p失函數(shù) 103
9.1.5 中心損失函數(shù) . 105
9.2 回歸任務(wù)的目標(biāo)函數(shù) . 107
9.2.1 ?1 損失函數(shù) 108
9.2.2 ?2 損失函數(shù) 108
9.2.3 Tukey’s biweight 損失函數(shù) 109
9.3 其他任務(wù)的目標(biāo)函數(shù) . 109
9.4 小結(jié) . 111
10 網(wǎng)絡(luò)正則化113
10.1 ?2 正則化 114
10.2 ?1 正則化 115
10.3 *大范數(shù)約束 . 115
10.4 隨機(jī)失活 116
10.5 驗(yàn)證集的使用 . 118
10.6 小結(jié) . 119
11 超參數(shù)設(shè)定和網(wǎng)絡(luò)訓(xùn)練120
11.1 網(wǎng)絡(luò)超參數(shù)設(shè)定 120
11.1.1 輸入數(shù)據(jù)像素大小 120
11.1.2 卷積層參數(shù)的設(shè)定 121
11.1.3 匯合層參數(shù)的設(shè)定 122
11.2 訓(xùn)練技巧 123
11.2.1 訓(xùn)練數(shù)據(jù)隨機(jī)打亂 123
11.2.2 學(xué)習(xí)率的設(shè)定 . 123
11.2.3 批規(guī)范化操作 . 125
11.2.4 網(wǎng)絡(luò)模型優(yōu)化算法選擇 127
11.2.5 微調(diào)神經(jīng)網(wǎng)絡(luò) . 132
11.3 小結(jié) . 133
12 不平衡樣本的處理135
12.1 數(shù)據(jù)層面處理方法 . 136
12.1.1 數(shù)據(jù)重采樣 136
12.1.2 類別平衡采樣 . 137
12.2 算法層面處理方法 . 138
12.2.1 代價(jià)敏感方法 . 139
12.2.2 代價(jià)敏感法中權(quán)重的指定方式 140
12.3 小結(jié) . 142
13 模型集成方法143
13.1 數(shù)據(jù)層面的集成方法 . 143
13.1.1 測(cè)試階段數(shù)據(jù)擴(kuò)充 143
13.1.2 “簡易集成”法 144
13.2 模型層面的集成方法 . 144
13.2.1 單模型集成 144
13.2.2 多模型集成 146
13.3 小結(jié) . 149
14 深度學(xué)習(xí)開源工具簡介151
14.1 常用框架對(duì)比 . 151
14.2 常用框架的各自特點(diǎn) . 153
14.2.1 Caffe 153
14.2.2 Deeplearning4j . 153
14.2.3 Keras 154
14.2.4 MXNet . 155
14.2.5 MatConvNet 155
14.2.6 TensorFlow . 155
14.2.7 Theano . 156
14.2.8 Torch 157
A 向量、矩陣及其基本運(yùn)算158
B 隨機(jī)梯度下降162
C 鏈?zhǔn)椒▌t165
參考文獻(xiàn)167
索引181
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 作者簡介
魏秀參 ,曠視科技(Face++)南京研究院負(fù)責(zé)人。南京大學(xué)LAMDA研究所博士,主要研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺和機(jī)器學(xué)習(xí)。在相關(guān)領(lǐng)域重要國際期刊和國際會(huì)議發(fā)表論文十余篇,并兩次獲得國際計(jì)算機(jī)視覺相關(guān)競(jìng)賽冠、亞軍。曾獲CVPR 2017佳審稿人、南京大學(xué)博士生校長特別獎(jiǎng)學(xué)金等榮譽(yù),擔(dān)任ICCV、CVPR、ECCV、NIPS、IJCAI、AAAI等國際會(huì)議PC member。(個(gè)人自媒體:知乎“魏秀參”,新浪微博“Wilson_NJUer”)
- >
羅曼·羅蘭讀書隨筆-精裝
- >
中國歷史的瞬間
- >
推拿
- >
我與地壇
- >
經(jīng)典常談
- >
龍榆生:詞曲概論/大家小書
- >
詩經(jīng)-先民的歌唱
- >
新文學(xué)天穹兩巨星--魯迅與胡適/紅燭學(xué)術(shù)叢書(紅燭學(xué)術(shù)叢書)