歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐

作者:魏秀參
出版社:電子工業(yè)出版社出版時(shí)間:2018-01-01
開本: 16開 頁數(shù): 200
讀者評(píng)分:4分1條評(píng)論
中 圖 價(jià):¥49.8(6.3折) 定價(jià)  ¥79.0 登錄后可看到會(huì)員價(jià)
加入購物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
本類五星書更多>
買過本商品的人還買了

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 版權(quán)信息

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 本書特色

適讀人群 :人工智能領(lǐng)域的從業(yè)者及對(duì)此方向有興趣的人群
《解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐》是對(duì)治深度學(xué)習(xí)恐懼癥的一劑良藥。作者魏秀參博士,畢業(yè)于著名的南京大學(xué)LAMDA研究所,現(xiàn)為曠視科技南京研究院負(fù)責(zé)人。本書凝聚了他多年的功力,集原理與實(shí)踐于一體,將卷積神經(jīng)網(wǎng)絡(luò)這顆仙丹煉得出神入化,以此攻克計(jì)算機(jī)視覺實(shí)踐中的一個(gè)又一個(gè)難題。
全書沒有佶屈聱牙的文字、沒有艱澀難懂的術(shù)語,只有明明白白的道理、由淺入深的論證、清晰流暢的架構(gòu)。在內(nèi)容的安排上,兼顧了基礎(chǔ)知識(shí)和學(xué)習(xí)難點(diǎn),各有側(cè)重,讓初學(xué)者不僅可以看明白、而且能夠讀懂,知其所以然并舉一反三運(yùn)用到自己的工程實(shí)踐中。
無怪乎,業(yè)內(nèi)專家認(rèn)為“本書可能是我知道的“醉”好的深度學(xué)習(xí)的中文入門教材”。

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 內(nèi)容簡介

深度學(xué)習(xí),特別是深度卷積神經(jīng)網(wǎng)絡(luò)是人工智能的重要分支領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)也被廣泛應(yīng)用于各種現(xiàn)實(shí)場(chǎng)景,在許多問題上都取得了超越人類智能的結(jié)果。本書作為該領(lǐng)域的入門書籍,在內(nèi)容上涵蓋深度卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)和實(shí)踐應(yīng)用兩大方面。全書共14 章,分為三個(gè)部分:靠前部分為緒論;第二部分(~4 章)介紹卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識(shí)、基本部件、經(jīng)典結(jié)構(gòu)和模型壓縮等基礎(chǔ)理論內(nèi)容;第三部分(第5~14 章)介紹深度卷積神經(jīng)網(wǎng)絡(luò)自數(shù)據(jù)準(zhǔn)備開始,到模型參數(shù)初始化、不同網(wǎng)絡(luò)部件的選擇、網(wǎng)絡(luò)配置、網(wǎng)絡(luò)模型訓(xùn)練、不平衡數(shù)據(jù)處理,很終到模型集成等實(shí)踐應(yīng)用技巧和經(jīng)驗(yàn)。本書并不是一本編程類書籍,而是希望通過“基礎(chǔ)知識(shí)”和“實(shí)踐技巧”兩方面使讀者從更高維度了解、掌握并成功構(gòu)建針對(duì)自身應(yīng)用問題的深度卷積神經(jīng)網(wǎng)絡(luò)。本書可作為深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)愛好者的入門書籍,也可供沒有機(jī)器學(xué)習(xí)背景但希望能快速掌握該方面知識(shí)并將其應(yīng)用于實(shí)際問題的各行從業(yè)者閱讀參考。

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 目錄

**部分緒論1


0.1 引言 . 2


0.2 什么是深度學(xué)習(xí) 3


0.3 深度學(xué)習(xí)的前世今生 . 6


第二部分基礎(chǔ)理論篇9


1 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)10


1.1 發(fā)展歷程 11


1.2 基本結(jié)構(gòu) 13


1.3 前饋運(yùn)算 16


1.4 反饋運(yùn)算 16


1.5 小結(jié) . 19


2 卷積神經(jīng)網(wǎng)絡(luò)基本部件21


2.1 “端到端”思想 21


2.2 網(wǎng)絡(luò)符號(hào)定義 . 23


2.3 卷積層 . 24


2.3.1 什么是卷積 24


2.3.2 卷積操作的作用 27


2.4 匯合層 . 28


2.4.1 什么是匯合 29


2.4.2 匯合操作的作用 30


2.5 激活函數(shù) 31


2.6 全連接層 33


2.7 目標(biāo)函數(shù) 34


2.8 小結(jié) . 34


3 卷積神經(jīng)網(wǎng)絡(luò)經(jīng)典結(jié)構(gòu)35


3.1 CNN 網(wǎng)絡(luò)結(jié)構(gòu)中的重要概念 . 35


3.1.1 感受野 . 35


3.1.2 分布式表示 37


3.1.3 深度特征的層次性 39


3.2 經(jīng)典網(wǎng)絡(luò)案例分析 . 42


3.2.1 Alex-Net 網(wǎng)絡(luò)模型 . 42


3.2.2 VGG-Nets 網(wǎng)絡(luò)模型 46


3.2.3 Network-In-Network 48


3.2.4 殘差網(wǎng)絡(luò)模型 . 49


3.3 小結(jié) . 54


4 卷積神經(jīng)網(wǎng)絡(luò)的壓縮56


4.1 低秩近似 58


4.2 剪枝與稀疏約束 60


4.3 參數(shù)量化 64


4.4 二值網(wǎng)絡(luò) 68


4.5 知識(shí)蒸餾 71


4.6 緊湊的網(wǎng)絡(luò)結(jié)構(gòu) 74


4.7 小結(jié) . 76


第三部分實(shí)踐應(yīng)用篇77


5 數(shù)據(jù)擴(kuò)充78


5.1 簡單的數(shù)據(jù)擴(kuò)充方式 . 78


5.2 特殊的數(shù)據(jù)擴(kuò)充方式 . 80


5.2.1 Fancy PCA . 80


5.2.2 監(jiān)督式數(shù)據(jù)擴(kuò)充 80


5.3 小結(jié) . 82


6 數(shù)據(jù)預(yù)處理83


7 網(wǎng)絡(luò)參數(shù)初始化85


7.1 全零初始化 . 86


7.2 隨機(jī)初始化 . 86


7.3 其他初始化方法 90


7.4 小結(jié) . 90


8 激活函數(shù)91


8.1 Sigmoid 型函數(shù) . 92


8.2 tanh(x) 型函數(shù) . 93


8.3 修正線性單元(ReLU) 93


8.4 Leaky ReLU . 94


8.5 參數(shù)化ReLU 95


8.6 隨機(jī)化ReLU 97


8.7 指數(shù)化線性單元(ELU) . 98


8.8 小結(jié) . 99


9 目標(biāo)函數(shù)100


9.1 分類任務(wù)的目標(biāo)函數(shù) . 100


9.1.1 交叉熵?fù)p失函數(shù) 101


9.1.2 合頁損失函數(shù) . 101


9.1.3 坡道損失函數(shù) . 101


9.1.4 大間隔交叉熵?fù)p失函數(shù) 103


9.1.5 中心損失函數(shù) . 105


9.2 回歸任務(wù)的目標(biāo)函數(shù) . 107


9.2.1 ?1 損失函數(shù) 108


9.2.2 ?2 損失函數(shù) 108


9.2.3 Tukey’s biweight 損失函數(shù) 109


9.3 其他任務(wù)的目標(biāo)函數(shù) . 109


9.4 小結(jié) . 111


10 網(wǎng)絡(luò)正則化113


10.1 ?2 正則化 114


10.2 ?1 正則化 115


10.3 *大范數(shù)約束 . 115


10.4 隨機(jī)失活 116


10.5 驗(yàn)證集的使用 . 118


10.6 小結(jié) . 119


11 超參數(shù)設(shè)定和網(wǎng)絡(luò)訓(xùn)練120


11.1 網(wǎng)絡(luò)超參數(shù)設(shè)定 120


11.1.1 輸入數(shù)據(jù)像素大小 120


11.1.2 卷積層參數(shù)的設(shè)定 121


11.1.3 匯合層參數(shù)的設(shè)定 122


11.2 訓(xùn)練技巧 123


11.2.1 訓(xùn)練數(shù)據(jù)隨機(jī)打亂 123


11.2.2 學(xué)習(xí)率的設(shè)定 . 123


11.2.3 批規(guī)范化操作 . 125


11.2.4 網(wǎng)絡(luò)模型優(yōu)化算法選擇 127


11.2.5 微調(diào)神經(jīng)網(wǎng)絡(luò) . 132


11.3 小結(jié) . 133


12 不平衡樣本的處理135


12.1 數(shù)據(jù)層面處理方法 . 136


12.1.1 數(shù)據(jù)重采樣 136


12.1.2 類別平衡采樣 . 137


12.2 算法層面處理方法 . 138


12.2.1 代價(jià)敏感方法 . 139


12.2.2 代價(jià)敏感法中權(quán)重的指定方式 140


12.3 小結(jié) . 142


13 模型集成方法143


13.1 數(shù)據(jù)層面的集成方法 . 143


13.1.1 測(cè)試階段數(shù)據(jù)擴(kuò)充 143


13.1.2 “簡易集成”法 144


13.2 模型層面的集成方法 . 144


13.2.1 單模型集成 144


13.2.2 多模型集成 146


13.3 小結(jié) . 149


14 深度學(xué)習(xí)開源工具簡介151


14.1 常用框架對(duì)比 . 151


14.2 常用框架的各自特點(diǎn) . 153


14.2.1 Caffe 153


14.2.2 Deeplearning4j . 153


14.2.3 Keras 154


14.2.4 MXNet . 155


14.2.5 MatConvNet 155


14.2.6 TensorFlow . 155


14.2.7 Theano . 156


14.2.8 Torch 157


A 向量、矩陣及其基本運(yùn)算158


B 隨機(jī)梯度下降162


C 鏈?zhǔn)椒▌t165


參考文獻(xiàn)167


索引181

展開全部

解析深度學(xué)習(xí):卷積神經(jīng)網(wǎng)絡(luò)原理與視覺實(shí)踐 作者簡介

魏秀參 ,曠視科技(Face++)南京研究院負(fù)責(zé)人。南京大學(xué)LAMDA研究所博士,主要研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺和機(jī)器學(xué)習(xí)。在相關(guān)領(lǐng)域重要國際期刊和國際會(huì)議發(fā)表論文十余篇,并兩次獲得國際計(jì)算機(jī)視覺相關(guān)競(jìng)賽冠、亞軍。曾獲CVPR 2017佳審稿人、南京大學(xué)博士生校長特別獎(jiǎng)學(xué)金等榮譽(yù),擔(dān)任ICCV、CVPR、ECCV、NIPS、IJCAI、AAAI等國際會(huì)議PC member。(個(gè)人自媒體:知乎“魏秀參”,新浪微博“Wilson_NJUer”)

商品評(píng)論(1條)
書友推薦
編輯推薦
返回頂部
中圖網(wǎng)
在線客服