歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐

作者:黃安埠
出版社:電子工業(yè)出版社出版時(shí)間:2017-06-01
開本: 32開 頁數(shù): 344
中 圖 價(jià):¥30.0(3.8折) 定價(jià)  ¥79.0 登錄后可看到會(huì)員價(jià)
加入購物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
溫馨提示:5折以下圖書主要為出版社尾貨,大部分為全新(有塑封/無塑封),個(gè)別圖書品相8-9成新、切口
有劃線標(biāo)記、光盤等附件不全詳細(xì)品相說明>>
本類五星書更多>
買過本商品的人還買了

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐 版權(quán)信息

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐 本書特色

本書介紹了深度學(xué)習(xí)相關(guān)的原理與應(yīng)用,全書共分為三大部分,*部分主要回顧了深度學(xué)習(xí)的發(fā)展歷史,以及Theano的使用;第二部分詳細(xì)講解了與深度學(xué)習(xí)相關(guān)的基礎(chǔ)知識(shí),包括線性代數(shù)、概率論、概率圖模型、機(jī)器學(xué)習(xí)和*化算法;在第三部分中,針對(duì)若干核心的深度學(xué)習(xí)模型,如自編碼器、受限玻爾茲曼機(jī)、遞歸神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)等進(jìn)行詳細(xì)的原理分析與講解,并針對(duì)不同的模型給出相應(yīng)的具體應(yīng)用。本書適合有一定高等數(shù)學(xué)、機(jī)器學(xué)習(xí)和Python編程基礎(chǔ)的在校學(xué)生、高校研究者或在企業(yè)中從事深度學(xué)習(xí)的工程師使用,書中對(duì)模型的原理與難點(diǎn)進(jìn)行了深入分析,在每一章的*后都提供了詳細(xì)的參考文獻(xiàn),讀者可以對(duì)相關(guān)的細(xì)節(jié)進(jìn)行更深入的研究。*后,理論與實(shí)踐相結(jié)合,本書針對(duì)常用的模型分別給出了相應(yīng)的應(yīng)用,讀者也可以在Github中下載和查看本書的代碼(https://github.com/innovation-cat/DeepLearningBook)。

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐 內(nèi)容簡介

本書*的特色在于取舍明確,一切無助于迅速理解深度學(xué)習(xí)精髓的內(nèi)容全被摒棄了,并著重闡述了技術(shù)上的重點(diǎn)和難點(diǎn);表達(dá)上深入淺出:即便是從未接觸過AI知識(shí)的人,也能從作者簡明清晰的表述中,一窺深度學(xué)習(xí)的殿堂。 對(duì)任何一位想成為AI/深度學(xué)習(xí)領(lǐng)域工程師的讀者來說,《深入淺出深度學(xué)習(xí):原理剖析與Python實(shí)踐》能幫你迅速打開AI的大門,并成長為一名合格的AI工程師。

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐 目錄

1 緒論 1
1.1 人工智能、機(jī)器學(xué)習(xí)與深度學(xué)習(xí)的關(guān)系 2
1.1.1 人工智能——機(jī)器推理 3
1.1.2 機(jī)器學(xué)習(xí)——數(shù)據(jù)驅(qū)動(dòng)的科學(xué) 4
1.1.3 深度學(xué)習(xí)——大腦的仿真 7
1.2 深度學(xué)習(xí)的發(fā)展歷程 7
1.3 深度學(xué)習(xí)技術(shù)概述 9
1.3.1 從低層到高層的特征抽象 10
1.3.2 讓網(wǎng)絡(luò)變得更深 12
1.3.3 自動(dòng)特征提取 13
1.4 深度學(xué)習(xí)框架 14
2 Theano基礎(chǔ) 18
2.1 符號(hào)變量 19
2.2 符號(hào)計(jì)算的抽象——符號(hào)計(jì)算圖模型 22
2.3 函數(shù) 25
2.3.1 函數(shù)的定義 25
2.3.2 Logistic回歸 26
2.3.3 函數(shù)的復(fù)制 28
2.4 條件表達(dá)式 30
2.5 循環(huán) 31
2.6 共享變量 38
2.7 配置 38
2.7.1 通過THEANO_FLAGS配置 39
2.7.2 通過.theanorc文件配置 40
2.8 常用的Debug技巧 41
2.9 小結(jié) 42
3 線性代數(shù)基礎(chǔ) 43
3.1 標(biāo)量、向量、矩陣和張量 43
3.2 矩陣初等變換 44
3.3 線性相關(guān)與向量空間 45
3.4 范數(shù) 46
3.4.1 向量范數(shù) 46
3.4.2 矩陣范數(shù) 49
3.5 特殊的矩陣與向量 52
3.6 特征值分解 53
3.7 奇異值分解 55
3.8 跡運(yùn)算 56
3.9 樣例:主成分分析 57
4 概率統(tǒng)計(jì)基礎(chǔ) 61
4.1 樣本空間與隨機(jī)變量 62
4.2 概率分布與分布函數(shù) 62
4.3 一維隨機(jī)變量 63
4.3.1 離散隨機(jī)變量和分布律 63
4.3.2 連續(xù)隨機(jī)變量和概率密度函數(shù) 64
4.4 多維隨機(jī)變量 65
4.4.1 離散型二維隨機(jī)變量和聯(lián)合分布律 66
4.4.2 連續(xù)型二維隨機(jī)變量和聯(lián)合密度函數(shù) 66
4.5 邊緣分布 67
4.6 條件分布與鏈?zhǔn)椒▌t 68
4.6.1 條件概率 68
4.6.2 鏈?zhǔn)椒▌t 70
4.7 多維隨機(jī)變量的獨(dú)立性分析 70
4.7.1 邊緣獨(dú)立 71
4.7.2 條件獨(dú)立 71
4.8 數(shù)學(xué)期望、方差、協(xié)方差 72
4.8.1 數(shù)學(xué)期望 72
4.8.2 方差 73
4.8.3 協(xié)方差 73
4.8.4 協(xié)方差矩陣 75
4.9 信息論基礎(chǔ) 78
4.9.1 信息熵 78
4.9.2 條件熵 80
4.9.3 互信息 81
4.9.4 交叉熵與相對(duì)熵 81
5 概率圖模型 84
5.1 生成模型與判別模型 86
5.2 圖論基礎(chǔ) 87
5.2.1 圖的結(jié)構(gòu) 87
5.2.2 子圖 88
5.2.3 路徑、跡、環(huán)與拓?fù)渑判?89
5.3 貝葉斯網(wǎng)絡(luò) 93
5.3.1 因子分解 93
5.3.2 局部馬爾科夫獨(dú)立性斷言 96
5.3.3 I-Map與因子分解 97
5.3.4 有效跡 101
5.3.5 D-分離與全局馬爾科夫獨(dú)立性 105
5.4 馬爾科夫網(wǎng)絡(luò) 106
5.4.1 勢(shì)函數(shù)因子與參數(shù)化表示 106
5.4.2 馬爾科夫獨(dú)立性 108
5.5 變量消除 112
5.6 信念傳播 113
5.6.1 聚類圖 113
5.6.2 團(tuán)樹 117
5.6.3 由變量消除構(gòu)建團(tuán)樹 121
5.7 MCMC采樣 124
5.7.1 隨機(jī)采樣 124
5.7.2 隨機(jī)過程與馬爾科夫鏈 126
5.7.3 MCMC采樣 129
5.7.4 Gibbs采樣 131
5.8 參數(shù)學(xué)習(xí) 134
5.8.1 *大似然估計(jì) 134
5.8.2 期望*大化算法 135
5.9 小結(jié) 137
6 機(jī)器學(xué)習(xí)基礎(chǔ) 140
6.1 線性模型 141
6.1.1 線性回歸 141
6.1.2 Logistic回歸 146
6.1.3 廣義的線性模型 148
6.2 支持向量機(jī) 149
6.2.1 *優(yōu)間隔分類器 150
6.2.2 對(duì)偶問題 153
6.2.3 核函數(shù) 154
6.3 樸素貝葉斯 158
6.4 樹模型 160
6.4.1 特征選擇 161
6.4.2 剪枝策略 163
6.5 聚類 164
6.5.1 距離度量 165
6.5.2 層次聚類 166
6.5.3 K-means聚類 169
6.5.4 譜聚類 170
7 數(shù)值計(jì)算與*優(yōu)化 176
7.1 無約束極小值的*優(yōu)化條件 176
7.2 梯度下降 178
7.2.1 傳統(tǒng)更新策略 180
7.2.2 動(dòng)量更新策略 182
7.2.3 改進(jìn)的動(dòng)量更新策略 183
7.2.4 自適應(yīng)梯度策略 186
7.3 共軛梯度 187
7.4 牛頓法 191
7.5 擬牛頓法 193
7.5.1 擬牛頓條件 193
7.5.2 DFP算法 194
7.5.3 BFGS 195
7.5.4 L-BFGS 196
7.6 約束*優(yōu)化條件 199
8 前饋神經(jīng)網(wǎng)絡(luò) 204
8.1 生物神經(jīng)元結(jié)構(gòu) 205
8.2 人工神經(jīng)元結(jié)構(gòu) 206
8.3 單層感知機(jī) 207
8.4 多層感知機(jī) 210
8.5 激活函數(shù) 214
8.5.1 激活函數(shù)的作用 215
8.5.2 常用的激活函數(shù) 217
9 反向傳播與梯度消失 224
9.1 經(jīng)驗(yàn)風(fēng)險(xiǎn)*小化 225
9.2 梯度計(jì)算 227
9.2.1 輸出層梯度 227
9.2.2 隱藏層梯度 229
9.2.3 參數(shù)梯度 233
9.3 反向傳播 234
9.4 深度學(xué)習(xí)訓(xùn)練的難點(diǎn) 235
9.4.1 欠擬合——梯度消失 236
9.4.2 過擬合 239
10 自編碼器 242
10.1 自編碼器 242
10.2 降噪自編碼器 244
10.3 棧式自編碼器 246
10.4 稀疏編碼器 249
11 玻爾茲曼機(jī) 255
11.1 玻爾茲曼機(jī) 255
11.2 能量模型 258
11.2.1 能量函數(shù) 258
11.2.2 從能量函數(shù)到勢(shì)函數(shù) 259
11.2.3 從勢(shì)函數(shù)到概率分布 260
11.3 推斷 261
11.3.1 邊緣分布 262
11.3.2 條件分布 264
11.4 學(xué)習(xí) 267
11.4.1 *大似然估計(jì) 268
11.4.2 對(duì)比散度 271
11.5 應(yīng)用:個(gè)性化推薦 273
11.5.1 個(gè)性化推薦概述 273
11.5.2 個(gè)性化推薦架構(gòu)與算法 276
11.5.3 RBM與協(xié)同過濾 282
12 遞歸神經(jīng)網(wǎng)絡(luò) 288
12.1 Elman遞歸神經(jīng)網(wǎng)絡(luò) 289
12.2 時(shí)間反向傳播 292
12.3 長短時(shí)記憶網(wǎng)絡(luò) 296
12.4 結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò) 299
12.5 應(yīng)用:語言模型 304
12.5.1 N元統(tǒng)計(jì)模型 305
12.5.2 基于遞歸網(wǎng)絡(luò)的語言模型 309
參考文獻(xiàn): 312
13 卷積神經(jīng)網(wǎng)絡(luò) 314
13.1 卷積運(yùn)算 315
13.2 網(wǎng)絡(luò)結(jié)構(gòu) 318
13.3 卷積層 320
13.4 池化層 325
13.5 應(yīng)用:文本分類 329
展開全部

深入淺出深度學(xué)習(xí)原理剖析與Python實(shí)踐 作者簡介

黃安埠,2012年畢業(yè)于清華大學(xué),現(xiàn)為騰訊基礎(chǔ)研究高級(jí)工程師,目前負(fù)責(zé)騰訊QQ音樂、全民K歌等產(chǎn)品的個(gè)性化推薦研發(fā)工作。研究領(lǐng)域包括個(gè)性化推薦和自然語言處理,在理論沉淀和工程實(shí)踐都具有豐富的經(jīng)驗(yàn),并撰寫了10余項(xiàng)國內(nèi)相關(guān)專利。

商品評(píng)論(0條)
暫無評(píng)論……
書友推薦
編輯推薦
返回頂部
中圖網(wǎng)
在線客服