書馨卡幫你省薪 2024個人購書報告 2024中圖網(wǎng)年度報告
歡迎光臨中圖網(wǎng) 請 | 注冊
> >
21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解

出版社:電子工業(yè)出版社出版時間:2018-03-01
開本: 16開 頁數(shù): 372
中 圖 價:¥37.9(4.8折) 定價  ¥79.0 登錄后可看到會員價
加入購物車 收藏
運費6元,滿39元免運費
?新疆、西藏除外
溫馨提示:5折以下圖書主要為出版社尾貨,大部分為全新(有塑封/無塑封),個別圖書品相8-9成新、切口
有劃線標記、光盤等附件不全詳細品相說明>>
本類五星書更多>
買過本商品的人還買了

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解 版權(quán)信息

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解 本書特色

《21個項目玩轉(zhuǎn)深度學習——基于TensorFlow的實踐詳解》以實踐為導向,深入介紹了深度學習技術(shù)和TensorFlow框架編程內(nèi)容。通過本書,讀者可以訓練自己的圖像識別模型、進行目標檢測和人臉識別、完成一個風格遷移應用,還可以使用神經(jīng)網(wǎng)絡生成圖像和文本,進行時間序列預測、搭建機器翻譯引擎,訓練機器玩游戲等。全書共包含21個項目,分為深度卷積網(wǎng)絡、RNN網(wǎng)絡、深度強化學習三部分。讀者可以在自己動手實踐的過程中找到學習的樂趣,了解算法和編程框架的細節(jié),讓學習深度學習算法和TensorFlow的過程變得輕松和高效。本書基于TensorFlow 1.4版本,并介紹了該版本中的一些新特性。

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解 內(nèi)容簡介

1.本書以TensorFlow為工具,從基礎(chǔ)的MNIST手寫體識別開始,介紹了基礎(chǔ)的卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡,還包括正處于前沿的對抗生成網(wǎng)絡、深度強化學習等課題,代碼基于TensorFlow 1.4.0 及以上版本。
2.書中所有內(nèi)容由21個可以動手實驗的項目組織起來,并在其中穿插TensorFlow的教學,讓你可以在實踐中比較輕松地學習到深度學習領(lǐng)域的基礎(chǔ)知識,掌握TensorFlow的使用方法,并積累豐富的深度學習實戰(zhàn)經(jīng)驗。
3.通過本書,可以學到:
在動手實踐中快速入門深度學習領(lǐng)域。
通過實驗快速掌握TensorFlow的操作方法。
掌握卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡、對抗生成網(wǎng)絡和深度強化學習等深度學習積累豐富的深度學習實戰(zhàn)項目,如圖像分類、目標檢測、人臉識別、圖像生成、文本生成、序列分類、時間序列預測等。
學習TensorFlow的一些新特性,如TimeSeries模塊、RNNCell等。

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解 目錄

前言
第1章 MNIST機器學習入門 1
1.1 MNIST數(shù)據(jù)集 2
1.1.1 簡介 2
1.1.2 實驗:將MNIST數(shù)據(jù)集保存為圖片 5
1.1.3 圖像標簽的獨熱(one-hot)表示 6
1.2 利用TensorFlow識別MNIST 8
1.2.1 Softmax回歸 8
1.2.2 兩層卷積網(wǎng)絡分類 14
1.3 總結(jié) 18


第2章 CIFAR-10與ImageNet圖像識別 19
2.1 CIFAR-10數(shù)據(jù)集 20
2.1.1 CIFAR-10簡介 20
2.1.2 下載CIFAR-10數(shù)據(jù) 21
2.1.3 TensorFlow的數(shù)據(jù)讀取機制 23
2.1.4 實驗:將CIFAR-10數(shù)據(jù)集保存為圖片形式 30
2.2 利用TensorFlow訓練CIFAR-10識別模型 34
2.2.1 數(shù)據(jù)增強(Data Augmentation) 34
2.2.2 CIFAR-10識別模型 36
2.2.3 訓練模型 39
2.2.4 在TensorFlow中查看訓練進度 39
2.2.5 測試模型效果 42
2.3 ImageNet圖像識別模型 44
2.3.1 ImageNet數(shù)據(jù)集簡介 44
2.3.2 歷代ImageNet圖像識別模型 45
2.4 總結(jié) 49


第3章 打造自己的圖像識別模型 50
3.1 微調(diào)(Fine-tune)的原理 51
3.2 數(shù)據(jù)準備 52
3.3 使用TensorFlow Slim微調(diào)模型 56
3.3.1 下載TensorFlow Slim的源代碼 56
3.3.2 定義新的datasets文件 57
3.3.3 準備訓練文件夾 59
3.3.4 開始訓練 60
3.3.5 訓練程序行為 62
3.3.6 驗證模型正確率 63
3.3.7 TensorBoard可視化與超參數(shù)選擇 64
3.3.8 導出模型并對單張圖片進行識別 65
3.4 總結(jié) 69


第4章 Deep Dream模型 70
4.1 Deep Dream的技術(shù)原理 71
4.2 TensorFlow中的Deep Dream模型實踐 73
4.2.1 導入Inception模型 73
4.2.2 生成原始的Deep Dream圖像 76
4.2.3 生成更大尺寸的Deep Dream圖像 78
4.2.4 生成更高質(zhì)量的Deep Dream圖像 82
4.2.5 *終的Deep Dream模型 87
4.3 總結(jié) 90

第5章 深度學習中的目標檢測 91
5.1 深度學習中目標檢測的原理 92
5.1.1 R-CNN的原理 92
5.1.2 SPPNet的原理 94
5.1.3 Fast R-CNN的原理 97
5.1.4 Faster R-CNN的原理 98
5.2 TensorFlow Object Detection API 101
5.2.1 安裝TensorFlow Object Detection API 101
5.2.2 執(zhí)行已經(jīng)訓練好的模型 103
5.2.3 訓練新的模型 109
5.2.4 導出模型并預測單張圖片 113
5.3 總結(jié) 114


第6章 人臉檢測和人臉識別 115
6.1 MTCNN的原理 116
6.2 使用深度卷積網(wǎng)絡提取特征 121
6.2.1 三元組損失(Triplet Loss)的定義 123
6.2.2 中心損失(Center Loss)的定義 123
6.3 使用特征設計應用 125
6.4 在TensorFlow中實現(xiàn)人臉識別 126
6.4.1 項目環(huán)境設置 126
6.4.2 LFW人臉數(shù)據(jù)庫 127
6.4.3 LFW數(shù)據(jù)庫上的人臉檢測和對齊 128
6.4.4 使用已有模型驗證LFW數(shù)據(jù)庫準確率 129
6.4.5 在自己的數(shù)據(jù)上使用已有模型 130
6.4.6 重新訓練新模型 133
6.4.7 三元組損失和中心損失的定義 138
6.5 總結(jié) 140


第7章 圖像風格遷移 141
7.1 圖像風格遷移的原理 142
7.1.1 原始圖像風格遷移的原理 142
7.1.2 快速圖像風格遷移的原理 148
7.2 在TensorFlow中實現(xiàn)快速風格遷移 149
7.2.1 使用預訓練模型 150
7.2.2 訓練自己的模型 153
7.2.3 在TensorBoard中監(jiān)控訓練情況 154
7.2.4 項目實現(xiàn)細節(jié) 157
7.3 總結(jié) 162


第8章 GAN和DCGAN入門 163
8.1 GAN的原理 164
8.2 DCGAN的原理 166
8.3 在TensorFlow中用DCGAN生成圖像 169
8.3.1 生成MNIST圖像 170
8.3.2 使用自己的數(shù)據(jù)集訓練 171
8.3.3 程序結(jié)構(gòu)分析:如何將圖像讀入模型 173
8.3.4 程序結(jié)構(gòu)分析:可視化方法 177
8.4 總結(jié) 180


第9章 pix2pix模型與自動上色技術(shù) 181
9.1 cGAN的原理 182
9.2 pix2pix模型的原理 184
9.3 TensorFlow中的pix2pix模型 187
9.3.1 執(zhí)行已有的數(shù)據(jù)集 187
9.3.2 創(chuàng)建自己的數(shù)據(jù)集 191
9.4 使用TensorFlow為灰度圖像自動上色 194
9.4.1 為食物圖片上色 194
9.4.2 為動漫圖片進行上色 196
9.5 總結(jié) 198


第10章 超分辨率:如何讓圖像變得更清晰 199
10.1 數(shù)據(jù)預處理與訓練 200
10.1.1 去除錯誤圖片 200
10.1.2 將圖像裁剪到統(tǒng)一大小 202
10.1.3 為代碼添加新的操作 202
10.2 總結(jié) 209


第11章 CycleGAN與非配對圖像轉(zhuǎn)換 210
11.1 CycleGAN的原理 211
11.2 在TensorFlow中用訓練CycleGAN模型 213
11.2.1 下載數(shù)據(jù)集并訓練 213
11.2.2 使用自己的數(shù)據(jù)進行訓練 217
11.3 程序結(jié)構(gòu)分析 220
11.4 總結(jié) 224


第12章 RNN基本結(jié)構(gòu)與Char RNN文本生成 225
12.1 RNN的原理 226
12.1.1 經(jīng)典RNN的結(jié)構(gòu) 226
12.1.2 N VS 1 RNN的結(jié)構(gòu) 229
12.1.3 1 VS N RNN的結(jié)構(gòu) 230
12.2 LSTM的原理 231
12.3 Char RNN的原理 235
12.4 TensorFlow中的RNN實現(xiàn)方式 237
12.4.1 實現(xiàn)RNN的基本單元:RNNCell 238
12.4.2 對RNN進行堆疊:MultiRNNCell 239
12.4.3 注意點:BasicRNNCell和BasicLSTMCell的output 240
12.4.4 使用tf.nn.dynamic_rnn展開時間維度 241
12.5 使用TensorFlow實現(xiàn)Char RNN 242
12.5.1 定義輸入數(shù)據(jù) 243
12.5.2 定義多層LSTM模型 244
12.5.3 定義損失 245
12.5.4 訓練模型與生成文字 246
12.5.5 更多參數(shù)說明 250
12.5.6 運行自己的數(shù)據(jù) 250
12.6 總結(jié) 251


第13章 序列分類問題詳解 252
13.1 N VS 1的RNN結(jié)構(gòu) 253
13.2 數(shù)列分類問題與數(shù)據(jù)生成 254
13.3 在TensorFlow中定義RNN分類模型 258
13.3.1 定義模型前的準備工作 258
13.3.2 定義RNN分類模型 259
13.3.3 定義損失并進行訓練 261
13.4 模型的推廣 262
13.5 總結(jié) 263


第14章 詞的向量表示:word2vec與詞嵌入 264
14.1 為什么需要做詞嵌入 265
14.2 詞嵌入的原理 266
14.2.1 CBOW實現(xiàn)詞嵌入的原理 266
14.2.2 Skip-Gram實現(xiàn)詞嵌入的原理 269
14.3 在TensorFlow中實現(xiàn)詞嵌入 270
14.3.1 下載數(shù)據(jù)集 270
14.3.2 制作詞表 272
14.3.3 生成每步的訓練樣本 274
14.3.4 定義模型 276
14.3.5 執(zhí)行訓練 279
14.3.6 可視化 281
14.4 與第12章的對比 284
14.5 總結(jié) 285


第15章 在TensorFlow中進行時間序列預測 286
15.1 時間序列問題的一般形式 287
15.2 用TFTS讀入時間序列數(shù)據(jù) 287
15.2.1 從Numpy數(shù)組中讀入時間序列數(shù)據(jù) 288
15.2.2 從CSV文件中讀入時間序列數(shù)據(jù) 291
15.3 使用AR模型預測時間序列 293
15.3.1 AR模型的訓練 293
15.3.2 AR模型的驗證和預測 295
15.4 使用LSTM模型預測時間序列 297
15.4.1 LSTM模型中的單變量時間序列預測 297
15.4.2 LSTM模型中的多變量時間序列預測 299
15.5 總結(jié) 301


第16章 神經(jīng)網(wǎng)絡機器翻譯技術(shù) 302
16.1 Encoder-Decoder模型的原理 303
16.2 注意力機制(Attention) 305
16.3 使用TensorFlow NMT搭建神經(jīng)網(wǎng)絡翻譯引擎 309
16.3.1 示例:將越南語翻譯為英語 309
16.3.2 構(gòu)建中英翻譯引擎 313
16.4 TensorFlow NMT源碼簡介 317
16.5 總結(jié) 319


第17章 看圖說話:將圖像轉(zhuǎn)換為文字 320
17.1 Image Caption技術(shù)綜述 321
17.1.1 從Encoder-Decoder結(jié)構(gòu)談起 321
17.1.2 將Encoder-Decoder應用到Image Caption任務上 322
17.1.3 對Encoder-Decoder的改進1:加入Attention機制 323
17.1.4 對Encoder-Decoder的改進2:加入高層語義 325
17.2 在TensorFlow中實現(xiàn)Image Caption 327
17.2.1 下載代碼 327
17.2.2 環(huán)境準備 328
17.2.2 編譯和數(shù)據(jù)準備 328
17.2.3 訓練和驗證 330
17.2.4 測試單張圖片 331
17.3 總結(jié) 332


第18章 強化學習入門之Q 333
18.1 強化學習中的幾個重要概念 334
18.2 Q Learning的原理與實驗 336
18.2.1 環(huán)境定義 336
18.2.2 Q函數(shù) 338
18.2.3 Q函數(shù)的學習策略 339
18.2.4 ?-greedy策略 341
18.2.5 簡單的Q Learning示例 341
18.2.6 更復雜的情況 342
18.3 總結(jié) 343


第19章 強化學習入門之SARSA算法 344
19.1 SARSA 算法的原理 345
19.1.1 通過與Q Learning對比學習SARSA算法 345
19.1.2 off-policy與on-policy 346
19.2 SARSA 算法的實現(xiàn) 347
19.3 總結(jié) 348


第20章 深度強化學習:Deep Q Learning 349
20.1 DQN算法的原理 350
20.1.1 問題簡介 350
20.1.2 Deep Q Network 351
20.1.3 訓練方法 352
20.2 在TensorFlow中運行DQN算法 353
20.2.1 安裝依賴庫 353
20.2.2 訓練 355
20.2.3 測試 356
20.3 在TensorFlow中DQN算法的實現(xiàn)分析 357
20.4 總結(jié) 360


第21章 策略梯度(Policy Gradient)算法 361
21.1 策略梯度(Policy Gradient)算法的原理 362
21.1.1 Cartpole游戲 362
21.1.2 策略網(wǎng)絡(Policy Network) 363
21.1.3 訓練策略網(wǎng)絡 364
21.2 在TensorFlow中實現(xiàn)策略梯度 算法 365
21.2.1 初始化 365
21.2.2 定義策略網(wǎng)絡 366
21.2.3 訓練 367
21.3 總結(jié) 371
展開全部

21個項目玩轉(zhuǎn)深度學習:基于TensorFlow的實踐詳解 作者簡介

何之源,知乎專欄AI Insight作者。針對Tensorflow早期學習案例不足的情況,在網(wǎng)上撰寫了大量實踐文章與TensorFlow教程,教程風格清晰易懂又不失深度,獲得了廣大讀者的肯定。熱愛編程,在人工智能和深度學習領(lǐng)域有豐富的實踐經(jīng)驗。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網(wǎng)
在線客服