書馨卡幫你省薪 2024個人購書報告 2024中圖網(wǎng)年度報告
歡迎光臨中圖網(wǎng) 請 | 注冊
> >
機器學習:貝葉斯和優(yōu)化方法(原書第2版)

機器學習:貝葉斯和優(yōu)化方法(原書第2版)

出版社:機械工業(yè)出版社出版時間:2022-01-01
開本: 16開 頁數(shù): 828
中 圖 價:¥186.9(6.7折) 定價  ¥279.0 登錄后可看到會員價
加入購物車 收藏
運費6元,滿39元免運費
?新疆、西藏除外
本類五星書更多>

機器學習:貝葉斯和優(yōu)化方法(原書第2版) 版權(quán)信息

  • ISBN:9787111692577
  • 條形碼:9787111692577 ; 978-7-111-69257-7
  • 裝幀:一般膠版紙
  • 冊數(shù):暫無
  • 重量:暫無
  • 所屬分類:>

機器學習:貝葉斯和優(yōu)化方法(原書第2版) 本書特色

全景式呈現(xiàn)機器學習方法和新研究趨勢,重寫了關于神經(jīng)網(wǎng)絡和深度學習的章節(jié),擴展了關于貝葉斯學習的內(nèi)容

機器學習:貝葉斯和優(yōu)化方法(原書第2版) 內(nèi)容簡介

  《機器學習:貝葉斯和優(yōu)化方法(原書第2版)》對所有重要的機器學習方法和新近研究趨勢進行了深入探索,通過講解監(jiān)督學習的兩大支柱——回歸和分類,站在全景視角將這些繁雜的方法一一打通,形成了明晰的機器學習知識體系! ⌒掳鎸(nèi)容做了全面更新,使各章內(nèi)容相對獨立。全書聚焦于數(shù)學理論背后的物理推理,關注貼近應用層的方法和算法,并輔以大量實例和習題,適合該領域的科研人員和工程師閱讀,也適合學習模式識別、統(tǒng)計/自適應信號處理、統(tǒng)計/貝葉斯學習、稀疏建模和深度學習等課程的學生參考! 〈送,《機器學習:貝葉斯和優(yōu)化方法(原書第2版)》的所有代碼均可免費下載,包含MATLAB和Python兩個版本!  稒C器學習:貝葉斯和優(yōu)化方法(原書第2版)》重要更新及特色:  重寫了關于神經(jīng)網(wǎng)絡和深度學習的章節(jié),以反映自第1版以來的研究進展。這一章從感知器和前饋神經(jīng)網(wǎng)絡的基礎概念開始討論,對深度網(wǎng)絡進行了深入研究,涵蓋較新的優(yōu)化算法、批標準化、正則化技術(如Dropout方法)、CNN和RNN、注意力機制、對抗樣本和對抗訓練、膠囊網(wǎng)絡、生成架構(gòu)(如RBM)、變分自編碼器和GAN! U展了關于貝葉斯學習的內(nèi)容,包括非參數(shù)貝葉斯方法,重點討論中國餐館過程(CRP)和印度自助餐過程(IBP)! ∽粉櫺碌难芯口厔,包括稀疏、凸分析與凸優(yōu)化、在線分布式算法、RKH空間學習、貝葉斯推斷、圖模型與隱馬爾可夫模型、粒子濾波、深度學習、字典學習和潛變量建模等! √峁⿲嵱冒咐治觯ǖ鞍踪|(zhì)折疊預測、光學字符識別、文本作者身份識別、fMRI數(shù)據(jù)分析、變點檢測、高光譜圖像分離、目標定位等。

機器學習:貝葉斯和優(yōu)化方法(原書第2版) 目錄

譯者序
前言
致謝
作者簡介
符號說明

第1章 引言
1.1 歷史背景
1.2 人工智能與機器學習
1.3 算法能學習數(shù)據(jù)中隱藏的東西
1.4 機器學習典型應用
1.4.1 語音識別
1.4.2 計算機視覺
1.4.3 多模態(tài)數(shù)據(jù)
1.4.4 自然語言處理
1.4.5 機器人
1.4.6 自動駕駛
1.4.7 未來的挑戰(zhàn)
1.5 機器學習的主要方向
1.5.1 監(jiān)督學習
1.6 無監(jiān)督和半監(jiān)督學習
1.7 本書結(jié)構(gòu)和路線圖
參考文獻

第2章 概率和隨機過程
2.1 引言
2.2 概率和隨機變量
2.2.1 概率
2.2.2 離散隨機變量
2.2.3 連續(xù)隨機變量
2.2.4 均值和方差
2.2.5 隨機變量變換
2.3 分布示例
2.3.1 離散變量
2.3.2 連續(xù)變量
2.4 隨機過程
2.4.1 一階和二階統(tǒng)計量
2.4.2 平穩(wěn)性和遍歷性
2.4.3 功率譜密度
2.4.4 自回歸模型
2.5 信息論
2.5.1 離散隨機變量
2.5.2 連續(xù)隨機變量
2.6 隨機收斂
2.6.1 處處收斂
2.6.2 幾乎處處收斂
2.6.3 均方意義下的收斂
2.6.4 依概率收斂
2.6.5 依分布收斂
習題
參考文獻

第3章 參數(shù)化建模學習:概念和方向
3.1 引言
3.2 參數(shù)估計:確定性觀點
3.3 線性回歸
3.4 分類
3.4.1 生成和判別學習
3.5 有偏估計與無偏估計
3.5.1 選擇有偏還是無偏估計
3.6 克拉美一羅下界
3.7 充分統(tǒng)計量
3.8 正則化
3.8.1 逆問題:病態(tài)和過擬合
3.9 偏差一方差困境
3.9.1 均方誤差估計
3.9.2 偏差一方差權(quán)衡
3.10 *大似然法
3.10.1 線性回歸:非白高斯噪聲實例
3.11 貝葉斯推斷
3.11.1 *大后驗概率估計方法
3.12 維數(shù)災難
3.13 驗證
3.13.1 交叉驗證
3.14 期望損失函數(shù)和經(jīng)驗風險函數(shù)
3.14.1 可學習性
3.15 非參數(shù)建模和非參數(shù)估計
習題
參考文獻

第4章 均方誤差線性估計
4.1 引言
4.2 均方誤差線性估計:正規(guī)方程
4.2.1 代價函數(shù)曲面
4.3 幾何觀點:正交性條件
4.4 擴展到復值變量
4.4.1 寬線性復值估計
4.4.2 復值變量優(yōu)化:沃廷格微積分
4.5 線性濾波
4.6 均方誤差線性濾波:頻率域觀點
4.6.1 反卷積:圖像去模糊
4.7 一些典型應用
4.7.1 干擾抵消
4.7.2 系統(tǒng)辨識
4.7.3 反卷積:信道均衡
4.8 算法方面:萊文森算法和格一梯算法
4.8.1 前向后向均方誤差*優(yōu)預測
4.8.2 格一梯方案
4.9 線性模型均方誤差估計
4.9.1 高斯一馬爾可夫定理
4.9.2 約束線性估計:波束成形實例
4.10 時變統(tǒng)計:卡爾曼濾波
習題
參考文獻
……

第5章 隨機梯度下降:LMS算法族
第6章 *小二乘算法族
第7章 分類:經(jīng)典方法導覽
第8章 參數(shù)學習:凸分析方法
第9章 稀疏感知學習:概念和理論基礎
第10章 稀疏感知學習:算法和應用
第11章 再生核希爾伯特空間中的學習
第12章 貝葉斯學習:推斷和EM算法
第13章 貝葉斯學習:近似推斷和非參模型
第14章 蒙特卡羅方法
第15章 概率圖模型:**部分
第16章 概率圖模型:第二部分
第17章 粒子濾波
第18章 神經(jīng)網(wǎng)絡和深度學習
第19章 降維與潛變量模型

索引
在線章節(jié)李忠偉
展開全部

機器學習:貝葉斯和優(yōu)化方法(原書第2版) 作者簡介

  西格爾斯·西奧多里蒂斯(Sergios Theodoridis),雅典大學榮休教授,曾任香港中文大學(深圳)教授,研究興趣包括機器學習、模式識別和信號處理等。他是IEEE Fellow、IET Fellow、EURASIP Fellow,曾任IEEE信號處理協(xié)會副主席、EURASIP主席以及IEEE Transactions on Signal Processing主編。曾獲2017年EURASIP Athanasios Papoulis獎,2014年IEEE Signal Processing Magazihe論文獎,以及2014年EURASIP價值服務獎等。此外,他還是經(jīng)典著作《模式識別》的首作者。    王剛,南開大學計算機學院和網(wǎng)絡空間安全學院教授、博士生導師。研究興趣包括海量信息存儲、并行與分布式計算、搜索引擎等,在分布式存儲系統(tǒng)可靠性技術、云存儲用戶數(shù)據(jù)隱私保護、搜索引擎性能優(yōu)化等方向取得一系列重要成果!   ±钪覀ィ祥_大學計算機學院和網(wǎng)絡空間安全學院副教授、碩士生導師。研究興趣包括分布式存儲、數(shù)據(jù)治理、人工智能倫理等,在分布式存儲系統(tǒng)可靠性技術、軟件工程等方向取得一系列研究成果!   ∪蚊髅,南開大學計算機學院和網(wǎng)絡空間安全學院副教授。研究興趣包括并行計算及應用、搜索引擎、應用與計算數(shù)學等,在生物信息學中的系統(tǒng)發(fā)育計算、搜索引擎中的GPU優(yōu)化、偏微分方程數(shù)值求解等方向取得一系列研究成果。

商品評論(0條)
暫無評論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網(wǎng)
在線客服