歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
深度學(xué)習(xí)與大模型基礎(chǔ)

深度學(xué)習(xí)與大模型基礎(chǔ)

作者:段小手 著
出版社:北京大學(xué)出版社出版時(shí)間:2024-06-01
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 358
中 圖 價(jià):¥63.2(7.1折) 定價(jià)  ¥89.0 登錄后可看到會(huì)員價(jià)
加入購(gòu)物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
本類五星書更多>

深度學(xué)習(xí)與大模型基礎(chǔ) 版權(quán)信息

深度學(xué)習(xí)與大模型基礎(chǔ) 本書特色

以項(xiàng)目實(shí)踐為引導(dǎo),通過(guò)有趣的AI插畫輔助學(xué)習(xí)增加學(xué)習(xí)趣味性,通過(guò)【原理輸出】和【實(shí)操練習(xí)】助力學(xué)與練,從而解鎖人工智能與大規(guī)模語(yǔ)言模型精髓。

深度學(xué)習(xí)與大模型基礎(chǔ) 內(nèi)容簡(jiǎn)介

本書以通俗易懂的語(yǔ)言和有趣的插畫來(lái)解釋深度學(xué)習(xí)中的概念和方法, 生動(dòng)形象的插圖更容易幫助讀者理解和記憶。 同時(shí), 書中指導(dǎo)讀者將自己的理解制作成短視頻, 以加強(qiáng)學(xué)習(xí)效果。 另外, 書中還指導(dǎo)讀者在 Colab 平臺(tái)上進(jìn)行實(shí)踐。 本書內(nèi)容全面, 從基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)、 卷積神經(jīng)網(wǎng)絡(luò)、 循環(huán)神經(jīng)網(wǎng)絡(luò)等入門知識(shí), 到深度學(xué)習(xí)的應(yīng)用領(lǐng)域如計(jì)算機(jī)視覺(jué)、 自然語(yǔ)言處理等高級(jí)主題都有涉及。 本書具有豐富的趣味性、 互動(dòng)性和實(shí)踐性, 可以幫助讀者更好地理解深度學(xué)習(xí)知識(shí), 并為未來(lái)的職業(yè)發(fā)展打下堅(jiān)實(shí)的基礎(chǔ)。

深度學(xué)習(xí)與大模型基礎(chǔ) 目錄

第 1 章 緒 論 1. 1 深度學(xué)習(xí)的前世今生 1. 2 模型復(fù)雜度的提升 1. 3 深度學(xué)習(xí)的名人軼事 第 2 章 深度學(xué)習(xí)中的線性代數(shù) 2. 1 標(biāo)量、 向量、 矩陣與張量 2. 2 矩陣的運(yùn)算 2. 3 單位矩陣與逆矩陣 2. 4 線性相關(guān)、 生成子空間和范數(shù) 2. 5 一些特殊類型的矩陣 2. 6 特征分解 2. 7 奇異值分解 2. 8 Moore-Penrose 偽逆 2. 9 跡運(yùn)算 2. 10 行列式 2. 11 例子: 主成分分析 第 3 章 概率與信息論 3. 1 為什么要使用概率 3. 2 隨機(jī)變量 3. 3 概率分布 3. 4 邊緣概率 3. 5 條件概率 3. 6 條件概率的鏈?zhǔn)椒▌t 3. 7 條件獨(dú)立性 3. 8 期望、 方差和協(xié)方差 3. 9 常用概率分布 3. 10 常用函數(shù)及性質(zhì) 3. 11 貝葉斯規(guī)則 3. 12 信息論中的交叉熵 3. 13 結(jié)構(gòu)化概率模型 第 4 章 數(shù)值計(jì)算 4. 1 上溢和下溢 4. 2 病態(tài)條件 4. 3 基于梯度的優(yōu)化方法 4. 4 約束優(yōu)化 4. 5 實(shí)例: 線性*小二乘 第 5 章 機(jī)器學(xué)習(xí)基礎(chǔ) 5. 1 什么是機(jī)器學(xué)習(xí)算法 5. 2 模型性能的度量 5. 3 過(guò)擬合與欠擬合 5. 4 超參數(shù)和交叉驗(yàn)證 5. 5 *大似然估計(jì) 5. 6 什么是隨機(jī)梯度下降 5. 7 貝葉斯統(tǒng)計(jì) 5. 8 監(jiān)督學(xué)習(xí)算法 5. 9 無(wú)監(jiān)督學(xué)習(xí)算法 5. 10 促使深度學(xué)習(xí)發(fā)展的挑戰(zhàn) 第 6 章 深度前饋網(wǎng)絡(luò) 6. 1 什么是 “前饋” 6. 2 隱藏層 6. 3 輸出單元 6. 4 萬(wàn)能近似性質(zhì) 6. 5 反向傳播 第 7 章 深度學(xué)習(xí)中的正則化 7. 1 參數(shù)范數(shù)懲罰 7. 2 數(shù)據(jù)集增強(qiáng) 7. 3 噪聲魯棒性 7. 4 半監(jiān)督學(xué)習(xí) 7. 5 多任務(wù)學(xué)習(xí) 7. 6 提前終止 7. 7 參數(shù)綁定和參數(shù)共享 7. 8 稀疏表示 7. 9 Bagging 和其他集成方法 7. 10 Dropout 7. 11 對(duì)抗訓(xùn)練 第 8 章 深度模型中的優(yōu)化 8. 1 學(xué)習(xí)和純優(yōu)化有什么不同 8. 2 小批量算法 8. 3 基本算法 8. 4 參數(shù)初始化策略 8. 5 自適應(yīng)學(xué)習(xí)率算法 8. 6 二階近似方法 8. 7 一些優(yōu)化策略 第 9 章 卷積神經(jīng)網(wǎng)絡(luò) 9. 1 卷積運(yùn)算 9. 2 為什么要使用卷積運(yùn)算 9. 3 池化 9. 4 基本卷積函數(shù)的變體 9. 5 卷積核的初始化 第 10 章 循環(huán)神經(jīng)網(wǎng)絡(luò) 10. 1 展開(kāi)計(jì)算圖 10. 2 循環(huán)神經(jīng)網(wǎng)絡(luò) 10. 3 雙向 RNN 10. 4 基于編碼-解碼的序列到序列架構(gòu) 10. 5 深度循環(huán)網(wǎng)絡(luò) 10. 6 遞歸神經(jīng)網(wǎng)絡(luò) 10. 7 長(zhǎng)短期記憶網(wǎng)絡(luò) 10. 8 門控循環(huán)單元 10. 9 截?cái)嗵荻? 第 11 章 實(shí)踐方法論 11. 1 設(shè)計(jì)流程 11. 2 更多的性能度量方法 11. 3 默認(rèn)的基準(zhǔn)模型 11. 4 要不要收集更多數(shù)據(jù) 11. 5 超參數(shù)的調(diào)節(jié) 11. 6 模型調(diào)試的重要性 第 12 章 應(yīng) 用 12. 1 大規(guī)模深度學(xué)習(xí) 12. 2 計(jì)算機(jī)視覺(jué)中的預(yù)處理 12. 3 語(yǔ)音識(shí)別 12. 4 自然語(yǔ)言處理 12. 5 推薦系統(tǒng) 12. 6 知識(shí)問(wèn)答系統(tǒng) 第 13 章 初識(shí)大語(yǔ)言模型 13. 1 大語(yǔ)言模型的背景 13. 2 大語(yǔ)言模型的重要性 13. 3 大語(yǔ)言模型的應(yīng)用場(chǎng)景 13. 4 大語(yǔ)言模型和傳統(tǒng)方法的區(qū)別 第 14 章 大語(yǔ)言模型原理 14. 1 Transformer 架構(gòu) 14. 2 預(yù)訓(xùn)練 14. 3 微調(diào) 14. 4 自回歸訓(xùn)練 14. 5 掩碼語(yǔ)言模型 第 15 章 常見(jiàn)的大語(yǔ)言模型 15. 1 GPT 系列模型 15. 2 BERT 15. 3 XLNet 第 16 章 大語(yǔ)言模型應(yīng)用———自然語(yǔ)言生成 16. 1 自動(dòng)文本生成 16. 2 對(duì)話系統(tǒng)和聊天機(jī)器人 16. 3 代碼和技術(shù)文檔生成 16. 4 創(chuàng)意內(nèi)容生成 16. 5 國(guó)產(chǎn)優(yōu)秀大語(yǔ)言模型———文心一言 16. 6 國(guó)產(chǎn)優(yōu)秀大語(yǔ)言模型———訊飛星火認(rèn)知大模型 后 記
展開(kāi)全部

深度學(xué)習(xí)與大模型基礎(chǔ) 作者簡(jiǎn)介

段小手,曾供職于百度、敦煌網(wǎng)、慧聰網(wǎng)、方正集團(tuán)等知名IT企業(yè)。有多年的科技項(xiàng)目管理及開(kāi)發(fā)經(jīng)驗(yàn)。負(fù)責(zé)的項(xiàng)目曾獲得“國(guó)家發(fā)改委電子商務(wù)示范項(xiàng)目”“中關(guān)村現(xiàn)代服務(wù)業(yè)試點(diǎn)項(xiàng)目”“北京市信息化基礎(chǔ)設(shè)施提升專項(xiàng)”“北京市外貿(mào)公共服務(wù)平臺(tái)”等多項(xiàng)政策支持。著有《用ChatGPT輕松玩轉(zhuǎn)機(jī)器學(xué)習(xí)與深度學(xué)習(xí)》《深入淺出Python量化交易實(shí)戰(zhàn)》等著作,在與云南省公安廳合作期間,使用機(jī)器學(xué)習(xí)算法有效將某類案件發(fā)案率大幅降低。

商品評(píng)論(0條)
暫無(wú)評(píng)論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網(wǎng)
在線客服