書馨卡幫你省薪 2024個(gè)人購書報(bào)告 2024中圖網(wǎng)年度報(bào)告
歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
自然語言處理——原理、方法與應(yīng)用

自然語言處理——原理、方法與應(yīng)用

出版社:清華大學(xué)出版社出版時(shí)間:2023-03-01
開本: 其他 頁數(shù): 236
中 圖 價(jià):¥44.3(7.5折) 定價(jià)  ¥59.0 登錄后可看到會(huì)員價(jià)
加入購物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
本類五星書更多>
買過本商品的人還買了

自然語言處理——原理、方法與應(yīng)用 版權(quán)信息

自然語言處理——原理、方法與應(yīng)用 本書特色

● 深入淺出 在系統(tǒng)闡述理論的同時(shí),深入淺出地結(jié)合前沿論文、代碼實(shí)踐及合適的應(yīng)用場(chǎng)景,為讀者提供通俗易懂的自然語言處理任務(wù)的環(huán)境和案例。 ● 銜接連貫 采用同一套代碼框架貫穿全書,強(qiáng)調(diào)知識(shí)體系的全面性和可拓展性,注重理論與實(shí)踐的前后連貫性。 ● 技術(shù)前沿 介紹自然語言處理的起源與發(fā)展、文本分類、機(jī)器閱讀理解、命名實(shí)體識(shí)別、文本生成、模型蒸餾與剪枝等前沿技術(shù),激發(fā)讀者學(xué)習(xí)興趣,開拓讀者視野。

自然語言處理——原理、方法與應(yīng)用 內(nèi)容簡介

本書系統(tǒng)闡述自然語言處理基礎(chǔ)知識(shí),以及自然語言處理高級(jí)模型應(yīng)用等高級(jí)知識(shí)。 全書共11章:第1~5章為自然語言處理的基礎(chǔ)知識(shí),第6~11章則將自然語言處理知識(shí)應(yīng)用于實(shí)戰(zhàn)。書中主要內(nèi)容包括預(yù)訓(xùn)練模型、文本分類、機(jī)器閱讀理解、命名實(shí)體識(shí)別、文本生成、模型蒸餾與剪枝及損失函數(shù)等知識(shí)。 書中包含大量應(yīng)用示例,不僅可以學(xué)會(huì)理論知識(shí)還可以靈活應(yīng)用。書中示例基于Linux與PyTorch環(huán)境開發(fā),讀者在學(xué)習(xí)自然語言處理知識(shí)的同時(shí)還可學(xué)會(huì)PyTorch框架技術(shù),內(nèi)容完整、步驟清晰,提供了工程化的解決方案。 本書可作為有一定深度學(xué)習(xí)基礎(chǔ)的讀者的入門書,也可作為從事自然語言處理算法工作的技術(shù)人員及培訓(xùn)機(jī)構(gòu)的參考書。

自然語言處理——原理、方法與應(yīng)用 目錄


目錄







本書源代碼


目錄

第1章導(dǎo)論(13min)


1.1基于深度學(xué)習(xí)的自然語言處理


1.2本書章節(jié)脈絡(luò)


1.3自然語言處理算法流程


1.4小結(jié)


第2章Python開發(fā)環(huán)境配置(35min)


2.1Linux服務(wù)器


2.1.1MobaXterm


2.1.2使用MobaXterm連接遠(yuǎn)程服務(wù)器


2.1.3在服務(wù)器上安裝Python開發(fā)環(huán)境


2.1.4使用Anaconda國內(nèi)源


2.1.5pip設(shè)定永久阿里云源


2.2Python虛擬環(huán)境


2.3PyCharm遠(yuǎn)程連接服務(wù)器


2.4screen任務(wù)管理


2.5Docker技術(shù)


2.6小結(jié)


第3章自然語言處理的發(fā)展進(jìn)程


3.1人工規(guī)則與自然語言處理


3.2機(jī)器學(xué)習(xí)與自熱語言處理


3.2.1詞袋模型


3.2.2ngram


3.2.3頻率與逆文檔頻率


3.3深度學(xué)習(xí)與自然語言處理


3.4小結(jié)


第4章無監(jiān)督學(xué)習(xí)的原理與應(yīng)用(30min)


4.1淺層無監(jiān)督預(yù)訓(xùn)練模型


4.2深層無監(jiān)督預(yù)訓(xùn)練模型


4.2.1BERT


4.2.2SelfAttention Layer原理


4.2.3SelfAttention Layer的內(nèi)部運(yùn)算邏輯


4.2.4MultiHead SelfAttention


4.2.5Layer Normalization


4.2.6BERT預(yù)訓(xùn)練


4.2.7BERT的微調(diào)過程


4.3其他預(yù)訓(xùn)練模型


4.3.1RoBERTa


4.3.2ERNIE


4.3.3BERT_WWM


4.3.4ALBERT


4.3.5Electra


4.3.6NEZHA


4.3.7NLP預(yù)訓(xùn)練模型對(duì)比


4.4自然語言處理四大下游任務(wù)


4.4.1句子對(duì)分類任務(wù)


4.4.2單句子分類任務(wù)


4.4.3問答任務(wù)


4.4.4單句子標(biāo)注任務(wù)


4.5小結(jié)


第5章無監(jiān)督學(xué)習(xí)進(jìn)階


5.1生成式對(duì)抗網(wǎng)絡(luò)


5.2元學(xué)習(xí)


5.2.1MetricBased Method


5.2.2ModelBased Method


5.2.3PretrainBased Method


5.3小結(jié)


第6章預(yù)訓(xùn)練


6.1賽題任務(wù)


6.2環(huán)境搭建


6.3代碼框架


6.4數(shù)據(jù)分析實(shí)踐


6.4.1數(shù)據(jù)預(yù)處理


6.4.2預(yù)訓(xùn)練任務(wù)模型構(gòu)建與數(shù)據(jù)生成


6.4.3模型訓(xùn)練


6.5小結(jié)


第7章文本分類(45min)


7.1數(shù)據(jù)分析


7.2環(huán)境搭建


7.3代碼框架


7.4文本分類實(shí)踐


7.4.1數(shù)據(jù)預(yù)處理


7.4.2模型構(gòu)建


7.4.3數(shù)據(jù)迭代器


7.4.4模型訓(xùn)練


7.4.5模型預(yù)測(cè)


7.5小結(jié)


第8章機(jī)器閱讀理解(16min)


8.1機(jī)器閱讀理解的定義


8.1.1完形填空


8.1.2多項(xiàng)選擇


8.1.3片段抽取


8.1.4自由回答


8.1.5其他任務(wù)


8.2評(píng)測(cè)方法


8.3研究方法


8.3.1基于規(guī)則的方法


8.3.2基于神經(jīng)網(wǎng)絡(luò)的方法


8.3.3基于深層語義的圖匹配方法


8.4經(jīng)典結(jié)構(gòu)


8.4.1BiDAF模型


8.4.2QANet模型


8.4.3基于BERT模型的機(jī)器閱讀理解


8.5多文檔機(jī)器閱讀理解實(shí)踐


8.5.1疫情政務(wù)問答助手


8.5.2信息檢索


8.5.3多任務(wù)學(xué)習(xí)


8.5.4實(shí)踐


8.6小結(jié)


第9章命名實(shí)體識(shí)別(15min)


9.1NER技術(shù)的發(fā)展現(xiàn)狀


9.2命名實(shí)體識(shí)別的定義


9.3命名實(shí)體識(shí)別模型


9.3.1預(yù)訓(xùn)練模型


9.3.2下接結(jié)構(gòu)


9.3.3條件隨機(jī)場(chǎng)


9.4命名實(shí)體識(shí)別實(shí)驗(yàn)


9.4.1數(shù)據(jù)介紹


9.4.2評(píng)估指標(biāo)


9.4.3數(shù)據(jù)預(yù)處理


9.4.4模型構(gòu)建


9.4.5數(shù)據(jù)迭代器


9.4.6模型訓(xùn)練


9.4.7模型預(yù)測(cè)


9.5小結(jié)


第10章文本生成(26min)


10.1文本生成的發(fā)展現(xiàn)狀


10.1.1文本生成模板


10.1.2變分自編碼器


10.1.3序列到序列技術(shù)


10.2基于預(yù)訓(xùn)練模型的文本生成模型


10.3文本生成任務(wù)實(shí)踐


10.3.1數(shù)據(jù)介紹


10.3.2評(píng)估指標(biāo)


10.3.3模型構(gòu)建


10.3.4數(shù)據(jù)迭代器


10.3.5模型訓(xùn)練


10.3.6模型預(yù)測(cè)


10.4小結(jié)


第11章?lián)p失函數(shù)與模型瘦身


11.1損失函數(shù)


11.2常用的損失函數(shù)


11.2.1回歸


11.2.2分類


11.3損失函數(shù)的進(jìn)階


11.3.1樣本不均衡


11.3.2Focal Loss


11.3.3Dice Loss


11.3.4拒識(shí)


11.3.5帶噪學(xué)習(xí)


11.4模型瘦身


11.4.1知識(shí)蒸餾


11.4.2模型剪枝


11.5小結(jié)


展開全部

自然語言處理——原理、方法與應(yīng)用 作者簡介

王志立,自然語言處理工程師,曾在國際與國內(nèi)的學(xué)術(shù)會(huì)議上發(fā)表學(xué)術(shù)論文多篇,先后在騰訊等多家知名企業(yè)從事大數(shù)據(jù)與人工智能算法工作,運(yùn)營和分享人工智能相關(guān)知識(shí),曾獲得多項(xiàng)人工智能比賽國j級(jí)獎(jiǎng)項(xiàng)。 雷鵬斌,深圳大學(xué)碩士,華為AI算法工程師,主要從事chatops、知識(shí)圖譜的研究與應(yīng)用工作,對(duì)自然語言處理各項(xiàng)任務(wù)的研究與應(yīng)用具有經(jīng)驗(yàn)豐富。2019—2021年在國內(nèi)知名競(jìng)賽的文本分類、命名實(shí)體識(shí)別、機(jī)器閱讀理解、智能問答,以及文本生成任務(wù)中摘獲大量榮譽(yù)。曾參與多項(xiàng)課題研究,在AAAI、中文信息學(xué)報(bào)等高影響力會(huì)議上發(fā)表多篇文章。 吳宇凡,騰訊算法應(yīng)用研究員,長期從事業(yè)務(wù)安全和金融量化相關(guān)算法研究和實(shí)踐,已發(fā)表國際頂級(jí)會(huì)議論文多篇,申請(qǐng)專利數(shù)篇。

商品評(píng)論(0條)
暫無評(píng)論……
書友推薦
本類暢銷
編輯推薦
返回頂部
中圖網(wǎng)
在線客服