書馨卡幫你省薪 2024個(gè)人購書報(bào)告 2024中圖網(wǎng)年度報(bào)告
歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
基于多層次理解的視頻分析技術(shù)與應(yīng)用

基于多層次理解的視頻分析技術(shù)與應(yīng)用

作者:孔龍騰
出版社:北京郵電大學(xué)出版社出版時(shí)間:暫無
開本: 16開 頁數(shù): 167
中 圖 價(jià):¥45.2(7.8折) 定價(jià)  ¥58.0 登錄后可看到會(huì)員價(jià)
加入購物車 收藏
運(yùn)費(fèi)6元,滿39元免運(yùn)費(fèi)
?新疆、西藏除外
本類五星書更多>

基于多層次理解的視頻分析技術(shù)與應(yīng)用 版權(quán)信息

  • ISBN:9787563572854
  • 條形碼:9787563572854 ; 978-7-5635-7285-4
  • 裝幀:一般膠版紙
  • 冊(cè)數(shù):暫無
  • 重量:暫無
  • 所屬分類:>

基于多層次理解的視頻分析技術(shù)與應(yīng)用 內(nèi)容簡(jiǎn)介

在“視頻大數(shù)據(jù)”時(shí)代,利用人工智能技術(shù)對(duì)視頻中的目標(biāo)行為進(jìn)行智能識(shí)別與分析,可為公共與國(guó)防安全、體育與娛樂等領(lǐng)域的諸多應(yīng)用提供更高層級(jí)的技術(shù)支持。本書以體育場(chǎng)景為重點(diǎn),進(jìn)行案例剖析。研究體育運(yùn)動(dòng)中人類活動(dòng)規(guī)律,構(gòu)造智能系統(tǒng),可為提高運(yùn)動(dòng)員競(jìng)技能力、促進(jìn)大眾科學(xué)健身提供新的高科技手段,極大提高了體育產(chǎn)業(yè)的智能化程度。 本書剖析了主流的視頻行為分析技術(shù),基于多個(gè)層次對(duì)體育視頻中個(gè)體及群體行為進(jìn)行理解,重點(diǎn)研究了體育視頻中的目標(biāo)跟蹤與行為識(shí)別,具體包括單目標(biāo)跟蹤,多目標(biāo)跟蹤,單目標(biāo)行為識(shí)別,群體行為識(shí)別等智能視覺任務(wù),涉及關(guān)系學(xué)習(xí),監(jiān)督學(xué)習(xí),無監(jiān)督學(xué)習(xí)等優(yōu)化方法。本書剖析了體育場(chǎng)景的特殊性,體育目標(biāo)描述的復(fù)雜性,體育群體關(guān)系建模的專業(yè)性等難題,并提出一系列基于深度模型的解決方法,建立起契合體育場(chǎng)景的、高效魯棒的目標(biāo)分析框架,以供廣大讀者參考。 編輯團(tuán)隊(duì)總結(jié)了人工智能在視頻分析領(lǐng)域的*新成果,在編寫過程中參考了大量書籍、文獻(xiàn)及手冊(cè)資料,在此向各位相關(guān)作者表示誠摯的感謝。同時(shí),由于作者水平有限,而且智能體育分析技術(shù)是一種正在不斷發(fā)展和完善的技術(shù),本書難以概括全面,敬請(qǐng)讀者批評(píng)指正。

基于多層次理解的視頻分析技術(shù)與應(yīng)用 目錄

第1章 背景與意義 第2章 國(guó)內(nèi)外研究現(xiàn)狀 2.1 行為識(shí)別方法 2.1.1 行為識(shí)別數(shù)據(jù)庫 2.1.2 傳統(tǒng)的行為識(shí)別方法 2.1.3 基于深度學(xué)習(xí)的行為識(shí)別方法 2.2 多目標(biāo)跟蹤方法 2.3 群體行為識(shí)別方法 2.3.1 群體行為數(shù)據(jù)庫 2.3.2 傳統(tǒng)的群體行為識(shí)別方法 2.3.3 基于深度學(xué)習(xí)的群體行為識(shí)別方法 本章小結(jié) 第3章 體育視頻中運(yùn)動(dòng)員協(xié)同跟蹤和行為識(shí)別一體化框架 3.1 引言 3.2 相關(guān)工作 3.2.1 目標(biāo)跟蹤 3.2.2 行為識(shí)別 3.3 BeaVoll數(shù)據(jù)庫 3.4 尺度遮擋魯棒的跟蹤方法 3.4.1 壓縮跟蹤 3.4.2 尺度細(xì)化 3.4.3 遮擋恢復(fù) 3.5 長(zhǎng)時(shí)間區(qū)域?qū)虻倪f歸神經(jīng)網(wǎng)絡(luò) 3.5.1 多尺度金字塔卷積神經(jīng)網(wǎng)絡(luò) 3.5.2 長(zhǎng)短時(shí)記憶單元結(jié)構(gòu) 3.5.3 訓(xùn)練和測(cè)試 3.6 實(shí)驗(yàn)結(jié)果與分析 3.6.1 實(shí)驗(yàn)細(xì)節(jié) 3.6.2 在BeaVoll數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 3.6.3 在UIUC2數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 本章小結(jié) 第4章 基于長(zhǎng)時(shí)間動(dòng)作線索的體育視頻中多運(yùn)動(dòng)員跟蹤方法 4.1 引言 4.2 相關(guān)工作 4.3 基于長(zhǎng)時(shí)間動(dòng)作依賴的層級(jí)深度匹配方法 4.3.1 問題描述 4.3.2 檢測(cè)框連接代價(jià) 4.3.3 孿生跟蹤片相似度網(wǎng)絡(luò)和跟蹤片連接代價(jià) 4.4 數(shù)據(jù)庫 4.5 實(shí)驗(yàn)結(jié)果與分析 4.5.1 實(shí)驗(yàn)細(xì)節(jié) 4.5.2 評(píng)估指標(biāo) 4.5.3 結(jié)果分析 本章小結(jié) 第5章 基于注意力機(jī)制和上下文建模的體育視頻中群體行為識(shí)別方法 5.1 引言 5.2 基于注意力機(jī)制和上下文建模的群體行為識(shí)別方法 5.2.1 注意力機(jī)制的LSTM網(wǎng)絡(luò)結(jié)構(gòu) 5.2.2 層級(jí)注意力網(wǎng)絡(luò) 5.2.3 層級(jí)上下文網(wǎng)絡(luò) 5.3 實(shí)驗(yàn)結(jié)果與分析 5.3.1 實(shí)驗(yàn)細(xì)節(jié) 5.3.2 基準(zhǔn)方法 5.3.3 在Collective Activity數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 5.3.4 在Volleyball數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 本章小結(jié) 第6章 面向復(fù)雜語義自適應(yīng)建模的群體戰(zhàn)術(shù)識(shí)別方法 6.1 引言 6.2 復(fù)雜語義自適應(yīng)建模的群體戰(zhàn)術(shù)識(shí)別方法 6.2.1 自適應(yīng)的圖卷積神經(jīng)網(wǎng)絡(luò) 6.2.2 注意力時(shí)序卷積網(wǎng)絡(luò) 6.3 實(shí)驗(yàn)結(jié)果與分析 6.3.1 實(shí)驗(yàn)細(xì)節(jié) 6.3.2 消融實(shí)驗(yàn) 6.3.3 與其他先進(jìn)方法的比較 本章小結(jié) 第7章 基于多尺度交叉距離Transformer模型的群體行為識(shí)別方法 7.1 相關(guān)工作 7.2 基于多尺度交叉距離Transformer模型的群體行為識(shí)別方法 7.2.1 方法概覽 7.2.2 跨距離注意力塊 7.2.3 層次結(jié)構(gòu) 7.2.4 多尺度重構(gòu)學(xué)習(xí) 7.3 實(shí)驗(yàn)結(jié)果與分析 7.3.1 數(shù)據(jù)庫 7.3.2 實(shí)驗(yàn)細(xì)節(jié) 7.3.3 消融實(shí)驗(yàn) 7.3.4 與其他先進(jìn)方法的比較 本章小結(jié) 第8章 基于長(zhǎng)短狀態(tài)預(yù)測(cè)Transformer的群體表征自學(xué)習(xí)方法 8.1 引言 8.2 相關(guān)工作 8.2.1 自監(jiān)督學(xué)習(xí) 8.2.2 行為預(yù)測(cè) 8.3 基于長(zhǎng)短狀態(tài)預(yù)測(cè)Transformer的群體表征自學(xué)習(xí)方法 8.3.1 概覽 8.3.2 長(zhǎng)短狀態(tài)編碼器 8.3.3 長(zhǎng)短狀態(tài)解碼器 8.3.4 聯(lián)合學(xué)習(xí)機(jī)制 8.4 實(shí)驗(yàn)結(jié)果與分析 8.4.1 數(shù)據(jù)庫 8.4.2 實(shí)驗(yàn)細(xì)節(jié) 8.4.3 消融實(shí)驗(yàn) 8.4.4 與其他先進(jìn)方法的比較 本章小結(jié) 第9章 基于上下文關(guān)系預(yù)測(cè)編碼的群體行為表征自學(xué)習(xí)方法 9.1 引言 9.2 基于上下文關(guān)系預(yù)測(cè)編碼的群體行為表征自學(xué)習(xí)方法 9.2.1 概述 9.2.2 群體標(biāo)記生成器 9.2.3 串并行Transformer編碼器 9.2.4 混合上下文Transformer解碼器 9.2.5 聯(lián)合損失 9.3 實(shí)驗(yàn)結(jié)果與分析 9.3.1 數(shù)據(jù)庫 9.3.2 實(shí)驗(yàn)細(xì)節(jié) 9.3.3 與其他先進(jìn)方法的比較 9.3.4 消融實(shí)驗(yàn) 本章小結(jié) 第10章 總結(jié)與展望 參考文獻(xiàn)
展開全部

基于多層次理解的視頻分析技術(shù)與應(yīng)用 作者簡(jiǎn)介

孔龍騰,北京郵電大學(xué)博士后,畢業(yè)于北京航空航天大學(xué),長(zhǎng)期從事計(jì)算機(jī)視覺與模式識(shí)別研究。發(fā)表IEEE Transactions on Image Processing (TIP),IEEE Transactions on Circuits and Systems for Video Technology (TCSVT)等國(guó)際權(quán)威期刊或會(huì)議15篇,其中第一作者或通訊作者5篇,均為中科院1區(qū)),主持或參與國(guó)自然青年基金項(xiàng)目、國(guó)自然面上項(xiàng)目、科技部重點(diǎn)研發(fā)項(xiàng)目、港澳臺(tái)專項(xiàng)項(xiàng)目8項(xiàng),F(xiàn)為人工智能頂級(jí)期刊TIP、TCSVT、TMM等審稿人,北京圖象圖形學(xué)學(xué)會(huì)(BSIG)青年工作委員會(huì)委員、人工智能人機(jī)交互專委會(huì)委員。

商品評(píng)論(0條)
暫無評(píng)論……
書友推薦
編輯推薦
返回頂部
中圖網(wǎng)
在線客服