新聞中心
視頻的理解與識(shí)別是計(jì)算機(jī)視覺(jué)的基礎(chǔ)任務(wù)之一。隨著視頻設(shè)備和網(wǎng)絡(luò)的普通,視頻理解也吸引了越來(lái)越多研究者的關(guān)注。而識(shí)別視頻中的動(dòng)作則是其中一個(gè)充滿挑戰(zhàn)而又具有較高實(shí)際應(yīng)用價(jià)值的任務(wù)。相比圖像來(lái)說(shuō),視頻內(nèi)容和背景更加復(fù)雜多變,不同的動(dòng)作類(lèi)別之間具有相似性,而相同的類(lèi)別在不同環(huán)境下又有著不同的特點(diǎn)。此外,由于拍攝造成的遮擋、抖動(dòng)、視角變化等也為動(dòng)作識(shí)別進(jìn)一步帶來(lái)了困難。在實(shí)際應(yīng)用中,精確的動(dòng)作識(shí)別有助于輿情監(jiān)控,廣告投放,以及很多其他視頻理解相關(guān)的任務(wù)。

公司主營(yíng)業(yè)務(wù):網(wǎng)站設(shè)計(jì)、成都網(wǎng)站建設(shè)、移動(dòng)網(wǎng)站開(kāi)發(fā)等業(yè)務(wù)。幫助企業(yè)客戶真正實(shí)現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競(jìng)爭(zhēng)能力。成都創(chuàng)新互聯(lián)公司是一支青春激揚(yáng)、勤奮敬業(yè)、活力青春激揚(yáng)、勤奮敬業(yè)、活力澎湃、和諧高效的團(tuán)隊(duì)。公司秉承以“開(kāi)放、自由、嚴(yán)謹(jǐn)、自律”為核心的企業(yè)文化,感謝他們對(duì)我們的高要求,感謝他們從不同領(lǐng)域給我們帶來(lái)的挑戰(zhàn),讓我們激情的團(tuán)隊(duì)有機(jī)會(huì)用頭腦與智慧不斷的給客戶帶來(lái)驚喜。成都創(chuàng)新互聯(lián)公司推出龍華免費(fèi)做網(wǎng)站回饋大家。
與圖像識(shí)別相比,視頻分析需要更大量數(shù)據(jù)。早期的數(shù)據(jù)集KTH[1],Weizmann[2]等僅由演員表演固定的幾個(gè)動(dòng)作,如走路,慢跑等。之后,較大規(guī)模的數(shù)據(jù)集如UCF101[3]等由網(wǎng)絡(luò)視頻組成,具體動(dòng)作類(lèi)別則由志愿者人工標(biāo)注完成。目前,研究者發(fā)布了更大規(guī)模的數(shù)據(jù)集,例如Kinetics[4]包含了上百類(lèi)動(dòng)作以及幾十萬(wàn)視頻(如圖1所示示例),雖然相比實(shí)際情況仍不夠全面,但也對(duì)動(dòng)作識(shí)別的研究有了極大的幫助。
圖1. Kinetics數(shù)據(jù)集的示例視頻幀
(https://arxiv.org/pdf/1705.06950.pdf)。
視頻動(dòng)作識(shí)別目前常用的技術(shù)可以大致分為如下幾類(lèi):
1. 基于人工特征的視頻動(dòng)作識(shí)別
早期的動(dòng)作識(shí)別主要基于興趣點(diǎn)的檢測(cè)和表示。梯度直方圖[5],時(shí)空興趣點(diǎn)檢測(cè)[6],以及光流直方圖[7]等都用于提取圖像和時(shí)序的特征表示。與圖像相比,視頻蘊(yùn)含了大量的運(yùn)動(dòng)信息,為了更好的利用運(yùn)動(dòng)信息,Heng等人提出了密集軌跡的特征[8],密集的提取和追蹤光流中每個(gè)像素特征,編碼后進(jìn)行分類(lèi)。然而,當(dāng)面臨大規(guī)模數(shù)據(jù)集時(shí),這些特征缺乏一定的靈活性和可擴(kuò)展性。
2. 基于雙流的神經(jīng)網(wǎng)絡(luò)
近年來(lái),神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別、物體檢測(cè)等計(jì)算機(jī)視覺(jué)任務(wù)上取得了幾乎超越人類(lèi)的成果,研究者在視頻任務(wù)中也越來(lái)越多的開(kāi)始使用神經(jīng)網(wǎng)絡(luò)。然而,直接將用于圖像分類(lèi)的神經(jīng)網(wǎng)絡(luò)用于視頻分類(lèi)會(huì)忽略視頻的時(shí)序特征,而時(shí)序特征對(duì)于視頻分類(lèi)尤為重要。介于此,研究者提出了基于雙流的動(dòng)作識(shí)別方法。Simonyan et al. 提出了一個(gè)融合網(wǎng)絡(luò)[9] ,該論文首次將視頻分成空間和時(shí)間兩個(gè)部分,分別將RGB圖像和光流圖像送入兩支神經(jīng)網(wǎng)絡(luò)并融合最終分類(lèi)結(jié)果。如圖2所示,利用雙流神經(jīng)網(wǎng)絡(luò),可以同時(shí)得到視頻中人或物體外表和運(yùn)動(dòng)的信息,該方法在當(dāng)時(shí)各個(gè)基準(zhǔn)數(shù)據(jù)集上取得了領(lǐng)先的識(shí)別水平。
圖2. 雙流神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
(https://papers.nips.cc/paper/5353-two-stream-convolutional-networks-for-action-recognition-in-videos.pdf)
之后,又有許多研究針對(duì)雙流網(wǎng)絡(luò)這種框架進(jìn)行了一些改進(jìn),例如Temporal Segment Network則提出了一種可以捕捉較長(zhǎng)時(shí)序的網(wǎng)絡(luò)結(jié)構(gòu)[10]。Xu 提出了基于密集擴(kuò)張網(wǎng)絡(luò)的框架[11],并探討了空間和時(shí)間分支的不同融合方式。
3. 基于三維卷積的神經(jīng)網(wǎng)絡(luò)
除了雙流網(wǎng)絡(luò),還有一些研究者針對(duì)視頻將神經(jīng)網(wǎng)絡(luò)優(yōu)化為三維卷積神經(jīng)網(wǎng)絡(luò),以此來(lái)捕捉更多的時(shí)空信息。如圖3所示,Tran等人首次提出了在視頻動(dòng)作識(shí)別中使用三維神經(jīng)網(wǎng)絡(luò)(C3D)代替二維的神經(jīng)網(wǎng)絡(luò)[12]。此后,由于ResNet在圖像識(shí)別任務(wù)中取得的較好效果,Hara等人提出了基于三維網(wǎng)絡(luò)的ResNet[13],Qiu等人也提出了用二維模擬三維神經(jīng)網(wǎng)絡(luò)的偽3D網(wǎng)絡(luò)(P3D)[14]。
圖3.三維神將網(wǎng)絡(luò)示意圖。
(https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Tran_Learning_Spatiotemporal_Features_ICCV_2015_paper.pdf)
最近,deep mind團(tuán)隊(duì)提出了?Inflated 3D ConvNets (I3D)[15],具體方法是利用了2D網(wǎng)絡(luò)權(quán)重展開(kāi)作為3D網(wǎng)絡(luò)的預(yù)訓(xùn)練權(quán)重,同時(shí)借助大規(guī)模的Kinetics數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,在基準(zhǔn)數(shù)據(jù)集上效果得到明顯提升。
4. 其他
此外,仍有很多研究者在探索其他更有效的視頻動(dòng)作識(shí)別方法,如基于長(zhǎng)短記憶網(wǎng)絡(luò)(LSTM)的識(shí)別框架[16],基于對(duì)抗神經(jīng)網(wǎng)絡(luò)(GAN)[17]的框架等。
雖然目前動(dòng)作識(shí)別已經(jīng)取得了快速的發(fā)展,但距離人類(lèi)識(shí)別水平仍有很大的差距,在實(shí)際應(yīng)用中也面臨著各種各種復(fù)雜的問(wèn)題。我們期待著今后的研究中能夠出現(xiàn)更具有可擴(kuò)展性,魯棒性的算法和框架。
【本文是專欄機(jī)構(gòu)“AiChinaTech”的原創(chuàng)文章,微信公眾號(hào)( id: tech-AI)”】
本文標(biāo)題:計(jì)算機(jī)視覺(jué)技術(shù)深度解讀之視頻動(dòng)作識(shí)別
網(wǎng)頁(yè)網(wǎng)址:http://fisionsoft.com.cn/article/cdsdgsd.html


咨詢
建站咨詢
