摘要:近年來,隨著視頻大規(guī)模增長,如何高效組織和分析這些海量視頻,面臨巨大的挑戰(zhàn),而人作為視頻中的主體,如何有效分析其行為,成為學(xué)術(shù)界研究的一個(gè)熱點(diǎn)。通過利用OpenPose,提取視頻中人體的動(dòng)態(tài)骨架序列,采用基于圖卷積神經(jīng)網(wǎng)絡(luò)的方法,借助在大規(guī)模視頻動(dòng)作數(shù)據(jù)集上訓(xùn)練好的模型進(jìn)行遷移學(xué)習(xí),所提出的方法在自采集的室內(nèi)監(jiān)護(hù)視頻數(shù)據(jù)集上,取得0.9的識(shí)別準(zhǔn)確率。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社