摘要:提出了一種基于關(guān)鍵幀和骨骼信息的動(dòng)作識(shí)別新方法。通過(guò)深度傳感器Kinect v2實(shí)時(shí)獲取人體各骨骼點(diǎn)信息,通過(guò)采用加權(quán)K-means算法提取動(dòng)作視頻中的關(guān)鍵幀。通過(guò)每個(gè)關(guān)鍵幀中25個(gè)骨骼點(diǎn)的三維坐標(biāo)值,計(jì)算出關(guān)節(jié)角度和向量模比值兩種特征量,通過(guò)優(yōu)化后的動(dòng)態(tài)時(shí)間規(guī)整(DTW)算法計(jì)算關(guān)鍵幀序列與模板庫(kù)中動(dòng)作模板的相似度,從而識(shí)別人體的實(shí)時(shí)動(dòng)作。通過(guò)對(duì)6種常見(jiàn)動(dòng)作的識(shí)別實(shí)驗(yàn)對(duì)比,結(jié)果表明:所提方法在識(shí)別速度和準(zhǔn)確率上較高,具有實(shí)際推廣性。
注:因版權(quán)方要求,不能公開(kāi)全文,如需全文,請(qǐng)咨詢雜志社