亚洲成色777777女色窝,777亚洲妇女,色吧亚洲日本,亚洲少妇视频

基于混合注意力機(jī)制的表情識(shí)別研究

摘要:針對(duì)目前傳統(tǒng)人臉表情識(shí)別算法存在特征提取復(fù)雜、表情識(shí)別率低等問(wèn)題,提出一種基于混合注意力機(jī)制的ResNet人臉表情識(shí)別方法。該方法把通道注意力模塊和空間注意力模塊組成混合注意力模塊,將混合注意力模塊嵌入ResNet殘差學(xué)習(xí)分支中。針對(duì)CK+人臉表情數(shù)據(jù)集過(guò)小問(wèn)題,采用數(shù)據(jù)增強(qiáng)策略擴(kuò)充數(shù)據(jù)集。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的ResNet在CK+數(shù)據(jù)集上表情識(shí)別準(zhǔn)確率為97.04%,有效提高了表情識(shí)別準(zhǔn)確率。

關(guān)鍵詞:
  • 表情識(shí)別  
  • resnet  
  • 混合注意力  
  • 數(shù)據(jù)增強(qiáng)  
作者:
高健; 林志賢; 郭太良
單位:
福州大學(xué)物理與信息工程學(xué)院; 福建福州350116
刊名:
信息技術(shù)與網(wǎng)絡(luò)安全

注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社

本站主要從事期刊訂閱及增值電信業(yè)務(wù)中的信息服務(wù)業(yè)務(wù)(互聯(lián)網(wǎng)信息服務(wù)),并非《信息技術(shù)與網(wǎng)絡(luò)安全》雜志官方網(wǎng)站。辦理其他業(yè)務(wù)請(qǐng)直接聯(lián)系雜志社。