摘要:近年來深度學(xué)習(xí)尤其是神經(jīng)網(wǎng)絡(luò)的發(fā)展,對(duì)語音識(shí)別這類復(fù)雜的模式分類問題提供了新的解決思路.為加強(qiáng)對(duì)我國(guó)方言語種的保護(hù)工作、提高方言語種識(shí)別的準(zhǔn)確率以及豐富語音識(shí)別的前處理模塊,首先采用目前語音識(shí)別領(lǐng)域應(yīng)用最廣泛的LSTM模型搭建單任務(wù)方言語種識(shí)別模型SLNet作為基線系統(tǒng).其次,針對(duì)中國(guó)方言的多樣性、復(fù)雜性特點(diǎn),基于多任務(wù)學(xué)習(xí)的參數(shù)共享機(jī)制,通過多任務(wù)神經(jīng)網(wǎng)絡(luò)模型發(fā)現(xiàn)不同語種間的隱含相關(guān)特性,提出基于多語種任務(wù)的方言語種識(shí)別模型MTLNet.進(jìn)一步根據(jù)中國(guó)方言的區(qū)域特點(diǎn),采用基于參數(shù)硬共享的多任務(wù)學(xué)習(xí)模式,構(gòu)建基于輔助任務(wù)的多任務(wù)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)ATLNet.經(jīng)實(shí)驗(yàn)驗(yàn)證表明:相比于單任務(wù)神經(jīng)網(wǎng)絡(luò)方言語種識(shí)別,MTLNet和ATLNet將識(shí)別準(zhǔn)確率可提升至80.2%,彌補(bǔ)了單任務(wù)模型的單一性和弱泛化性.
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社