摘要:針對(duì)傳統(tǒng)詞向量在自動(dòng)文本摘要過(guò)程中因無(wú)法對(duì)多義詞進(jìn)行有效表征而降低文本摘要準(zhǔn)確度和可讀性的問題,提出一種基于BERT(Bidirectional Encoder Representations from Transformers)的自動(dòng)文本摘要模型構(gòu)建方法。該方法引入BERT預(yù)訓(xùn)練語(yǔ)言模型用于增強(qiáng)詞向量的語(yǔ)義表示,將生成的詞向量輸入Seq2Seq模型中進(jìn)行訓(xùn)練并形成自動(dòng)文本摘要模型,實(shí)現(xiàn)對(duì)文本摘要的快速生成。實(shí)驗(yàn)結(jié)果表明,該模型在Gigaword數(shù)據(jù)集上能有效地提高生成摘要的準(zhǔn)確率和可讀性,可用于文本摘要自動(dòng)生成任務(wù)。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社