一種基于BERT和BiGRU融合注意力機(jī)制的實(shí)體關(guān)系抽取方法

基本信息

申請(qǐng)?zhí)?/td> CN202111551310.9 申請(qǐng)日 -
公開(公告)號(hào) CN114510576A 公開(公告)日 2022-05-17
申請(qǐng)公布號(hào) CN114510576A 申請(qǐng)公布日 2022-05-17
分類號(hào) G06F16/36(2019.01)I;G06F16/35(2019.01)I;G06N3/04(2006.01)I;G06N3/08(2006.01)I;G06K9/62(2022.01)I;G06F40/284(2020.01)I;G06F40/216(2020.01)I 分類 計(jì)算;推算;計(jì)數(shù);
發(fā)明人 周煥來(lái);李嘉豪;喬磊崖;曾靚;李金潤(rùn);劉桐;賈海濤;王俊 申請(qǐng)(專利權(quán))人 一拓通信集團(tuán)股份有限公司
代理機(jī)構(gòu) - 代理人 -
地址 210000江蘇省南京市江蘇自貿(mào)區(qū)南京片區(qū)浦濱路320號(hào)科創(chuàng)一號(hào)大廈B座701室
法律狀態(tài) -

摘要

摘要 本發(fā)明提出采用BERT模型和BiGRU網(wǎng)絡(luò)并融入注意力機(jī)制的實(shí)體關(guān)系抽取方法。該方法使用BERT作為神經(jīng)網(wǎng)絡(luò)模型嵌入層,使用動(dòng)態(tài)詞向量對(duì)中文進(jìn)行編碼,彌補(bǔ)了word2vec在解決多義詞問題上的不足;基于GRU更好地處理序列化任務(wù)的能力和CNN提取局部特征的突出性能,改善了單個(gè)神經(jīng)網(wǎng)絡(luò)模型特征提取不足的問題;結(jié)合了注意力機(jī)制,輸出特征通過(guò)注意力機(jī)制加權(quán),使得對(duì)關(guān)系分類影響較大的詞通過(guò)注意力機(jī)制加權(quán),從而提高分類精度。