一種基于BERT模型的中文三元組抽取方法
基本信息
申請?zhí)?/td> | CN202111182173.6 | 申請日 | - |
公開(公告)號 | CN113901820A | 公開(公告)日 | 2022-01-07 |
申請公布號 | CN113901820A | 申請公布日 | 2022-01-07 |
分類號 | G06F40/295(2020.01)I;G06F16/35(2019.01)I;G06K9/62(2022.01)I;G06N3/04(2006.01)I;G06V30/19(2022.01)I | 分類 | 計算;推算;計數(shù); |
發(fā)明人 | 吳巧玲;王澤儒;許丹海;金少軍;崔銀江;蔡耀中;柳先輝;儲曉露;林志堅;呂國昌 | 申請(專利權(quán))人 | 浙江省科技信息研究院 |
代理機構(gòu) | 浙江杭州金通專利事務(wù)所有限公司 | 代理人 | 劉曉春 |
地址 | 310006浙江省杭州市濱江區(qū)信誠路572號浙江科技大市場A419 | ||
法律狀態(tài) | - |
摘要
摘要 | 本發(fā)明涉及一種基于BERT的中文三元組抽取方法,本發(fā)明以BERT中文預(yù)訓(xùn)練模型代替現(xiàn)行的word2vec詞向量生成模型,從而克服傳統(tǒng)中文三元組抽取方法缺陷,并通過BERT模型獲取的字向量具有更強的泛化能力,能夠充分描述字符級,詞級,句子級間的特征關(guān)系,以Bi?LSTM為網(wǎng)絡(luò)結(jié)構(gòu),結(jié)合注意力機制進行關(guān)系抽取,不僅能夠使關(guān)系抽取的準確率得到提升,還使BERT預(yù)訓(xùn)練模型的應(yīng)用范圍得到擴展。 |
