一種基于語(yǔ)音的情緒識(shí)別方法
基本信息
申請(qǐng)?zhí)?/td> | CN201910478640.6 | 申請(qǐng)日 | - |
公開(kāi)(公告)號(hào) | CN110223714B | 公開(kāi)(公告)日 | 2021-08-03 |
申請(qǐng)公布號(hào) | CN110223714B | 申請(qǐng)公布日 | 2021-08-03 |
分類號(hào) | G10L25/63(2013.01)I;G10L25/30(2013.01)I;G10L25/03(2013.01)I | 分類 | 樂(lè)器;聲學(xué); |
發(fā)明人 | 伍林;尹朝陽(yáng) | 申請(qǐng)(專利權(quán))人 | 杭州哲信信息技術(shù)有限公司 |
代理機(jī)構(gòu) | 北京君泊知識(shí)產(chǎn)權(quán)代理有限公司 | 代理人 | 王程遠(yuǎn) |
地址 | 310020浙江省杭州市江干區(qū)新塘路58號(hào)廣新商務(wù)大廈626室 | ||
法律狀態(tài) | - |
摘要
摘要 | 本發(fā)明公開(kāi)了一種基于語(yǔ)音的情緒識(shí)別方法,包括對(duì)語(yǔ)音進(jìn)行分幀處理,提取每一幀的特征向量;將每一幀的特征向量輸入到深度學(xué)習(xí)時(shí)序模型中,輸出幀級(jí)特征;將幀級(jí)特征與深度學(xué)習(xí)時(shí)序模型的前一時(shí)刻的隱含狀態(tài)輸入到注意力模型,經(jīng)過(guò)學(xué)習(xí)輸出段級(jí)特征;將段級(jí)特征輸入到注意力模型形成最終發(fā)音級(jí)別的表征;最后輸入到softmax層,得到預(yù)測(cè)情緒的概率值,從而識(shí)別情緒。本發(fā)明的有益效果為:通過(guò)使用分層式深度學(xué)習(xí)時(shí)序模型結(jié)構(gòu)來(lái)提取語(yǔ)音中不同層次的特征,同時(shí)引入多個(gè)注意力機(jī)制來(lái)有效得選擇關(guān)鍵特征,更有利于情緒的識(shí)別,且使用該方法不僅能提取幀級(jí)語(yǔ)音特征,還能提取段級(jí)語(yǔ)音特征,從而可有效提高情緒識(shí)別的準(zhǔn)確性。 |
