用于在人機(jī)對(duì)話中識(shí)別用戶情緒的方法及裝置

基本信息

申請(qǐng)?zhí)?/td> CN202210215326.0 申請(qǐng)日 -
公開(公告)號(hào) CN114582373A 公開(公告)日 2022-06-03
申請(qǐng)公布號(hào) CN114582373A 申請(qǐng)公布日 2022-06-03
分類號(hào) G10L25/63;G10L15/22;G10L15/26;G10L15/02;G06V40/16 分類 樂器;聲學(xué);
發(fā)明人 徐濤 申請(qǐng)(專利權(quán))人 浙江連信科技有限公司
代理機(jī)構(gòu) 北京慧加倫知識(shí)產(chǎn)權(quán)代理有限公司 代理人 李永敏
地址 310051 浙江省杭州市濱江區(qū)長(zhǎng)河街道越達(dá)巷79號(hào)1幢516室
法律狀態(tài) -

摘要

摘要 本公開的實(shí)施例提供一種用于在人機(jī)對(duì)話中識(shí)別用戶情緒的方法和裝置。該方法包括:獲取第一語音數(shù)據(jù),其中,第一語音數(shù)據(jù)為用戶在本輪的語音數(shù)據(jù);從第一語音數(shù)據(jù)中提取表征情緒的第一音頻特征和表征情緒的第一文本特征;獲取第二文本特征和第二音頻特征中的至少一個(gè),其中,第二文本特征為用戶在前N輪中的各輪中的文本特征的加權(quán)和,第二音頻特征為用戶在前N輪中的各輪中的音頻特征的加權(quán)和,其中,N為正整數(shù);將第一音頻特征、第一文本特征、以及第二文本特征和第二音頻特征中的至少一個(gè)拼接成拼接特征;以及通過經(jīng)訓(xùn)練的多模態(tài)模型基于拼接特征來識(shí)別用戶在本輪的第一情緒。