基于深度神經(jīng)網(wǎng)絡(luò)后驗概率算法的口語發(fā)音評測方法

基本信息

申請?zhí)?/td> CN201810179106.0 申請日 -
公開(公告)號 CN108364634A 公開(公告)日 2018-08-03
申請公布號 CN108364634A 申請公布日 2018-08-03
分類號 G10L15/00;G10L15/16;G10L15/06;G10L25/51 分類 樂器;聲學(xué);
發(fā)明人 徐祥榮 申請(專利權(quán))人 蘇州聲通信息科技有限公司
代理機構(gòu) 北京商專永信知識產(chǎn)權(quán)代理事務(wù)所(普通合伙) 代理人 蘇州聲通信息科技有限公司
地址 215000 江蘇省蘇州市工業(yè)園區(qū)新平街388號騰飛科技園21幢6層06室
法律狀態(tài) -

摘要

摘要 本發(fā)明公開了一種基于深度神經(jīng)網(wǎng)絡(luò)后驗概率算法的口語發(fā)音評測方法。該方法包括以下步驟:從語音中選取一定數(shù)量的音頻,其中每個音頻的單詞數(shù)量均在一定的范圍內(nèi),計算各音頻中的每個單詞的音素的平均似然度、音素的平均EGOP和音素的平均時長概率;并將其作為輸入項輸入到神經(jīng)網(wǎng)絡(luò),并輸出單詞的分數(shù)。本發(fā)明中的基于深度神經(jīng)網(wǎng)絡(luò)后驗概率算法的口語發(fā)音評測方法從聲學(xué)模型角度出發(fā),利用LSTM建模提升音素識別率,還將FA的似然度和所有相近的音素似然度作對比,將GOP方法擴展為EGOP方法,并采用人工神經(jīng)網(wǎng)絡(luò)打分模型進行打分,從而得到準(zhǔn)確的語音評測結(jié)果。