模型訓練方法、處理芯片以及邊緣終端

基本信息

申請?zhí)?/td> CN202210073120.9 申請日 -
公開(公告)號 CN114595814A 公開(公告)日 2022-06-07
申請公布號 CN114595814A 申請公布日 2022-06-07
分類號 G06N3/08;G06N3/04;G06N3/063 分類 計算;推算;計數(shù);
發(fā)明人 陳旭;陳克林;江偉杰;呂正祥;楊軍民;袁抗;梁龍飛 申請(專利權)人 上海新氦類腦智能科技有限公司
代理機構 上海上谷知識產(chǎn)權代理有限公司 代理人 蔡繼清
地址 200090 上海市楊浦區(qū)長陽路1687號A座2樓
法律狀態(tài) -

摘要

摘要 本發(fā)明實施例提供了一種模型訓練方法、處理芯片以及邊緣終端,涉及計算機技術領域。模型訓練方法包括:利用訓練數(shù)據(jù)對深度神經(jīng)網(wǎng)絡模型的主路進行訓練,得到深度神經(jīng)網(wǎng)絡模型主路的各層的網(wǎng)絡參數(shù),網(wǎng)絡參數(shù)包括權重;對深度神經(jīng)網(wǎng)絡模型的主路進行壓縮,并保存壓縮后的深度神經(jīng)網(wǎng)絡模型主路的各層的權重利用采集的樣本數(shù)據(jù)對當前的深度神經(jīng)網(wǎng)絡模型繼續(xù)訓練,更新各邊路模塊的各層的網(wǎng)絡參數(shù)并保存;其中,所述主路的各層的權重保持不變。本發(fā)明中,大大減少了存儲深度神經(jīng)網(wǎng)絡模型的各層的權重所需的存儲空間,也減少了深度神經(jīng)網(wǎng)絡模型繼續(xù)訓練過程中的的內(nèi)存消耗,從而能夠適用于內(nèi)存較小的邊緣終端。