模型訓練方法、處理芯片以及邊緣終端
基本信息
申請?zhí)?/td> | CN202210073120.9 | 申請日 | - |
公開(公告)號 | CN114595814A | 公開(公告)日 | 2022-06-07 |
申請公布號 | CN114595814A | 申請公布日 | 2022-06-07 |
分類號 | G06N3/08;G06N3/04;G06N3/063 | 分類 | 計算;推算;計數(shù); |
發(fā)明人 | 陳旭;陳克林;江偉杰;呂正祥;楊軍民;袁抗;梁龍飛 | 申請(專利權)人 | 上海新氦類腦智能科技有限公司 |
代理機構 | 上海上谷知識產(chǎn)權代理有限公司 | 代理人 | 蔡繼清 |
地址 | 200090 上海市楊浦區(qū)長陽路1687號A座2樓 | ||
法律狀態(tài) | - |
摘要
摘要 | 本發(fā)明實施例提供了一種模型訓練方法、處理芯片以及邊緣終端,涉及計算機技術領域。模型訓練方法包括:利用訓練數(shù)據(jù)對深度神經(jīng)網(wǎng)絡模型的主路進行訓練,得到深度神經(jīng)網(wǎng)絡模型主路的各層的網(wǎng)絡參數(shù),網(wǎng)絡參數(shù)包括權重;對深度神經(jīng)網(wǎng)絡模型的主路進行壓縮,并保存壓縮后的深度神經(jīng)網(wǎng)絡模型主路的各層的權重利用采集的樣本數(shù)據(jù)對當前的深度神經(jīng)網(wǎng)絡模型繼續(xù)訓練,更新各邊路模塊的各層的網(wǎng)絡參數(shù)并保存;其中,所述主路的各層的權重保持不變。本發(fā)明中,大大減少了存儲深度神經(jīng)網(wǎng)絡模型的各層的權重所需的存儲空間,也減少了深度神經(jīng)網(wǎng)絡模型繼續(xù)訓練過程中的的內(nèi)存消耗,從而能夠適用于內(nèi)存較小的邊緣終端。 |
