一種基于通用神經(jīng)網(wǎng)絡(luò)處理器并行加速ResNet的實(shí)現(xiàn)方法

基本信息

申請?zhí)?/td> CN202110780533.6 申請日 -
公開(公告)號 CN113657575A 公開(公告)日 2021-11-16
申請公布號 CN113657575A 申請公布日 2021-11-16
分類號 G06N3/04(2006.01)I;G06N3/063(2006.01)I;G06N3/08(2006.01)I;G06F9/38(2006.01)I 分類 計(jì)算;推算;計(jì)數(shù);
發(fā)明人 楊龔軼凡;闖小明;鄭瀚尋;王潤哲 申請(專利權(quán))人 蘇州仰思坪半導(dǎo)體有限公司
代理機(jī)構(gòu) 北京棘龍知識產(chǎn)權(quán)代理有限公司 代理人 張開
地址 215000江蘇省蘇州市高新區(qū)馬澗路2000號1幢11層1113-2室
法律狀態(tài) -

摘要

摘要 本發(fā)明公開了一種基于通用神經(jīng)網(wǎng)絡(luò)處理器并行加速ResNet的實(shí)現(xiàn)方法,包括以下步驟:將數(shù)據(jù)集和權(quán)重從中央緩存區(qū)載入寄存器,進(jìn)行卷積層的運(yùn)算,將權(quán)重矩陣從寄存器載入矩陣乘法單元;以流數(shù)據(jù)的方式將數(shù)據(jù)集矩陣送入矩陣乘法單元,并將運(yùn)算結(jié)果寫回寄存器,重復(fù)這一過程直到全部的數(shù)據(jù)處理完畢;用向量壓縮單元完成批標(biāo)準(zhǔn)化的運(yùn)算;用SIMD運(yùn)算單元完成線性整流的運(yùn)算;用SIMD運(yùn)算單元和向量壓縮單元完成池化層的運(yùn)算;用矩陣乘法單元完成全連接層的運(yùn)算,結(jié)果寫回到寄存器;將寄存器中的結(jié)果寫回中央緩存區(qū)。采用矩陣乘法單元完成卷積層和全連接層的運(yùn)算,具備最佳的性能和性能功耗比,實(shí)現(xiàn)更低的能源消耗,更短的模型收斂時(shí)間,更快的圖像識別速度。