一種基于通用神經網絡處理器并行加速ResNet的實現(xiàn)方法
基本信息
申請?zhí)?/td> | CN202110780533.6 | 申請日 | - |
公開(公告)號 | CN113657575A | 公開(公告)日 | 2021-11-16 |
申請公布號 | CN113657575A | 申請公布日 | 2021-11-16 |
分類號 | G06N3/04(2006.01)I;G06N3/063(2006.01)I;G06N3/08(2006.01)I;G06F9/38(2006.01)I | 分類 | 計算;推算;計數(shù); |
發(fā)明人 | 楊龔軼凡;闖小明;鄭瀚尋;王潤哲 | 申請(專利權)人 | 蘇州仰思坪半導體有限公司 |
代理機構 | 北京棘龍知識產權代理有限公司 | 代理人 | 張開 |
地址 | 215000江蘇省蘇州市高新區(qū)馬澗路2000號1幢11層1113-2室 | ||
法律狀態(tài) | - |
摘要
摘要 | 本發(fā)明公開了一種基于通用神經網絡處理器并行加速ResNet的實現(xiàn)方法,包括以下步驟:將數(shù)據(jù)集和權重從中央緩存區(qū)載入寄存器,進行卷積層的運算,將權重矩陣從寄存器載入矩陣乘法單元;以流數(shù)據(jù)的方式將數(shù)據(jù)集矩陣送入矩陣乘法單元,并將運算結果寫回寄存器,重復這一過程直到全部的數(shù)據(jù)處理完畢;用向量壓縮單元完成批標準化的運算;用SIMD運算單元完成線性整流的運算;用SIMD運算單元和向量壓縮單元完成池化層的運算;用矩陣乘法單元完成全連接層的運算,結果寫回到寄存器;將寄存器中的結果寫回中央緩存區(qū)。采用矩陣乘法單元完成卷積層和全連接層的運算,具備最佳的性能和性能功耗比,實現(xiàn)更低的能源消耗,更短的模型收斂時間,更快的圖像識別速度。 |
