一種面向卷積神經(jīng)網(wǎng)絡(luò)的多機(jī)多卡混合并行異步訓(xùn)練方法

基本信息

申請(qǐng)?zhí)?/td> CN201810295401.2 申請(qǐng)日 -
公開(kāi)(公告)號(hào) CN108460457A 公開(kāi)(公告)日 2018-08-28
申請(qǐng)公布號(hào) CN108460457A 申請(qǐng)公布日 2018-08-28
分類號(hào) G06N3/04;G06N3/08 分類 計(jì)算;推算;計(jì)數(shù);
發(fā)明人 汪浩源;程誠(chéng);王旭光 申請(qǐng)(專利權(quán))人 蘇州納智天地智能科技有限公司
代理機(jī)構(gòu) 蘇州凱謙巨邦專利代理事務(wù)所(普通合伙) 代理人 蘇州納智天地智能科技有限公司
地址 215000 江蘇省蘇州市工業(yè)園區(qū)若水路398號(hào)中科院納米所A432室
法律狀態(tài) -

摘要

摘要 本發(fā)明提出了一種面向卷積神經(jīng)網(wǎng)絡(luò)的多機(jī)多卡混合并行異步訓(xùn)練方法,包括如下步驟:構(gòu)建CNN模型,并設(shè)置訓(xùn)練參數(shù);將Softmax層的數(shù)據(jù)并行改為模型并行,將完整模型劃分為若干分片,分別對(duì)應(yīng)若干個(gè)GPU進(jìn)行計(jì)算;改寫(xiě)Softmax層的源代碼,不在計(jì)算結(jié)果之前交換參數(shù)數(shù)據(jù),而是將計(jì)算結(jié)果執(zhí)行Ring All?reduce通信算法操作;多機(jī)多卡之間選出一塊GPU作為參數(shù)服務(wù)器,其余所有的GPU都作為訓(xùn)練用;在Parameter Server模型中,各Server只負(fù)責(zé)分到的部分參數(shù)和處理任務(wù);各子節(jié)點(diǎn)維護(hù)自己的參數(shù),更新后,將結(jié)果傳回主節(jié)點(diǎn)進(jìn)行全局更新,主節(jié)點(diǎn)再向子節(jié)點(diǎn)傳送新參數(shù),依此完成訓(xùn)練。