一種基于三維深度視覺(jué)的致險(xiǎn)行為時(shí)空特征獲取與識(shí)別方法

基本信息

申請(qǐng)?zhí)?/td> CN202011467738.0 申請(qǐng)日 -
公開(kāi)(公告)號(hào) CN114694240A 公開(kāi)(公告)日 2022-07-01
申請(qǐng)公布號(hào) CN114694240A 申請(qǐng)公布日 2022-07-01
分類(lèi)號(hào) G06V40/20(2022.01)I;G06V20/40(2022.01)I;G06V10/774(2022.01)I;G06V10/82(2022.01)I;G06K9/62(2022.01)I;G06N3/04(2006.01)I 分類(lèi) 計(jì)算;推算;計(jì)數(shù);
發(fā)明人 孫毅鋒;劉庭煜 申請(qǐng)(專(zhuān)利權(quán))人 南京理工大學(xué)
代理機(jī)構(gòu) 南京理工大學(xué)專(zhuān)利中心 代理人 -
地址 210094江蘇省南京市孝陵衛(wèi)200號(hào)
法律狀態(tài) -

摘要

摘要 本發(fā)明涉及一種基于三維深度視覺(jué)的致險(xiǎn)行為時(shí)空特征獲取與識(shí)別方法,所述方法包括以下步驟:步驟1:針對(duì)需對(duì)致險(xiǎn)行為進(jìn)行監(jiān)控的區(qū)域,構(gòu)建視覺(jué)傳感網(wǎng)絡(luò),經(jīng)過(guò)信息采集通過(guò)人體姿態(tài)估計(jì)算法獲得行為人各行為的骨架關(guān)節(jié)點(diǎn)坐標(biāo)信息;步驟2:對(duì)骨架關(guān)節(jié)點(diǎn)坐標(biāo)信息進(jìn)行預(yù)處理;步驟3:基于深度學(xué)習(xí)設(shè)計(jì)致險(xiǎn)行為在線時(shí)空特征獲取與識(shí)別模型;步驟4:構(gòu)建深度學(xué)習(xí)模型,聯(lián)合分類(lèi)回歸模塊損失函數(shù)對(duì)模型進(jìn)行訓(xùn)練;步驟5:使用深度傳感器實(shí)時(shí)采集行為人骨架數(shù)據(jù),并將數(shù)據(jù)流輸出至深度學(xué)習(xí)模型中進(jìn)行識(shí)別,并將識(shí)別結(jié)果存儲(chǔ)至數(shù)據(jù)庫(kù)中。本發(fā)明能夠?qū)崿F(xiàn)無(wú)需安全管理行為人的參與,即可識(shí)別預(yù)定義的行為類(lèi)別,以實(shí)現(xiàn)實(shí)時(shí)智能監(jiān)控。