一種面向非接觸式人體參數(shù)測(cè)量的特征點(diǎn)定位方法
基本信息
申請(qǐng)?zhí)?/td> | CN201911080674.6 | 申請(qǐng)日 | - |
公開(kāi)(公告)號(hào) | CN111047553A | 公開(kāi)(公告)日 | 2020-04-21 |
申請(qǐng)公布號(hào) | CN111047553A | 申請(qǐng)公布日 | 2020-04-21 |
分類(lèi)號(hào) | G06T7/00;G06T7/73;G06T7/12;G06T17/20;G06K9/46 | 分類(lèi) | 計(jì)算;推算;計(jì)數(shù); |
發(fā)明人 | 連春華;羅光春;林隆永;盧國(guó)明;朱大勇;王偉燦;董代宇 | 申請(qǐng)(專(zhuān)利權(quán))人 | 四川久遠(yuǎn)銀海軟件股份有限公司 |
代理機(jī)構(gòu) | 電子科技大學(xué)專(zhuān)利中心 | 代理人 | 四川久遠(yuǎn)銀海軟件股份有限公司;電子科技大學(xué) |
地址 | 611731 四川省成都市高新區(qū)(西區(qū))西源大道2006號(hào) | ||
法律狀態(tài) | - |
摘要
摘要 | 本發(fā)明屬于人體參數(shù)測(cè)量技術(shù)領(lǐng)域,具體為一種面向非接觸式人體參數(shù)測(cè)量的特征點(diǎn)定位方法,用以解決現(xiàn)有技術(shù)在現(xiàn)實(shí)環(huán)境下定位準(zhǔn)確率較低的問(wèn)題。本發(fā)明利用深度學(xué)習(xí)網(wǎng)絡(luò)模型代替?zhèn)鹘y(tǒng)的圖像分割算法來(lái)提取人體的輪廓信息,使得提取的輪廓信息更加精確,并克服了傳統(tǒng)算法在復(fù)雜背景下難以提取人體輪廓的弊端;同時(shí),將強(qiáng)依賴的輪廓提取與特征點(diǎn)提取兩個(gè)步驟進(jìn)行了分離,減少了特征點(diǎn)提取對(duì)輪廓提取結(jié)果的依賴,而且利用深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征點(diǎn)提取對(duì)人體形態(tài)沒(méi)有要求,克服了傳統(tǒng)算法設(shè)計(jì)時(shí)只適應(yīng)了標(biāo)準(zhǔn)的人體形態(tài)使得現(xiàn)實(shí)環(huán)境下特征點(diǎn)提取不準(zhǔn)確的問(wèn)題。 |
