注冊(cè)帳號(hào)丨忘記密碼?
1.點(diǎn)擊網(wǎng)站首頁(yè)右上角的“充值”按鈕可以為您的帳號(hào)充值
2.可選擇不同檔位的充值金額,充值后按篇按本計(jì)費(fèi)
3.充值成功后即可購(gòu)買網(wǎng)站上的任意文章或雜志的電子版
4.購(gòu)買后文章、雜志可在個(gè)人中心的訂閱/零買找到
5.登陸后可閱讀免費(fèi)專區(qū)的精彩內(nèi)容
摘 要:針對(duì)現(xiàn)有2D多人人體姿態(tài)識(shí)別方法存在的耗時(shí)長(zhǎng)、準(zhǔn)確率低等問(wèn)題,在對(duì)人體姿態(tài)識(shí)別方法進(jìn)行分析的基礎(chǔ)上,提出了一種用于2D多人人體姿態(tài)識(shí)別的改進(jìn)復(fù)合場(chǎng)。引入空洞卷積模塊降低參數(shù)量的同時(shí)提高模型準(zhǔn)確性,引入shuffleNet V2網(wǎng)絡(luò)替換主干網(wǎng)ResNet提高模型識(shí)別速度。通過(guò)實(shí)驗(yàn)對(duì)所提方法的平均精確度、平均召回率和運(yùn)行時(shí)間等進(jìn)行分析。(剩余7791字)
登錄龍?jiān)雌诳W(wǎng)
購(gòu)買文章
基于改進(jìn)深度學(xué)習(xí)的人體姿態(tài)識(shí)別方法研究
文章價(jià)格:5.00元
當(dāng)前余額:100.00
閱讀
您目前是文章會(huì)員,閱讀數(shù)共:0篇
剩余閱讀數(shù):0篇
閱讀有效期:0001-1-1 0:00:00
違法和不良信息舉報(bào)電話:400-106-1235
舉報(bào)郵箱:[email protected]