《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 設(shè)計應(yīng)用 > 基于Anchor-free架構(gòu)的行人檢測方法
基于Anchor-free架構(gòu)的行人檢測方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第4期
張慶伍,關(guān)勝曉
(中國科學技術(shù)大學 微電子學院,安徽 合肥 230026)
摘要: 使用無預(yù)選框(Anchor-free)的檢測框架,設(shè)計了一種行人檢測算法。將深度殘差網(wǎng)絡(luò)(ResNet)作為特征提取網(wǎng)絡(luò),與特征金字塔網(wǎng)絡(luò)(FPN)結(jié)構(gòu)相結(jié)合,使用了多尺度預(yù)測的方式進行預(yù)測。把目標中心點和尺寸作為一種高級的語義特征,將含有更多細節(jié)信息的淺層特征圖和含有更多語義信息的深層特征圖進行融合。在Citypersons數(shù)據(jù)集上進行了實驗驗證,相較現(xiàn)有行人檢測算法,提出的算法在輕微遮擋、一般遮擋和嚴重遮擋情況下漏檢率分別提升了1.11%~3.01%,0.15%~6.55%和0.59%~6.39%,檢測效果更好。
中圖分類號:TP183
文獻標識碼:A
DOI: 10.19358/j.issn.2096-5133.2020.04.008
引用格式:張慶伍,關(guān)勝曉.基于Anchor-free架構(gòu)的行人檢測方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(4):43-47,52.
Pedestrian detection algorithms based on Anchor-free architecture
Zhang Qingwu,Guan Shengxiao
(School of Microelectronics,University of Science and Technology of China,Hefei 230026,China)
Abstract: This paper designed a pedestrian detection algorithm based on the Anchor-free detection framework.The deep residual network (ResNet) was used as a feature extraction network,combined with the feature pyramid structure (FPN),and finally multiscale prediction was used for prediction.This paper also regarded the target center point and size as an advanced semantic feature,and combined the shallow feature map with more detailed information and the deep feature map with more semantic information.The experiments were verified on the Citypersons dataset.Compared with the existing pedestrian detection algorithms, the detection results were respectively improved by 1.11%~3.01%, 0.15%~6.55% and 0.59%~6.39% in the case of slight occlusion, general occlusion and severe occlusion, and the detection effect is better.
Key words : Anchor-free;pedestrian detection;feature fusion;multi-scale detection

0    引言

行人檢測是智能安防和車輛輔助駕駛等實際應(yīng)用的關(guān)鍵技術(shù)。隨著計算機視覺技術(shù)的快速發(fā)展,目標檢測算法的性能也不斷提升。目前基于深度學習的目標檢測方法按照是否提出預(yù)選框可以分為兩大類:一類是基于預(yù)選框的檢測算法,該類算法首先預(yù)先設(shè)置預(yù)選框,然后通過預(yù)選框和真實目標進行匹配,最終選出合適的預(yù)選框進行訓練,這類算法以FasterRCNN和SSD為代表;另一類是不使用預(yù)選框的檢測算法,該類算法首先對預(yù)測目標的關(guān)鍵點進行標注,然后將深度神經(jīng)網(wǎng)絡(luò)的輸出設(shè)置成相同的格式,直接進行訓練,這類算法以YOLO和DenseBox為代表。其中,Anchorfree的算法框架結(jié)構(gòu)簡潔,更加適用于計算資源較少的實際應(yīng)用場景。本文在Anchor-free算法的基礎(chǔ)上,首先使用不同的基礎(chǔ)網(wǎng)絡(luò)構(gòu)建檢測算法,然后選出性能穩(wěn)定的基礎(chǔ)網(wǎng)絡(luò),利用特征金字塔結(jié)構(gòu)對不同卷積層上的特征圖進行融合,提升檢測效果,最后使用多尺度預(yù)測的方法,通過不同尺度的預(yù)測圖生成了更多的檢測結(jié)果,再次提升了檢測效果。本文算法在Citypersons數(shù)據(jù)集上進行了驗證,其檢測精度相較其他行人檢測算法有一定提升。






本文詳細內(nèi)容請下載:http://www.rjjo.cn/resource/share/2000003204





作者信息:

張慶伍,關(guān)勝曉

(中國科學技術(shù)大學 微電子學院,安徽 合肥 230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 久久欧美| 精品久久久中文字幕二区 | 99精品网站 | 日本高清精品 | 欧美不卡视频在线观看 | 在线观看毛片网站 | 国产精品18久久久久久久久久 | 国产免费一级精品视频 | 久久青草热| 国产极品喷水视频jk制服 | 欧美成人激情在线 | 成年免费大片黄在线观看一 | 窝窝午夜看片七次郎青草视频 | 日本视频在线观看不卡高清免费 | 国产深夜福利视频在线播放 | 黄网站色视频免费观看w | 国产伦精品一区三区视频 | 手机在线播放av | 91老色批网站免费看 | 亚洲操图 | 午夜视频一区二区三区 | 国产精品久久久久久久久免费观看 | 天堂8资源8在线 | 99久久国产免费中文无字幕 | 三级黄色网址 | 99久久国产综合精品2020 | 亚洲乱码一二三四五六区 | 久久久久久九九 | 日本毛片免费看 | 国产成人91高清精品免费 | 性欧美在线 | 天海翼精品久久中文字幕 | 国产精品一区二区免费 | 日本女人在线观看 | 成人精品在线观看 | 日韩三级视频 | 国产人成精品 | 亚洲国产精品日韩高清秒播 | 日本道综合一本久久久88 | se94se欧美 | 一区二区在线免费视频 |