《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 設(shè)計應(yīng)用 > YOLOv3網(wǎng)絡(luò)在車標(biāo)檢測中的應(yīng)用
YOLOv3網(wǎng)絡(luò)在車標(biāo)檢測中的應(yīng)用
2020年電子技術(shù)應(yīng)用第9期
王 林,黃三麗
西安理工大學(xué) 自動化與信息工程學(xué)院,陜西 西安710048
摘要: 針對車標(biāo)檢測存在檢測時間長、檢測率低、可識別類型少的問題,提出一種采用You Only Look Once(YOLOv3)網(wǎng)絡(luò)的方法。為了使該網(wǎng)絡(luò)適用于小目標(biāo)的車標(biāo)檢測,將目標(biāo)特征提取結(jié)構(gòu)Darknet-53換成Darknet-19,并且將多尺度預(yù)測層數(shù)減少為兩層以減少網(wǎng)絡(luò)參數(shù)數(shù)量。同時,為了增大車標(biāo)在圖像中所占比例,讓卷積神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)更多的車標(biāo)特征,采用將車輛從圖像中裁剪后進(jìn)行人工標(biāo)注的方法,構(gòu)建了一個包含46類車標(biāo)的數(shù)據(jù)集(VLDS-46)。實驗結(jié)果表明,采用該模型進(jìn)行車標(biāo)檢測時能在實現(xiàn)高檢測率的同時達(dá)到實時性要求,檢測平均耗時為9 ms。
中圖分類號: TN98
文獻(xiàn)標(biāo)識碼: A
DOI:10.16157/j.issn.0258-7998.200067
中文引用格式: 王林,黃三麗. YOLOv3網(wǎng)絡(luò)在車標(biāo)檢測中的應(yīng)用[J].電子技術(shù)應(yīng)用,2020,46(9):34-37,42.
英文引用格式: Wang Lin,Huang Sanli. Application of YOLOv3 network in vehicle logo detection[J]. Application of Electronic Technique,2020,46(9):34-37,42.
Application of YOLOv3 network in vehicle logo detection
Wang Lin,Huang Sanli
School of Automation and Information Engineering,Xi′an University of Technology,Xi′an 710048,China
Abstract: Aiming at the problem that the vehicle logo detection has long detection time, low detection rate and few identifiable types, a method using You Only Look Once(YOLOv3) network is proposed. In order to make the network suitable for vehicle target detection of small targets, the target feature extraction structure Darknet-53 is replaced with Darknet-19 and the multi-scale prediction layer is reduced to two layers to reduce the number of network parameters. At the same time, in order to increase the proportion of the car logo in the image and let the convolutional neural network can learn more car logo features, this paper adopts a method of cutting the vehicle from the image and manually marking it, constructing a class of 46 vehicles Data set(VLDS-46). The experimental results show that when the model is used for vehicle logo detection, the real-time requirement can be achieved while achieving high detection rate, and the average detection time is 9 ms.
Key words : vehicle logo detection;convolutional neural network;data set;Darknet-19

0 引言

    近年來,隨著人工智能技術(shù)的不斷發(fā)展,其被廣泛用于公共安全、教育、人機(jī)交互等領(lǐng)域,例如:人臉檢測[1]、圖像分類[2]、圖像分割等。同樣的車標(biāo)檢測技術(shù)對于完善智能交通具有重要作用,能夠輔助實現(xiàn)車輛信息的確認(rèn)。21世紀(jì)以來,隨著國民經(jīng)濟(jì)快速發(fā)展,汽車數(shù)量在我國的增長速度越來越快。汽車數(shù)量過多帶來交通壓力的同時也會帶來其他問題:套牌車、假車牌事件頻頻發(fā)生。這些事件的發(fā)生意味著僅僅通過車牌來確認(rèn)車輛準(zhǔn)確信息將受到阻礙。同車牌一樣,車標(biāo)也是車輛的一個重要屬性,在結(jié)合車牌信息后,就能更準(zhǔn)確地確認(rèn)車輛信息。國內(nèi)外學(xué)者對車標(biāo)檢測采用了不同的方法進(jìn)行研究。一般而言,分為傳統(tǒng)機(jī)器學(xué)習(xí)方法和卷積神經(jīng)網(wǎng)絡(luò)方法。

    采用傳統(tǒng)機(jī)器學(xué)習(xí)方法在進(jìn)行車標(biāo)檢測時繁瑣,需要分為兩個獨(dú)立的步驟:首先進(jìn)行車標(biāo)定位,然后進(jìn)行車標(biāo)識別。文獻(xiàn)[3]-[4]采用傳統(tǒng)機(jī)器學(xué)習(xí)方法在進(jìn)行車標(biāo)定位和識別過程中都需要由專業(yè)人員人工設(shè)計特定特征,但是這些特征對于光照、陰影、車身傾斜等的變化所表現(xiàn)出來的魯棒性不強(qiáng),在應(yīng)用于實際場景下會出現(xiàn)低檢測率和識別率問題。針對傳統(tǒng)機(jī)器學(xué)習(xí)方法的不足,卷積神經(jīng)網(wǎng)絡(luò)方法應(yīng)運(yùn)而生。

    早在20世紀(jì)80年代末期,卷積神經(jīng)網(wǎng)絡(luò)[5]技術(shù)就已經(jīng)應(yīng)用于視覺任務(wù)中,但由于當(dāng)時設(shè)備的運(yùn)算能力不強(qiáng)和數(shù)據(jù)資源的不足,這一技術(shù)并沒有得到研究人員的廣泛研究和長足的發(fā)展。后來得益于GPU(Graphics Processing Unit)強(qiáng)大的計算能力和互聯(lián)網(wǎng)上豐富的數(shù)據(jù)資源,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)得到了進(jìn)一步的發(fā)展,而且也取得了突破性的進(jìn)展。卷積神經(jīng)網(wǎng)絡(luò)一般包含卷積層、池化層、全連接層等。借助于卷積神經(jīng)網(wǎng)絡(luò)的強(qiáng)表達(dá)能力,不需要人工設(shè)計特征,在網(wǎng)絡(luò)學(xué)習(xí)車標(biāo)特征后就能自動進(jìn)行車標(biāo)的定位以及分類。2014年,GIRSHICK R等[6]人第一次將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于目標(biāo)檢測上并且獲得了比只使用方向梯度直方圖[7](Histogram of Oriented Gradient,HOG)特征更高的準(zhǔn)確率,該網(wǎng)絡(luò)稱為區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region Convlutional Network,R-CNN)。但該網(wǎng)絡(luò)存在耗時久的弊端,伴隨著對該網(wǎng)絡(luò)框架的不斷改進(jìn),其目標(biāo)檢測的精度不斷提高,運(yùn)行時間也不斷減少。2015年,HE K[8]等人通過改進(jìn)R-CNN網(wǎng)絡(luò)縮短其檢測時間,但其最大幀率也只能達(dá)到5FPS。這對于幀率最小為25FPS的監(jiān)控視頻來說是遠(yuǎn)遠(yuǎn)不夠的。為了在準(zhǔn)確率和時間上得到均衡,YOLO網(wǎng)絡(luò)[9]得到了應(yīng)用,它將物體檢測作為回歸問題來求解,在輸入圖像后經(jīng)過一次前饋就能得到圖像中所有待檢測物體的位置和其所屬的類別以及相應(yīng)的置信度,進(jìn)行目標(biāo)檢測時耗時少。

    目前采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行車標(biāo)檢測時遇到兩個問題:(1)公開的車標(biāo)數(shù)據(jù)集少且包含的車標(biāo)種類少[10];(2)采用卷積神經(jīng)網(wǎng)絡(luò)方法時參數(shù)多,運(yùn)行耗時。因此,本文提出的采用改進(jìn)的YOLOv3[11]網(wǎng)絡(luò)進(jìn)行車標(biāo)檢測主要有以下兩個貢獻(xiàn):(1)替換YOLOv3中的Darknet-53為層數(shù)少的Darknet-19[12]結(jié)構(gòu),減少運(yùn)算量進(jìn)而減少車標(biāo)檢測時間;(2)構(gòu)建了一個包含46類車標(biāo)的數(shù)據(jù)集。




本文詳細(xì)內(nèi)容請下載:http://www.rjjo.cn/resource/share/2000002976




作者信息:

王  林,黃三麗

(西安理工大學(xué) 自動化與信息工程學(xué)院,陜西 西安710048)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 黄色美女视频 | 欧美全免费aaaaaa特黄在线 | 欧美.亚洲.日本一区二区三区 | 久久黄网 | 日本一本久 | 在线观看一级片 | 久久亚洲国产成人影院 | 91精品欧美一区二区综合在线 | 国产一区二区三区在线观看影院 | 欧美一级欧美一级毛片 | 黄色美女视频免费 | 亚洲日产2021三区 | 日韩亚洲欧美一区噜噜噜 | 久草在线资源视频 | 一区一精品 | 日韩精品福利视频一区二区三区 | 成人国产在线观看 | 午夜天堂视频 | 国产精品美女一区二区 | 国产一级特黄aaa大片 | 国产在线精品一区二区三区 | 国产精品日韩欧美一区二区 | 久久精品国产欧美日韩99热 | 精品国产午夜久久久久九九 | 99久久精品国产一区二区 | 美女张开腿让男人桶下面 | 韩国免费网站成人 | 99精品这里只有精品高清视频 | 欧美亚洲综合另类在线观看 | 国产成人亚洲综合 | 亚洲国产成人久久一区久久 | 国内高清自拍 | 亚洲欧美小视频 | 国产孕妇孕交大片孕 | 久久亚洲精品视频 | 91青草久久久久久清纯 | 亚欧成人毛片一区二区三区四区 | 亚洲日韩精品欧美一区二区 | 国产精品欧美日韩 | 亚洲mm8成为人影院 亚洲m男在线中文字幕 | 有码一区|