《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 設(shè)計(jì)應(yīng)用 > 基于K-Means算法的SSD-Mobilenet模型優(yōu)化研究
基于K-Means算法的SSD-Mobilenet模型優(yōu)化研究
信息技術(shù)與網(wǎng)絡(luò)安全
劉津龍,賈郭軍
(山西師范大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院, 山西 臨汾041000)
摘要: SSD-Mobilenet目標(biāo)檢測(cè)模型是將SSD和Mobilenet進(jìn)行結(jié)合衍生出的一種輕量化模型,同時(shí)具備了兩模型各自的優(yōu)勢(shì),即多尺度檢測(cè)和模型輕量化。在原模型中特征提取層使用了人為設(shè)置的先驗(yàn)框,這樣的設(shè)置存在一定的主觀性,并不適用于對(duì)特定場(chǎng)景下單一類(lèi)別目標(biāo)的識(shí)別與定位。為解決這一問(wèn)題,本文提出了使用K-Means算法對(duì)目標(biāo)真實(shí)框的寬高比進(jìn)行聚類(lèi)分析,提升模型在特定場(chǎng)景下對(duì)單一類(lèi)別目標(biāo)的檢測(cè)能力,規(guī)避了人為設(shè)置的主觀先驗(yàn)性。使用Pascal VOC 2007數(shù)據(jù)集對(duì)該模型進(jìn)行訓(xùn)練和評(píng)估,實(shí)驗(yàn)結(jié)果顯示,模型的mAP值比Fast RCNN提高了4.5%,比Faster RCNN提高了1.5%,比SSD-300提高了3.4%,比YOLOv2提高了2.4%。
中圖分類(lèi)號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2021.01.007
引用格式: 劉津龍,賈郭軍。 基于K-Means算法的SSD-Mobilenet模型優(yōu)化研究[J].信息技術(shù)與網(wǎng)絡(luò)安全,2021,40(1):37-44.
Research on SSD-Mobilenet model optimization based on K-Means algorithm
Liu Jinlong,Jia Guojun
(School of Mathematics and Computer Science,Shanxi Normal University,Linfen 041000,China)
Abstract: The SSD-Mobilenet target detection model is a lightweight model derived from the combination of SSD and Mobilenet. It also has the advantages of the two models, namely multi-scale detection and lightweight model. In the original model, the feature extraction layer uses artificially set a priori boxes. Such settings are subjective and unsuitable for the recognition and positioning of single-category targets in specific scenarios. In order to solve this problem, this paper proposes to use the K-Means algorithm to perform cluster analysis on the aspect ratio of the real frame of the target, which improves the model′s ability to detect a single category of targets in a specific scenario, and avoids the subjective apriority of artificial settings. This paper uses the Pascal VOC 2007 data set to train and evaluate the model. The experimental results show that the mAP value of the model is 4.5% higher than Fast-RCNN, 1.5% higher than Faster-RCNN, 3.4% higher than SSD-300, YOLOv2 increased by 2.4%.
Key words : object detection;K-Means;SSD-Mobilenet;anchor box;cluster

0    引言

  目標(biāo)檢測(cè)是將目標(biāo)從圖像中提取出來(lái)的計(jì)算機(jī)視覺(jué)技術(shù),是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要組成部分,是一切計(jì)算機(jī)視覺(jué)任務(wù)的基礎(chǔ),具有較高的研究?jī)r(jià)值。運(yùn)動(dòng)目標(biāo)檢測(cè)是從不斷變化的序列圖像中進(jìn)行目標(biāo)的識(shí)別和定位,分為靜態(tài)背景下的目標(biāo)檢測(cè)和動(dòng)態(tài)背景下的目標(biāo)檢測(cè)。目前,解決目標(biāo)檢測(cè)問(wèn)題的思路主要有如下兩種:一是依賴(lài)于目標(biāo)的先驗(yàn)知識(shí),提前為運(yùn)動(dòng)目標(biāo)建模,然后在圖像序列中實(shí)時(shí)找到匹配的目標(biāo);二是不依賴(lài)于先驗(yàn)知識(shí),直接從圖像序列中檢測(cè)到運(yùn)動(dòng)目標(biāo),并進(jìn)行類(lèi)別判定。

  傳統(tǒng)的目標(biāo)檢測(cè)一般使用滑動(dòng)窗口的檢測(cè)機(jī)制,主要包括以下三個(gè)步驟:第一步利用不同尺寸的滑動(dòng)窗口[1]在滑動(dòng)途中覆蓋的某一部分作為候選區(qū)域;第二步提取候選區(qū)域相關(guān)的視覺(jué)特征形成特征向量,例如人臉檢測(cè)常用的Harr特征[2],行人檢測(cè)和普通目標(biāo)檢測(cè)常用HOG特征[3];第三步利用提取到的特征對(duì)目標(biāo)進(jìn)行識(shí)別和定位。該類(lèi)目標(biāo)檢測(cè)算法的窗口區(qū)域選擇策略沒(méi)有針對(duì)性,時(shí)間復(fù)雜度高,窗口冗余相對(duì)較多。手工設(shè)計(jì)的特征對(duì)目標(biāo)可能出現(xiàn)的多樣性變化沒(méi)有較強(qiáng)的魯棒性,比如形態(tài)變化和光照影響等。

 



本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.rjjo.cn/resource/share/2000003315




作者信息:

劉津龍,賈郭軍

(山西師范大學(xué) 數(shù)學(xué)與計(jì)算機(jī)科學(xué)學(xué)院, 山西 臨汾041000)    


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 亚洲性综合 | 精品视频在线视频 | 香蕉久久夜色精品国产尤物 | 美美女高清毛片视频黄的一免费 | 午夜爽爽爽男女免费观看hd | 国产精品亚洲专区在线播放 | 我们2018在线完整免费观看 | 欧美精品在线视频观看 | 曰本一区 | 就草草在线观看视频 | 成年网站免费 | 久久国产亚洲欧美日韩精品 | 久久一本 | 精品国产v无码大片在线观看 | 亚洲成人国产精品 | 国产高清精品自在线看 | 欧美一级成人毛片影院 | 亚洲国产精品专区 | 亚洲综合在线观看视频 | 中文字幕一区二区视频 | 国产三级在线视频观看 | 怡红院视频在线 | 午夜欧美成人久久久久久 | 九九re6精品视频在线观看 | 亚洲免费播放 | 欧美日韩生活片 | 草草影院ccyy国产日本欧美 | 久久免费精品国产72精品剧情 | 久久免费观看视频 | 国产在线观a免费观看 | 久久久久久久久久综合情日本 | 日韩欧美在线视频一区二区 | 日韩亚洲欧美在线 | 91精品国产免费久久久久久青草 | 性夜影院爽黄a爽免费看网站 | 国产精品自在自线 | 久久久久久毛片免费观看 | 国产日韩欧美自拍 | 亚洲一级毛片免观看 | 欧美一区二区三区免费 | 小毛片在线观看 |