《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 人工智能 > 設(shè)計(jì)應(yīng)用 > 基于深度回歸的指針儀表讀數(shù)識(shí)別方法
基于深度回歸的指針儀表讀數(shù)識(shí)別方法
2020年信息技術(shù)與網(wǎng)絡(luò)安全第12期
彭昆福1,王子磊1,王 磊2,顧 楊2
1中國(guó)科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥230027; 2.國(guó)網(wǎng)安徽省電力有限公司檢修分公司,安徽 合肥231131
摘要: 現(xiàn)有儀表讀數(shù)識(shí)別方法通過(guò)檢測(cè)指針和刻度獲取讀數(shù),對(duì)輸入的儀表圖像質(zhì)量要求較高,為此提出一種新的基于深度回歸的指針儀表讀數(shù)識(shí)別方法。該方法首先由儀表圖像獲取圖像特征,然后通過(guò)方向回歸模塊預(yù)測(cè)指針?lè)较颍詈蟾鶕?jù)指針角度計(jì)算儀表讀數(shù)。相比于其他方法,該方法采用端到端的回歸方式進(jìn)行直接學(xué)習(xí),具有更強(qiáng)的識(shí)別能力。在較大規(guī)模變電站儀表圖像數(shù)據(jù)集上,該方法取得了97.2%的讀數(shù)精度,相比于基于Mask R-CNN的儀表讀數(shù)識(shí)別方法提高了7.4%。定性分析和定量分析結(jié)果表明,相比于現(xiàn)有的儀表讀數(shù)識(shí)別方法,該方法對(duì)表盤(pán)圖像干擾具有更強(qiáng)的魯棒性。
中圖分類號(hào): TP319.4
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2020.12.007
引用格式: 彭昆福,王子磊,王磊,等. 基于深度回歸的指針儀表讀數(shù)識(shí)別方法[J].信息技術(shù)與網(wǎng)絡(luò)安全,2020,39(12):37-43.
Pointer meter reading recognition by deep regression
Peng Kunfu1,Wang Zilei1,Wang Lei2,Gu Yang2
1.School of Information Science and Technology,University of Science and Technology of China,Hefei 230027,China; 2.State Grid Anhui Maintenance Company,Hefei 231131,China
Abstract: Existing pointer meter recognition methods usually predict the results by detecting pointer and scale marks, thus require high-quality meter images, which have weak robustness to interferences such as dial blurring, glistening, stains, and yellowing. To address this issue, we propose an end-to-end pointer meter reading recognition method by deep regression, which firstly extracts rich features from the meter image, then regresses the orientation of the pointer using an orientation regression module, and finally calculates the value of the meter reading from the pointer angle. Benefitted from the end-to-end training and novel regression way, our proposed method can achieve better recognition performance. We conduct experiments on a large scale dataset of pointer meters of substations and our method achieves an average recognition accuracy of 97.2%, which is higher by 7.4% than the Mask R-CNN based method. Qualitative and quantitative analysis results show that our method possesses stronger robustness to various dial interferences than the existing method.
Key words : pointer meter;reading recognition;deep learning;end-to-end;regression

0 引言

    隨著數(shù)字化、智能化的普及,大部分工業(yè)場(chǎng)景都采用數(shù)字儀表,但是對(duì)于電力行業(yè),指針儀表由于其穩(wěn)定性、抗干擾性優(yōu)勢(shì),仍廣泛應(yīng)用于我國(guó)的電力實(shí)際監(jiān)控中[1]。但大部分指針儀表的讀取仍依靠人工進(jìn)行,要求工作人員到現(xiàn)場(chǎng)進(jìn)行數(shù)據(jù)記錄,費(fèi)時(shí)費(fèi)力、容易出錯(cuò)。因此,指針儀表讀數(shù)自動(dòng)識(shí)別技術(shù)的研究具有重要意義[2]

    關(guān)于指針儀表自動(dòng)識(shí)別的研究早期已經(jīng)出現(xiàn),這些工作[3-6]主要基于傳統(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)。參照人工儀表讀數(shù)的原理,傳統(tǒng)方法大致由儀表檢測(cè)、儀表分類、儀表校正、預(yù)處理、指針檢測(cè)、刻度檢測(cè)、讀數(shù)計(jì)算幾個(gè)步驟組成,但由于采用表征能力比較弱的人工圖像描述方法,同時(shí)又依賴比較強(qiáng)的先驗(yàn)信息,因此對(duì)圖像質(zhì)量要求較高,在復(fù)雜條件下的識(shí)別性能不盡人意。

    當(dāng)前,深度學(xué)習(xí)因其強(qiáng)大的表征能力已經(jīng)開(kāi)始應(yīng)用于指針儀表自動(dòng)識(shí)別領(lǐng)域。文獻(xiàn)[7]較早采用Faster R-CNN進(jìn)行儀表檢測(cè),然后通過(guò)自適應(yīng)閾值分割、連通域分析和中心投影來(lái)檢測(cè)指針和刻度,最終根據(jù)指針與刻度之間的角度計(jì)算讀數(shù)。在此基礎(chǔ)上,文獻(xiàn)[8]對(duì)Faster R-CNN結(jié)構(gòu)進(jìn)行針對(duì)性優(yōu)化,并融入表盤(pán)鏡面反射消除方法,從而提升模型的魯棒性。與此類似,文獻(xiàn)[9]利用9層卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行儀表檢測(cè),然后利用橢圓變換進(jìn)行儀表校正,接著利用Hough變換檢測(cè)指針;文獻(xiàn)[10]通過(guò)全卷積網(wǎng)絡(luò)(Fully Convolutional Network,F(xiàn)CN)檢測(cè)儀表,然后進(jìn)行圖像濾波和校正,最后通過(guò)極坐標(biāo)徑向灰度統(tǒng)計(jì)的方法檢測(cè)指針;文獻(xiàn)[11]利用YOLO9000檢測(cè)儀表,然后利用EAST(Efficient and Accurate Scene Text detector)算法識(shí)別儀表刻度數(shù)值,并根據(jù)數(shù)值位置提取指針。相比于傳統(tǒng)方法,這些方法的性能有所提升,但深度神經(jīng)網(wǎng)絡(luò)都只應(yīng)用在儀表檢測(cè)階段,后續(xù)讀數(shù)識(shí)別流程仍基于傳統(tǒng)計(jì)算機(jī)視覺(jué)方法,沒(méi)有充分發(fā)揮深度學(xué)習(xí)的優(yōu)勢(shì),因此仍然存在傳統(tǒng)方法讀數(shù)不精確的問(wèn)題。

    近期,一些方法開(kāi)始在讀數(shù)識(shí)別階段應(yīng)用深度學(xué)習(xí)方法。文獻(xiàn)[12]提出利用基于PrRoIPooling(Precise RoI Pooling,精確感興趣區(qū)域池化)的Mask R-CNN同時(shí)完成儀表檢測(cè)和表盤(pán)、指針?lè)指睿?duì)分割出的表盤(pán)進(jìn)行橢圓變換從而得到指針?lè)较颍窃摲椒ㄖ贿m用于圓形儀表。文獻(xiàn)[13]提出先對(duì)圖像進(jìn)行去霧、補(bǔ)全、超分辨等一系列預(yù)處理,然后用Mask R-CNN進(jìn)行儀表檢測(cè)和指針?lè)指睿窃擃A(yù)處理過(guò)程比較復(fù)雜。文獻(xiàn)[14]提出利用Mask R-CNN對(duì)儀表圖像進(jìn)行指針關(guān)鍵點(diǎn)和刻度關(guān)鍵點(diǎn)檢測(cè),然后從指針和關(guān)鍵點(diǎn)計(jì)算儀表讀數(shù),該方法能夠適應(yīng)不同形狀的儀表,也無(wú)需復(fù)雜的預(yù)處理,但關(guān)鍵點(diǎn)檢測(cè)性能容易受到表盤(pán)模糊、反光、臟污、泛黃等條件的干擾,因此性能仍有待提升。文獻(xiàn)[15]提出采用Faster R-CNN進(jìn)行儀表和指針區(qū)域檢測(cè),然后利用U-Net對(duì)檢測(cè)出的儀表和指針區(qū)域分別進(jìn)行刻度和指針?lè)指睿詈罄梅律渥儞Q校正儀表,但是該方法的采用網(wǎng)絡(luò)較大,特征冗余度較高。

    針對(duì)指針儀表讀數(shù)的這些問(wèn)題,受到場(chǎng)景文本識(shí)別工作TextSnake[16]的啟發(fā),本文提出一種新的基于深度回歸的儀表讀數(shù)識(shí)別方法,該方法不顯式地檢測(cè)指針和關(guān)鍵點(diǎn),而是將指針檢測(cè)、刻度識(shí)別、干擾抑制隱式地結(jié)合起來(lái),通過(guò)回歸方法實(shí)現(xiàn)對(duì)儀表圖像的端到端處理。具體地,給定一張儀表圖像,先通過(guò)ResNet50[17]獲取圖像特征,然后利用一個(gè)方向回歸模塊從特征回歸儀表指針?lè)较颍詈蟾鶕?jù)指針角度獲取儀表讀數(shù)。實(shí)驗(yàn)證明,本文方法對(duì)表盤(pán)模糊、反光、臟污、泛黃等抗干擾性強(qiáng),讀數(shù)識(shí)別精度相比于基于Mask R-CNN的儀表讀數(shù)識(shí)別方法顯著提高。




本文詳細(xì)內(nèi)容請(qǐng)下載:http://www.rjjo.cn/resource/share/2000003224




作者信息:

彭昆福1,王子磊1,王  磊2,顧  楊2

(1中國(guó)科學(xué)技術(shù)大學(xué) 信息科學(xué)技術(shù)學(xué)院,安徽 合肥230027;

2.國(guó)網(wǎng)安徽省電力有限公司檢修分公司,安徽 合肥231131)

此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 国产精品青草久久久久福利99 | 久草视频福利在线 | 国模肉肉人体大尺度啪啪 | 成人性毛片 | 亚洲国产精品乱码在线观看97 | 美国一级免费 | 国产亚洲人成网站在线观看 | 澳门一级特黄真人毛片 | 久久久亚洲国产精品主播 | 91成人精品 | 午夜大片免费男女爽爽影院久久 | 亚洲国产高清在线精品一区 | 黄色影视频 | 久久精品二区 | 成人三级做爰在线视频 | 亚洲欧美日韩国产制服另类 | 日本成人免费在线 | 国产精品视频九九九 | 成人国产在线24小时播放视频 | 一级免费视频 | 久久九九有精品国产56 | 亚洲一区二区在线免费观看 | 欧美性视频xxxxxxxx | 做爰成人五级在线视频| 久久国产成人午夜aⅴ影院 久久国产成人亚洲精品影院老金 | 成人18免费视频 | 久久成人18免费 | a级片黄色片| 一级毛片免费看 | 久久视频精品36线视频在线观看 | 性生活视频网站 | 久久视频精品线视频在线网站 | 国内免费视频成人精品 | 亚洲成人影院在线观看 | 成人国产精品久久久免费 | 中文字幕 亚洲精品 第1页 | 欧美一区三区 | 99久久精品自在自看国产 | 欧美野外性k8播放性迷宫 | 久久手机在线视频 | 天堂mv亚洲mv在线播放9蜜 |