《電子技術應用》
您所在的位置:首頁 > 人工智能 > 設計應用 > 基于CNN-Transformer混合構架的輕量圖像超分辨率方法
基于CNN-Transformer混合構架的輕量圖像超分辨率方法
網絡安全與數據治理
林承浩,吳麗君
福州大學物理與信息工程學院
摘要: 針對基于混合構架的圖像超分模型通常需要較高計算成本的問題,提出了一種基于CNN-Transformer混合構架的輕量圖像超分網絡STSR(Swin Transformer based Single Image Super Resolution)。首先,提出了一種并行特征提取的特征增強模塊(Feature Enhancement Block,FEB),由卷積神經網絡(Convolutional Neural Network,CNN)和輕量型Transformer網絡并行地對輸入圖像進行特征提取,再將提取到的特征進行特征融合。其次,設計了一種動態調整模塊(Dynamic Adjustment,DA),使得網絡能根據輸入圖像來動態調整網絡的輸出,減少網絡對無關信息的依賴。最后,采用基準數據集來測試網絡的性能,實驗結果表明STSR在降低模型參數量的前提下仍然保持較好的重建效果。
中圖分類號:TP391文獻標識碼:ADOI:10.19358/j.issn.2097-1788.2024.03.005
引用格式:林承浩,吳麗君.基于CNN-Transformer混合構架的輕量圖像超分辨率方法[J].網絡安全與數據治理,2024,43(3):27-33.
A lightweight image super resolution method based on a hybrid CNN-Transformer architecture
Lin Chenghao, Wu Lijun
School of Physics and Information Engineering, Fuzhou University
Abstract: In order to address the problem that image super segmentation models based on hybrid architectures usually require high computational cost, this study proposes a lightweight image super segmentation network STSR (Swin Transformer based Single Image Super Resolution) based on a hybrid CNN-Transformer architecture. Firstly, this paper proposes a Feature Enhancement Block (FEB) for parallel feature extraction, which consists of a Convolutional Neural Network (CNN) and a lightweight Transformer Network to extract features from the input image in parallel, and then the extracted features are fused to the features. Secondly, this paper designs a Dynamic Adjustment (DA) module, which enables the network to dynamically adjust the output of the network according to the input image, reducing the network's dependence on irrelevant information. Finally, some benchmark datasets are used to test the performance of the network, and the experimental results show that STSR still maintains a better reconstruction effect under the premise of reducing the number of model parameters.
Key words : image superresolution; lightweighting; Convolutional Neural Network; Transformer

引言

圖像超分辨率(Super Resolution, SR)是一項被廣泛關注的計算機視覺任務,其目的是從低分辨率(Low Resolution, LR)圖像中重建出高質量的高分辨率(High Resolution, HR)圖像[1]。由于建出高質量的高分辨率圖像具有不適定的性質,因此極具挑戰性[2]。隨著深度學習等新興技術的崛起,許多基于卷積神經網絡(CNN)的方法被引入到圖像超分任務中[3-6]。SRCNN[3]首次將卷積神經網絡引入到圖像超分任務中,用卷積神經網絡來學習圖像的特征表示,并通過卷積層的堆疊來逐步提取更高級別的特征,使得重建出的圖像具有較高的質量。在后續研究中,Kaiming He等人提出了殘差結構ResNet[5],通過引入跳躍連接,允許梯度能夠跨越層進行傳播,有助于減輕梯度消失的問題,使得模型在較深的網絡情況下仍然能保持較好的性能。Bee Lim等人在EDSR[6]中也引入了殘差結構,EDSR實際上是SRResnet[7]的改進版,去除了傳統殘差網絡中的BN層,在節省下來的空間中擴展模型尺寸來增強表現力。RCAN[8]中提出了一種基于Residual in Residual結構(RIR)和通道注意力機制(CA)的深度殘差網絡。雖然這些模型在當時取得了較好的效果,但本質上都是基于CNN網絡的模型,網絡中卷積核的大小會限制可以檢測的空間范圍,導致無法捕捉到長距離的依賴關系,意味著它們只能提取到局部特征,無法獲取全局的信息,不利于紋理細節的恢復,使得圖像重建的效果不佳[5]。


本文詳細內容請下載:

http://www.rjjo.cn/resource/share/2000005931


作者信息:

林承浩,吳麗君

福州大學物理與信息工程學院,福建福州350108


雜志訂閱.jpg

此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 精品久久久久久影院免费 | 国产三级日本三级日产三级66 | 国产视频一区二区三区四区 | 国产亚洲精品yxsp | 久久精品国产91久久综合麻豆自制 | 国产精品久久免费观看 | 国产性tv国产精品 | 热e国产 | 亚洲精品久久九九精品 | 免费观看a级网站 | 免费一级a毛片在线播放视 免费一级α片在线观看 | 久草视频在线网 | 国产成人精品视频 | 久久久久久久国产精品影院 | 国产精品久久国产三级国不卡顿 | 亚洲成人美女 | 一个人看的免费高清视频日本 | 91亚洲在线| chinese性老妇中国 | 欧美最黄视频 | 成年人性网站 | 日韩视频大全 | 嫩草影院在线观看网站成人 | 欧美在线视频一区 | 91香蕉视频成人 | 欧美成成人免费 | 国产欧美综合一区二区 | 最新国产美女肝交视频播放 | 国产午夜精品理论片影院 | 久久99国产乱子伦精品免 | 日本强不卡在线观看 | 亚洲一区二区在线 | 日本精品一区二区三区在线视频一 | 天天爱天天做天天爽天天躁 | 欧美成人视 | 在线观看一区二区三区四区 | 国产精品久久久久久久久久98 | 免费一看一级欧美 | 亚洲免费色视频 | 久久久国产精品免费看 | 亚洲国产国产综合一区首页 |