亚洲女同精品中文字幕-亚洲女同japan-亚洲女人网-亚洲女人天堂a在线播放-极品小帅哥连坏挨cao记-极品销魂一区二区三区

學(xué)術(shù)咨詢

讓期刊論文更省時(shí)、省事、省心

改進(jìn)R-FCN提高SAR圖像識(shí)別率

時(shí)間:2021年12月21日 分類:科學(xué)技術(shù)論文 次數(shù):

摘要:由于深度學(xué)習(xí)在目標(biāo)識(shí)別方面取得了顯著的成績(jī),為提高合成孔徑雷達(dá)(SyntheticApertureRadar,SAR)圖像目標(biāo)識(shí)別的精度與速度提供了新的思路。本文將區(qū)域全卷積網(wǎng)絡(luò)(Region-basedFullyConvolutionalNetworks,R-FCN)結(jié)構(gòu)應(yīng)用于SAR圖像目標(biāo)識(shí)別中,取

  摘要:由于深度學(xué)習(xí)在目標(biāo)識(shí)別方面取得了顯著的成績(jī),為提高合成孔徑雷達(dá)(SyntheticApertureRadar,SAR)圖像目標(biāo)識(shí)別的精度與速度提供了新的思路。本文將區(qū)域全卷積網(wǎng)絡(luò)(Region-basedFullyConvolutionalNetworks,R-FCN)結(jié)構(gòu)應(yīng)用于SAR圖像目標(biāo)識(shí)別中,取得了良好的效果。對(duì)于數(shù)據(jù)集較小和數(shù)據(jù)相似度較高的問題,提出了基于遷移學(xué)習(xí)的R-FCN模型用于SAR圖像目標(biāo)識(shí)別。對(duì)更快的區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FasterRegionConvolutionalNeuralNetworks,FasterR-CNN)和R-FCN進(jìn)行模型訓(xùn)練及優(yōu)化,并與本文所提出的基于遷移學(xué)習(xí)的改進(jìn)R-FCN模型實(shí)驗(yàn)結(jié)果進(jìn)行對(duì)比。結(jié)果表明,本文所提出的方法對(duì)SAR圖像具有更好的識(shí)別效果和更快的識(shí)別速度。

  關(guān)鍵詞:機(jī)器視覺;目標(biāo)識(shí)別;合成孔徑雷達(dá);全卷積網(wǎng)絡(luò);遷移學(xué)習(xí)

圖像識(shí)別

  0引言

  SAR(SyntheticApertureRadar,SAR)成像[1-2]是通過雷達(dá)與成像目標(biāo)之間相對(duì)位移產(chǎn)生等效的合成天線陣列,再通過發(fā)射端發(fā)射寬帶信號(hào)與合成陣列的相干獲取距離像和方位向的高分辨實(shí)現(xiàn)的成像技術(shù)。因其受到外界天氣的影響相對(duì)較小,還具有一定的地表穿透能力,所以在軍事領(lǐng)域、國(guó)土資源、農(nóng)林業(yè)、重大災(zāi)害等方面應(yīng)用廣泛[3]。傳統(tǒng)的SAR圖像識(shí)別技術(shù)[4-5]在數(shù)據(jù)量巨大且數(shù)據(jù)愈發(fā)復(fù)雜的情況下,會(huì)導(dǎo)致最終的識(shí)別精度和識(shí)別效率低下,而深度學(xué)習(xí)是通過將獲得的低層次特征進(jìn)行非線性組合,由此來得到數(shù)據(jù)的抽象表達(dá)。深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域的成功,為它在SAR目標(biāo)識(shí)別[6-8]方面的應(yīng)用提供了依據(jù)。

  RossGirshick提出了一種基于基于區(qū)域特征提取的卷積神經(jīng)網(wǎng)絡(luò)(RegionConvolutionalNeuralNetwork,R-CNN)模型[9-10]用來實(shí)現(xiàn)目標(biāo)檢測(cè),R-CNN模型在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)的基礎(chǔ)上可以獲得更快的識(shí)別速度和更好的識(shí)別精度。但R-CNN網(wǎng)絡(luò)在提取大量候選區(qū)域時(shí)會(huì)占用很大磁盤空間以及巨大的計(jì)算浪費(fèi)。

  另外,由于傳統(tǒng)CNN需要輸入圖像為固定尺寸(227×227),所以會(huì)進(jìn)行歸一化處理,使圖像被截?cái)嗷蚶欤瑢?dǎo)致圖像信息丟失。文獻(xiàn)[11]提出的快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FastRegionConvolutionalNeuralNetwork,FastRCNN)模型不需要進(jìn)行圖像預(yù)處理和生成候選區(qū)域,解決了R-CNN中圖像信息丟失、計(jì)算速度慢和占用存儲(chǔ)空間大的問題。

  為了加快提取候選區(qū)域的速度,Ren等人提出快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(FasterRegionConvolutionalNeuralNetwork,FasterRCNN)模型[12-14],它用區(qū)域建議網(wǎng)絡(luò)(RegionProposalnetworks,RPN)[15]網(wǎng)絡(luò)來提取候選區(qū)域(RegionofInterest,ROI),然后利用FastRCNN實(shí)現(xiàn)目標(biāo)檢測(cè)功能。

  由于RPN獲得建議區(qū)域只需要做一次完全卷積,能和整個(gè)檢測(cè)網(wǎng)絡(luò)共享全圖的卷積特征,減少了大量冗余數(shù)據(jù)的計(jì)算,加快了目標(biāo)檢測(cè)速度。同時(shí),F(xiàn)asterR-CNN還具有較高的檢測(cè)精度。JifengDai等提出一種基于區(qū)域特征的全卷積網(wǎng)絡(luò)(Region-basedFullyConvolutionalNetworks,R-FCN)[16-17],用于實(shí)現(xiàn)精確并且有效的目標(biāo)檢測(cè)。為解決圖像分類中平移不可變性與目標(biāo)檢測(cè)過程中平移方差的矛盾,提出了位置敏感得分圖[18]。在數(shù)據(jù)集中數(shù)據(jù)較少的情況下,本文提出了將遷移學(xué)習(xí)[19]應(yīng)用于改進(jìn)R-FCN中實(shí)現(xiàn)SAR圖像目標(biāo)識(shí)別的方法。

  1SAR圖像數(shù)據(jù)集

  1.1數(shù)據(jù)集介紹

  本文數(shù)據(jù)源于美國(guó)國(guó)防高等研究計(jì)劃署支持的MSTAR計(jì)劃所公布的實(shí)測(cè)SAR地面靜止目標(biāo)數(shù)據(jù)。與光學(xué)圖像識(shí)別不同,雷達(dá)圖像識(shí)別更加困難,SAR的分辨率遠(yuǎn)低于光學(xué)圖像。方位角的變化對(duì)SAR圖像識(shí)別的影響是巨大的[20],此外,不同背景下的SAR圖像對(duì)目標(biāo)識(shí)別會(huì)產(chǎn)生很大的影響[21]。

  本文用于訓(xùn)練的數(shù)據(jù)集是雷達(dá)俯仰角為17時(shí)所獲得的SAR圖像,用于測(cè)試的數(shù)據(jù)集是雷達(dá)俯仰角為15時(shí)所獲得的SAR圖像。對(duì)比可以看出這兩者之間存在很大的區(qū)別,光學(xué)圖像肉眼可區(qū)分出不同型號(hào)的戰(zhàn)車,而通過人眼觀察SAR圖像無法區(qū)分出戰(zhàn)車的不同型號(hào),因而需要借助于計(jì)算機(jī)來區(qū)分。實(shí)驗(yàn)采用的訓(xùn)練集和測(cè)試集中分別包含五種類別的戰(zhàn)車,分別為ZSU_23_4、ZIL131、2S1、T62、D7。每類中包含299個(gè)訓(xùn)練樣本和274個(gè)測(cè)試樣本。

  1.2圖像數(shù)據(jù)集擴(kuò)展

  由于用于訓(xùn)練的數(shù)據(jù)集數(shù)量相對(duì)較少,使訓(xùn)練參數(shù)不能達(dá)到最優(yōu),不能得到很好的識(shí)別效果,需要通過圖像增強(qiáng)中的灰度變換對(duì)訓(xùn)練集數(shù)據(jù)進(jìn)行擴(kuò)充,本文利用了冪律變換[22]、對(duì)數(shù)變換[23]與Imadjust函數(shù)[24],使原始訓(xùn)練集數(shù)據(jù)量擴(kuò)充到原來的4倍。

  2R-FCN結(jié)構(gòu)模型

  人們對(duì)于圖像檢測(cè)的速度和精度的需求在逐步提高,在FasterR-CNN的基礎(chǔ)上提出了R-FCN模型。R-FCN網(wǎng)絡(luò)的主體部分可以適應(yīng)不同的全卷積網(wǎng)絡(luò)架構(gòu),無論是ResNet101[25]還是ResNet152[26]都能滿足R-FCN的需求,從而提取出高質(zhì)量的圖像特征,本文采用ResNet101結(jié)構(gòu)。

  2.1R-FCN網(wǎng)路結(jié)構(gòu)R-FCN

  包括了輸入層,100層卷積層,感興趣池化層以及千級(jí)全連接層。R-FCN網(wǎng)絡(luò)結(jié)構(gòu)完全共享、完全卷積的體系構(gòu)成,針對(duì)共享網(wǎng)絡(luò)檢測(cè)精度不佳的缺陷,加入了位置敏感得分圖,該部分負(fù)責(zé)對(duì)目標(biāo)進(jìn)行準(zhǔn)確識(shí)別。假設(shè)最終要完成C類目標(biāo)的分類,對(duì)于一個(gè)待測(cè)物體,首先要對(duì)其ROI區(qū)域完成劃分,使其分為k×k個(gè)子網(wǎng)格,每一個(gè)子網(wǎng)格中包含了待測(cè)物體的不同部分。經(jīng)過各自對(duì)應(yīng)后,判斷每一個(gè)子網(wǎng)格內(nèi)是否含有對(duì)應(yīng)部分,如果符合要求,則識(shí)別成功屬于該類別,否則歸于其他類別。所以對(duì)于R-FCN來說,加上圖中背景共有C+1類,每一類又要經(jīng)過k2次處理,所以需要k2(C+1)個(gè)通道用來輸出。

  2.2R-FCN工作原理

  R-FCN網(wǎng)絡(luò)在識(shí)別時(shí),首先由RPN提取出候選區(qū)域ROI,每一類的ROI都有高、寬和橫、縱坐標(biāo)四個(gè)參數(shù),記為h、w、x、y。由于這些ROI都會(huì)被劃分為k×k個(gè)子網(wǎng)格,故每個(gè)子網(wǎng)格的尺寸為(w/k×h/k)。之后,在第101層卷積層引入位置敏感得分圖,將k2個(gè)子網(wǎng)格都與得分圖上的相應(yīng)區(qū)域進(jìn)行位置敏感的評(píng)比,可以通過平均池化實(shí)現(xiàn)。給定區(qū)域(0≤i,j≤k-1),假設(shè)坐標(biāo)為(i,j)的子網(wǎng)格需要在得分圖上尋找坐標(biāo)同為(i,j)的位置完成池化操作,共進(jìn)行C+1次。

  由于每類ROI都有四個(gè)坐標(biāo),在計(jì)算出位置敏感得分后還需要對(duì)其完成回歸操作,故還需要4k2個(gè)卷積層用于包絡(luò)框回歸。對(duì)其進(jìn)行位置敏感池化,為每一類ROI都產(chǎn)生4k2個(gè)矢量。然后平均得分可以將其聚合成4維矢量。這個(gè)四維向量會(huì)將包絡(luò)框參數(shù)化為t=(tx,ty,tw,th)。由于包絡(luò)框回歸后沒有別的層級(jí),所以網(wǎng)絡(luò)的運(yùn)算速度相應(yīng)加快。

  3基于改進(jìn)R-FCN的SAR圖像目標(biāo)識(shí)別

  3.1改進(jìn)殘差網(wǎng)絡(luò)的R-FCN

  R-FCN的最初提出是對(duì)光學(xué)圖像的目標(biāo)檢測(cè),由于光學(xué)圖像的灰度變化平滑并且目標(biāo)特征明顯,因此R-FCN的特征提取網(wǎng)絡(luò)能夠有效的提取目標(biāo)的特征。SAR成像原理與光學(xué)成像原理不同,其中,SAR圖像帶有很多相干斑噪聲[28],嚴(yán)重影響特征的提取。卷積核的大小決定著卷積神經(jīng)網(wǎng)絡(luò)最終輸出特征向量所包含的原圖特征信息量的多少。卷積核越大,所取得的特征圖的信息量越多,此外,卷積核越大越能夠有效的抑制SAR圖像中的相干斑噪聲對(duì)識(shí)別結(jié)果的影響。

  3.2改進(jìn)位置敏感區(qū)域池化層的R-FCN

  3.2.1改進(jìn)的位置敏感區(qū)域池化層

  由于原始R-FCN網(wǎng)絡(luò)中的位置區(qū)域池化層具有一定的特殊性,原始R-FCN網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)適用于目標(biāo)檢測(cè)數(shù)據(jù)集PASCALVOC,此數(shù)據(jù)集中目標(biāo)加背景一共有21類。位置敏感區(qū)域池化層(Position-SensitiveROIPoolingLayer,PSROIPooling)[29]決定著R-FCN特征提取網(wǎng)絡(luò)的特征圖的個(gè)數(shù)。當(dāng)檢測(cè)目標(biāo)類別越多時(shí),網(wǎng)絡(luò)提取的特征圖個(gè)數(shù)越多,當(dāng)數(shù)據(jù)集中目標(biāo)加背景的類型遠(yuǎn)小于PASCALVOC的類別會(huì)導(dǎo)致R-FCN網(wǎng)絡(luò)畸形。

  為了得到更好的識(shí)別率,對(duì)位置敏感區(qū)域池化層作出了更適合小類數(shù)據(jù)集的改進(jìn)。首先通過RPN獲得位置敏感區(qū)域的位置,將其與特征圖結(jié)合生成位置敏感分?jǐn)?shù)圖,然后對(duì)位置敏感分?jǐn)?shù)圖做全局最大值池化,得到長(zhǎng)度為k2(c+1)的特征向量,最后對(duì)特征向量做全連接操作并放入Softmax中進(jìn)行分類。將ROIPooling[30]層改為ROIAlign[31]后采用雙線性內(nèi)插的方法獲得像素點(diǎn)上的圖像數(shù)值,從而使特征聚集過程連續(xù)操作。

  3.3遷移學(xué)習(xí)的R-FCN

  遷移學(xué)習(xí)可以將學(xué)到的對(duì)圖像分類的理解分享到新模型中,神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中獲取信息并把它們換成相應(yīng)的權(quán)重。這些權(quán)重被提取出來遷移到其他的神經(jīng)網(wǎng)絡(luò)中,加快并優(yōu)化了模型的收斂速度。在基于遷移學(xué)習(xí)的改進(jìn)R-FCN網(wǎng)絡(luò)的訓(xùn)練過程中,利用預(yù)訓(xùn)練模型進(jìn)行特征提取。去掉輸出層后將剩下的網(wǎng)絡(luò)當(dāng)做已經(jīng)訓(xùn)練好的特征提取機(jī)應(yīng)用到新的數(shù)據(jù)集中。這個(gè)過程中,需要對(duì)特定層進(jìn)行訓(xùn)練得到新的權(quán)重,凍結(jié)其他層保持其權(quán)重不變,因此加快了圖像識(shí)別的速度。

  4SAR圖像目標(biāo)識(shí)別結(jié)果及分析

  4.1FasterR-CNN模型實(shí)驗(yàn)結(jié)果及分析

  本節(jié)實(shí)驗(yàn)采用FasterR-CNN網(wǎng)絡(luò)對(duì)SAR圖像進(jìn)行識(shí)別分類。數(shù)據(jù)集上預(yù)訓(xùn)練VGG16[32]模型用來提取網(wǎng)絡(luò)特征圖,學(xué)習(xí)率為0.002,動(dòng)量為0.9,權(quán)重衰減設(shè)置為0.0005,最大迭代次數(shù)為45000。通過訓(xùn)練集對(duì)FasterR-CNN模型進(jìn)行訓(xùn)練優(yōu)化后,利用測(cè)試集檢測(cè)該模型,得到識(shí)別結(jié)果。在實(shí)驗(yàn)中每種類別分別進(jìn)行測(cè)試,若識(shí)別出的類別與目標(biāo)類別不一致的話,則認(rèn)為識(shí)別錯(cuò)誤,若沒有標(biāo)注出識(shí)別框,則認(rèn)為漏識(shí)別。各種類別的所有測(cè)試數(shù)據(jù)集,通過FasterR-CNN網(wǎng)絡(luò)模型對(duì)SAR圖像進(jìn)行目標(biāo)識(shí)別,得到的目標(biāo)識(shí)別率基本在80%以上,最高可達(dá)到95%。識(shí)別效果較好。

  5結(jié)束語(yǔ)

  本文主要研究基于深度學(xué)習(xí)的SAR圖像目標(biāo)識(shí)別算法,將深度學(xué)習(xí)中全卷積網(wǎng)絡(luò)框架應(yīng)用于SAR圖像識(shí)別中。首先通過圖像增強(qiáng)的方法對(duì)數(shù)據(jù)庫(kù)進(jìn)行擴(kuò)增,引入遷移學(xué)習(xí)方法訓(xùn)練改進(jìn)R-FCN模型實(shí)現(xiàn)對(duì)SAR圖像的識(shí)別。通過對(duì)實(shí)驗(yàn)結(jié)果對(duì)比分析,可以看出改進(jìn)后的R-FCN網(wǎng)絡(luò)模型的目標(biāo)識(shí)別率略大于原始的R-FCN模型的圖像識(shí)別率,同時(shí)也減少了訓(xùn)練需要的時(shí)間。所以當(dāng)數(shù)據(jù)集較小時(shí),本文所提方法很好的滿足了目標(biāo)識(shí)別的精度和效率。

  在本文的基礎(chǔ)上,之后還可以對(duì)R-FCN網(wǎng)絡(luò)作進(jìn)一步改進(jìn),除了將遷移學(xué)習(xí)運(yùn)用到R-FCN中,可以改變殘差網(wǎng)絡(luò)的部分或者改變損失函數(shù)的參數(shù)值進(jìn)而改善圖像識(shí)別的準(zhǔn)確性。由于現(xiàn)階段R-FCN網(wǎng)絡(luò)應(yīng)用于SAR圖像識(shí)別的研究相對(duì)較少,大多數(shù)還用于識(shí)別光學(xué)圖像,所以在這方面還需要更加深入的研究,希望能設(shè)計(jì)出更適合于SAR圖像識(shí)別并且識(shí)別率更高的算法。

  參考文獻(xiàn):

  [1]ZHOUY,WANGW,CHENZ,etal.High-resolutionandwide-swathSARImagingmodeusingfrequencydiverseplanararray[J].IEEEGeoscienceandRemoteSensingLetters,2020,PP(99):1-5.

  [2]蘇娟,楊龍,黃華,等.用于SAR圖像小目標(biāo)艦船檢測(cè)的改進(jìn)SSD算法[J].系統(tǒng)工程與電子技術(shù),2020,42(5):1026-1034.SUJ,YANGL,HUANGH,etal.AnimprovedSSDalgorithmforsmalltargetshipdetectioninSARimages[J].SystemsEngineeringandElectronics,2020,42(5):1026-1034.

  [3]JANSENRW,RAJRG,LUKER,etal.PracticalMultichannelSARImagingintheMaritimeEnvironment[J].IEEETransa.onGeoence&RemoteSensing,2018:1-12.

  [4]DINGB,WENG,HUANGX,etal.TargetrecognitioninSARimagesbyexploitingtheazimuthsensitivity[J].RemoteSensingLetters,2017,8(9):821-830.

  作者:周曉玲,張朝霞*,魯雅,王倩,王琨琨

主站蜘蛛池模板: 中文字幕无码乱人伦蜜桃 | 欧美卡1卡2卡三卡2021精品 | 无限资源在线完整高清观看1 | 中字幕视频在线永久在线 | 无套内射无矿码免费看黄 | 亚洲欧美日韩在线观看一区二区三区 | 让人爽到湿的小黄书 | 年轻的母亲4线在线观看完整 | 无限资源日本2019版 | 久久re这里精品在线视频7 | 日本高清天码一区在线播放 | 国产成人女人在线视频观看 | 国产A级毛片久久久久久久 国产a级黄色毛片 | 久久久国产精品免费A片蜜臀 | 达达兔欧美午夜国产亚洲 | 伊人久久大香线蕉综合影 | 久久本道久久综合伊人 | 国产一卡 二卡三卡四卡无卡乱码视频 | 国产一区日韩二区欧美三区 | 美女被C污黄网站免费观看 美女白虎穴 | 精品国产午夜福利在线观看蜜月 | 中文字幕不卡一区二区三区 | 国产福利一区二区精品 | 试看做受120秒免费午夜剧场 | 亚洲在线无码免费观看 | 97精品在线观看 | 我和妽妽在厨房里的激情区二区 | 久久午夜一区二区 | 99久久蜜臀AV免费看蛮 | 黑人强伦姧人妻日韩那庞大的 | 国产高清精品国语特黄A片 国产高清国内精品福利色噜噜 | 欧美一第一页草草影院 | 岛国片在线免费观看 | 91精品一区二区综合在线 | 两个人看的www免费高清直播 | 美女快播第一网 | 日美一级毛片 | 国产成人在线视频 | 男人和女人一起愁愁愁很痛 | 2019夜夜 | 黑人干日本美女 |