亚洲女同精品中文字幕-亚洲女同japan-亚洲女人网-亚洲女人天堂a在线播放-极品小帅哥连坏挨cao记-极品销魂一区二区三区

學(xué)術(shù)咨詢

讓期刊論文更省時、省事、省心

基于機器視覺的軌道交通自動測距研究

時間:2022年04月27日 分類:科學(xué)技術(shù)論文 次數(shù):

摘要:行駛中的兩輛列車之間保持安全的距離是避免列車追尾事故發(fā)生的重要條件。由于機器視覺獲得的圖像數(shù)據(jù)信息豐富,可以根據(jù)采集到的圖像進(jìn)行多方面的集成檢測,所以文中提出了一種基于機器視覺的列車測距方法。該方法以列車兩條軌道不變的間距(1 435 mm)作為基準(zhǔn),

  摘要:行駛中的兩輛列車之間保持安全的距離是避免列車追尾事故發(fā)生的重要條件。由于機器視覺獲得的圖像數(shù)據(jù)信息豐富,可以根據(jù)采集到的圖像進(jìn)行多方面的集成檢測,所以文中提出了一種基于機器視覺的列車測距方法。該方法以列車兩條軌道不變的間距(1 435 mm)作為基準(zhǔn),來推算列車之間距離。該方法利用卷積神經(jīng)網(wǎng)絡(luò)對單目相機采集到的圖像進(jìn)行處理和分析,提取所需的軌道特征,再基于已有的小孔成像原理推導(dǎo)出世界坐標(biāo)系與像素坐標(biāo)系之間的映射關(guān)系,從而優(yōu)化列車之間距離的計算式。實驗結(jié)果表明,測距系統(tǒng)的誤差率<6%,并且系統(tǒng)測量時間在 40 ms 之內(nèi),說明該方法實現(xiàn)了測距與在圖像中獲取到的其他信息有效的融合與集成,可用于對列車制動距離進(jìn)行判斷。

  關(guān)鍵詞:距離測量;機器視覺;單目相機;深度學(xué)習(xí);圖像處理;軌道檢測;小孔成像原理;卷積神經(jīng)網(wǎng)絡(luò)

機器視覺

  隨著世界經(jīng)濟以及科學(xué)技術(shù)的高速發(fā)展,中國城市軌道交通規(guī)模也逐年增加。隨著軌道交通客流量的增大以及行車速度的提高,列車制動距離也隨著慣性的增大而增大。由于制動距離不足而造成的列車追尾事故時有發(fā)生。城市軌道交通運行的安全性是保障城市居民平安出行的關(guān)鍵,行駛中前后列車之間的距離就成為了列車運行安全的首要衡量標(biāo)準(zhǔn),列車間距測量精度以及速度也尤為重要。當(dāng)列車行駛過程中出現(xiàn)信號燈故障或調(diào)度問題時,列車的高速度和遠(yuǎn)距離的特性使得很難通過人眼來準(zhǔn)確估計與前方列車尾部的距離。為了保障列車在特殊情況下仍能安全行車,需要列車測距系統(tǒng)來測量與前方列車車尾的距離,并將其轉(zhuǎn)化成可視化數(shù)據(jù)向駕駛員發(fā)出預(yù)警。傳統(tǒng)的測距手段有激光[1]、雷達(dá)[1-4]、超聲波[5]等傳感器技術(shù)。相對于傳統(tǒng)的測距手段,視覺信號[6]的探測范圍更廣,目標(biāo)信息更完整,價格相對更低。

  文獻(xiàn)[7]提出了一種基于融合雷達(dá)(用于距離測量)和圖像傳感器(用于障礙物檢測)的鐵路障礙物檢測系統(tǒng)。隨著機器視覺技術(shù)的發(fā)展,不僅可以從圖像中獲取障礙物信息,還可以利用圖像實現(xiàn)距離的測量,因此更應(yīng)該使用機器視覺技術(shù)獲得更多適合于系統(tǒng)集成的信息。文獻(xiàn)[8]預(yù)測智能交通系統(tǒng)(Intelligent Traffic System,ITS)將通過機器視覺來感知環(huán)境條件。在過去的幾年里,機器視覺測距系統(tǒng)也被廣泛使用于汽車領(lǐng)域。文獻(xiàn)[9]通過安裝在車尾的兩個攝像頭來捕捉立體圖像,并進(jìn)行圖像處理,從而計算與后面車輛之間的距離,并將汽車之間的距離數(shù)據(jù)實時顯示給后方車輛。雖然該方法對距離的計算值是準(zhǔn)確的,但由于雙目攝像頭測距算法復(fù)雜且標(biāo)定困難,使得雙目測距系統(tǒng)延遲較大。

  文獻(xiàn)[10]使用汽車尾部的單個監(jiān)控攝像頭來對駕駛環(huán)境進(jìn)行分析,通過圖像處理計算出與后方車輛之間的相對距離、速度和加速度。但該方法得到的測量量程和測量精度遠(yuǎn)不能達(dá)到城市軌道交通的行駛需求。本文基于機器視覺提出了一種簡單而精確的方法。目前基于單目視覺測距的方法在列車軌道領(lǐng)域還未見報道,并且傳統(tǒng)單目測距的方法是利用物體的實際被拍攝面積和在該物體在圖像中被拍攝的圖像面積作比值,從而得出相機與被拍攝物體之間的距離。在列車軌道環(huán)境下,利用傳統(tǒng)單目測距的算法難以計算其面積特征,所以提出利用軌道的特殊環(huán)境,即軌道之間的距離始終為 1 435 mm 來優(yōu)化距離計算式,使器更加簡潔。本文經(jīng)過實驗驗證了該系統(tǒng)能夠在 200 m 內(nèi)有效檢測前方列車距離,能夠滿足城市軌道交通安全行駛的要求。

  1 軌道檢測

  為了獲得行駛列車的前方信息,在列車車頭安裝了一個相機。將收集到的視頻數(shù)據(jù)傳輸?shù)教幚韱卧袑D像分割成單幀圖片,然后利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)對圖片中的軌道進(jìn)行有效檢測。該方法包括兩個主要階段:

  (1)在第一階段中,利用卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)軌道環(huán)境圖像的像素級分類。本文的網(wǎng)絡(luò)主要包括編碼層和解碼層。編碼層包括 3 個基本單元,其中兩個核為 3 且步長為 1的卷積層和一個降采樣層為一個基本單元。通過 3個最大值池化層得到原圖像的 1/8 尺寸,然后使用空洞卷積增強特征圖的感受野,從而對軌道進(jìn)行有效提取。解碼層則使用反卷積層,將 1/8 尺寸的特征圖逐步還原到原始圖像的大小。在反卷積過程中還原的圖像分別與編碼層降采樣所得到的同等尺寸的特征圖片進(jìn)行融合,以提高檢測精度。

  (2)第二階段采用多邊形擬合方法來優(yōu)化提取的軌道輪廓[11-14]。將兩條軌道始終平行這一特性作為有效的參考信息來優(yōu)化軌道檢測結(jié)果。通過卷積神經(jīng)網(wǎng)絡(luò)對其進(jìn)行軌道檢測,分別為原始圖像和檢測圖像。由于采集圖像的條件有限制,實驗無法收集到不同氣候下的圖像數(shù)據(jù)。為解決這一問題,本文通過合成技術(shù)合成了虛擬圖像。本文以該虛擬圖像作為軌道圖像來模擬降雪氣候,并驗證了檢測方法對該天氣變化的魯棒性。結(jié)果表明,該軌道檢測方法在小雪(包括小雨)條件下仍然可以有效地工作。然而,在濃霧或其他惡劣天氣的情況下,該檢測方法的性能將受到限制。

  2 距離公式推算利用兩個軌道始終平行這一原則,不僅可以優(yōu)化軌道的檢測,還能簡化距離公式的計算步驟。基于小孔成像原理,建立世界坐標(biāo)系、相機坐標(biāo)系、圖像坐標(biāo)系和像素坐標(biāo)系以及 4 個坐標(biāo)系之間的映射關(guān)系[15-16]。

  以標(biāo)準(zhǔn)軌道間距(1 435 mm)為已知數(shù)據(jù),推導(dǎo)二維圖像的幾何關(guān)系,從而優(yōu)化距離測量的推導(dǎo)公式。但是在實際中,所拍攝的列車照片的尾部輪廓并不規(guī)則,這為檢測輪廓以及計算其面積的工作帶來了困難,使得研究人員難以從列車尾部得到精準(zhǔn)的面積值。不僅如此,隨著距離的增加,剖面往往會變得更加模糊,增加測量系統(tǒng)的測距結(jié)果誤差。本文通過上述的軌道間固定的距離來優(yōu)化測距計算式,使其更加簡潔和精確。

  3 相機標(biāo)定基于機器視覺測距原理,根據(jù)張氏相機標(biāo)定法[17-18]對采集圖像的攝像機的內(nèi)部參數(shù)和外部參數(shù)進(jìn)行標(biāo)定。首先,對事先準(zhǔn)備好的棋盤格標(biāo)定板進(jìn)行拍攝,通過多次改變拍攝位置和角度捕捉到幾張標(biāo)定圖像。然后,通過 OpenCV 提取棋盤格圖像的角點以獲得更豐富的坐標(biāo)信息,從而對相機進(jìn)行精準(zhǔn)標(biāo) 定 , 計 算 出 相 機 的 內(nèi) 外 參 數(shù) [15] 。

  4 實驗結(jié)果及誤差分析

  在 1∶1 列車軌道模型處,將攝像機放置在距離地面 1.5 m 處,并使其位于兩條軌道的中心。為了保證測量的精準(zhǔn)度,在采集數(shù)據(jù)的過程中需要將相機的光軸與地平面的夾角固定在一個值上,分別在光軸與水平面的夾角為 85°、90°和 95°拍攝了一組照片,并將 3 組照片進(jìn)行處理分析。每組的第一張照片是在距列車尾部 40 m 處拍攝,然后每向后推移20 m就再采集一張圖像,從而組成距離由40~200m 處的一組數(shù)據(jù)集。基于上述算法,在光軸與水平面的夾角為 90°時所計算的測量距離與實際距離。

  為了進(jìn)行有效的數(shù)據(jù)分析,本文還進(jìn)行了多組對照實驗,即光軸與水平面的夾角為 85°和 95°的距離測量實驗。結(jié)果表明,通過機器視覺計算得到的距離精度大于 94%,并且測量每張圖片的時間成本在 40 ms 以內(nèi)。在實際中,火車的制動距離取決于許多因素,包括速度、摩擦、延遲時間、剎車片和制動缸、地理位置、質(zhì)量分布[17]。根據(jù)《鐵路技術(shù)管理規(guī)定》,直線運行的客運列車制動距離應(yīng)滿足以下指標(biāo):初始制動速度為 160 km·h-1、200 km·h-1和 300 km·h-1時,制動距離分別小于 1 400 m、2 000m 和 3 700 m。因此,根據(jù)這些要求可以計算出列車的加速度分別為-0.70 m·s-2、-0.77 m·s-2 和-0.94m·s-2。

  在城市軌道交通中,列車的普遍運行速度為60 km·h-1,在地鐵的制動加速度為-0.70 m·s-2 時,制動距離達(dá) 200 m 左右。因此,地鐵之間應(yīng)該保持至少 200 m 的距離以避免列車追尾。此外,由于圖像檢測需要時間成本,所以高速運行的列車的距離檢測滯后。在實際生活中,即使是當(dāng)前軌道交通最大速度,也可以以速度 600 km·h-1,運算時間 0.04 s進(jìn)行粗略估算。依據(jù)此數(shù)據(jù)可得距離檢測的滯后距離<7 m(600 km·h-1×0.04 s =6.7 m)。計算期間產(chǎn)生的滯后距離所造成的誤差同樣滿足列車安全運行的要求。

  綜上分析可知,產(chǎn)生測量誤差的主要原因在于兩個軌道的中心點位置 、兩點的像素坐標(biāo)檢測。由圖 7 所示誤差率所呈現(xiàn)的變化趨勢可得,在前方列車距離自身列車距離小時,所采集到的軌道圖片中軌道更為清晰,但是對于檢測兩條軌道的中心點則產(chǎn)生了更大的偏差,導(dǎo)致距離測量誤差率較高;在前方列車距離自身列車距離大時,雖然圖像的分辨率會隨著距離的增加而降低,但定位 、 兩點的精度卻隨之變高,使得誤差率略微減小;再向更遠(yuǎn)的距離進(jìn)行檢測時,圖像的分辨率對實驗結(jié)果的影響成為主要因素,導(dǎo)致誤差率不斷升高。

  因此,圖像分辨率和軌道中心位置 、兩點的檢測所產(chǎn)生的誤差組合帶來了誤差波動。當(dāng)測量過程中相機的角度全程固定在一個合理范圍內(nèi)的值時,對測距結(jié)果的輕微影響可以忽略不計。單目測距的實驗是通過靜態(tài)攝影來獲取的數(shù)據(jù)集,但即使是在視頻數(shù)據(jù)中,也仍然能夠從中提取出清晰圖像作為關(guān)鍵幀。因此,在該測距系統(tǒng)中使用的靜態(tài)圖像也可以有效證明此方法能夠?qū)崿F(xiàn)避免列車碰撞的效果。實驗證明,實驗的結(jié)論不受相機角度和位置的影響,只要相機在數(shù)據(jù)采集過程中是固定的,該測距系統(tǒng)至少可以在 200 m 范圍內(nèi)達(dá)到標(biāo)準(zhǔn)。

  5 結(jié)束語

  本文提出了一種基于單目視覺的軌道交通距離測量方法,滿足了智能車輛控制的實時性要求。該系統(tǒng)可以有效檢測出軌道上運行的前后列車之間的距離,將距離轉(zhuǎn)化成可視化信息呈現(xiàn)給駕駛員,為駕駛員提供報警信號。試驗結(jié)果表明該系統(tǒng)能夠滿足軌道交通的需要,保證列車在適宜的氣候條件下安全運行。在軌道交通系統(tǒng)中,可以方便地將已知固定軌道空間(1 435 mm)的距離測量與其他圖像信息集成在一起進(jìn)行障礙物檢測,實現(xiàn)多功能融合。同時,該方法也是激光或雷達(dá)測量距離以外的一種冗余檢測。

  參考文獻(xiàn)

  [1] Jung H G,Cho Y H,Yoon P J,et al.Scanning laserradar-based target position designation for parking aidsystem[J].IEEE Transactions on IntelligentTransportation Systems,2008,9(3):406-424.

  [2] Ibisch A,Stefan S,Harald A,et al.Towards autonomousdriving in a parking garage: Vehicle localization andtracking using environment-embedded LIDARsensors[C].Gold Coast:Proceedings of IEEE IntelligentVehicles Symposium,2013.

  [3] Kenue S K.Selection of range and azimuth angleparameters for a forward looking collision warning radarsensor[C]Detroit:Proceedings of the Intelligent Vehicles'95,Symposium,1995.

  [4] Sugimoto S,Tateda H,Takahashi H,et al.Obstacle detectionusing millimeter-wave radar and its visualization onimage sequence[C].Cambridge:Proceedings of theSeventeenth International Conference on PatternRecognition,2004.

  作者:畢嘉楨 1,沈 拓 1,2,張軒雄 1

主站蜘蛛池模板: 成人动漫bt种子 | 国产喷水1区2区3区咪咪爱AV | 久久中文字幕亚洲 | 日操夜操天天操 | 成年AV动漫 | 最新黄yyid| 亚洲AV无码影院在线播放 | 李丽莎与土豪50分钟在线观看 | 精品欧美一区二区三区久久久 | 国产亚洲日韩另类在线播放 | 中文字幕网站在线观看 | 日韩AV成人无码久久精品老人 | 日韩人妻无码专区一本二本 | 高冷师尊被CAO成SAO货 | 欧美日韩精品 | 国产香蕉视频在线播放 | 青青热久精品国产亚洲AV无码 | 丰满人妻熟女色情A片 | 久久精品电影 | 久草在线福利视频在线播放 | 超级乱淫片午夜电影网99 | 最新无码国产在线视频9299 | 日产精品久久久久久久蜜殿 | 顶级欧美不卡一区二区三区 | 琪琪see色原网色原网站 | 亚洲精品无码久久久久A片空 | 精品午夜久久影视 | 国产AV视频二区在线观看 | 久久频这里精品99香蕉久网址 | xxxxhdvideos动漫 | 国产在线观看www | 人妖和美女玩 | 黄色a三级免费看 | 国产精一品亚洲二区在线播放 | 国产精品久久久久激情影院 | 蜜芽丅v新网站在线观看 | 妖精视频在线观看高清 | 国产特级毛片AAAAAAA高清 | 国产精品久久久久精品A片软件 | 嫩草影院久久国产精品 | 精品AV国产一区二区三区 |