您當前位置:首頁 > 新聞頻道 > 技術動態 > 正文
小型無人機立體視覺目標追蹤定位方法(自動化)

小型無人機立體視覺目標追蹤定位方法(自動化)

                     王亭亭1,  蔡志浩1,2,  王英勛1,2

    1.北京航卒航天大學,北京100191;2.飛行器控制一體化技術重點實驗室,北京100191

摘要:小型無人機在無衛星導航條件下使用的需求日益強烈,采用立體視覺方法可滿足無人機在復雜環境中的目標檢測、跟蹤與定位。研究了雙目立體視覺系統標定、特征點檢測提取與匹配、雙目測距等技術,實現了對圖像中的指定目標進行追蹤,同時實現對目標的定位,得到目標的位置,視覺系統標定誤差在0.2個像素點以內,目標定位誤差小于10cm。以地面機器人作為追蹤目標進行算法測試驗證,在目標消失時間較短的情況下,能夠達到較好的追蹤效果。

關鍵詞:無人機;雙目視覺;目標追蹤;攝像機標定;CamShift算法

中圖分類號:V249.1   文章編號:1671  - 637X( 2016) 05 - 0006 - 05

0  引言

    近年來小型無人機向自主化、智能化的方向迅速發展,應用范圍越來越廣,尤其是在無衛星導航條件下的使用需求日漸強烈  目標監控是無人機的重要應用之一,采用立體視覺方法可實現無人機在復雜環境中的H標跟蹤與定位。通過搭建雙目視覺平臺,采用適當的目標跟蹤算法可以有效地獲取目標的距離和位置,目標的運動方向、軌跡,大小等信息。雙目視覺技術利用在不同視角F獲得的感知圖像,根據三角測量原理計算圖像像素間的位置偏差,進而獲取場景的三維信息。文獻[2]利用TLD目標跟蹤算法實現了對單運動目標的較好跟蹤;利用單目攝像頭實現了小型無人機對地面目標的自動識別跟蹤,并給出了控制策略;利用雙目視覺實現了六旋翼對目標的跟蹤。目前,目標追蹤問題主要表現于如何能在復雜背景、光照變化、類似顏色物體、遮擋物等因素存在的情況下抓住目標的特點,進行有效跟蹤,并保證實時性。鑒于以上內容,本文利用雙目立體視覺進行目標追蹤的研究具有重要的意義。

1雙目視覺系統標定

    雙目攝像機的準確標定是計算機視覺準確實現的基礎和前提。目前攝像機標定方法有很多種,主要可分為攝像機傳統標定方法和自標定方法。本文采用具有較好的魯棒性和實用性的張氏標定法進行攝像機標定。鑒于普通的COMS網絡攝像頭感光單元邏輯間距或者感光芯片的尺寸一般不得知,在標定結果判定上難度較大,因此,主要通過標定結果和理想參數的對比分析來判斷標定結果的合理性。  

1.1雙目標定的原理

    雙目立體視覺系統可通過左右或者上下兩個攝像頭排列放置得到,通過對同一物體的觀察,獲得不同視角下的圖像。將攝像機模型簡化為最簡單的針孔模型,雙攝像機成像模型如圖1所示。

小型無人機立體視覺目標追蹤定位方法(自動化)1140.png 

    圖中:P為空間一點;O1,Dr分別為左右兩個攝像機的光心;I1,I r為左右攝像機的成像平面;P1,Pr分別為P在左右兩個攝像機平面上的投影點。

  雙目標定的結果是得到攝像機的內外參數,以及兩個攝像機之間的關系。在標定過程中主要用到圖像坐標系、攝像機坐標系和世界坐標系3種坐標系。圖像坐標系中像素單位(u,v)和物理單位(x,y)兩種表示方法的關系為

小型無人機立體視覺目標追蹤定位方法(自動化)1323.png小型無人機立體視覺目標追蹤定位方法(自動化)1324.png 

式中:R為旋轉矩陣;T為平移向量。

1.2標定優化與結果分析

    2所示為采用2Life Cam網絡攝像頭,攝像頭幀速率30幀/s,分辨率640×480,水平視場角500,垂直視場角400,攝像頭光心相距約10 cm,搭建雙目平臺。以一張8 x7的棋盤格作為標定物,定標板每個棋盤格大小為25 mm x25 mm,試驗選取了36幅有效圖像。

小型無人機立體視覺目標追蹤定位方法(自動化)1501.png 

    3顯示了圖像相對于攝像頭的位置關系。首先通過單目標定得到左右兩個攝像機的內參矩陣,然后通過立體標定,得到右攝像機相對于左攝像機的旋轉矩陣R r和平移向量T r。

小型無人機立體視覺目標追蹤定位方法(自動化)1589.png小型無人機立體視覺目標追蹤定位方法(自動化)1590.png 

    根據雙目視覺平臺中攝像機與飛機機體的位置關系,為簡化計算,在試驗中使世界坐標系與左攝像機坐標系重合,則左攝像機相對于世界坐標系的旋轉矩陣R13x3單位陣,平移向量T1[0 0 0]T;右攝像機相對于世界坐標系的旋轉矩陣為R r平移向量為T r。

    通過對80幅試驗圖標定后的誤差進行分析,得出如果圖像偏轉過大或過小,或者圖像放置較遠或過偏,標定誤差會很大,對此應保證標定板偏轉角在200~700之間,且成像至少大概占圖像的二分之一并盡量靠中間。在實際選取圖像時,可以分別分析其誤差圖,對誤差過大的圖像改變窗口大小,重新標定,對于始終有較大誤差的圖像可以剔除,以此實現優化。圖4所示為單個相機的重投影誤差分布圖,根據小型無人機立體視覺目標追蹤定位方法(自動化)1908.png小型無人機立體視覺目標追蹤定位方法(自動化)1909.png小型無人機立體視覺目標追蹤定位方法(自動化)1910.png

標定的結果如下。

左攝像頭內參矩陣為

小型無人機立體視覺目標追蹤定位方法(自動化)1931.png小型無人機立體視覺目標追蹤定位方法(自動化)1932.png 

    內參矩陣所得光心點坐標在(320 m,240 m)附近,右攝像頭相對于左攝像頭的旋轉矩陣接近單位陣,基本符合預期標定,從平移向量第一個參數可以看出,左右攝像頭之間的中心距為- 99. 908 13  mm,基本符合標定結果。

2特征提取與匹配

    特征點匹配是立體視覺第二大任務,意在建立兩幅圖像之間點到點的匹配關系。立體匹配的實質是求最優解,目前比較常用的匹配算法有基于特征的立體匹配算法,基于全局的立體匹配算法和基于局部的立體匹配算法。為了保證算法實時性,采用匹配速度較快的基于特征的立體匹配算法,并采用SURF算法實現特征點提取。

    SURF特征提取算法是在SIFT算法的基礎上提出的,在繼承了SIFT算法魯棒性的同時,提高了精度且匹配速度快,有很強的實時性。SURF算法主要步驟為:建立積分圖像建立尺度空間小型無人機立體視覺目標追蹤定位方法(自動化)2300.png快速Hessian極值點檢測小型無人機立體視覺目標追蹤定位方法(自動化)2300.pngHaar小波建立描述算子小型無人機立體視覺目標追蹤定位方法(自動化)2300.png通過距離進行匹配。在進行特征點匹配誤差分析時,將視差的計算結果分成獨立的塊,定量測評每塊對匹配精度的影響。目前立體匹配算法大部分以此作為衡量算法優劣的標準。

    利用SURF算法提取感興趣區域的目標,通過匹配可以得到幾組分別來自左右兩幅圖像的坐標點,每組點的組成為(u1,v2,u2,v2),其中感興趣區域由目標追蹤部分給出,以降低時間開銷。根據前面的討論,已知圖像點坐標與世界點坐標的關系為

小型無人機立體視覺目標追蹤定位方法(自動化)2528.png 

采用Kalman濾波對所得位置數據進行處理,進而得到目標相對飛機的位置。

3  目標追蹤

    目前常用的目標追蹤算法有光流法、MeanShift算法、CamShift算法、Kalman濾波和粒子濾波等。每種算法均有自己的優勢和劣勢,需要根據實際應用采用合適的算法,或者對不同算法進行結合。比如將粒子濾波和均值漂移法相結合,或借助Kalman濾波算法比較強的魯棒性,通過Kalman濾波算法估計物體的運動信息,以此解決遮擋和類似顏色物體存在造成的跟蹤問題。如果物體運動隨機性較大,則Kalman濾波算法會失效。因此,還需要結合其他算法或者研究新的追蹤算法,同時還要保證實時性的要求。

    本文采用改進CamShift算法進行目標跟蹤?;镜?/font>CamShift算法流程如圖5所示。

小型無人機立體視覺目標追蹤定位方法(自動化)2872.png小型無人機立體視覺目標追蹤定位方法(自動化)2873.png 

  在此基礎上主要進行了如下改進。

  1)圖像的預處理和顏色閾值的選取。

  試驗所用網絡攝像頭白帶真彩處理功能,且右攝像頭拍攝的圖像對比度比左攝像頭的高。因此,提高左攝像頭圖像的對比度并分析目標在兩幅圖像的HSVH分量的直方圖,選取最大值作為閾值。

  2)運動的預測降低相似目標干擾。

  假設目標連續3次位置變化中方向和運動速度均不變,用近2次的目標位置信息可估計下一次目標可能的位置,在一定程度上可濾除視野中與目標顏色一致的靜止干擾物。

  至此,本文的3大環節已基本實現。圖6所示為整個算法的實現示意圖。其中,虛線框內的雙目標定部分為離線實現,其余均為在線實現。

小型無人機立體視覺目標追蹤定位方法(自動化)3164.png 

4結果分析

    如圖7所示,采用MTI-28A53G352,STM32( CortexM3),2軸無刷電機云臺和雙目視覺平臺搭建基于雙目視覺平臺的目標追蹤系統,IMU的輸出可以控制云臺轉動。

小型無人機立體視覺目標追蹤定位方法(自動化)3264.png 

    如圖8、圖9所示,在室內環境下,地面目標以0. 33

m/s的速度做定速無規則運動,在攝像頭固定和運動兩

種情況下做試驗。

小型無人機立體視覺目標追蹤定位方法(自動化)3332.png小型無人機立體視覺目標追蹤定位方法(自動化)3333.png 

    8實際測量地面機器人中心點與攝像頭的距離

86 cm,機器人直徑約30 cm。保持地面機器人不

動,攝像頭在原位置做近似俯仰運動,測得的機器人位

置信息如表1所示。將解算的位置信息與實際測量數

據對比,平均誤差約10 cm。

小型無人機立體視覺目標追蹤定位方法(自動化)3454.png    

9是對地面機器人的追蹤。從左到右、從上到下分別選取了第9幀、第13幀、第25幀、第33幀、第40幀、第54幀、第70幀、第75幀、第80幀、第84幀、108幀、第135幀的左攝像機拍到的圖像,追蹤效果

良好,而且即便是地面機器人從視野中消失,只要能重回視野,依然能追蹤得上。當攝像頭與目標相對速度低于1.5 m/s,距離在3m以內時,跟蹤效果良好。

5結論

    本文將雙目視覺和目標追蹤相結合,在對特定目標追蹤的同時,能夠得到目標的位置信息。當小型無人機與目標相對速度小于1.2 m/s,距離小于3m時,跟蹤效果良好,滿足小型無人機在室內環境下對雙目視覺系統的要求,同時如果在該方案基礎上進行相應改動可以實現低于3m的飛行高度測量以及避障,這對小型無人機在無GPS的室內環境的應用具有很大的意義。

關鍵字:
Copyright©2014安裝信息網 www.maeruknoo.com. All rights reserved.
服務熱線:0371-61311617 郵箱:zgazxxw@126.com 豫ICP備18030500號-4
未經過本站允許,請勿將本站內容傳播或復制
安全聯盟認證
91小草欧美性爱-97在线观看视频-99久久免费精品高清特色大片-国产2021中文天码字幕