《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 嵌入式技術(shù) > 設(shè)計應(yīng)用 > 雙目視覺在助老助殘機器人定位系統(tǒng)中的應(yīng)用
雙目視覺在助老助殘機器人定位系統(tǒng)中的應(yīng)用
2016年微型機與應(yīng)用第13期
劉圭圭,樊炳輝,王傳江,張凱麗
(山東科技大學(xué) 機器人研究中心,,山東 青島 266590)
摘要: 為幫助上肢活動不便的老人,、殘疾人完成自主進(jìn)食等行為,開發(fā)了一套基于雙目視覺的助老助殘機器人定位系統(tǒng),。通過藍(lán)色激光引導(dǎo)實現(xiàn)對雙目相機視野范圍內(nèi)任意物體的定位,。采用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建定位實驗系統(tǒng),定位誤差在1.2 cm范圍內(nèi),,滿足對助老助殘機器人定位精度的要求,。
Abstract:
Key words :

  劉圭圭,樊炳輝,王傳江,張凱麗

 ?。ㄉ綎|科技大學(xué) 機器人研究中心,山東 青島 266590)

  摘要:為幫助上肢活動不便的老人,、殘疾人完成自主進(jìn)食等行為,,開發(fā)了一套基于雙目視覺助老助殘機器人定位系統(tǒng)。通過藍(lán)色激光引導(dǎo)實現(xiàn)對雙目相機視野范圍內(nèi)任意物體的定位,。采用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建定位實驗系統(tǒng),,定位誤差在1.2 cm范圍內(nèi),滿足對助老助殘機器人定位精度的要求,。

  關(guān)鍵詞:雙目視覺,;助老助殘;機器人,;定位

0引言

  助老助殘機器人即為幫助那些身體功能缺失或嚴(yán)重喪失的老人,、殘疾人實現(xiàn)獨立生活的一類機器人。雙目視覺即為通過位于不同視角的兩個相機模擬人類視覺原理,,實現(xiàn)對空間中三維物體的定位,。雙目視覺已廣泛應(yīng)用于機器人導(dǎo)航、場景重建,、虛擬現(xiàn)實等領(lǐng)域[13],。

  本文簡單介紹了雙目視覺原理,利用多自由度助老助殘機器人和Bumblebee2立體視覺系統(tǒng)構(gòu)建的定位系統(tǒng),,進(jìn)行了空間三維定位實驗,。

1雙目視覺原理

  本文采用平行光軸雙目視覺,其原理如圖1所示。左右兩臺完全相同的相機精確位于同一平面上,,主光線嚴(yán)格平行,,相對位置固定,主點(clx,cly)和(crx,cry)在左右兩幅圖像上具有相同的像素坐標(biāo),。T(基線長度)為兩臺相機中心之間的距離,。左右相機成像平面坐標(biāo)系分別為OlXlYl和OrXrYr,雙目相機坐標(biāo)系為OXYZ,。坐標(biāo)系OXYZ中任一點P(x,y,z)在兩成像平面坐標(biāo)系中分別對應(yīng)為點Pl(xl,yl)和點Pr(xr,yr),。點P在兩幅圖像中的y坐標(biāo)值是一樣的,即yl=yr=ylr,。根據(jù)三角幾何原理和小孔成像原理可得式(1):

  1.png

001.jpg

  假設(shè)d=xl-xr,,d稱之為視差(即為同一個空間點在兩幅圖像中位置的偏差),代入式(1)即可計算出點P在相機坐標(biāo)系下的三維坐標(biāo),如式(2):

  2.png

2實驗平臺

  實驗平臺主要包括多自由度助老助殘機器人和Bumblebee2雙目視覺系統(tǒng)兩個部分,。整個實驗平臺的硬件結(jié)構(gòu)如圖2所示,。

002.jpg

  2.1助老助殘機器人系統(tǒng)

  多自由度助老助殘機器人如圖3所示。結(jié)構(gòu)圖中1,、2,、3為伺服電機,,PC通過USB轉(zhuǎn)CAN總線的方式對其發(fā)送控制命令;4,、5為數(shù)字舵機,,通過USB轉(zhuǎn)RS485的方式對其施行控制;6為直流電機,,通過USB轉(zhuǎn)RS232與CortexM3底層控制器進(jìn)行通信,,之后由底層控制器對其進(jìn)行控制操作。機械臂的DH[4]參數(shù)模型如表1所示,。

 

003.jpg

  2.2雙目視覺系統(tǒng)

  Bumblebee203s2c是Point Grey Research公司的一款立體視覺產(chǎn)品,。采用兩個Sony CCD芯片,分辨率為640×480,,具有高速1394A接口,,全視場深度測量,實時3D數(shù)據(jù)轉(zhuǎn)換(3D點100萬像素/s),,相機位置偏差和鏡頭畸變可以自動校正,配套有靈活的軟件開發(fā)工具,。

  Bumblebee2左右兩相機之間的基線長度為12 cm,,每個相機的視場角為66°。根據(jù)上述兩個參數(shù),,可得雙目相機視場范圍,。圖4為實測坐標(biāo)系OXYZ的位姿。

 

004.jpg

  2.3二者之間的位置關(guān)系

  圖5為雙目相機坐標(biāo)系odxdydzd與世界坐標(biāo)系oxyz之間的位置關(guān)系,,圖中相機可繞xd軸旋轉(zhuǎn)(θ),。由圖中幾何關(guān)系及坐標(biāo)變換公式[5]可知,在相機坐標(biāo)系下的坐標(biāo)P=[pxpypz1]T,,轉(zhuǎn)換到世界坐標(biāo)系下的坐標(biāo)為[153-py×sin(θ)-pz×cos(θ),px+568,pz×sin(θ)-py×cos(θ)-286,1]T,。

 

005.jpg

3助老助殘機器人定位實驗

  3.1雙目視覺定位精度實驗

  將Bumblebee2相機固定,在其正前方沿垂直于相機平面的直線移動目標(biāo)物來測量Z的值,,測量范圍為260 mm~1 000 mm,,相鄰兩次測量位置間隔為20 mm。同樣的,,在Z=750 mm,,垂直于Z軸的平面上對X、Y值分別進(jìn)行測量,。為防止偶然誤差的出現(xiàn),,采用同一位置測量10次取平均值的方式來確定測量結(jié)果。真實值與測量值(部分)如表2所示,,各分量誤差關(guān)系曲線如圖6所示,。由表2可知,,雙目視覺定位誤差在5 mm范圍內(nèi)。

006.jpg

  3.2助老助殘機器人末端定位精度實驗

  室內(nèi)環(huán)境下,,通過鼠標(biāo)選擇目標(biāo)物的方式進(jìn)行了3組實驗,,目標(biāo)位置在相機坐標(biāo)系、世界坐標(biāo)系中的坐標(biāo)以及通過運動學(xué)逆向求解[67]獲得的各關(guān)節(jié)實際坐標(biāo),,如表3所示,。表3中誤差計算公式為:

        3.png

 

  由表3可知,助老助殘機器人末端定位誤差在1.2 cm范圍內(nèi),,滿足實驗要求,。

  3.3實驗效果

 

007.jpg

  實驗過程中通過藍(lán)色激光筆的引導(dǎo)來選擇定位目標(biāo),通過閾值分割等方法[89]進(jìn)行數(shù)字圖像處理,,主動確定激光點所指目標(biāo)點位置,。實驗效果如圖7所示。圖中目標(biāo)位置在相機坐標(biāo)系下的坐標(biāo)(單位:mm)為(-37.21,-17.03,264.33),,在世界坐標(biāo)系下的坐標(biāo)為(270.41,530.79,-523.43),,而手臂末端在世界坐標(biāo)系下的實際坐標(biāo)為(262,532,-520),誤差為9.16 mm,滿足實驗精度要求,。除此之外,,可以通過人嘴部識別[10]

  對嘴部進(jìn)行定位,還可以通過模板匹配方式來定位某一特定物體,。

4結(jié)論

  本文應(yīng)用雙目視覺對助老助殘機器人的操作目標(biāo)位置進(jìn)行定位,,并對定位精度進(jìn)行了實驗,精度限定在5 mm范圍內(nèi),。配合機械臂的運動,,末端定位精度在1.2 cm范圍內(nèi),滿足實驗要求,。但系統(tǒng)仍有需要改進(jìn)的地方,,比如控制器攜帶不方便,激光斑指引方法易受環(huán)境光照的影響等,。

參考文獻(xiàn)

 ?。?] 丁良宏,王潤孝,,馮華山,,等.立體視覺測程研究進(jìn)展[J].機器人,2011,33(1):119128.

  [2] 李丹程,,劉景明,,姜琳穎,等.基于柵格模型的雙目移動機器人三維場景重建[J].小型微型計算機系統(tǒng),,2012,33(4):873877.

 ?。?] 徐宇杰,,管會超,張宗衛(wèi),,等.基于人眼視覺原理的虛擬現(xiàn)實顯示模型[J].計算機應(yīng)用,,2015,35(10):29392944.

  [4] DENAVIT J,, HARTENBERG R S. A kinematic notation for lowerpair mechanisms based on matrices[J].Journal of Applied Mechanics ASME Transactons, 1965,22(2): 215221.

 ?。?] 蔡自興.機器人學(xué)(第三版)[M].北京:清華大學(xué)出版社,2015.

 ?。?] 馬漢波,,顏鋼鋒.基于DSP和FPGA的多軸運動控制系統(tǒng)設(shè)計[J].電子技術(shù)應(yīng)用,2013,39(3):3436.

 ?。?] 蔡自興.機器人學(xué)基礎(chǔ)[M].北京:機械工業(yè)出版社,,2009.

  [8] KRSTINIC D, SKELIN A K, MILATIC I, et al. Laser spot tracking based on modified circular hough transform and motion pattern analysis[J]. Sensors, 2014, 14(11):2011220133.

 ?。?] 曹世康,李東堅,許瑞華,等.基于最優(yōu)弧的激光光斑中心檢測算法[J].紅外與激光工程,2014,43(10):34923496.

 ?。?0] 勒薇,張建奇,,張翔.基于局部梯度算子的嘴部檢測與定位[J].光電工程,,2009,36(10):135140.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載,。