機器人房間內怎麼定位
Ⅰ 掃地機器人是如何做室內定位的
掃地機器人的定位都是室內定位,其要求定位精度高(最少在亞米級),實時性好,GPS、基站定位等方法無法滿足。掃地機器人定位總體上可以分為相對定位和絕對定位,下面我們分別來看。
相對定位法
航位推演算法(Dead-Reckoning Method)是一種經典的相對定位法,也是掃地機器人目前最為廣泛使用的一種定位方法。它利用機器人裝備的各種感測器獲取機器人的運動動態信息,通過遞推累計公式獲得機器人相對初試狀態的估計位置。航位推算較常使用的感測器一般有:碼盤,慣性感測器(如陀螺儀、加速度計)等。
碼盤法一般使用安裝在車輪上的光電碼盤記錄車輪的轉數,進而獲得機器人相對於上一采樣時刻位置和姿態的改變數,通過這些位移量的累積就可以估計機器人的位置。碼盤法優點是方法簡單、價格低廉,但其容易受標定誤差、車輪打滑、顛簸等因素影響,誤差較大。但是由於碼盤價格便宜,簡單易用,可用於機器人較短時間距離內的位置估計。
慣性感測器使用陀螺儀和加速度計得到機器人的角加速度和線加速度信息,通過積分獲得機器人的位置信息。一般情況下,使用慣性感測器的定位精度高於碼盤,但是其精度也要受陀螺儀漂移、標定誤差、敏感度等問題影響。無論是使用碼盤還是慣性感測器,它們都存在一個共同的缺點:有累積誤差,隨著行駛時間、距離的不斷增加,誤差也不斷增大。因此相對定位法不適合於長時間、長距離的精確定位。
絕對定位法
絕對定位法是指機器人通過獲得外界一些位置等己知的參照信息,通過計算自己與參照信息之間的相互關系,進而解算出自己的位置。。絕對定位主要採用基於信標的定位、環境地圖模型匹配定位、視覺定位等方法。
基於信標的定位
信標定位原指在航海或航空中利用無線電基站發出的無線電波實現定位與導航的技術。對機器人室內定位而言是指,機器人通過各種感測器接收或觀測環境中已知位置的信標,經過計算得出機器人與信標的相對位置,再代入已知的信標位置坐標,解出機器人的絕對坐標來實現定位。用於定位的信標需滿足3個條件:
(1)信標的位置固定且信標的絕對坐標已知;
(2)信標具有主被動特徵,易於辨識;
(3)信標位置便於從各方向觀測。
信標定位方式主要有三邊測量和三角測量 。三邊測量是根據測量得到的機器人與信標的距離來確定移動機器人位置的方法。三邊測量定位系統至少需要3個已知位置的發射器(或接收器),而接收器(或發射器)安裝在移動機器人上。三角測量和三邊測量的思路大體一致,通過測量移動機器人與信標之間的角度來進行定位。
基於信標的定位系統依賴於一系列環境中已知特徵的信標,並需要在移動機器人上安裝感測器對信標進行觀測。用於信標觀測的感測器有很多種,比如超聲波感測器、激光雷達、視覺感測器等。可以實時測量,沒有累進誤差,精度相對較高、穩定性好,提供快速、穩定、精確的絕對位置信息,但安裝和維護信標花費很高。市場上已經出現較為成熟的基於信標定位的信標定位掃地機器人,如Proscenic的模擬GPS衛星三點定位技術,iRobot的Northstar導航定位技術,但由於其價格較為昂貴,它們都用於相對高端的產品中。
環境地圖模型匹配定位
是機器人通過自身的各種感測器探測周圍環境,利用感知到的局部環境信息進行局部的地圖構造,並與其內部事先存儲的完整地圖進行匹配。通過匹配關系獲得自己在全局環境中的位置,從而確定自身的位置。該方法由於有嚴格的條件限制,只適於一些結構相對簡單的環境。
基於視覺的定位
科學研究統計表明,人類從外界獲得信息量約有75%來自視覺,視覺系統是機器人與人類感知環境最接近的探測方式。受益於模式識別、機器視覺的發展,基於視覺的機器人定位近年來成為研究熱點。
基於視覺的定位主要分為單目視覺、雙目視覺。
單目視覺無法直接得到目標的三維信息,只能通過移動獲得環境中特徵點的深度信息,適用於工作任務比較簡單且深度信息要求不高的情況,如果利用目標物體的幾何形狀模型,在目標上取3個以上的特徵點也能夠獲取目標的位置等信息,但定位精度不高。
雙目立體視覺三維測量是基於視差原理的,即左相機像面上的任意一點只要能在右相機像面,上找到對應的匹配點,就可以確定出該點的三維信息,從而獲取其對應點的三維坐標。目前,基於視覺定位的掃地機器人也已有產品推出,iRobot和Dyson分別於2015年及2014年推出了基於視覺定位的高端掃地機器人 RoomBa980和360Eye。
Ⅱ 機器人室內定位可以用Nokov的捕捉系統嗎
完全可以,而且精度很高。Nokov度量光學三維動作捕捉系統可採集人或其它生物的六自由度的回運動答軌跡和運動學數據,並進行數據處理。能夠獲取機器人的三維位置數據(三維空間坐標),所以可以准確的進行機器人室內定位,這款產品可以跟國外技術媲美,高精度,低延遲,沒有累積誤差,採集頻率高,技術已經相當成熟了。
Ⅲ 很想了解一下機器人室內定位方面的資料,可以用Nokov的捕捉系統嗎
Nokov的捕捉系統是可以實現機器人定位的,而且精度很高。這個系統採集人或其它生物的內六自由度的運動軌跡和容運動學數據,並進行數據處理。能夠獲取機器人的三維位置數據,所以可以准確的進行機器人定位,這款產品可以跟國外技術媲美,高精度,低延遲,沒有累積誤差,採集頻率高,技術已經相當成熟了,建議可以上產品官網了解更多更詳細的信息。
Ⅳ 如果要實現機器人空間定位可以採用什麼設備
你好,要實現機器人空間定位一般都是在機器人編程程序上來操作的,設置好程序,就可以根據你的要求來定位了。
Ⅳ 室內機器人定位的難點有哪些
理論上講,室復內定位制不算難。
最簡單的方式如果汽車的倒車雷達,多安幾個就能給上下左右前後的位置定位了。
如果安裝類似GPS的定位,應該不值得。
主要還是看使用功能,也就是定位的功能是什麼。
如果是讓機器人去房間某個角落自動充電,那可能有個特殊聲源或信號源就夠了。
Ⅵ 掃地機器人是如何做室內定位的
有程序的吧
Ⅶ 怎樣讓機器人在空間中尋找一個物體
我的設計:可以給機器人上加上超聲波感測器、顏色感測器、蜂鳴器、專qti感測器。是在一定的區域,屬已知的物體,qti感測器可以讓他在這個區域不停尋找,等超聲波發現物體後停止、顏色感測器再去檢查顏色是不是要尋找物體,如果是的話蜂鳴器發出叫聲~~告訴主人已找到物體,如果不是蜂鳴器不響,機器人繼續尋找~~
Ⅷ 哪位大神能提供一個室內機器人精確定位的方案
目前市面上解決導航定位常見的方法中,電磁導航簡單且比較成熟,成本雖低,但鋪版設麻煩;利用WiFi、藍權牙、UWB等進行定位,其信號容易衰減,精度差;利用視覺進行導航,長距離高像素處理,速度會變慢,實時性不好。
實現機器人的自主定位導航,目前激光SLAM技術相對比較成熟,穩定憑借穩定、可靠、高性能等技術優勢,成為機器人定位導航的核心技術。國內SLAMTEC推出的機器人定位導航開發套件激光雷達RPLIDAR系列與定位導航控制核心技術SLAMWARE,可使機器人實現自主定位、自動建圖、路徑規劃與自動避障。
Ⅸ 室內機器人怎麼定位
機器人的室內定位技術
我們經常會在路上聽到或看到有關導航和定位的信息,但什麼是「室內定位」
呢?在一些GPS無法工作的環境(如建築物內部)中,你將用什麼工具來尋找路線呢?如果遭受災難襲擊或者被困在某處時,救援人員如何發現你呢?家用機器人室內如何導航呢?
新的技術為室內定位提供可能
5年或者10年以前,業界就已經意識到GPS存在缺陷,例如它無法在室內正常工作(在這種環境中,GPS定位很慢甚至不可能,而且不夠准確)。E911政策要求移動運營商定位用戶手機必須達到一定的精度。這些運營商是第一個遇到這些問題的人。
GPS逐漸演化為輔助全球定位系統(A-GPS),它使用設備的GPS晶元和行動電話網路(cellular network)來實現定位。然而,由於運營商的網路費用問題,A-GPS還沒有被商業LBS服務所使用。因此,Wi-Fi地理定位就成了一項替代技術。在存在Wi-Fi 接入點的地方,Wi-Fi的定位精度可達20米。正如我們在「簽到(check-in)」中看到的一樣,Wi-Fi還無法准確地顯示用戶簽到地點的准確位置。藍牙則是一種微觀層次上的技術,許多建築物內都正在使用這項技術,因此具有藍牙功能的手機可以利用這一服務。「全球定位系統 —— Wi-Fi ——藍牙——射頻識別技術」串起了定位技術發展的主線,設備需要盡量接近於Wi-Fi接入點或者藍牙節點,設備中的感測器、陀螺儀、羅盤、加速計等都可以為導航和追蹤提供「輔助」數據。
國際室內定位技術的發展
Skyhook 和Navizon都是Wi-Fi定位的領軍企業。接下來,他們正在准備融入更為廣闊的定位技術和服務,即不斷地與GPS晶元製造商或者原始設備製造商(OEM)進行合作,例如蘋果公司(Skyhook已嵌入到iPhone中)。移動運營商也已經意識到Wi-Fi定位將極大地縮短首次定位時間(TTFF),僅使用GPS的話,首次定位時間可能會大於1分鍾;使用A-GPS,首次定位時間可縮短到12秒;如果使用Wi-Fi,這一時間僅為2秒。因此,對於iPhone手機用戶而言,70%的定位服務都是通過Wi-Fi定位來實現的,而並非GPS。
Rosum公司是由一些GPS架構師創辦的,他們深知GPS無法在室內正常工作,因此希望找到一種替代方案。該方案利用數字式電視基站技術實現定位,通過為電視信號嵌入時間碼,從而獲取用戶的位置信息。在過去的幾年裡,Rosum公司一直在致力於生產一種小到可以嵌入設備的晶元。該晶元對於手機而言還是顯得有些大,不過將其電視晶元嵌入筆記本電腦中已經不成問題。
Ⅹ 機器人抓取時怎麼定位的用什麼感測器來檢測
機器人家上了解到,機器人領域的視覺(Machine Vision)跟計算機領域(Computer Vision)的視覺有一些不同:機器視覺的目的是給機器人提供操作物體的信息。所以,機器視覺的研究大概有這幾塊:
物體識別(Object Recognition):在圖像中檢測到物體類型等,這跟 CV 的研究有很大一部分交叉;
位姿估計(Pose Estimation):計算出物體在攝像機坐標系下的位置和姿態,對於機器人而言,需要抓取東西,不僅要知道這是什麼,也需要知道它具體在哪裡;
相機標定(Camera Calibration):因為上面做的只是計算了物體在相機坐標系下的坐標,我們還需要確定相機跟機器人的相對位置和姿態,這樣才可以將物體位姿轉換到機器人位姿。
當然,我這里主要是在物體抓取領域的機器視覺;SLAM 等其他領域的就先不講了。
由於視覺是機器人感知的一塊很重要內容,所以研究也非常多了,我就我了解的一些,按照由簡入繁的順序介紹吧:
0. 相機標定
這其實屬於比較成熟的領域。由於我們所有物體識別都只是計算物體在相機坐標系下的位姿,但是,機器人操作物體需要知道物體在機器人坐標系下的位姿。所以,我們先需要對相機的位姿進行標定。 內參標定就不說了,參照張正友的論文,或者各種標定工具箱; 外參標定的話,根據相機安裝位置,有兩種方式:
Eye to Hand:相機與機器人極坐標系固連,不隨機械臂運動而運動
Eye in Hand:相機固連在機械臂上,隨機械臂運動而運動 兩種方式的求解思路都類似,首先是眼在手外(Eye to Hand)
只需在機械臂末端固定一個棋盤格,在相機視野內運動幾個姿態。由於相機可以計算出棋盤格相對於相機坐標系的位姿 、機器人運動學正解可以計算出機器人底座到末端抓手之間的位姿變化 、而末端爪手與棋盤格的位姿相對固定不變。 這樣,我們就可以得到一個坐標系環
而對於眼在手上(Eye in Hand)的情況,也類似,在地上隨便放一個棋盤格(與機器人基座固連),然後讓機械臂帶著相機走幾個位姿,然後也可以形成一個 的坐標環。
1. 平面物體檢測
這是目前工業流水線上最常見的場景。目前來看,這一領域對視覺的要求是:快速、精確、穩定。所以,一般是採用最簡單的邊緣提取+邊緣匹配/形狀匹配的方法;而且,為了提高穩定性、一般會通過主要打光源、採用反差大的背景等手段,減少系統變數。
目前,很多智能相機(如 cognex)都直接內嵌了這些功能;而且,物體一般都是放置在一個平面上,相機只需計算物體的 三自由度位姿即可。 另外,這種應用場景一般都是用於處理一種特定工件,相當於只有位姿估計,而沒有物體識別。 當然,工業上追求穩定性無可厚非,但是隨著生產自動化的要求越來越高,以及服務類機器人的興起。對更復雜物體的完整位姿 估計也就成了機器視覺的研究熱點。
2. 有紋理的物體
機器人視覺領域是最早開始研究有紋理的物體的,如飲料瓶、零食盒等表面帶有豐富紋理的都屬於這一類。 當然,這些物體也還是可以用類似邊緣提取+模板匹配的方法。但是,實際機器人操作過程中,環境會更加復雜:光照條件不確定(光照)、物體距離相機距離不確定(尺度)、相機看物體的角度不確定(旋轉、仿射)、甚至是被其他物體遮擋(遮擋)。
幸好有一位叫做 Lowe 的大神,提出了一個叫做 SIFT (Scale-invariant feature transform)的超強局部特徵點: Lowe, David G. "Distinctive image features from scale-invariant keypoints."International journal of computer vision 60.2 (2004): 91-110. 具體原理可以看上面這篇被引用 4萬+ 的論文或各種博客,簡單地說,這個方法提取的特徵點只跟物體表面的某部分紋理有關,與光照變化、尺度變化、仿射變換、整個物體無關。 因此,利用 SIFT 特徵點,可以直接在相機圖像中尋找到與資料庫中相同的特徵點,這樣,就可以確定相機中的物體是什麼東西(物體識別)。
對於不會變形的物體,特徵點在物體坐標系下的位置是固定的。所以,我們在獲取若干點對之後,就可以直接求解出相機中物體與資料庫中物體之間的單應性矩陣。 如果我們用深度相機(如Kinect)或者雙目視覺方法,確定出每個特徵點的 3D 位置。那麼,直接求解這個 PnP 問題,就可以計算出物體在當前相機坐標系下的位姿。
↑ 這里就放一個實驗室之前畢業師兄的成果 當然,實際操作過程中還是有很多細節工作才可以讓它真正可用的,如:先利用點雲分割和歐氏距離去除背景的影響、選用特徵比較穩定的物體(有時候 SIFT 也會變化)、利用貝葉斯方法加速匹配等。 而且,除了 SIFT 之外,後來又出了一大堆類似的特徵點,如 SURF、ORB 等。
3. 無紋理的物體
好了,有問題的物體容易解決,那麼生活中或者工業里還有很多物體是沒有紋理的:
我們最容易想到的就是:是否有一種特徵點,可以描述物體形狀,同時具有跟 SIFT 相似的不變性? 不幸的是,據我了解,目前沒有這種特徵點。 所以,之前一大類方法還是採用基於模板匹配的辦法,但是,對匹配的特徵進行了專門選擇(不只是邊緣等簡單特徵)。
簡單而言,這篇論文同時利用了彩色圖像的圖像梯度和深度圖像的表面法向作為特徵,與資料庫中的模板進行匹配。 由於資料庫中的模板是從一個物體的多個視角拍攝後生成的,所以這樣匹配得到的物體位姿只能算是初步估計,並不精確。 但是,只要有了這個初步估計的物體位姿,我們就可以直接採用 ICP 演算法(Iterative closest point)匹配物體模型與 3D 點雲,從而得到物體在相機坐標系下的精確位姿。
當然,這個演算法在具體實施過程中還是有很多細節的:如何建立模板、顏色梯度的表示等。另外,這種方法無法應對物體被遮擋的情況。(當然,通過降低匹配閾值,可以應對部分遮擋,但是會造成誤識別)。 針對部分遮擋的情況,我們實驗室的張博士去年對 LineMod 進行了改進,但由於論文尚未發表,所以就先不過多涉及了。
4. 深度學習
由於深度學習在計算機視覺領域得到了非常好的效果,我們做機器人的自然也會嘗試把 DL 用到機器人的物體識別中。
首先,對於物體識別,這個就可以照搬 DL 的研究成果了,各種 CNN 拿過來用就好了。有沒有將深度學習融入機器人領域的嘗試?有哪些難點? - 知乎 這個回答中,我提到 2016 年的『亞馬遜抓取大賽』中,很多隊伍都採用了 DL 作為物體識別演算法。 然而, 在這個比賽中,雖然很多人採用 DL 進行物體識別,但在物體位姿估計方面都還是使用比較簡單、或者傳統的演算法。似乎並未廣泛採用 DL。 如 @周博磊 所說,一般是採用 semantic segmentation network 在彩色圖像上進行物體分割,之後,將分割出的部分點雲與物體 3D 模型進行 ICP 匹配。
當然,直接用神經網路做位姿估計的工作也是有的
它的方法大概是這樣:對於一個物體,取很多小塊 RGB-D 數據(只關心一個patch,用局部特徵可以應對遮擋);每小塊有一個坐標(相對於物體坐標系);然後,首先用一個自編碼器對數據進行降維;之後,用將降維後的特徵用於訓練Hough Forest。
5. 與任務/運動規劃結合
這部分也是比較有意思的研究內容,由於機器視覺的目的是給機器人操作物體提供信息,所以,並不限於相機中的物體識別與定位,往往需要跟機器人的其他模塊相結合。
我們讓機器人從冰箱中拿一瓶『雪碧』,但是這個 『雪碧』 被『美年達』擋住了。 我們人類的做法是這樣的:先把 『美年達』 移開,再去取 『雪碧』 。 所以,對於機器人來說,它需要先通過視覺確定雪碧在『美年達』後面,同時,還需要確定『美年達』這個東西是可以移開的,而不是冰箱門之類固定不可拿開的物體。 當然,將視覺跟機器人結合後,會引出其他很多好玩的新東西。由於不是我自己的研究方向,所以也就不再班門弄斧了。