近日,思嵐科技CTO黃玨珅在第三屆中國人工智能與機器人開發(fā)者大會(CAIRDC 2020)線上論壇【視覺、感知、多傳感器融合】上,分享了《利用多傳感器融合技術解決機器人可靠定位問題》。
思嵐科技CTO黃玨珅認為,要解決機器人的可靠定位,就是要讓機器人在未知環(huán)境中擁有自主移動的能力。
「在日常生活中,我們對機器人的期望有很多,比如貨物搬運、移動銷售、購物引導、安保巡邏、家庭清潔……,那機器人就必須具備一個共同點【自主移動】,就要解決三大哲學問題,“我在哪兒?我要去哪里?我要怎么去?”」
機器人如何像人一樣,看見“物理”世界呢?如果按照人的邏輯,應該要有一個“camera”來充當TA的眼睛。但是單目攝像頭缺乏尺度信息,無法直接用于導航;雙目攝像頭對環(huán)境光比較敏感,無法穩(wěn)定工作。
激光雷達可以直接獲取尺度信息,適合后期SLAM。
激光雷達相對攝像頭來說,不僅可以直接獲取周圍的環(huán)境、尺度信息,而且數據量小,適合后期SLAM。
RPLIDAR A3 地下車庫采集環(huán)境輪廓信息
激光雷達獲取的只是一個局部信息,還需要SLAM算法
思嵐科技CTO黃玨珅在線上分享中還提到:單線激光雷達目前獲取到的只是一個局部的信息,無法解決機器人的“三大問題”。所以,我們還需要SLAM算法。至此,我們要了解一些有關SLAM的名詞,比如ICP(Iterative Closest Point)、Particle Filter、Graph SLAM等等。
SLAM 3.0, 構建滿足導航需求的地圖
我們目前最新的算法SLAM3.0就是采用圖優(yōu)化方式進行構圖,能實現100,000+平米級別的地圖構建能力,同時擁有主動式回環(huán)閉合糾正能力,能很好的消除長時間運行導致的里程累計誤差,成為目前行業(yè)中最受歡迎的定位導航方式。
再也不需要面對“能力不夠,人力來湊”的尷尬局面了。
183m*110m
200m*180m
相比較粒子濾波每次直接將傳感器數據更新進入柵格地圖進行增量式構建的做法,SLAM3.0存儲地圖構建過程中調整了圖結構中每個節(jié)點的pose和對應的傳感器信息以及所有關鍵點構建的位姿關系圖,利用全部的機器人位姿信息和對應傳感器數據生成環(huán)境地圖。
SLAM 3.0 編碼了機器人在SLAM過程中的位姿變化拓撲地圖,相關的拓撲信息
當機器人運動到已經探索過的原環(huán)境時, SLAM 3.0可依賴內部的拓撲圖進行主動式的閉環(huán)檢測。當發(fā)現了新的閉環(huán)信息后,SLAM 3.0使用Bundle Adjuestment(BA)等算法對原先的位姿拓撲地圖進行修正(即進行圖優(yōu)化),從而能有效的進行閉環(huán)后地圖的修正,實現更加可靠的環(huán)境建圖。且在邊走邊建圖的過程中,不會產生拖尾,因為我們會對這些因素做濾波處理。
多傳感器數據融合,錦上添花
有了激光雷達和算法的助力,還需要多傳感器數據的融合,錦上添花。傳感器對收集到的信息進行有效處理和融合,能夠讓機器人更為直觀地判斷出周圍的環(huán)境,確保更多可靠的信息被利用,做出更智能,更類人的判斷,完成導航。
在最后的答疑環(huán)節(jié)中,思嵐科技CTO黃玨珅表示依然會看好多傳感器對機器人產業(yè)的影響,未來自主移動也會越來越“智能”。技術突破上,激光雷達會變得越來越小巧,SLAM算法也會越來越高級。他還表示,傳感器之間是融合關系而不是替代關系。將這些多傳感器技術融合在一起,提供原先單一傳感器做不到的效果。
關鍵字:机器人,思岚科技,多传感器融合