近日,哈爾濱工業(yè)大學(xué)教授劉賢明團隊在具身智能領(lǐng)域取得重要進展,提出了一種基于隱式神經(jīng)網(wǎng)絡(luò)的6D物體位姿優(yōu)化方法,顯著提升了物體定位的精度與效率。相關(guān)成果發(fā)表《IEEE機器人匯刊》。
6D位姿估計(包含3D旋轉(zhuǎn)和3D平移)是機器人抓取、增強現(xiàn)實等應(yīng)用的核心技術(shù)。傳統(tǒng)方法依賴迭代最近點算法進行位姿優(yōu)化,但迭代最近點需要顯式建立點云與3D模型的一一對應(yīng)關(guān)系,容易陷入局部最優(yōu)且對噪聲和遮擋敏感。
針對這一問題,研究團隊提出了一種基于隱式神經(jīng)網(wǎng)絡(luò)的優(yōu)化框架,通過將目標物體的3D模型編碼為符號距離場,直接優(yōu)化點云與模型表面的距離,無需顯式匹配對應(yīng)點。該方法具有多種優(yōu)勢:一是高效性,離線訓(xùn)練僅需4-5分鐘,在線優(yōu)化實時完成;二是魯棒性,對初始位姿偏差大、噪聲、尺度變化及遮擋等復(fù)雜場景表現(xiàn)優(yōu)異;三是通用性,可無縫集成至現(xiàn)有位姿估計流程,無需額外標注數(shù)據(jù)。
該技術(shù)可廣泛應(yīng)用于工業(yè)機器人精準抓取、自動駕駛環(huán)境感知、AR/VR交互等領(lǐng)域。
相關(guān)論文信息:https://ieeexplore.ieee.org/document/10970084
本文鏈接:http://jphkf.cn/news-8-4680-0.html新方法實現(xiàn)6D物體位姿快速精準優(yōu)化
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇:“晨曦計劃”:重塑基礎(chǔ)學(xué)科人才培養(yǎng)鏈的催化劑
下一篇:二氧化碳“捕集封存”有了新思路
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕