在復雜的城市場景中實現自動駕駛需要全面且準確地感知環境。傳統的3D感知方法重于目標檢測,缺乏環境細節信息的稀疏表示。3D占用預測方法能夠估計車輛周圍的3D占用,讓自動駕汽車獲得更全面的場景表示。稠密的3D占用預測提供了準確性,但也提高了計算需求;而全稀疏的3D占用預測效率高,但是缺乏細節信息。
為此,紐約大學聯合博世集團提出一個更靈活且高效的自適應分辨率占用預測框架AdaOcc,能夠在各種駕駛場景中實現精確的 3D 語義占用預測。

AdaOcc將以目標為中心的3D重建和整體占用預測集成到一個框架內,僅在在感興趣區域(ROIs)進行高分辨率的3D重建,同時在其他區域保持較低分辨率,以實現計算資源的優化分配。這種方法不僅提高了關鍵區域的細節捕捉能力,而且通過點云表示高細節的3D表面,突破了傳統占用網格分辨率的限制,從而在保持整體計算效率的同時,顯著提升了自動駕駛車輛的環境感知精度。

通過在nuScenes數據集上進行全面實驗,證明了AdaOcc相比于現有方法有了明顯提升,能夠在各種駕駛場景中提供準確的3D語義占用預測。在近距離場景中,AdaOcc在IOU上超過先前的基線13%,在Hausdorff距離上超過了40%。
11月19日上午10點,智猩猩邀請到論文一作、紐約大學 AI4CE 實驗室在讀博士陳超參與「智猩猩自動駕駛新青年講座」第41講,主講《面向自動駕駛的自適應分辨率占用預測方法AdaOcc》。
講者
陳超,紐約大學 AI4CE 實驗室在讀博士
陳超,紐約大學 AI4CE 實驗室的計算機科學專業博士最后一年在讀生。我的研究方向是機器人學、計算機視覺和機器學習,目標是成為機器人領域的全棧研究員。
第 41 講
主 題
《面向自動駕駛的自適應分辨率占用預測方法AdaOcc》
提 綱
1、混合分辨率占用預測的重要性
2、以物體為中心3D占用預測的重要性
3、利用AdaOcc實現精確的3D語義占用預測
4、與先前方法的對比及分析
5、總結與后續工作
?直 播 信 息?
直播時間:11月19日10:00
成果
論文標題《AdaOcc: Adaptive-Resolution Occupancy Prediction》
論文鏈接//arxiv.org/abs/2408.13454
如何報名
有講座直播觀看需求的朋友,可以添加小助手“陳新”進行報名。已添加過“陳新”的老朋友,可以給“陳新”私信,發送“自動駕駛41”進行報名。對于通過報名的朋友,之后將邀請入群進行觀看和交流。
