自2019年起,百度Apollo開發者社區在智東西公開課持續推出十場專場公開課,對Apollo中的激光雷達感知、仿真可視化、高精地圖與定位、預測引擎、低速微型車開發套件、軟件包開發以及自動駕駛決策規劃與DRL架構等核心技術和解決方案進行了深入講解。錯過直播的朋友可以點擊文章底部“閱讀原文”進行回看。
11月30日,「百度Apollo技術公開課第11講」將開講。在這一講中,百度研發工程師小胡老師將圍繞主題《Apollo感知工程框架設計與實踐》進行講解。
Apollo 自動駕駛感知的開發流程可以分為模型訓練、模型部署,測試和驗證三個步驟:
(1)模型訓練:根據 Camera 感知、Lidar 感知等任務類型,選擇對應的模型。目前常見的 2D 圖像目標識別模型有 YOLO, Faster-RCNN 等,常見的Lidar目標識別模型有 Pointpil1lar 等,開發者可以根據自己的需要選擇好對應的模型,然后采用公開數據集或者自己采集數據來訓練模型。訓練完模型之后,那么接下來就需要把模型部署到Apollo。
(2)模型部署:根據類型的不同,Apollo 中的感知任務分為紅綠燈識別、車道線檢測、目標識別和跟蹤等。每個任務實際上是一個任務流水線,分為幾個步驟來完成。每個步驟稱為一個 stage,每個 stage 中可以選擇一個或者幾個算法插件 (plugin)。這樣開發者可以根據需要開發新的任務流水線,或者沿用當前的任務流水線,替換不同的算法插件。部署完成之后接下來要測試和驗證模型的效果。
(3)測試和驗證:開發者就可以通過播放 record 包的形式或者實際上車測試進行驗證,通過可視化工具來查看感知結果。
在最新的Apollo Beta公測版中,Apollo不僅對感知框架與模型進行了升級,還在工程框架引入軟件包管理(模塊軟件包和buildtool工具)。從而讓開發者可以使用軟件包的方式啟動Apollo感知,并通過播放 Apollo record 數據包觀察感知激光雷達運行過程中的檢測結果。
本次公開課中,小胡老師首先會介紹Apollo感知框架升級思路與方案,之后將重點講解任務流水線設計。最后,他也會演示使用Apollo模型管理工具。
「百度Apollo技術公開課第11講」將以視頻直播形式進行,包含40分鐘主講和20分鐘問答。同時,針對本次公開課,也組建了專屬交流群,屆時小胡老師也將加入,歡迎感興趣的開發者申請。