智東西(公眾號:zhidxcom)
編譯 |?熊大寶
編輯 |?李水青
智東西4月25日消息,近日,艾倫人工智能研究所推出AI框架A12-THOR?3.0版本,新增視覺對象操作框架ManipulaTHOR,提高機器人手臂對物體的視覺識別操作能力。
ManipulaTHOR可以使機器人在復雜環境中進行快速訓練,比當前在現實世界的訓練方法更快、更安全,成本效益更高。

▲ManipulaTHOR框架特點
艾倫人工智能研究所(Allen Inst for Artificial Intelligence)成立于2014年,由微軟聯合創始人保羅·艾倫(Paul Allen)與他人共同創立,是一家非營利性研究機構,宗旨是通過高影響力的人工智能研究為人類做出貢獻。
艾倫人工智能研究所的A12-THOR框架是首個在100多個視覺豐富化、物理化的虛擬房間場景下研究機器人操作問題的測試框架。
一、高度關節化手臂,復雜場景下精確抓取
眾所周知,讓機器人實現精確感知、導航、行動有一定技術門檻,讓機器人進行物體操縱則更難。
物體操縱是機器人學的一個既定研究領域,具體研究包括操縱器運動、抓取和長視距規劃、視覺推理等。其中,視覺推理一直是研究人員最大的困境之一。
艾倫人工智能研究所CEO奧倫·埃齊奧尼(Oren Etzioni)指出,讓機器人在現實世界執行系列動作是機器人技術中最大但經常被忽視的挑戰之一。“讓一個機器人在廚房里導航,再打開冰箱拿出一罐蘇打水,是很難的。”

▲機器人在廚房虛擬場景下到達指定位置抓取指定物體
更新的ManipulaTHOR框架中有一個虛擬機器人手臂設計,這是第一個具有高度關節化的虛擬機器人手臂,配備由旋轉關節組成的三個等長關節、一套視覺和非視覺傳感器,可以同時進行導航和物品移動操作。
通過機器人框架的迭代和多復雜場景的構建,A12-THOR?3.0解決了機器人在現實世界執行系列動作的難題,可以將現實世界物體移動到虛擬房間的不同位置,實現對現實世界的可復制性。
埃齊奧尼說道:“經過五年的努力,A12-THOR框架可以使現實世界場景更容易在虛擬世界重現,像人類在實際場景中一樣訓練機器人感知和導航世界。”
二、加速指令跟蹤等研究,拓展技術極限
隨著AI2-THOR更新到3.0版本,其AI場景框架不斷拓展,使得研究人員能夠更高效地設計解決方案,以解決對象操作問題以及與機器人測試相關的其他傳統問題。
AI2-THOR使AI2研究經理羅茲貝·莫塔吉(Roozbeh Mottaghi)說:“與在實際機器人上運行訓練相比,AI2-THOR模擬框架速度驚人,也更安全。”
▲ManipulaTHOR框架下機器人移動物體
莫塔吉說道:“多年來,AI2-THOR框架使許多困難任務得以研究,如導航、指令跟蹤、多代理協作、執行家庭任務等。AI2-THOR的更新迭代可以使得研究人員和科學家擴大當前人工智能的研究極限。”
除了3.0版本外,艾倫人工智能研究所還將在今年的計算機視覺和模式識別會議(CVPR)上舉辦RoboTHOR Challenge 2021(2021年機器人挑戰賽)。挑戰賽包括機器人目標導航、ALFRED(機器人后續指令)、房間重新排列等項目。
結語:A12-THOR 3.0讓機器人訓練更快更安全
在100多個視覺豐富化、物理化的復雜房間場景下構建下,AI2-THOR 3.0框架能夠讓機器人更高效的訓練,減少實體場景下訓練等時間成本及物品損耗。
基于該模擬框架,機器人已能在廚房等狹小復雜場景下應對自如,相信不久的將來,這一虛擬場景也將成為現實。
來源:Robohub