谷歌教機(jī)器人如何通過環(huán)境交互識別物體
幾個月前,總部位于舊金山的初創(chuàng)公司OpenAI展示了一種名為密集對象網(wǎng)(DenseObjectNets,簡稱DON)的計算機(jī)視覺系統(tǒng),該系統(tǒng)允許機(jī)器人檢查、視覺理解和操縱他們從未見過的對象。谷歌的研究人員解釋說,這是基于對自我監(jiān)督的認(rèn)知發(fā)展研究。
人們通過與環(huán)境的互動來獲取關(guān)于世界的知識,隨著時間的推移,人們從他們所采取的行動的結(jié)果中學(xué)習(xí)。即使是抓住一個物體也能提供很多關(guān)于它的信息,例如,它必須在抓住之前的瞬間觸手可及。
Jang和Devin寫道,在機(jī)器人領(lǐng)域,這種學(xué)習(xí)方式得到了積極的研究,因為它使機(jī)器人系統(tǒng)能夠在不需要大量訓(xùn)練數(shù)據(jù)或人工監(jiān)督的情況下學(xué)習(xí)。通過這種形式的自我監(jiān)督,機(jī)器人等可以通過場景中的視覺變化來識別物體。
該團(tuán)隊與公司合作,庫卡機(jī)器人,教授了一種可以無意識地抓住物體的機(jī)械臂,并在訓(xùn)練過程中學(xué)習(xí)各種物體的表現(xiàn)形式。這些表現(xiàn)最終導(dǎo)致研究者有意識地抓住研究人員選擇的工具。
谷歌機(jī)器人
該團(tuán)隊利用強(qiáng)化學(xué)習(xí)一種人工智能訓(xùn)練技術(shù),該技術(shù)使用系統(tǒng)驅(qū)動實現(xiàn)特定目標(biāo),以手臂抓住目標(biāo),用相機(jī)檢查目標(biāo),并回答基本的目標(biāo)識別問題(這些目標(biāo)是否匹配)他們實現(xiàn)了一種感知系統(tǒng),通過分析一系列的三幅圖像,KUKA機(jī)器人維修,即抓取前的圖像、抓取后的圖像和被抓取對象的孤立視圖,提取出關(guān)于物體的有意義的信息。
在測試中,KUKA機(jī)器人維修,Grasp2Vec和研究人員的新策略取得了80%的成功率,甚至在多個對象匹配目標(biāo)和由多個對象組成的情況下也有效。
他們寫道,我們展示了機(jī)器人抓取技能如何生成用于學(xué)習(xí)以對象為中心的表示的數(shù)據(jù)。然后,我們可以使用表示學(xué)習(xí)來引導(dǎo)更復(fù)雜的技能,如實例抓取,同時保留我們的自主抓取系統(tǒng)的自監(jiān)督學(xué)習(xí)特性。展望未來,我們不僅為機(jī)器學(xué)習(xí)能夠通過更好的感知和控制給機(jī)器人帶來什么而感到興奮,也為機(jī)器人能夠在新的自我監(jiān)督范式下給機(jī)器學(xué)習(xí)帶來什么而興奮。