來自英國諾丁漢大學(xué)和英國金斯頓大學(xué)的一組AI研究人員近日創(chuàng)造了一個辦法,讓AI僅通過一張平面人像就可以創(chuàng)建出原本的三維模型。研究人員向卷積神經(jīng)網(wǎng)絡(luò)(CNN/ConvolutionalNeuralNetwork),輸入海量的人臉數(shù)據(jù)后,神經(jīng)網(wǎng)絡(luò)自己學(xué)會了如何根據(jù)一張從未見過的照片猜出來這個人的真實模樣。
團隊在網(wǎng)站上公開了相關(guān)的文獻(xiàn)和代碼,KUKA機器人示教器維修,下面是一小段對這個技術(shù)的介紹:
三維人臉重建是一個非常困難的計算機視覺基礎(chǔ)問題。當(dāng)前的系統(tǒng)通常假定有多個面部圖像(有時來自同一對象)作為輸入,并且必須解決許多方法上的挑戰(zhàn),例如大量面部姿勢、表情和非均勻照明等因素間的對應(yīng)關(guān)系。通常的方法都需要復(fù)雜而低效的建模和匹配工作。
但是,在這個項目中,工業(yè)機器人維修,我們嘗試用包括2D圖像和三維面部模型或掃描圖像在內(nèi)的素材,訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)從而避開之前方法的瓶頸。現(xiàn)在,我們的神經(jīng)網(wǎng)絡(luò)只需要輸入單一的二維人臉圖像,它就可以重建整個三維人臉模型,并且還能夠識別任意面部姿勢和表情。
在36氪之前報道的《A16Z合伙人是如何看無人車網(wǎng)絡(luò)效應(yīng)的》一文中,我們分析到,計算機視覺對于自動駕駛技術(shù)非常重要,無人車只有知道自己在什么位置、身邊的車輛和行人在做什么以及周邊有什么信號指示才可能安全上路行駛。目前,鑒于計算機視覺還不能從大量2D照片中判斷路況,所以大多數(shù)無人車公司還需要使用多種傳感器加高精地圖方式為無人車導(dǎo)航。
但是現(xiàn)在,我們能使用到的這個測試揭示了計算機視覺發(fā)展的冰山一角,如果無人車能夠像人類一樣通過眼睛判斷路況,www.whsntf.cn,大多數(shù)無人車公司的發(fā)展路徑就會被攪亂,而特斯拉等待計算機視覺出現(xiàn)重大突破的少數(shù)無人車公司之一則下對了賭注。