AI面臨的挑戰(zhàn):無人車闖禍,我們該找誰?如何保證不再發(fā)生?
當(dāng)人們問我是做什么工作的時候,我總是非常困惑如何回答才好。人工智能這個答復(fù)吧,我覺得太寬泛了,而圖像識別似乎又太專業(yè)了。不過呢,還是下面這個問題令我真正抓狂:
人工智能會掌控整個地球嗎?
對于一名從事于機(jī)器智能研究的專業(yè)人士來說,這個問題太讓我惱火了。我也不想去抱怨懷疑論者,事實上大部分人都覺得人工智能是一種神秘,而且有著無窮無盡陰謀詭計的玩意兒,最終它們會把人類滅絕,因為,它能夠在我們狂看一晚EvanGoldberg編導(dǎo)的電影之后,就預(yù)測到下一部我們將觀看的影片將會是《SausageParty》(《香腸派對》)。
然而,大多數(shù)人并沒有意識到,無論我們認(rèn)為自己多么有個性,多么特殊,從普遍意義上來看,人們還是遵循一些普遍行為模式的。只要經(jīng)過足夠多訓(xùn)練,計算機(jī)就可以輕松識別出人們的行為模式。
因此,機(jī)器能推測你喜歡的音樂,或者給你一些手機(jī)APP應(yīng)用的建議,這對機(jī)器來說很容易實現(xiàn)。不過,這并不代表所有的預(yù)測工作的難度和性質(zhì)類似,我只是希望大家能理解,這相對于人類的能力來說是一種延伸和拓展。
要想了解時下人工智能領(lǐng)域中哪些技術(shù)很厲害,重點在于懂得機(jī)器學(xué)習(xí)做得不錯的兩個主要場景:
1.受控環(huán)境
2.監(jiān)督
我們看到了Google的人工圍棋選手AlphaGo打敗了人類最厲害的圍棋選手,計算機(jī)象棋的問題很早以前就已經(jīng)解決了,而最近又有很多論文在探討Doom游戲比賽中擊敗人類的話題。事實上,在游戲里面,你能夠完全掌控操作環(huán)境、能夠?qū)嵤┑男袨橐约翱赡墚a(chǎn)生的結(jié)果,這使得建模變得相當(dāng)容易。而一旦我們能夠?qū)⒂螒颦h(huán)境進(jìn)行建模,下一步任務(wù)就是模擬和學(xué)習(xí)。實際上,這些理論早就已經(jīng)成熟了,正是近年來計算機(jī)硬件的發(fā)展使大規(guī)模機(jī)器學(xué)習(xí)得以實現(xiàn),才能夠令A(yù)lphaGo這類技術(shù)在實現(xiàn)層面上獲得重大突破。
監(jiān)督式受控環(huán)境表示對于每一個行為,你能夠估計出可能受到的懲罰,從而能夠有效地從錯誤中積累經(jīng)驗,而游戲正是這種監(jiān)督式受控環(huán)境的完美表達(dá)。還有一個例子就是我們剛才提到的電影預(yù)測,可以理解為有一個很大的樣本,里面存在用戶和影片兩類數(shù)據(jù),還有一個給定的用戶選擇模型。通過這些,我們就能進(jìn)行下一次看什么電影的預(yù)測。
在監(jiān)督式受控環(huán)境中,我們知道會得到何種信息,并能夠?qū)︻愃频男畔⒓右蕴幚。我們可以對這類目標(biāo)創(chuàng)建表達(dá)法(representation),在我們需要進(jìn)行預(yù)測的時候,這些表達(dá)法能夠幫助我們最終確定準(zhǔn)確的計算模型。這是通用學(xué)習(xí)類型中的一個非常狹窄的子類,也是和我們?nèi)祟惒畈欢嗟囊活愔悄芊绞健?/p>
圖注:分類器概觀
然而,大部分的人類行為并非監(jiān)督式的,而是在與環(huán)境交互的基礎(chǔ)上建立的邏輯和直覺。人類的基本活動,比如說識別物體,理解物理過程都是時常發(fā)生的事情。通常,我們通過與事物的互動能習(xí)得很多的新知。
在當(dāng)前階段,庫卡機(jī)器人,這對于計算機(jī)來說還是很難達(dá)到的水平。現(xiàn)在如果你要一臺機(jī)器能認(rèn)識所有你給的圖片里面的汽車,你必須告訴機(jī)器先去看那些圖片,還得告訴它你的汽車是什么樣子的。當(dāng)你給機(jī)器看了大量汽車圖片時,它就能認(rèn)出汽車了。這就是監(jiān)督式學(xué)習(xí),在它尚未理解看什么東西的時候,你得教它汽車是什么樣子的。
現(xiàn)在,計算機(jī)科學(xué)家在努力使這種學(xué)習(xí)變成幾乎無需監(jiān)督的,即非監(jiān)督式學(xué)習(xí)。最終,我們希望機(jī)器能夠理解物體和景象的概念本身,而不需要特地去調(diào)教它。
當(dāng)前大多數(shù)研究的重心在于非監(jiān)督式學(xué)習(xí),解決這個問題更加困難。誠然,我們的機(jī)器看上去更聰明了,不過大多數(shù)都是在監(jiān)督式受控環(huán)境中的情況。首先我們必須能令機(jī)器人在非監(jiān)督的環(huán)境下正常工作,然后再考慮系統(tǒng)在非受控的情形下運(yùn)行,這樣才更為接近人類的智能。
盡管,現(xiàn)在探討機(jī)器滅絕人類,或者是機(jī)器人的‘不良企圖’仍為時尚早。然而,人工智能更嚴(yán)峻的威脅正悄然逼近,這可能造成極其嚴(yán)重的后果。
早先通過觀察特定的特性的算法稱為決策樹分割數(shù)據(jù)
在這個會議的最初討論時,我導(dǎo)師曾提到了一個問題,令我第一次真正質(zhì)疑人工智能的可用性。早期傳統(tǒng)的人工智能技術(shù)的算法很容易理解,比如說,我們要造一個機(jī)器來測量人的身高和體重,并告訴他們是不是超重了。這個很簡單,我們只需要計算出這個人的體重指數(shù)(BodyMassIndex,BMI),如果超過了特定閾限,那就是超重。這是人工智能的原型算法。如果我說某人肥胖,這是必須要有合理的判斷的(而不是熊孩子罵人),這個人的BMI確實是落在超重人群的平均BMI范圍里。
現(xiàn)在大多數(shù)的機(jī)器已經(jīng)不是這么簡單了,它們采用大量復(fù)雜的數(shù)據(jù)作為輸入(比如高清晰度的圖片),經(jīng)過非常精細(xì)粒度的算法來完成輸出。這樣的話,簡單的閾限或決策樹的方法就不夠用了。漸漸地,系統(tǒng)采用了一套廣為人知的深度學(xué)習(xí)算法,去識別和學(xué)習(xí)大量數(shù)據(jù),用類似于人類的方式去細(xì)化模板。
圖注:典型的深度學(xué)習(xí)模型。它包含了若干個互相連通傳播信息的神經(jīng)元(圓圈),這與已發(fā)現(xiàn)的人腦運(yùn)作模式十分相似
這些系統(tǒng)性能非常好,但是學(xué)習(xí)過程很慢,因為需要很多數(shù)據(jù)來學(xué)習(xí)。
但是,有個問題:一旦它們給了我們結(jié)果,不管正確與否,我們并不知道機(jī)器是怎么得到這個結(jié)果的。
這個聽起來并不是那么要緊在開始的時候,在機(jī)器學(xué)習(xí)系統(tǒng)里面,我們有兩種類型的數(shù)據(jù)特征和標(biāo)簽。特征是觀察到的變量,標(biāo)簽是我們需要預(yù)測的。舉個例子,在之前的肥胖癥檢測器中,我們的特征是人的身高和體重,標(biāo)簽是每個人的超重或者健康指標(biāo)。為了從圖片中檢測癌癥細(xì)胞,特征是若干張器官的圖像,標(biāo)簽是圖片有沒有癌癥細(xì)胞。
癌癥檢測算法會先掃描這組圖片
機(jī)器學(xué)習(xí)算法一般會這樣解決問題,先給每個特征配置權(quán)重,相加,最后基于所得的和來做決定。比如,如果你要預(yù)測一個蘋果是不是壞了,你會先看蘋果的氣味、顏色,如果觸摸一下那么就還有它的質(zhì)感,最后大腦會配置給這些特征不同的權(quán)重。
假如蘋果爛了,光憑顏色一個特征就可以解決問題了
計算機(jī)遵循類似的想法,只不過權(quán)重是通過不同的優(yōu)化算法算出來的。但是,在深度學(xué)習(xí)中,我們并不確定我們想用哪些具體的特征,更不用說配置權(quán)重。所以我們怎么辦?我們讓計算機(jī)自己學(xué)習(xí)選出最好的特征群,把它們用最佳方式組合來做決定,從某種意義上模擬人類大腦的做法。
這個主意給我們帶來驚人的結(jié)果在計算機(jī)視覺領(lǐng)域(這個領(lǐng)域研究如何讓計算機(jī)理解圖像數(shù)據(jù)),尤其是隨著高效GPU和新框架的出現(xiàn),使學(xué)習(xí)基本的圖像級別的概念變得小菜一碟。但是,要注意的是我們討論的這些機(jī)器通過學(xué)習(xí)選出的特征,物理意義并不像傳統(tǒng)方法那么直觀。
這些例子展示了計算機(jī)從圖片中尋找的東西看上去它們在檢測形狀,但是對于非圖像數(shù)據(jù),并不是這么直觀。