最近引起轟動的AI失控事件可以追溯到上個月Facebook傳出關(guān)閉智能對話機(jī)器人項目的消息。研究員對兩個聊天機(jī)器人進(jìn)行對話策略迭代升級,結(jié)果發(fā)現(xiàn)它們竟自行發(fā)展出了人類無法理解的獨(dú)特語言,科研人員不得不對其進(jìn)行人工干預(yù)。
Facebook近日公開回應(yīng)關(guān)閉AI失控語言事件,認(rèn)為一些媒體的報道有失事實,造成不良影響。Facebook并沒有關(guān)閉機(jī)器人聊天系統(tǒng),而是在使它們變得更加聰明可控。
一篇論文引起的風(fēng)波
事件起源于Facebook上個月發(fā)表的一篇論文。論文中闡述了一個Facebook例行的科學(xué)研究項目,展示了兩個人工智能機(jī)器人如何在看過人類的談判后,開始互相之間展開對話交流,并通過試錯逐漸提升談判的能力。
具體而言,F(xiàn)acebook人工智能研究院的科學(xué)家利用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)開發(fā)了一個人工智能系統(tǒng)。這個結(jié)構(gòu)叫做生成式對抗網(wǎng)絡(luò)(GenerativeAdversarialNetworks,GAN)。所謂生成式對抗網(wǎng)絡(luò),就好比人類的對抗游戲,你的賬戶能在不斷的對抗中提升技能,玩得越多,水平就會越高。
Facebook的研究人員希望訓(xùn)練這樣一個聊天機(jī)器人,讓它帶著目的和人類對話。這個目的也很簡單:一共有兩本書、一頂帽子和三個籃球,三樣?xùn)|西分別設(shè)定了不同的權(quán)重,為的是讓機(jī)器人明白它到底有哪些需求,然后去和人談判。
Facebook的研究員對兩個機(jī)器人聊天能聊成什么樣產(chǎn)生了興趣。在研究過程中,系統(tǒng)中的兩個聊天機(jī)器人Alice和Bob產(chǎn)生了讓人看不懂的對話。這段對話炸一看像是一堆無法解讀的亂碼,研究人員后來發(fā)現(xiàn),原來是在為系統(tǒng)設(shè)置激勵條件時,雖然告訴了它們請用英文,但忘了告訴它們:請用英文語法。
這原本是一個非常正常的純學(xué)術(shù)研究。Facebook人工智能實驗室(FAIR)主任YannLeCun此前接受第一財經(jīng)記者專訪時透露,F(xiàn)acebook每年大約會提交近百篇這樣的論文,并公開實驗結(jié)果。但這項研究卻因為公布了人類所無法理解的語言而受到媒體的大肆炒作。甚至有人擔(dān)心失控的語言將威脅到人類,必須關(guān)閉。
北京的一家科技公司國承萬通CEO郭成博士對第一財經(jīng)記者表示:Facebook不太高明的工程師寫了個不太高明的算法,里面忘記設(shè)置要用英語語法交流,結(jié)果兩臺機(jī)器自己不管語法,搞了點人仔細(xì)看也能看懂的語言出來。就像我們小時候玩的紅白機(jī)boss會做一些詭異的攻擊動作一樣。他補(bǔ)充道,人工智能可能還很傻,千萬別高估了它。
Facebook研究人員對此表示:人工智能機(jī)器人確實沒有使用標(biāo)準(zhǔn)正確的英語語法進(jìn)行對話,但這并不是重點。這項研究原本是為了使得機(jī)器人之間能夠更加有效地進(jìn)行談判,我們的目的達(dá)到了,完成了任務(wù)。
為此,F(xiàn)acebook重新設(shè)定了正確的激勵機(jī)制,修正了機(jī)器人的行為,讓機(jī)器人說人話。這段表態(tài)中值得注意有兩點,其一,機(jī)器人并沒有發(fā)明自己的語言,只是創(chuàng)造了新的表達(dá)方式,其二,F(xiàn)acebook修正機(jī)器人行為,并不代表關(guān)掉這個系統(tǒng),原因也不是因為害怕系統(tǒng)失控,而是為了更加有效地進(jìn)行新的實驗。
上海威盛電子語音交互部門技術(shù)總監(jiān)張國峰對第一財經(jīng)記者表示:只是一項普通的研究實驗,最終的目的也不是讓兩個機(jī)器人聊天,而是通過機(jī)器人和機(jī)器人的聊天,來提高機(jī)器人和人聊天的技巧。根本還是為了實現(xiàn)人機(jī)之間的交互。
至于Facebook為什么要允許兩個機(jī)器人之間進(jìn)行交流,張國峰表示,因為機(jī)器人的表達(dá)方式有限,因此機(jī)器人與機(jī)器人的對話相對容易做,而目前的人工智能技術(shù)尚不支持機(jī)器人的邏輯推理能力。
張國峰向第一財經(jīng)記者說道:給機(jī)器設(shè)定策略和另外一個機(jī)器談判,這確實看上去很智能,但這還是在人設(shè)定的邏輯框架下,目前的人工智能尚不具備邏輯推理的能力。
他進(jìn)一步解釋道,F(xiàn)acebook關(guān)閉的這個項目就是試圖在開放領(lǐng)域通過互相對話來學(xué)習(xí)對話策略以及表達(dá)方式。但這并不是說發(fā)明了新的語言,而是它們的語言完全不收斂,這個項目的方法錯了,沒有繼續(xù)的必要。沒有內(nèi)在的推理和記憶能力,通過統(tǒng)計方法學(xué)習(xí)是一條死路。
通過機(jī)器之間的互相博弈來學(xué)習(xí),AlphaGo此前已經(jīng)加入了圍棋推理和記憶能力,所以自己和自己下棋能夠提高棋藝,但是這種推理還是由人類加入的推理,仍然無法在開放領(lǐng)域?qū)崿F(xiàn)。所謂開放領(lǐng)域,就是指沒有限制的對話。相比較于機(jī)器之間的對話,機(jī)器與人的對話更難,就是因為人的語言是毫無限制的。
人工智能威脅論再現(xiàn)
雖然人工智能發(fā)展迅速,但是目前機(jī)器的智慧水平還遠(yuǎn)不及人類。所以盡管人工智能威脅論幾乎每十年就會被拋出一次,但反對的聲音蓋過威脅論。為此,F(xiàn)acebookCEO扎克伯格還和特斯拉CEO馬斯克懟上了。馬斯克說他一談到人工智能,就感到恐懼,他認(rèn)為人工智能是人類存在的最大風(fēng)險。而扎克伯格卻認(rèn)為人工智能會讓人們的生活更美好,還稱馬斯克的威脅論極不負(fù)責(zé)任。
創(chuàng)新工場董事長、CEO李開復(fù)也公開反對馬斯克的威脅論,他明確反對馬斯克人工智能終將滅絕人類的悲觀論調(diào)。李開復(fù)表示,www.whsntf.cn,人工智能現(xiàn)在僅僅是人類的工具,離擁有意識的超級智能的能力還非常遙遠(yuǎn)。
針對此次Facebook關(guān)閉失控AI事件,李開復(fù)發(fā)表文章稱,人形機(jī)器人將馬上進(jìn)入千家萬戶的說法是無稽之談。當(dāng)機(jī)器人在言談舉止各方面都與人類極其相似時,普通家庭用戶對機(jī)器人的人類素質(zhì)的期望也會變得高不可攀。僅僅這種期望所帶來的失望就足以讓很多公司的未來十年讓科幻小說成為現(xiàn)實的展望受挫,更別提消費(fèi)市場對價格的苛刻要求了。
對人工智能持懷疑態(tài)度的最強(qiáng)大的代表是著名物理學(xué)家霍金。在今年早些時候舉行的2017全球移動互聯(lián)網(wǎng)大會(GMIC)上,霍金通過視頻發(fā)表主題演講。他表示:人工智能的崛起可能是人類文明的終結(jié)。
這已經(jīng)不是霍金第一次提出人工智能威脅論。在今年3月,霍金向英國《獨(dú)立報》表示,人類必須建立有效機(jī)制盡早識別威脅所在,防止人工智能對人類的威脅進(jìn)一步上升。
不過,霍金也表示,雖然他對人工智能有各種擔(dān)憂,但他對人工智能技術(shù)本身還是抱有樂觀的態(tài)度。他認(rèn)為人工智能帶來的收益是巨大的,人類或許借助這一強(qiáng)大的工具,可以減少工業(yè)化對自然的傷害。但他表示不確定我們是會被智能無限地幫助,庫卡機(jī)器人驅(qū)動器維修,還是被無限地邊緣化,KUKA機(jī)器人維修,甚至毀滅。
借用霍金的話說:這是一個美麗但充滿不確定的世界,而你們是先行者。