(文/George Dvorsky)70年前,阿西莫夫提出他著名的機(jī)器人三定律,來(lái)保證機(jī)器人會(huì)友善待人。雖然最早提出時(shí)這只是個(gè)文學(xué)手法,但是有些人認(rèn)為這些定律是現(xiàn)成的方案,能挽救我們免于機(jī)器末日。那么,阿西莫夫的安保措施成功經(jīng)歷了時(shí)間的考驗(yàn)嗎?專家的回答是,沒(méi)有。
1942年,阿西莫夫在短篇小說(shuō)"Runaround"(《環(huán)舞》)中首次提出了三定律:
一 機(jī)器人不得傷害人類,或因不作為使人類受到傷害。
二 除非違背第一定律,機(jī)器人必須服從人類的命令。
三 除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。
但后來(lái),阿西莫夫加入了一條新定律:第零定律。
零 機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。
阿西莫夫的科幻設(shè)定里,機(jī)器人三定律是植入到近乎所有機(jī)器人軟件底層里,KUKA機(jī)器人電路板維修,不可修改不可忽視的規(guī)定,絕不僅僅是“建議”或者“規(guī)章”。但是顯然這不是一個(gè)物理定律,所以現(xiàn)實(shí)中的機(jī)器人并不遵守——至少暫時(shí)如此。
正如阿西莫夫許多小說(shuō)里顯示的,這三條定律的缺陷、漏洞和模糊之處不可避免會(huì)導(dǎo)致一些奇怪的機(jī)器人行為。比方說(shuō),www.whsntf.cn,這三條定律連何為“人”、何為“機(jī)器人”都沒(méi)有良好定義。而且,如果機(jī)器人獲取的信息不完整,它們完全可以無(wú)意中打破定律。更何況,你要怎么阻止一個(gè)智力超群的機(jī)器人自己把定律改掉呢?
因此,機(jī)器人維修,很多人都認(rèn)為這只是單純的推動(dòng)劇情用的寫作手法而已。但是,1981年,阿西莫夫本人在《Compute!》里說(shuō):
“……有人問(wèn),我是不是覺(jué)得我的三定律真的可以用來(lái)規(guī)范機(jī)器人的行為——等到機(jī)器人的靈活自主程度足以在不同的行為方式中選擇一種的時(shí)候。我的答案是,‘是的,三定律是理性人類對(duì)待機(jī)器人(或者任何別的東西)的唯一方式’。”
好吧,三十年過(guò)去了,我們的機(jī)器人——準(zhǔn)確地說(shuō),是操縱機(jī)器人的人工智能——真的在逼近阿西莫夫所說(shuō)的那一天。事實(shí)上,人工智能恐怕再過(guò)一段時(shí)間就要抵達(dá)技術(shù)奇點(diǎn),發(fā)生爆炸式增長(zhǎng),徹底把人類智能甩在后面。
而如果這樣一個(gè)超級(jí)智能的程序編得不夠好,或者它不在乎人類的需求,那么對(duì)我們而言就是徹頭徹尾的災(zāi)難。我們必須保證它是安全的。
那么,阿西莫夫三定律可以幫我們嗎?我們采訪了兩位人工智能理論研究者:本·格策爾(Ben Goertzel),艾迪亞金融預(yù)測(cè)公司首席科學(xué)家;路易·海爾姆(Louie Helm),機(jī)器智能研究所代理主任。他們的觀點(diǎn)是,阿西莫夫三定律完全不能勝任——而如果我們想保證超級(jí)智能的安全,我們需要一些全然不同的東西。
阿西莫夫的未來(lái)
“我認(rèn)為阿西莫夫預(yù)想的機(jī)器人過(guò)不了多久就會(huì)實(shí)現(xiàn)。”格策爾說(shuō),“但是在他大部分小說(shuō)里,看起來(lái)人類級(jí)別的機(jī)器人好像就是機(jī)器人學(xué)和AI工程的頂峰了。事實(shí)看起來(lái)并非如此。在抵達(dá)阿西莫夫式類人機(jī)器人之后,很快超人AI也會(huì)成為可能。”
典型的阿西莫夫未來(lái)里,大部分生活都如常——只不過(guò)多了些人形智能機(jī)器人走來(lái)走去而已。“但這種未來(lái)不太可能實(shí)現(xiàn)——或者就算是它實(shí)現(xiàn)了,也只會(huì)存在很短的時(shí)間,”他說(shuō)。
在海爾姆看來(lái),機(jī)器人根本無(wú)關(guān)緊要。
“我認(rèn)為對(duì)人類來(lái)說(shuō)最主要的問(wèn)題,不是一大群半智能人形機(jī)器人所需的道德規(guī)范,而是高階人工智能最終會(huì)出現(xiàn)(不管有沒(méi)有軀體),其功能遠(yuǎn)遠(yuǎn)超過(guò)人類水平。”海爾姆說(shuō),“人類早晚必須要跨過(guò)超級(jí)智能這個(gè)坎。這也是為何開(kāi)發(fā)安保措施如此重要。在我看來(lái),機(jī)器人、仿生人、模擬大腦什么的都無(wú)關(guān)緊要,我們最多和它們相處一二十年,之后就要面對(duì)真正的大問(wèn)題——為超級(jí)智能開(kāi)發(fā)倫理道德。”
好的開(kāi)端?
鑒于阿西莫夫三定律是第一個(gè)真正試圖解決人工智能行為問(wèn)題的方案,那么就算是超級(jí)人工智能,它能不能也起到一定效果——或者至少有所啟迪呢?
“老實(shí)說(shuō),我真沒(méi)從機(jī)器人三定律里獲得什么靈感。”海爾姆說(shuō),“機(jī)器倫理學(xué)的共識(shí)是,它無(wú)法成為機(jī)器倫理的合適基礎(chǔ)。”三定律的確廣為人知,但現(xiàn)實(shí)中無(wú)論是AI安全研究者還是機(jī)器倫理學(xué)家,都沒(méi)有真的使用它作為指導(dǎo)方案。
“原因之一是這套倫理學(xué)——我們稱之為‘義務(wù)倫理學(xué)’(deontology)——作為倫理基礎(chǔ)是行不通的。依然有幾個(gè)哲學(xué)家試圖修復(fù)義務(wù)倫理學(xué)體系,但同一批人常常也熱衷于‘智能設(shè)計(jì)’或者‘神命論’之類的東西。”海爾姆說(shuō),“沒(méi)幾個(gè)人嚴(yán)肅對(duì)待他們。”
他總結(jié)了三定律的幾處缺陷:
內(nèi)在的對(duì)抗性
基于有缺陷的倫理框架(義務(wù)倫理)
不被研究者接受