隨著科技發(fā)展,機(jī)器人已經(jīng)逐漸進(jìn)入了我們的生活。它們出現(xiàn)在很多地方:工廠里、家庭里,機(jī)器人維修,不僅可以在荒無人煙的地方工作,也可以在人流洶涌的公共場所為人類服務(wù)。
但人類將如何看待機(jī)器人、如何對待機(jī)器人,這類問題時(shí)常為人所忽視。
近日,北卡羅來納州立大學(xué)的一項(xiàng)研究發(fā)現(xiàn),人們可能會(huì)把工作場所的事故歸咎于機(jī)器人,但前提是他們相信機(jī)器人是自主的。
該文章的作者、心理學(xué)教授道格·吉蘭(Doug Gillan)表示,重要的是當(dāng)工作中發(fā)生事故時(shí),人們?nèi)绾慰创龣C(jī)器人。
為了探究這個(gè)問題,研究人員進(jìn)行了一項(xiàng)研究,向164位受訪者展示了幾個(gè)工作場所的場景,庫卡機(jī)器人,在這些場景中,一個(gè)人類員工與一個(gè)機(jī)器人同時(shí)發(fā)生了事故。當(dāng)被告知是人類在操作機(jī)器人時(shí),受訪者通常會(huì)將事故歸咎于人類。當(dāng)被告知機(jī)器人是自主的,而人類只是在監(jiān)控它時(shí),受訪者通常會(huì)責(zé)怪機(jī)器人。
“這一發(fā)現(xiàn)多少有點(diǎn)直觀,但它指出了一個(gè)基本問題:我們什么時(shí)候把犯錯(cuò)的責(zé)任從人類轉(zhuǎn)移到機(jī)器人身上?”該研究中的北卡羅來納大學(xué)(NC State)的心理學(xué)教授道格·吉蘭(Doug Gillan)表示。
這項(xiàng)研究提出的這個(gè)問題發(fā)人深省。當(dāng)人們“甩鍋”給機(jī)器人的時(shí)候,他們內(nèi)心深處是否認(rèn)為機(jī)器人是一個(gè)能獨(dú)立做出決定、有著自我意識(shí)的個(gè)體,與我們有著同樣的智慧水平?
畢竟,人們在砸歪鐵釘時(shí)并不會(huì)去責(zé)怪錘子,在切到手指時(shí)不會(huì)責(zé)怪水果刀,大多數(shù)人也不會(huì)責(zé)怪自家寵物貓狗打翻水杯、撕碎沙發(fā)。
人們確實(shí)會(huì)對機(jī)器人產(chǎn)生同情心
此前亦有另一項(xiàng)研究表明,人類其實(shí)可以與機(jī)器人“共情”。
荷蘭內(nèi)梅亨大學(xué)的Sari Nijssen和德國慕尼黑大學(xué)發(fā)展心理學(xué)教授Markus Paulus領(lǐng)導(dǎo)的研究小組開展了一項(xiàng)研究,以確定人們對機(jī)器人的關(guān)注程度,并如何根據(jù)道德原則對待它們。他們的發(fā)現(xiàn)發(fā)表在《社會(huì)認(rèn)知》(Social Cognition)雜志上。
根據(jù)Sari Nijssen的說法,這項(xiàng)研究是為了回答以下問題:“在什么情況下,以及在何種程度上,成年人愿意犧牲機(jī)器人來拯救人類的生命?”
參與者面臨著一個(gè)假設(shè)的道德困境:他們會(huì)為了拯救一群受傷的人而讓一個(gè)人處于危險(xiǎn)之中嗎?在呈現(xiàn)的場景中,預(yù)期的犧牲受害者可能是一個(gè)人,或一個(gè)具有不同程度擬人化面貌的人形機(jī)器人,或是一個(gè)可以清晰識(shí)別為機(jī)器的機(jī)器人。
研究表明,機(jī)器人越人性化,參與者犧牲它的可能性就越小。在有些場景中,機(jī)器人被描繪成一個(gè)富有同情心的生物,或者是一個(gè)有自己感知、經(jīng)歷和想法的生物,這更有可能阻止受試者為了不知名人類的利益而犧牲它。
事實(shí)上,當(dāng)被告知機(jī)器人所表現(xiàn)出的情感品質(zhì)時(shí),許多實(shí)驗(yàn)對象表示愿意犧牲受傷的人類來保護(hù)機(jī)器人免受傷害。
Paulus說:“機(jī)器人越像人類,尤其是越擁有人類的情感,我們的實(shí)驗(yàn)對象就越不愿意犧牲它。”
“這一結(jié)果表明,我們的研究小組賦予了機(jī)器人一定的道德地位。這一發(fā)現(xiàn)的一個(gè)可能含義是,試圖使機(jī)器人人性化的嘗試不應(yīng)該走得太遠(yuǎn)。這樣的努力可能會(huì)與它們的預(yù)期功能——幫助我們——發(fā)生沖突。”
就在不久之前,網(wǎng)上流傳過一個(gè)波士頓動(dòng)力公司發(fā)布的機(jī)器人被人類踢打的視頻。該視頻最后被發(fā)現(xiàn)是由CG合成的假視頻,制作方也是Bosstown Dynamics而非真正的Boston Dynamics,但的確有不少觀眾看后表示為機(jī)器人感到難過,對折磨它的人感到憤怒。
“他們?yōu)槭裁匆獋δ桥_(tái)可憐的機(jī)器?”許多人問道,“當(dāng)然,它感覺不到任何東西,但這并不意味著他們可以那樣對待它。”
這是完全可以理解的反應(yīng),盡管機(jī)器人沒有意識(shí),也感覺不到疼痛。
大量研究表明,讓人類像對待人類一樣對待機(jī)器人是一件容易得可笑的事情。如果他們要求我們不要拒絕,我們會(huì)覺得不好受;如果他們作為權(quán)威人物出現(xiàn),我們會(huì)服從他們的命令;我們會(huì)對接觸他們的敏感部位感到不舒服。
這并不奇怪。人類會(huì)對任何事物產(chǎn)生同理心,只要你把一張臉放在上面。正如麻省理工學(xué)院(MIT)研究員、機(jī)器人倫理學(xué)家凱特達(dá)林(Kate Darling)所言:“從生物學(xué)角度來說,我們天生就會(huì)將意圖和生命投射到我們物理空間中任何我們認(rèn)為是自主的運(yùn)動(dòng)上。所以人們會(huì)像對待活人一樣對待各種機(jī)器人。”
這在一方面可能是好處,比如能幫助老年人的護(hù)理機(jī)器人、作為伴侶的玩具機(jī)器狗等。但是有些公司卻可能會(huì)利用我們的同理心,比如利用機(jī)器人吸引小孩子的注意,然后進(jìn)行營銷。
機(jī)器人的“道德準(zhǔn)則”
但問題也就隨之而來了:機(jī)器人值得同情嗎?我們需要擔(dān)心人們呼吁尊重機(jī)器人權(quán)利嗎?
關(guān)于機(jī)器人可能的道德倫理問題,有些人只簡單地把他們看作是人類的工具,只關(guān)注人類在使用機(jī)器人技術(shù)時(shí)對人類社會(huì)和環(huán)境的責(zé)任;有些人卻把它們看作是潛在的人,工業(yè)機(jī)器人維修,或者人類的代理。
但務(wù)實(shí)地講,機(jī)器人可能很快就會(huì)在工廠、公共場所和家庭中大量出現(xiàn),它們可能會(huì)占據(jù)人類的角色,并做出各種決定。我們將不僅需要對機(jī)器人的動(dòng)作進(jìn)行外部控制,還需要開發(fā)機(jī)器人內(nèi)部(自)導(dǎo)向系統(tǒng)。
我們不妨稱這些系統(tǒng)為“道德準(zhǔn)則”,并將機(jī)器人視為負(fù)有道德責(zé)任的動(dòng)物。如果是這樣,那么將“道德責(zé)任”植入機(jī)器人將不僅是可取的,而且是勢在必行的。
此外,可以認(rèn)為,人工智能的復(fù)雜性將不可避免地迅速增長。我們可能會(huì)越來越多地看到他們有自己的需求、興趣和偏好,這樣我們就會(huì)對他們有道德責(zé)任,就像機(jī)器人對我們有道德責(zé)任一樣。
有些人認(rèn)為,在可預(yù)見的技術(shù)范圍內(nèi),機(jī)器人表現(xiàn)出的任何心智能力都是假的——機(jī)器人只是在模擬思維、智能、意識(shí)、自主決策或其他任何東西。
這里有兩種觀點(diǎn):一種是保守的,認(rèn)為機(jī)器人倫理是一種理論幻想;一種是激進(jìn),認(rèn)為這是一種務(wù)實(shí)的需要。