又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 衛(wèi)報評馬斯克呼吁禁止機器人參戰(zhàn):無異于勸說飲料商不榨橙汁

衛(wèi)報評馬斯克呼吁禁止機器人參戰(zhàn):無異于勸說飲料商不榨橙汁

日期:2025-01-10   人氣:  來源:互聯(lián)網(wǎng)
簡介:衛(wèi)報評馬斯克呼吁禁止機器人參戰(zhàn):無異于勸說飲料商不榨橙汁 馬斯克等116名全球人工智能和機器人領(lǐng)域的專家近日在墨爾本舉行的人工智能國際會議上發(fā)布聯(lián)名公開信,呼吁聯(lián)合國采取行動禁止殺手機器人,引發(fā)廣泛熱議!缎l(wèi)報》發(fā)表評論文章,認(rèn)為勸說國際武……

衛(wèi)報評馬斯克呼吁禁止機器人參戰(zhàn):無異于勸說飲料商不榨橙汁

馬斯克等116名全球人工智能和機器人領(lǐng)域的專家近日在墨爾本舉行的人工智能國際會議上發(fā)布聯(lián)名公開信,呼吁聯(lián)合國采取行動禁止機器人參戰(zhàn),引發(fā)廣泛熱議!缎l(wèi)報》發(fā)表評論文章,認(rèn)為勸說國際武器貿(mào)易不要制造此類機器人已經(jīng)太晚,無異于勸說飲料制造商不要制造橙汁。

關(guān)于116名人工智能和機器人領(lǐng)域的專家發(fā)布公開信,要求禁止機器人(killerrobots)參戰(zhàn),一個回應(yīng)是:你們難道不應(yīng)該早點想到嗎?

特斯拉CEO馬斯克(ElonMusk)是呼吁禁止機器人參戰(zhàn)的專家之一。我們沒有太多時間準(zhǔn)備了,公開信中說,一旦這個潘多拉的魔盒被打開,就很難再次關(guān)上。但是,這樣的系統(tǒng)可以說早已存在了,例如BAE等開發(fā)的Taranis無人作戰(zhàn)飛機(UAV,UnmannedAerialVehicle),三星制造的SGR-A1哨戒炮,已經(jīng)部署在韓國國界。無人坦克也已經(jīng)正在研發(fā)中,而人類對致命性無人機的控制只是何種程度的問題。

然而,此類機器人一直在精神上與我們同在,只不過是以機器人的形式。Karel?apek1920年在科幻舞臺劇RUR(Rossum’sUniversalRobots,羅梭的萬能工人)中創(chuàng)造了robot這個詞(在捷克語中的意思是勞動者)。他創(chuàng)造的類人機器人,由與劇名同名的一家工廠制造,他們反叛人類,并最終滅亡人類。從Cybermen到終結(jié)者(Terminator),此類的故事層出不窮。

沒有機器人啟示錄正在逼近的背景,甚至很難去思考馬斯克等人簽署的公開信所提出的問題。即使人類的滅亡不是處在生死攸關(guān),我們知道的是這些機器可能導(dǎo)致失控,其結(jié)果是《機械戰(zhàn)警》中OCP公司的機器人警察。

這樣的暗示似乎總是引出一些有關(guān)致命武器的嚴(yán)肅話題。好吧,所以一個機器人世界末日大決戰(zhàn)可能并不完全是空想的,但這些故事,以及它們造成的深刻的人類的恐懼,最終都是娛樂性質(zhì)的。盡管如此,類似這樣的辯論,機器人維修,將科幻電影描述的技術(shù)的好和壞兩極化,伴隨帶來的意義在于,只要我們避免真正壞的那些技術(shù),剩下的都是好的。

法律專家對這個問題的認(rèn)識無疑更加復(fù)雜。一方面,他們關(guān)心機器人倫理方面的更廣泛、而且越來越緊迫的問題;另一方面,這些問題關(guān)乎現(xiàn)代戰(zhàn)爭的性質(zhì),以及其商品化。

我們可以怎樣令自主技術(shù)系統(tǒng)更加安全,更符合道德規(guī)范?避免機器人對人類造成傷害是IsaacAsimov的《我,機器人》(I,Robot)這部作品所探討的問題,這是一部短篇故事集。這部作品對后世造成如此深遠(yuǎn)的影響,其中提出的阿西莫夫機器人三定律現(xiàn)在仍經(jīng)常被討論,其認(rèn)識度幾乎像牛頓的運動三定律一般。具有諷刺意味的是,阿西莫夫?qū)懙墓适轮饕顷P(guān)于這么動機正確的定律如何被環(huán)境破壞。

無論如何,道德問題很難有一刀切的原則。歷史學(xué)家YuvalNoahHarari指出,自動駕駛汽車需要有一些原則來規(guī)定它們在面臨不可避免、并且可能導(dǎo)致死亡的事故時應(yīng)該怎樣采取行動:機器應(yīng)該試圖保護(hù)什么?Harari說,www.whsntf.cn,也許我們會被提供兩種模式:利己主義(優(yōu)先保護(hù)駕駛員)和利他主義(優(yōu)先保護(hù)其他人)。

Photograph:MelindaSueGordon/Allstar/ParamountPictures

在2012年人權(quán)觀察組織一份有關(guān)機器人(killerrobots)的報告中,包含一些科幻小說般的預(yù)想。報告寫道:要區(qū)分恐懼的平民和具有威脅性的敵人,需要有一名士兵去了解人類行動背后的意圖,這是機器人做不到的事情。報告還寫道:機器人不會受到人類情感和人類同情心的約束,工業(yè)機器人維修。但第一個論斷不夠令人信服機器人可以使用生物識別技術(shù),其判斷力或許比用肉眼判斷的戰(zhàn)戰(zhàn)兢兢的士兵更準(zhǔn)確。對于第二個,或許某些時候是正確的。

我不是要反對這份報告中對自主機器人士兵的恐懼,因為我也是這樣。相反,這使我們回到關(guān)鍵的問題,不是關(guān)乎技術(shù),而是關(guān)乎戰(zhàn)爭。

我們對戰(zhàn)爭倫理問題的敏感是非常任意的。人權(quán)觀察組織的報告說:完全自主的武器的使用提出了有關(guān)責(zé)任的問題,這將削弱另一個已確立的保護(hù)平民的工具。這是一個公平的觀點,但不可能放到任何一個已達(dá)成一致的倫理框架內(nèi),核武器在國際上就是合法的。此外,無人機戰(zhàn)爭,士兵強化技術(shù)和法律之間是一個連續(xù)統(tǒng)一體,無法分解為人和機器。

自動化軍事技術(shù)的問題與戰(zhàn)爭本身性質(zhì)的不斷變化密切相關(guān),在恐怖主義和叛亂狀態(tài),戰(zhàn)爭并沒有開始和結(jié)束的時間點,也沒有戰(zhàn)場或軍隊:美國戰(zhàn)略分析師AnthonyCordesman認(rèn)為:現(xiàn)代戰(zhàn)爭的教訓(xùn)之一是戰(zhàn)爭不再被稱為戰(zhàn)爭。不管我們怎么處理,都不會再有像諾曼底登陸那樣的。

戰(zhàn)爭一直在使用最先進(jìn)的技術(shù);機器人也同樣是。潘多拉的魔盒在鋼鐵冶煉被發(fā)明時就已打開,如果不是更早的話(而且打開魔盒的從來不是女性)。你可以確定的是,肯定有人從中獲利。

無論如何,讓我們試著遏制住化玉帛為干戈的最糟糕的沖動,但勸說國際武器貿(mào)易不要制造此類機器人,無異于勸說軟飲料制造商不要生產(chǎn)橙汁。

免責(zé)聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。