又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 深度-馬斯克等專家呼吁禁止開發(fā)“殺人機器人”!為什么?

深度-馬斯克等專家呼吁禁止開發(fā)“殺人機器人”!為什么?

日期:2024-11-29   人氣:  來源:互聯(lián)網(wǎng)
簡介:深度|馬斯克等專家呼吁禁止開發(fā)“殺人機器人”!為什么? 當(dāng)?shù)貢r間8月20日,包括特斯拉CEO馬斯克(ElonMusck)和谷歌DeepMind聯(lián)合創(chuàng)始人蘇萊曼(MustafaSuleyman)在內(nèi)的116名AI界專家,發(fā)布公開信呼吁全面禁止自動化武器。他們將自動化武器稱作殺人機器人……

深度|馬斯克等專家呼吁禁止開發(fā)“殺人機器人”!為什么?

當(dāng)?shù)貢r間8月20日,包括特斯拉CEO馬斯克(ElonMusck)和谷歌DeepMind聯(lián)合創(chuàng)始人蘇萊曼(MustafaSuleyman)在內(nèi)的116名AI界專家,發(fā)布公開信呼吁全面禁止自動化武器。他們將自動化武器稱作殺人機器人,但在其他人的眼里,自動化武器是新一代的高級軍備力量。人工智能不斷發(fā)展的當(dāng)下,自動化武器真的會展現(xiàn)其可怕的一面嗎?

自動化武器的殺傷力到底有多大?

馬斯克等眾多專家都出面后,自動化武器的問題終于又一次引發(fā)了討論。自動化武器,工業(yè)機器人維修,作為軍備力量,對于將投入使用的國家來說,可以節(jié)省士兵資源,避免人類士兵的傷亡。但馬斯克等專家的擔(dān)憂在于自動化武器可能遭到濫用,將會對人類生命安全產(chǎn)生威脅。聯(lián)合國人權(quán)理事會特別調(diào)查員海因斯(ChristofHeyns)早前曾表示,戰(zhàn)場上局勢復(fù)雜,不能確保自動化武器信息傳遞及時與否;據(jù)其調(diào)查結(jié)果顯示美國無人機曾出現(xiàn)誤傷平民的情況。

同時馬斯克等專家也擔(dān)心國家間自動化武器軍備力量的惡性競爭,將導(dǎo)致繼火藥、核武器之后的第三次革命。早在2012年國際組織人權(quán)觀察站(HumanRightsWatch)便公布了一份具有致命性殺傷力的自動化武器清單,時至今日也有多國已進入自動化武器的開發(fā)進程:

1.韓國哨兵機器人

韓國三星集團研發(fā)的SGR-A1哨兵機器人被部署在三八線附近,雖然SGR-A1與3歲小孩的個頭相當(dāng),但其擁有自主射擊的能力。該哨兵機器人的設(shè)置主要是為了打擊非法入侵者,它可以通過內(nèi)置的攝像頭及運動傳感器等進行工作,且可以追蹤多個目標(biāo)。據(jù)說,該機器人一旦檢測到闖入者,則會向人類管理員匯報,由管理員決定是否將闖入者射殺。

2.英國雷神無人機

由英國航太系統(tǒng)公司開發(fā)的雷神無人機(BAESystemsTaranis)擁有充分的自主權(quán),能夠攜帶空對空及空對地彈藥,具有遠(yuǎn)程攻擊能力。因其獨特的設(shè)計,該架無人機還具有隱身功能,大大降低了被敵軍雷達(dá)偵測到的可能。2013年該架無人機進行了首次試飛,預(yù)計將在2030年投入使用,并且很有可能替代狂風(fēng)(Tornado)GR4戰(zhàn)斗機。

3.俄羅斯多功能無人戰(zhàn)車

美俄等國近期更著重于研發(fā)既可遠(yuǎn)程控制也可以自主操作的地面作戰(zhàn)用途機器人。這些項目包括俄羅斯的天王星-9(Uran-9)多功能無人戰(zhàn)車,主要用于對步兵班組的火力支援。天王星-9可裝30毫米炮與反坦克導(dǎo)彈,導(dǎo)彈射程估計在8千米左右,可以消滅坦克或低空直升機。

4.美國無人駕駛軍艦

美國國防部高級研究計劃局(DARPA)主導(dǎo)研發(fā)的無人駕駛軍艦海上獵人(SeaHunter),2016年已進行了海上測試。海上獵人主要擔(dān)當(dāng)反潛任務(wù),在執(zhí)行任務(wù)時,這種無人船一旦發(fā)現(xiàn)敵方潛艇,便可持續(xù)跟蹤,并通過衛(wèi)星向附近的水面艦船發(fā)射潛艇的實時坐標(biāo),以引導(dǎo)打擊行動。

自動化武器如何使用,庫卡機器人,政策并不能說清

除了許多國家在研發(fā)自動化武器,Rytheon、Dassault、MiG等公司已經(jīng)掌握或正在開發(fā)自動化武器的相關(guān)技術(shù)。自動化武器的殺傷力如此大,且很有可能被所利用,工業(yè)機器人維修,因此專家的擔(dān)憂并不是沒有道理,但頒布相關(guān)使用政策的國家卻很少。2012年,美國國防部曾發(fā)布關(guān)于自動化武器的使用政策,但這項政策界限較為模糊,沒有明確定義哪種行動是不被允許的,若自動化武器發(fā)出致命性行動,這是否會被禁止我們不得而知。

馬斯克等專家此次發(fā)布的公開信也表示,希望聯(lián)合國將自動化武器加入到《特定常規(guī)武器公約》中。該公約旨在限制在戰(zhàn)爭中使用某些被認(rèn)為具有過分傷害力或濫殺濫傷作用的常規(guī)武器,包括地雷、致盲性武器等。美國軍事評論網(wǎng)則表示,伴隨著人工智能的發(fā)展,自動化武器的出現(xiàn)不可避免,但可以禁止一旦發(fā)射就無法召回、任務(wù)不能終止的完全自動化武器。

最終背鍋的還是人類管理員

1944年,著名科幻大師阿西莫夫(IsaacAsimov)在科幻小說《環(huán)舞》(Runaroud)中,首次提出了機器人三大法則,其中第一條就是機器人不得傷害人類,但近些年機器人是否會背叛人類的話題不絕于耳。

2015年,在同樣的商討禁止發(fā)展殺人機器人的會議上,英國公開反對禁止發(fā)展殺人機器人,其原因是英國研發(fā)的自動化武器均是有人類監(jiān)控的!缎l(wèi)報》對此也表示,機器人凌駕于道德之上,只是在進行著系統(tǒng)工作,最終控制系統(tǒng)的還是人類。

免責(zé)聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。