又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!

霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!

日期:2020-03-08   人氣:  來源:互聯(lián)網(wǎng)
簡介:霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化! 著名科學(xué)家霍金,被譽為宇宙之王,他認為:人類迄今為止最為深刻的影響就是人工智能的崛起,對于人工智能,他有以下十點深刻的思考: 01 在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同……

霍金:人工智能的威脅就像核武器,世界將發(fā)生10大變化!

著名科學(xué)家霍金,被譽為宇宙之王,他認為:人類迄今為止最為深刻的影響就是人工智能的崛起,對于人工智能,他有以下十點深刻的思考:

01

在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智能的崛起。人工智能可能是人類文明史上最偉大的事件,它要么是人類歷史上最好的事,要么是最糟的。如果我們不能學(xué)會如何避免風(fēng)險,那么我們會把自己置于絕境。

如果有人設(shè)計計算機病毒,那么就有人設(shè)計不斷自我完善、直到最終超越人類的人工智能,其結(jié)果將是一種新的生命形式。

人工智能的真正風(fēng)險不是它的惡意,而是它的能力。一個超智能的人工智能在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境。

02

人工智能對人類的影響,可以從短期、長期兩方面來分別討論。

短期擔(dān)憂智能自主武器、隱私

人工智能的全方位發(fā)展可能招致人類的滅亡。比如最大化使用智能性自主武器。

目前,世界上九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,www.whsntf.cn,火和煙霧會導(dǎo)致全球的小冰河期。

這一結(jié)果使全球糧食體系崩塌,末日般動蕩,很可能導(dǎo)致大部分人死亡。我們作為科學(xué)家,對核武器承擔(dān)著特殊的責(zé)任。正是科學(xué)家發(fā)明了核武器,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕。

除此之外就是隱私的擔(dān)憂。由于人工智能逐漸開始解讀大量監(jiān)控數(shù)據(jù),這些都會被機器人洞察的一覽無余。

03

長期擔(dān)憂人工智能系統(tǒng)失控的潛在風(fēng)險

人工智能遵循的一個邏輯是,計算機在理論上可以模仿人類智能,然后超越。這一天很快會到來。

未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。

我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。但事實就是:聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。

人類由于受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟帶來極大的破壞。

04

在過去二百年中,人口增長率是指數(shù)級的,目前這一數(shù)值約為1.9%。這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。

這樣的指數(shù)增長不能持續(xù)到下個千年。到2600年,世界將擁擠得摩肩擦踵,電力消耗將讓地球變成熾熱的火球。這是岌岌可危的。

我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。人類作為獨立的物種,已經(jīng)存在了大約二百萬年。我們的文明始于約一萬年前,其發(fā)展一直在穩(wěn)步加速。如果人類想要延續(xù)下一個一百萬年,我們就必須大膽前行,涉足無前人所及之處!

05

在某種程度上,今天的情況就如同1492年前的歐洲。當(dāng)時的人們很可能堅信,哥倫布的探險注定是徒勞無功。然而,新世界的發(fā)現(xiàn),對舊世界帶來了深遠的影響。對于那些被剝奪權(quán)利地位、走投無路的人來說,新世界成為了他們的烏托邦。

人類向太空的拓展,甚至將會產(chǎn)生更深遠的影響,這將徹底改變?nèi)祟惖奈磥恚踔習(xí)䴖Q定我們是否還有未來。它不會解決地球上任何迫在眉睫的問題,但它將提供解決這些問題的全新視角,讓我們著眼于更廣的空間,而不是拘泥眼下。

06

當(dāng)我們進入太空時,會有怎樣的發(fā)現(xiàn)呢?

會找到外星生命,還是發(fā)現(xiàn)我們終將在宇宙中踽踽獨行?我們相信,生命在地球上是自然而生的,是在漫長的進化后,實現(xiàn)了與地球資源的高度契合。因此,在其他條件適宜的星球上,生命的存在也必定是可能的。

去年,我們推出了長期研發(fā)計劃突破攝星,目標是讓星際旅行變成現(xiàn)實。突破攝星是人類初步邁向外太空的真正機會,為了探索和考量移居太空的可能性。

這項創(chuàng)新背后的想法,是以光束來驅(qū)動納米飛行器的前進。這樣產(chǎn)生的速度雖然不及光速,但也能達到其五分之一,約合每小時1億英里。這樣的系統(tǒng)可以在一小時內(nèi)抵達火星,幾天內(nèi)到達冥王星,一周內(nèi)就可以追上并超過旅行者號探測器,并在僅二十年后到達半人馬座阿爾法星系。

07

人工智能的成功有可能是人類文明史上最大的事件。但人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險。

我相信我們團結(jié)在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領(lǐng)袖和科學(xué)家正極盡所能避免不可控的人工智能的崛起。所以,監(jiān)管和立法在AI的發(fā)展過程中十分重要。

08

通過達爾文式的演化過程,侵略性深深根植于我們的基因之中。然而,如今的技術(shù)發(fā)展已經(jīng)加快到了某種程度,使這種侵略性可能會以核戰(zhàn)爭或生物戰(zhàn)爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。

你可能并不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責(zé)一個水力發(fā)電的綠色能源項目,項目所在的區(qū)域內(nèi)也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處于這些螞蟻的境地。

09

人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。這些人性的基本屬性,將使在人工智能時代的境況將變的更加糟糕,因為當(dāng)機器被設(shè)定程序后就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點,但是機器人可以輕而易舉的回避這些弱點。

10

我們還應(yīng)該扮演一個角色,庫卡機器人驅(qū)動器維修,確保下一代不僅僅有機會還要有決心,庫卡機器人,在早期階段充分參與科學(xué)研究,以便他們繼續(xù)發(fā)揮潛力,幫助人類創(chuàng)造一個更加美好的的世界。

免責(zé)聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。