又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 谷歌資深工程師:人工智能不會爆炸,奇點未必存在

谷歌資深工程師:人工智能不會爆炸,奇點未必存在

日期:2019-03-07   人氣:  來源:互聯(lián)網(wǎng)
簡介:谷歌資深工程師:人工智能不會爆炸,奇點未必存在 AI來了。不對,是AI又來了。現(xiàn)在AI在很多事情上都已經(jīng)比人厲害,比如下圍棋、識別特定圖像什么的。按照數(shù)學(xué)家I.J.Good的想法,既然人能造出比人厲害的機器,那么這些機器也將制造出更多比自己更智能的機器……

谷歌資深工程師:人工智能不會爆炸,奇點未必存在

AI來了。不對,是AI又來了。現(xiàn)在AI在很多事情上都已經(jīng)比人厲害,比如下圍棋、識別特定圖像什么的。按照數(shù)學(xué)家I.J.Good的想法,既然人能造出比人厲害的機器,那么這些機器也將制造出更多比自己更智能的機器,從而很快會出現(xiàn)智能的爆炸。后來,包括算機科學(xué)家弗諾?溫格和未來學(xué)家RayKurzweil在內(nèi)的一些人提出了奇點來臨的觀點,認(rèn)為人類造出比人更聰明的機器將帶來人類時代的終結(jié)。包括霍金和ElonMusk在內(nèi)的一批人都認(rèn)可AI的這種威脅的緊迫性。那么智能到底會不會爆炸呢?奇點會不會很快來臨呢(RayKurzweil的觀點是2029年)Python深度學(xué)習(xí)框架keras.io的開發(fā)者、Google資深軟件工程師Fran?oisChollet從觀察出發(fā),通過對智能和遞歸自我改進(jìn)系統(tǒng)的認(rèn)識分析了這一看法的真?zhèn)。他的論證非常有說服力,其結(jié)論也令我們寬心。

1965年,I.J.Good首次提出了智能爆炸的概念,這個概念跟人工智能(AI)有關(guān):

姑且把超級智能定義為一臺遠(yuǎn)遠(yuǎn)超越任何人(不管他有多聰明)所有的智力活動的機器。既然設(shè)計機器也是這些智力活動之一,那么一臺超智機器也可以設(shè)計出比自己更好的機器;這樣一來無疑將出現(xiàn)智能爆炸,而人的智能將會被遠(yuǎn)遠(yuǎn)拋在身后。因此,鑒于這臺機器足夠溫順可告訴我們?nèi)绾巫屗幵谖覀兊目刂浦,第一臺超智機器將成為人類所需的最后一項發(fā)明。

數(shù)十年后,智能爆炸也就是導(dǎo)致超智突然崛起,人類意外滅絕的概念已經(jīng)在AI社區(qū)落地生根。知名的商界領(lǐng)袖把它當(dāng)作比核戰(zhàn)爭和氣候變化還要重大的風(fēng)險來宣揚。普通的機器學(xué)習(xí)研究生也認(rèn)可這一點。在2015年面向AI研究人員的一項調(diào)查中,29%的受訪者回答說智能爆炸的發(fā)生有可能或者高度可能。另有21%者認(rèn)為有非常大的可能性。

這些論斷的基本前提是,在不久的將來,第一個種子AI將會被創(chuàng)造出來,這個AI會有稍微超過人類的一般問題解決能力。這個種子AI會開始設(shè)計更好的AI,開啟一個可馬上讓人類智能望塵莫及的遞歸自我改進(jìn)循環(huán),在很短的時間內(nèi)就超過了人類好幾個量級。這一理論的支持者還把智能看成是某種超級力量,賦予其持有者塑造環(huán)境的近乎超自然的能力比方說,就像我們在科幻電影《超驗駭客》中所看到的一樣。超級智能因此將意味著近乎全能,并且會對人類構(gòu)成生存威脅。

這種科幻小說的敘述手法助長了危險的、具有誤導(dǎo)性的有關(guān)AI風(fēng)險與對AI監(jiān)管需求的公眾辯論。但我認(rèn)為智能爆炸是不可能的智能爆炸的看法來自于對智能的本質(zhì)與遞歸式自我改進(jìn)系統(tǒng)有著很深的誤解。在本文中我會試著以對智能系統(tǒng)和遞歸系統(tǒng)的具體觀察為基礎(chǔ)提出我的觀點。

源自對智能的誤解得出的推理是有瑕疵的

就像產(chǎn)生于1960、1970年代的眾多早期理論一樣,智能爆炸背后的推理有點強詞奪理:該理論把智能看成是一個跟環(huán)境脫節(jié)的、完全抽象的概念,并且忽視了有關(guān)智能系統(tǒng)和遞歸自我改進(jìn)系統(tǒng)的已有證據(jù)。其實未必就是這樣的。畢竟嘛,我們都生活在一個滿是智能系統(tǒng)和自我改進(jìn)系統(tǒng)(包括我們自己)的星球上,所以完全可以去觀察這些系統(tǒng)并從中去了解,進(jìn)而回答這個問題,而不是憑空想出毫無證據(jù)的循環(huán)論證。

要想討論智能及其可能的自我改進(jìn)屬性,我們首先應(yīng)該介紹一點必要的背景和上下文。當(dāng)我們在討論智能的時候我們在討論什么呢?對智能本身的精確定義就是一個挑戰(zhàn)了。智能爆炸的說法等同于體現(xiàn)在智能代理個體(目前的人腦、或者未來的電子大腦)身上的、有著一般問題解決能力的智能。當(dāng)然這還不是全部,所以我們不妨把這個定義作為起點,然后在此基礎(chǔ)上再慢慢拓展。

智能是情景化的

我認(rèn)為智能爆炸理論的第一個問題是未能認(rèn)識到智能是一個更大的系統(tǒng)的必要組成部分以為智能是密封起來的大腦,獨立于環(huán)境就能做出任意智能的東西來。大腦不過是一團(tuán)生物組織罷了,它本身本來就沒什么智能的。除了大腦以外,你的身體和感覺你的感覺運動的環(huán)境賦使這些都是思維必不可少的部分。你的環(huán)境是你的智能的基本部分。人類文化是你的智能的基本部分。畢竟,這些是你所有想法的來源。你不能夠把智能跟表達(dá)智能的上下文脫離。

尤其是并不存在所謂的一般智能這樣的東西。就抽象意義而言,我們是通過沒有免費午餐定理了解到這一點這個定理說的是沒有一個問題解決算法能夠比搜索空間的純隨機搜索算法更優(yōu)。(對于所有可能的問題,任意給定兩個算法A、A’,如果A在某些問題上的表現(xiàn)比A’好,那么A在其他問題的表現(xiàn)就一定比A'差,反之亦然。也就是說,任意兩個算法A、A’對所有問題的平均表現(xiàn)度量是完全一樣的)如果智能是個問題解決算法的話,那么只能針對特定問題來理解它。說得更具體一點,就經(jīng)驗來看,我們觀察到的所有已知的智能系統(tǒng)都是高度專門化的。我們目前所開發(fā)的AI的智能都是專門用來處理相當(dāng)狹隘的任務(wù)的比如下圍棋的,或者把圖像分成1萬個已知類別的。章魚的智能時候?qū)iT用來處理章魚所面臨的問題的。人的智能是專門用來處理人所面臨的問題的。

如果我們把剛剛形成的人腦放到章魚的身體里面,然后讓它生活在海底會發(fā)生什么事情呢?它甚至能不能學(xué)會運用自己有8條腿的軀體呢?它能不能活幾天下來呢?我們無法進(jìn)行這樣的實驗,但是我們的確知道人類和動物的認(rèn)知發(fā)展是由硬編碼的、先天的動力驅(qū)動形成的。人體天生就有一套預(yù)置的反射行為以及固有的學(xué)習(xí)模板來推動早期的感覺運動發(fā)展,而這個跟人類感覺運動空間的結(jié)構(gòu)是緊密關(guān)聯(lián)的。大腦已經(jīng)把有手能抓東西,有嘴能吃東西,會轉(zhuǎn)動的腦袋上面有眼睛能用于在視覺上跟蹤對象(前庭眼球反射)的軀體概念硬編碼進(jìn)去了,這些感覺需要人類智能開始去控制人體。比方說Chomsky(喬姆斯基)就曾經(jīng)令人信服地提出,非常高級的人類認(rèn)知特點,比如發(fā)展出語言的能力,就是天生的。

類似地,為了學(xué)習(xí)如何運用章魚軀體并且在章魚的環(huán)境下生存,你也可以想象章魚也有自己的一套必要的、硬編碼進(jìn)去的認(rèn)知基元。人腦是高度針對人類環(huán)境的,這屬于一種天生的專門化,這種專門化的范疇可能要延伸到社會行為、語言以及常識,而章魚的大腦類似地也會高度針對章魚的行為。人類嬰兒的大腦哪怕嫁接到章魚身體也很有可能無法對其獨特的感覺運動空間進(jìn)行充分控制,會很快死掉,F(xiàn)在你可就沒那么聰明了,超級大腦先生。

如果我們把一個人放到一個不具備眾所周知的人類文化的環(huán)境里面去會怎樣呢?一群狼撫養(yǎng)長大的森林王子毛克利(Mowglitheman-cub)長大后會不會比他的犬科兄弟更聰明呢?或者跟我們一樣聰明?如果我們用嬰兒愛因斯坦替換嬰兒毛克利的話,他會不會自學(xué)成才想出宇宙的大理論呢?經(jīng)驗證據(jù)相對比較缺乏,但是就我們所知,在脫離人類文化的自然環(huán)境下長大的小孩并不能形成任何的人類智能。在野外撫養(yǎng)的野孩子從一開始就其實就變成了動物,就會回歸文明也不再能養(yǎng)成人類行為或者語言。在南非,由猴子撫養(yǎng)的SaturdayMthiyane5歲時被人發(fā)現(xiàn)后,直到成人都一直保持著猴子的行為跳躍和走路都是四腳著地,不會說人話,并且拒絕吃煮過的食物。至少在形成期跟人類有過部分接觸的野孩子往往運氣好點,可以接受再教育,盡管罕有逐步發(fā)展成心智健全人的情況。

免責(zé)聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。