又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 目前,人類為AI制定的道德框架很失敗

目前,人類為AI制定的道德框架很失敗

日期:2019-02-21   人氣:  來源:互聯(lián)網(wǎng)
簡介:目前,人類為AI制定的道德框架很失敗 前不久,一個名為AINow的新研究機構(gòu)發(fā)布了報告呼吁,要進一步提高人工智能對社會影響的關(guān)注度。在這個報告發(fā)布之后,Wired記者ScottRosenberg對該研究機構(gòu)的創(chuàng)始人之一KateCrawford進行了訪談。進一步挖掘了該報告背后……

目前,人類為AI制定的道德框架很失敗

前不久,一個名為AINow的新研究機構(gòu)發(fā)布了報告呼吁,要進一步提高人工智能對社會影響的關(guān)注度。在這個報告發(fā)布之后,Wired記者ScottRosenberg對該研究機構(gòu)的創(chuàng)始人之一KateCrawford進行了訪談。進一步挖掘了該報告背后傳遞的想法。KateCrawford認為,在人工智能成為一種災難之前,必須要將其安放好。

KateCrawford,AINow創(chuàng)始人之一。

關(guān)于人工智能的道德問題,并不乏報道。但大多數(shù)都是輕量級的充滿了關(guān)于公私合作、關(guān)于把人放在第一位之類的陳詞濫調(diào)。他們不承認人工智能創(chuàng)造出的社會困境有多棘手,也不承認解開這些難題有多么困難。但AINow研究所(一家位于紐約大學的新研究機構(gòu))的新報告并非如此。報告指出,科技行業(yè)正以一種不容置疑的態(tài)勢,競相使用人工智能來重塑社會,這并不會帶來任何可靠和公平的結(jié)果。

兩周前發(fā)布的這份報告是由KateCrawford和MeredithWhittaker完成,他們是AINow的聯(lián)合創(chuàng)始人。Crawford、Whittaker和他們的合作者在一個密集但易于獲得的35頁報告中列出了研究議程和政策路線圖。他們的結(jié)論并不是胡說八道:他們說,到目前為止,我們將人工智能保持在道德標準上的努力是失敗的。

他們寫道:人工智能的新倫理框架需要超越個人責任,在設計和使用人工智能的過程中,工業(yè)機器人維修,讓強大的工業(yè)、政府和軍事利益承擔責任。當科技巨頭開發(fā)人工智能產(chǎn)品時,用戶同意、隱私和透明度往往被忽視,而只專注于聚合數(shù)據(jù),為利潤驅(qū)動的商業(yè)模式服務與此同時,在警務、教育、醫(yī)療和其他環(huán)境中引入人工智能系統(tǒng),在這些環(huán)境中,算法的失誤可能會毀掉一個人的生活。有什么我們可以做的嗎?本周,Crawford與我們一起討論了為什么人工智能的道德規(guī)范仍然一團糟,庫卡機器人,以及采取什么樣的實際步驟可能改變這一局面。

ScottRosenberg(下文略):在新報告的最后,你直截了地方說,當前為人工智能的道德規(guī)范制定的框架正在失敗。這聽起來很可怕。

KateCrawford(下文略):很多人都在談論我們是如何提出這個領(lǐng)域的道德規(guī)范的。但仍然沒有一個能夠落地的。包括IEEE,Asilomar,以及其他一些組織都帶頭做了很多的工作。我們現(xiàn)在看到的是高層次原則之間的鴻溝,和大規(guī)模機器學習系統(tǒng)日常開發(fā)的實際情況。這顯然是非常重要且真實存在的。

我們閱讀了過去兩年出版的所有關(guān)于人工智能和算法系統(tǒng)的道德準則。然后我們研究了理想和實際情況之間的區(qū)別。現(xiàn)在最迫切需要的是,這些道德準則伴隨著非常強大的問責機制。我們可以說,我們希望人工智能系統(tǒng)遵循最高的道德原則,但我們必須確保有某種利害關(guān)系。通常,當我們談論道德規(guī)范時,我們會忘記談論權(quán)力。人們往往會有最好的意圖。但我們看到的是,人們?nèi)狈φ嬲臋?quán)力不對稱如何影響著不同群體的思考。

這份報告透露出來的基礎(chǔ)信息似乎是,我們可能發(fā)展得太快了,以至于我們沒有花時間來做這件事。

我可能會用不同的方式來表達。時間是一個因素,但優(yōu)先級也是一個因素。如果我們花很多的錢,聘請了許多人去思考和研究這些體系帶來的廣泛的社會和經(jīng)濟影響,那么我們就會有一個更強大的基礎(chǔ)。實際上,誰在創(chuàng)造行業(yè)標準說,好,這是你需要經(jīng)過的基本的預發(fā)布試驗系統(tǒng);這是你應該如何公開展示你怎樣在不同類型的人群中測試你的系統(tǒng);這些是你應該如何準備在你的系統(tǒng)或產(chǎn)品背后建立的信心界限?這些都是我們在藥物測試和其他關(guān)鍵任務系統(tǒng)中所使用的東西,即使是在城市的水安全問題上也是如此。

但只有當我們看到它們失敗時,例如在像弗林特、密歇根這樣的地方,我們才意識到我們對這些基礎(chǔ)設施的依賴程度,對所有人來說都是安全的。就人工智能而言,我們還沒有這些系統(tǒng)。我們需要訓練人們?nèi)y試人工智能系統(tǒng),并創(chuàng)造出這些安全與公平的機制。這是我們現(xiàn)在可以做的事情。在將這些系統(tǒng)部署到人類身上之前,我們需要在安全與公平的優(yōu)先次序上增加一些緊迫感。

在人工智能成為災難之前,你想要把它安放好。

我認為我們必須這樣做。

目前科技行業(yè)的格局是由幾家大公司主導的。為什么會這樣?

這是核心問題。作為這個領(lǐng)域的研究人員,我會去了解我所知道的工具。實際上,我們可以通過提高研究的水平和嚴謹程度來做大量的工作。我們認為,我們可以做出改變:在這些系統(tǒng)的設計中,誰能獲得一席之地?目前,它是由工程和計算機科學專家推動的,他們設計的系統(tǒng)涉及從刑事司法、醫(yī)療保健到教育等方方面面。但是,就像我們不希望聯(lián)邦法官優(yōu)化神經(jīng)網(wǎng)絡一樣,我們也不應該指望一個工程師能理解刑事司法系統(tǒng)的運行機制。

因此,我們有一個非常強烈的建議,即人工智能行業(yè)應該從計算機科學和工程以外的領(lǐng)域聘請專家,并確保這些人擁有決策權(quán)。如果你已經(jīng)設計了一個系統(tǒng),而你已經(jīng)準備好部署它,那么僅僅在最后引入咨詢顧問是遠遠不夠的。如果你不通過刑事司法體系或預見性監(jiān)管的方式來考慮系統(tǒng)偏見的傳播,那么很有可能的是,你正在設計一個基于歷史數(shù)據(jù)的系統(tǒng),將會使這些偏見延續(xù)下去。

解決這一問題不僅僅是技術(shù)上的問題。這不是僅僅通過調(diào)整數(shù)字來試圖消除系統(tǒng)的不平等和偏見的問題。

這是一種內(nèi)部重組的計劃。但是現(xiàn)在,情況看起來更像是研究人員坐在外面,他們得到了一些數(shù)據(jù),然后他們得出了這些爆炸性的研究結(jié)果表明事情有多糟糕。這可能會引起公眾的關(guān)注,并贏得媒體的報道,但你是如何從內(nèi)部改變事物的呢?

當然,當我們思考人工智能行業(yè)的數(shù)據(jù)能力和來源時,這并不難。我們應該把這看作是一個底線安全問題。你會影響一個人獲得工作,擺脫監(jiān)獄,進入大學等方面的能力。至少,我們應該對這些制度如何變得更公平、以及這些決策對人們生活的重要性有深入的了解。

我不認為這是個很大的要求。我認為,這些系統(tǒng)中最負責任的生產(chǎn)商確實希望它們能很好地工作。這是一個開始用強有力的研究和強有力的安全門檻來支持這些良好意愿的問題。這并不超出我們的能力范圍。如果人工智能將以如此快的速度進入我們的核心社會機構(gòu),我認為這是絕對必要的。

你是微軟研究院的成員,而MeredithWhittaker則隸屬于谷歌。你難道不能走到合適的會議上說,我們?yōu)槭裁床蛔鲞@個?

毫無疑問,我和Meredith在公司都有一席之地,這就是我們會提出這些建議的一部分原因。我們知道這些系統(tǒng)是如何建立起來的,我們可以明白一些積極的步驟,可以讓它們變得更安全、更公平。這也是為什么我們認為在一個獨立的環(huán)境中工作是非常重要的,我們也可以在科技公司之外做研究,幫助這些系統(tǒng)盡可能地感受到它們將要進入的復雜的社會領(lǐng)域。

免責聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學習之目的。如轉(zhuǎn)載稿涉及版權(quán)等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關(guān)文章,保證您的權(quán)利。