又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

機(jī)器人資訊
  1. 中國(guó)制造2025前瞻:無(wú)人機(jī)的未來(lái)(二)
  2. 【重磅】人工智能書寫醫(yī)療健康產(chǎn)業(yè)新篇章(下)
  3. 人工智能書寫醫(yī)療機(jī)器人產(chǎn)業(yè)新篇章
  4. 牛!市一院參與研發(fā)“國(guó)之重器”骨科手術(shù)機(jī)器人
  5. 機(jī)器人胰腺手術(shù)全球直播
技術(shù)教程
示教器維修
伺服電機(jī)維修
首頁(yè) > 機(jī)器人資訊 > 讓人工智能系統(tǒng)更負(fù)責(zé)任的落地,AINow新報(bào)告給出10條建議

讓人工智能系統(tǒng)更負(fù)責(zé)任的落地,AINow新報(bào)告給出10條建議

日期:2019-02-21   人氣:  來(lái)源:互聯(lián)網(wǎng)
簡(jiǎn)介:讓人工智能系統(tǒng)更負(fù)責(zé)任的落地,AINow新報(bào)告給出10條建議 近日,美國(guó)研究組織AINow發(fā)布第二份人工智能年度研究報(bào)告。這份報(bào)告是「AINow」人工智能研討會(huì)的一部分,該研討會(huì)邀請(qǐng)了近百名相關(guān)領(lǐng)域內(nèi)的研究人員,討論人工智能對(duì)社會(huì)經(jīng)濟(jì)的影響。報(bào)告指出,人……

讓人工智能系統(tǒng)更負(fù)責(zé)任的落地,AINow新報(bào)告給出10條建議

近日,美國(guó)研究組織AINow發(fā)布第二份人工智能年度研究報(bào)告。這份報(bào)告是「AINow」人工智能研討會(huì)的一部分,該研討會(huì)邀請(qǐng)了近百名相關(guān)領(lǐng)域內(nèi)的研究人員,討論人工智能對(duì)社會(huì)經(jīng)濟(jì)的影響。報(bào)告指出,人工智能技術(shù)正發(fā)展迅速,尚處于早期階段的人工智能技術(shù)正在從人臉掃描、人力推薦以及網(wǎng)絡(luò)借貸等常見(jiàn)的應(yīng)用場(chǎng)景中不斷滲透到我們的日常生活里。

盡管人們對(duì)快速發(fā)展的人工智能抱有很大的預(yù)期,但是我們也看到了這一高風(fēng)險(xiǎn)的領(lǐng)域正面臨巨大的挑戰(zhàn)。例如在刑事司法中,非盈利媒體ProPublica的調(diào)查小組發(fā)現(xiàn),法庭和執(zhí)法部門用于預(yù)測(cè)刑事被告再犯的算法,可能對(duì)非裔美國(guó)人存在一定的偏見(jiàn)。這一現(xiàn)象隨后被許多學(xué)者證實(shí)。在醫(yī)療保健領(lǐng)域,匹茲堡大學(xué)醫(yī)學(xué)中心的研究發(fā)現(xiàn),一種用于治療肺炎患者的AI系統(tǒng),機(jī)器人維修,缺失了一項(xiàng)對(duì)嚴(yán)重并發(fā)癥的風(fēng)險(xiǎn)評(píng)估。在教育領(lǐng)域,德克薩斯州的評(píng)教算法被暴露出存在嚴(yán)重的缺陷,教師們也成功起訴了他們所在的學(xué)區(qū)。

或許這些例子僅僅是一個(gè)開(kāi)始,未來(lái)還會(huì)有更大的挑戰(zhàn)。其中一部分原因在于,目前的AI領(lǐng)域缺少標(biāo)準(zhǔn)化的測(cè)試模式和審核方法,無(wú)法完全避免算法偏差,保障絕對(duì)的安全。

然而,這些早期的AI系統(tǒng)正被應(yīng)用到多個(gè)行業(yè),包括醫(yī)療、金融、法律、教育以及各種辦公場(chǎng)地。這些系統(tǒng)也已經(jīng)滲透到我們生活的方方面面,它們可以用于預(yù)測(cè)我們的音樂(lè)愛(ài)好、生病的概率、適合的工作以及借貸的數(shù)額等。

這里的問(wèn)題不是蓄意對(duì)人工智能的濫用。而是人們?cè)谑褂肁I技術(shù)的過(guò)程中,沒(méi)有用于確保公平公正的流程和標(biāo)準(zhǔn),更沒(méi)有思考它們所帶來(lái)的社會(huì)效應(yīng)。當(dāng)研發(fā)的藥品在推向市場(chǎng)之前,它必須要經(jīng)過(guò)嚴(yán)格的科學(xué)測(cè)試,并持續(xù)檢測(cè)其中長(zhǎng)期的效果。其實(shí)高風(fēng)險(xiǎn)AI的應(yīng)用也當(dāng)如此。謹(jǐn)慎是非常必要的,因?yàn)槿绻坏┏鲥e(cuò),許多人會(huì)受到嚴(yán)重的傷害。

作為報(bào)告的一部分,AINow還為AI產(chǎn)業(yè)的研究人員和政策制定者提供了10條建議。這些建議并不是完整的解決方案,只是進(jìn)一步工作的起點(diǎn)。AINow稱:「盡管AI產(chǎn)品正在迅速發(fā)展,但對(duì)算法偏見(jiàn)和公正的研究仍處于起步階段,如果我們想要確保AI系統(tǒng)得以被負(fù)責(zé)任地部署與管理,需要做的事情還很多!

建議一:刑事司法、醫(yī)療、福利和教育等高風(fēng)險(xiǎn)領(lǐng)域內(nèi)的核心公共機(jī)構(gòu)不應(yīng)再使用具有「黑箱」特性的AI技術(shù)及算法系統(tǒng),包括未經(jīng)審核和驗(yàn)證的情況下使用預(yù)訓(xùn)練模型,采用由第三方供應(yīng)商授權(quán)的AI系統(tǒng)及內(nèi)部創(chuàng)建的算法。

公共機(jī)構(gòu)使用這類系統(tǒng)會(huì)嚴(yán)重引起人們對(duì)這類法定訴訟程序的擔(dān)憂。這些系統(tǒng)至少要經(jīng)歷公共審計(jì)、測(cè)試及審查的過(guò)程,工業(yè)機(jī)器人維修,符合相應(yīng)的問(wèn)責(zé)標(biāo)準(zhǔn)。

這將帶來(lái)一個(gè)重大的轉(zhuǎn)變:提出的這項(xiàng)建議反映了AI及相關(guān)系統(tǒng)已經(jīng)對(duì)部分重大決策產(chǎn)生影響。過(guò)去的一年里,也有許多能夠作證這一點(diǎn)的研究報(bào)告。人們?cè)诔@個(gè)方向邁進(jìn),本月,紐約市議會(huì)就開(kāi)展了一項(xiàng)關(guān)于保障算法決策系統(tǒng)的透明度和測(cè)試的相關(guān)法案。

建議二:在發(fā)布AI系統(tǒng)之前,企業(yè)應(yīng)該進(jìn)行嚴(yán)格的預(yù)發(fā)布測(cè)試,以便確保系統(tǒng)不會(huì)因訓(xùn)練數(shù)據(jù)、算法或其他系統(tǒng)設(shè)計(jì)的原因?qū)е氯魏五e(cuò)誤及偏差的發(fā)生。

AI是一個(gè)發(fā)展迅猛的領(lǐng)域,開(kāi)展測(cè)試的方法、假設(shè)以及測(cè)試結(jié)果,都應(yīng)該是公開(kāi)透明、有明確版本的,這有助于應(yīng)對(duì)更新升級(jí)以及新的發(fā)現(xiàn)。

那些開(kāi)發(fā)系統(tǒng)并從中獲利的人應(yīng)該肩負(fù)起相應(yīng)的測(cè)試及保障環(huán)節(jié)的責(zé)任,包括預(yù)發(fā)布版本的測(cè)試。AI領(lǐng)域距離標(biāo)準(zhǔn)化方法的實(shí)現(xiàn)還有很長(zhǎng)的路要走,這也是建議這些方法和假設(shè)需要公開(kāi)審核和討論的原因。如果隨著時(shí)間的推移,AI領(lǐng)域能夠制定出具有魯棒性的測(cè)試準(zhǔn)則,那么這種開(kāi)放性是至關(guān)重要的。另外,即便在標(biāo)準(zhǔn)化方法中,實(shí)驗(yàn)室測(cè)試也不能捕捉到所有的錯(cuò)誤和盲區(qū),這也是建議三出現(xiàn)的原因。

建議三:在AI系統(tǒng)發(fā)布之后,企業(yè)需要繼續(xù)監(jiān)測(cè)其在不同環(huán)境和社區(qū)中的使用情況。

監(jiān)測(cè)方法和結(jié)果的定義需要一個(gè)公開(kāi)、嚴(yán)謹(jǐn)?shù)膶W(xué)術(shù)過(guò)程,要對(duì)公眾負(fù)責(zé)。特別是在高風(fēng)險(xiǎn)決策環(huán)境中,應(yīng)該優(yōu)先考慮傳統(tǒng)邊緣化社區(qū)的看法和經(jīng)驗(yàn)。

確保AI算法系統(tǒng)的安全性問(wèn)題是非常復(fù)雜的,是一個(gè)針對(duì)給定系統(tǒng)生命周期的持續(xù)過(guò)程,而不是一個(gè)完成后就可以遺忘的短期檢驗(yàn)。只有在動(dòng)態(tài)的使用案例和環(huán)境中進(jìn)行監(jiān)測(cè)才能確保AI系統(tǒng)不會(huì)在假設(shè)和領(lǐng)域發(fā)生改變時(shí)引入錯(cuò)誤和偏差。同樣值得注意的是,許多AI模型和系統(tǒng)都有通用性,產(chǎn)品可能會(huì)采用一些即插即用的附加功能,如情感檢測(cè)或面部識(shí)別等。這意味著那些提供通用AI模型的企業(yè)也可以考慮選擇已經(jīng)批準(zhǔn)使用的功能,這些經(jīng)過(guò)許可的功能已經(jīng)把潛在的負(fù)面影響和風(fēng)險(xiǎn)等因素考慮在內(nèi)。

建議四:需要進(jìn)行更多的研究并制定相應(yīng)的政策讓AI系統(tǒng)用于工作場(chǎng)所管理和監(jiān)測(cè)中,包括招聘和人力資源環(huán)節(jié)。

這項(xiàng)研究將補(bǔ)充目前自動(dòng)化取代工人的這一研究焦點(diǎn),應(yīng)該特別注意對(duì)勞工權(quán)利和行為的潛在影響,以及操縱行為的潛力以及在招聘和晉升過(guò)程中無(wú)意強(qiáng)化的偏見(jiàn)。

圍繞AI和勞動(dòng)力的爭(zhēng)論通常會(huì)集中在工人流離失所的問(wèn)題上,這是一個(gè)非常嚴(yán)重的問(wèn)題。然而,了解AI算法系統(tǒng)在整個(gè)工作場(chǎng)所中的使用情況也同樣重要,KUKA機(jī)器人維修,包括行為推動(dòng),到檢測(cè)環(huán)節(jié),再到績(jī)效評(píng)估過(guò)程。例如,一家名為HireVue的公司最近部署了一項(xiàng)基于AI的視頻面試服務(wù),可以分析求職者的講話、肢體語(yǔ)言、語(yǔ)調(diào),從而確定求職者是否符合一家給定公司的「優(yōu)秀」模型。鑒于這些系統(tǒng)存在降低多樣性并鞏固現(xiàn)有偏見(jiàn)的可能性,人們需要做更多的工作來(lái)充分理解AI是如何融入管理、招聘、調(diào)度以及日常工作場(chǎng)所中的實(shí)踐中的。

建議五:制定標(biāo)準(zhǔn),跟蹤系統(tǒng)整個(gè)生命周期的啟動(dòng)、開(kāi)發(fā)過(guò)程和訓(xùn)練數(shù)據(jù)集的使用情況。

這是為了更好地了解和監(jiān)控偏差及代表性曲解問(wèn)題。除了更好地記錄訓(xùn)練數(shù)據(jù)集的創(chuàng)建和維護(hù)過(guò)程,AI偏差領(lǐng)域的社會(huì)科學(xué)家和測(cè)量研究員應(yīng)該繼續(xù)檢驗(yàn)現(xiàn)有的訓(xùn)練數(shù)據(jù)集,并努力理解已經(jīng)存在在實(shí)際工作中的潛在盲區(qū)和偏差。

依賴于大規(guī)模數(shù)據(jù),AI才能發(fā)現(xiàn)模式并作出預(yù)測(cè)。這些數(shù)據(jù)反映人類歷史的同時(shí),也不可避免地反映了訓(xùn)練數(shù)據(jù)集的偏差和成見(jiàn)。機(jī)器學(xué)習(xí)技術(shù)山擅長(zhǎng)提取統(tǒng)計(jì)模式,常常會(huì)在試圖概括常見(jiàn)案例的過(guò)程下省略不同的異常值,這也是不根據(jù)數(shù)據(jù)表面價(jià)值進(jìn)行偏差研究的重要原因。這樣的研究要從理解訓(xùn)練AI系統(tǒng)的數(shù)據(jù)來(lái)自哪里開(kāi)始,追蹤這些數(shù)據(jù)是如何在系統(tǒng)中使用的,而且要隨著時(shí)間推移驗(yàn)證給定數(shù)據(jù)集的形態(tài)。在掌握這一點(diǎn)的基礎(chǔ)上,人們可以更好地理解數(shù)據(jù)中反映出的錯(cuò)誤和偏差,進(jìn)而研發(fā)出能夠在數(shù)據(jù)的開(kāi)發(fā)和采集中識(shí)別這種情況并將其削弱的方法。

建議六:以跨學(xué)科視角看待AI的偏差研究與緩解策略的研究。

免責(zé)聲明:本網(wǎng)部分文章和信息來(lái)源于互聯(lián)網(wǎng),本網(wǎng)轉(zhuǎn)載出于傳遞更多信息和學(xué)習(xí)之目的。如轉(zhuǎn)載稿涉及版權(quán)等問(wèn)題,請(qǐng)立即聯(lián)系網(wǎng)站所有人,我們會(huì)予以更改或刪除相關(guān)文章,保證您的權(quán)利。