又大又长粗又爽又黄少妇毛片,亚洲欧美日韩综合一区在线观看,伊人久久精品,一区二区三区精品,亚洲综合色自拍一区,一本一道久久久a久久久精品91

首頁 > 機器人資訊 > 用人工智能預防自殺是善意,但也是道德綁架?

用人工智能預防自殺是善意,但也是道德綁架?

日期:2019-02-27   人氣:  來源:互聯(lián)網(wǎng)
簡介:用人工智能預防自殺是善意,但也是道德綁架? Facebook開始采用人工智能(artificialintelligence;AI)辨識用戶偏離正常貼文的行為,并對于可能出現(xiàn)的輕生念頭發(fā)出警告。但這樣做合乎倫理道德嗎? 在當今高度互連的世界中,我們不斷產(chǎn)生和收集如此龐大的……

用人工智能預防自殺是善意,但也是道德綁架?

Facebook開始采用人工智能(artificialintelligence;AI)辨識用戶偏離正常貼文的行為,并對于可能出現(xiàn)的輕生念頭發(fā)出警告。但這樣做合乎倫理道德嗎?

在當今高度互連的世界中,我們不斷產(chǎn)生和收集如此龐大的數(shù)據(jù)量,甚至已經(jīng)超出人類能力所能全部過濾篩選的范圍了。確實,人工智能的應用之一就是辨識這些貼文上的意圖所表現(xiàn)出來的模式與偏差。因此,F(xiàn)acebook以這種方式運用AI,從其大數(shù)據(jù)(BigData)數(shù)據(jù)庫中擷取價值,雖然可能是出于善意的目的,但也引發(fā)對于道德感的顧慮。

為了能夠更清楚掌握這個問題,在我不斷的搜尋中,找到了一家名為運算研究的普適資料倫理(PervasiveDataEthicsforComputationalResearch;PERVADE)的組織。PERVADE組織與六所大學合作進行研究,并在今年9月取得了資金贊助,目前正致力于制訂問題并積極尋求答案。

我很快地與這家組織接觸,針對Facebook以人工智能偵測自殺信號的道德問題征詢了專家們的看法。后來有機會與該組織的一位成員MatthewBietz取得了聯(lián)系。

Bietz告訴我,參與PERVADE組織的成員們正在研究普適資料的發(fā)展后果,包括不斷地收集數(shù)據(jù)不僅從我們發(fā)布到社交媒體的貼文,還來自我們在上網(wǎng)時留下的數(shù)字軌跡,例如我們以Google進行搜尋或收發(fā)電子郵件。他說,物聯(lián)網(wǎng)(IoT)和可穿戴設備之間建立起新的聯(lián)系,進一步促進了我們所處空間的數(shù)據(jù)主體日益增加。由于這個現(xiàn)像相對較新,因而對于數(shù)據(jù)倫理提出了值得探索的新問題。

由于Facebook宣布不會將其自殺信號偵測工具擴展到歐盟(EU),我詢問Bietz是否因為這項計劃會違反歐盟的通用數(shù)據(jù)保護條例(GeneralDataProtectionRegulatio)?他坦言歐盟確實對于數(shù)據(jù)保護存在一些世界上最嚴格的規(guī)定,但他補充說,以GDPR的標準來看,F(xiàn)acebook所做的是否違法,目前還不是完全明朗。

數(shù)據(jù)偵測與歐盟

更準確的說,F(xiàn)acebook正冒險進入一種未真正經(jīng)試驗的優(yōu)勢。但我猜測他們并不想成為測試用例。

Bietz說,F(xiàn)acebook的服務條款使其得以查看數(shù)據(jù),因此,這樣的行為并不會直接違反GDPR的隱私條例。但是,立法禁止公司僅根據(jù)算法或由計算機自動進行分析。

這表示,KUKA機器人維修,如果算法在沒有人為介入的情況下決定信號意義,并自行發(fā)出警告,那么這樣的行為以GDPR來看就是錯誤的。然而,他說,如果只是利用算法協(xié)助決定哪些貼文需要人們多加關照,就可能在在法規(guī)允許范圍。

道德的雷區(qū)

除了法規(guī)的問題,Bietz認為,F(xiàn)acebook的自殺偵測途徑設定了一種道德的雷區(qū)(Ethicalminefield),因為后果是如此的強烈。但這并不表示該公司所做的必然是不道德的,實際上還取決于他們?nèi)绾翁幚磉@些資料,以及Facebook是否值得我們信任。

目前,這是個懸而未決的問題。他表示,當Facebook的營利模式是基于有選擇性的信息共享時,是否還能讓我們相信它真的將自殺信號數(shù)據(jù)用于防范自殺以及改善社會問題的目的。為了證明其出于善意,F(xiàn)acebook應該盡快提供信息如何分享的程度,詳細說明他們?nèi)绾问褂眠@些數(shù)據(jù),以及如何保有其安全性。但是,F(xiàn)acebook的立場是我們只須要相信他們。

Bietz說,我們現(xiàn)在面對的一部份問題是前所未見的各種新技術及其應用。因此,庫卡機器人,目前還沒有明確的先例可用于指導道德決定。我們現(xiàn)正探索一個全新的領域,不只是在技術上,在倫理道德方面也是如此。此外,還必須取得一些方向來表達正確的道德問題。

問題與結果

Bietz表示,他贊成運用數(shù)據(jù)和算法來防范自殺的發(fā)生,并指出危機求救熱線(CrisisTextLine)采用該方法來優(yōu)先考慮對最緊急的情況做出反應。但Facebook并未詳細說明其計劃如何防范自殺,然而,Bietz認為,該公司也不應該自行嘗試這項計劃。他說:如果我他們與來自公司外部的心理學研究人員密切合作,共同思考這些問題,庫卡機器人,我感覺會更好。

所使用的算法質量是也很重要,Bietz補充說。例如,過度謹慎可能會產(chǎn)生誤報。但是,F(xiàn)acebook并未表明其算法的性質,或是說明計劃如何處理這些熱線。它將會持續(xù)使用原始算法或隨著時間進行調(diào)整?同樣地,F(xiàn)acebook并未透露任何細節(jié)。

我們能夠信任Facebook是合乎倫理道德的嗎?由于社交媒體平臺能夠取得太多有關于我們的信息,現(xiàn)在必須提出這個問題。它不僅能從我們的歷史訊息中辨識個人行為標準的模式,還可能根據(jù)朋友的貼文推斷我們并未分享的信息。

Bietz指出,我們的社會從來沒有經(jīng)歷過這種范圍縮小到個人層級的監(jiān)控精確度,再加上這是一個數(shù)百萬Facebook賬號的龐大社群。如今,在這個全新的數(shù)據(jù)新世界,我們必須積極地尋找道德的界線。

免責聲明:本網(wǎng)部分文章和信息來源于互聯(lián)網(wǎng),本網(wǎng)轉載出于傳遞更多信息和學習之目的。如轉載稿涉及版權等問題,請立即聯(lián)系網(wǎng)站所有人,我們會予以更改或刪除相關文章,保證您的權利。