英國警方擔心,在他們的行動中使用人工智能可能會導致越來越多的偏見和對自動化的過度依賴。
英國政府咨詢機構(gòu)數(shù)據(jù)倫理與創(chuàng)新中心(Centre for Data Ethics and Innovation)委托進行的一項研究警告稱,機器人維修,警方認為人工智能可能“放大”偏見。
英國皇家聯(lián)合軍種研究所(RUSI)就這項研究采訪了50名專家,其中包括高級警官。
種族定性仍然是一個大問題。被攔下的黑人青年比白人青年多。RUSI采訪的專家們擔心,如果他們根據(jù)現(xiàn)有的警察數(shù)據(jù)進行訓練,這些人類偏見可能會進入算法。
報告還指出,來自弱勢群體的人傾向于使用更多的公共交通工具。由于數(shù)據(jù)可能是從使用公共交通工具中收集的,KUKA機器人示教器維修,這增加了這些人被標記的可能性。
人臉識別算法的準確性經(jīng)常受到質(zhì)疑。今年早些時候,算法正義聯(lián)盟(Algorithmic Justice League)測試了所有主要技術(shù),發(fā)現(xiàn)算法尤其難以對付膚色較深的女性。
美國公民自由聯(lián)盟(American Civil Liberties Union)也發(fā)布了一份類似的報告,重點關(guān)注亞馬遜的reko人臉識別系統(tǒng)。當與國會議員進行測試時,它往往錯誤地標記了膚色較深的人。
這兩項研究結(jié)果都表明,如果今天公開推廣這種技術(shù),可能會造成毀滅性的社會影響。很高興聽到英國當局至少意識到了潛在的復雜性。
RUSI報告說,參與這項研究的專家希望看到為可接受的技術(shù)使用制定更清晰的指導方針。
他們希望這將為警察部隊提供信心,以一種安全、負責任的方式采用這種可能有益的新技術(shù)。
助理警長喬納森·德雷克告訴BBC新聞:“多年來,警察部隊一直在尋求創(chuàng)新,利用技術(shù)來保護公眾,庫卡機器人何服電機維修,防止傷害,我們將繼續(xù)探索實現(xiàn)這些目標的新方法。”