對網(wǎng)絡暴力說NO,AI讓仇恨言論無處可躲
從論壇的評論區(qū)、社交平臺到網(wǎng)游的聊天區(qū),瘟疫般的仇恨言論游走在互聯(lián)網(wǎng)的各個角落。
近日,加拿大麥吉爾大學的HajiMohammadSaleem及其團隊,通過讓AI軟件學習仇恨言論社區(qū)成員的說話方式,從而可以自動識別出仇恨言論。他們在一個數(shù)據(jù)庫中訓練機器學習系統(tǒng),該數(shù)據(jù)庫包含了2006年至2016年間Reddit的大部分帖子,庫卡機器人,比之前基于關鍵字標記的系統(tǒng)準確率更高。
因為語言的靈活性和模糊性,識別出真正的仇恨言論并不容易。有時人們只是隨口說一些粗魯?shù)脑~匯,并不能表明他們心里就是這么想的。日常生活中,人們會為了各種原因而罵人,甚至朋友之間也會互爆粗口。
目前論壇等網(wǎng)絡平臺獲取仇恨言論的途徑,大都來自用戶舉報。時刻緊盯住那些層出不窮的負面言論,是人力無法完成的。
今年年初,谷歌開發(fā)了Perspective軟件,它可以快速地甄別辱罵性評論,便于人工審核。它的工作原理是基于在線評論與被貼上有毒標簽的評論的相似度。但隨后該軟件技術的不成熟開始顯露,評分機制出現(xiàn)了諸多弊端,比如:有的言論是作為一個女孩,你真是太聰明了,它和惡意言論的相似性達到18%;而我喜歡希特勒這樣的言論卻只有2%。
不同于這種基于關鍵字標記的方法,此次加拿大研究人員研發(fā)的系統(tǒng)另辟蹊徑。
該系統(tǒng)主要研究針對非洲裔美國人、肥胖人群以及女性的言論。在Reddit或Voat(一個和Reddit類似的網(wǎng)站)上,以這些人群為主題的言論俯拾皆是。該團隊找到其中最活躍的兩種社區(qū):一種社區(qū)愛發(fā)惡評,一種社區(qū)愛發(fā)友好的言論。他們鍛煉AI軟件學習這兩種社區(qū)成員的言論特點,提高該系統(tǒng)正確識別負面言論的能力。
研究結果證明,該方法比基于關鍵字標記的系統(tǒng)更加精準,并且?guī)缀醪粫`判。有些言論中并不包含常規(guī)的侮辱性詞匯,但它也屬于仇恨言論。如果使用以前的方法是識別不了的,但現(xiàn)在就可以了。比如:我沒覺得這有什么問題,動物之間總是互相攻擊。這句話就被該系統(tǒng)標記為仇恨言論,因為這里的動物一詞帶有種族侮辱的含義。
目前該AI軟件能夠成功抓取Reddit平臺上的仇恨言論,但其研究團隊未表示該系統(tǒng)是否在其他平臺,如Twitter或Facebook上也有同樣的水準。
這個方法雖然行得通,但它抓取的結果并不全面,有時還會遺漏。英國巴斯大學的JoannaBryson說。
正如他所言,該系統(tǒng)會錯過一些很明顯的仇恨言論,如黑人都很糟糕等具有明顯的歧視言論。然而對于此類言論,工業(yè)機器人維修,基于關鍵詞監(jiān)測的舊辦法卻能輕而易舉地識別出來。
但是不可否認,這些工具確實能成為平臺管理人員的得力助手;旧希鸷扪哉撌且环N主觀現(xiàn)象,需要人們發(fā)揮自己的判斷力去甄別。一名研究人員說。
,庫卡機器人何服電機維修