對網(wǎng)絡(luò)暴力說NO,AI讓仇恨言論無處可躲
從論壇的評論區(qū)、社交平臺(tái)到網(wǎng)游的聊天區(qū),瘟疫般的仇恨言論游走在互聯(lián)網(wǎng)的各個(gè)角落。
近日,加拿大麥吉爾大學(xué)的HajiMohammadSaleem及其團(tuán)隊(duì),通過讓AI軟件學(xué)習(xí)仇恨言論社區(qū)成員的說話方式,從而可以自動(dòng)識(shí)別出仇恨言論。他們在一個(gè)數(shù)據(jù)庫中訓(xùn)練機(jī)器學(xué)習(xí)系統(tǒng),該數(shù)據(jù)庫包含了2006年至2016年間Reddit的大部分帖子,庫卡機(jī)器人,比之前基于關(guān)鍵字標(biāo)記的系統(tǒng)準(zhǔn)確率更高。
因?yàn)檎Z言的靈活性和模糊性,識(shí)別出真正的仇恨言論并不容易。有時(shí)人們只是隨口說一些粗魯?shù)脑~匯,并不能表明他們心里就是這么想的。日常生活中,人們會(huì)為了各種原因而罵人,甚至朋友之間也會(huì)互爆粗口。
目前論壇等網(wǎng)絡(luò)平臺(tái)獲取仇恨言論的途徑,大都來自用戶舉報(bào)。時(shí)刻緊盯住那些層出不窮的負(fù)面言論,是人力無法完成的。
今年年初,谷歌開發(fā)了Perspective軟件,它可以快速地甄別辱罵性評論,便于人工審核。它的工作原理是基于在線評論與被貼上有毒標(biāo)簽的評論的相似度。但隨后該軟件技術(shù)的不成熟開始顯露,評分機(jī)制出現(xiàn)了諸多弊端,比如:有的言論是作為一個(gè)女孩,你真是太聰明了,它和惡意言論的相似性達(dá)到18%;而我喜歡希特勒這樣的言論卻只有2%。
不同于這種基于關(guān)鍵字標(biāo)記的方法,此次加拿大研究人員研發(fā)的系統(tǒng)另辟蹊徑。
該系統(tǒng)主要研究針對非洲裔美國人、肥胖人群以及女性的言論。在Reddit或Voat(一個(gè)和Reddit類似的網(wǎng)站)上,以這些人群為主題的言論俯拾皆是。該團(tuán)隊(duì)找到其中最活躍的兩種社區(qū):一種社區(qū)愛發(fā)惡評,一種社區(qū)愛發(fā)友好的言論。他們鍛煉AI軟件學(xué)習(xí)這兩種社區(qū)成員的言論特點(diǎn),提高該系統(tǒng)正確識(shí)別負(fù)面言論的能力。
研究結(jié)果證明,該方法比基于關(guān)鍵字標(biāo)記的系統(tǒng)更加精準(zhǔn),并且?guī)缀醪粫?huì)誤判。有些言論中并不包含常規(guī)的侮辱性詞匯,但它也屬于仇恨言論。如果使用以前的方法是識(shí)別不了的,但現(xiàn)在就可以了。比如:我沒覺得這有什么問題,動(dòng)物之間總是互相攻擊。這句話就被該系統(tǒng)標(biāo)記為仇恨言論,因?yàn)檫@里的動(dòng)物一詞帶有種族侮辱的含義。
目前該AI軟件能夠成功抓取Reddit平臺(tái)上的仇恨言論,但其研究團(tuán)隊(duì)未表示該系統(tǒng)是否在其他平臺(tái),如Twitter或Facebook上也有同樣的水準(zhǔn)。
這個(gè)方法雖然行得通,但它抓取的結(jié)果并不全面,有時(shí)還會(huì)遺漏。英國巴斯大學(xué)的JoannaBryson說。
正如他所言,該系統(tǒng)會(huì)錯(cuò)過一些很明顯的仇恨言論,如黑人都很糟糕等具有明顯的歧視言論。然而對于此類言論,工業(yè)機(jī)器人維修,基于關(guān)鍵詞監(jiān)測的舊辦法卻能輕而易舉地識(shí)別出來。
但是不可否認(rèn),這些工具確實(shí)能成為平臺(tái)管理人員的得力助手。基本上,仇恨言論是一種主觀現(xiàn)象,需要人們發(fā)揮自己的判斷力去甄別。一名研究人員說。
,庫卡機(jī)器人何服電機(jī)維修



