引度侵刪:
“在聽證會上,參議員向紮克伯格問道:“你能定義什是仇恨言論嗎?”然而這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”
界麵新聞田思奇
“對於一個女生來說,你相當聰明啊。”顯然,這句誇獎背後的邏輯是“女生通常不夠聰明”,帶有一定歧視性意味。
倘若用戶不希望類似的冒犯性表達出現在社交媒體上,他可以將其標記出來,讓審核人員判斷是否應該刪除。但如果像Facebook創始人紮克伯格所希望的,把最初的標記工作通通交給人工智能,那機器該如何自動辨認出這句話暗含的歧視?篩選關鍵詞“女生”、“相當”、還是“聰明”?
在4月10日出席數據泄露醜聞的國會聽證會時,紮克伯格向參議員們表示,Facebook到今年底將雇2萬名審核人員監控並移除冒犯性言論。更引人注目的是,紮克伯格指出Facebook將愈發依賴人工智能來標記社交媒體上的仇恨言論(hate speech):
我很樂觀地相信,在5到10年時間,我們就會利用人工智能更準確地識別語言上的細微差異。
從技術、機製和監管的角度考慮,紮克伯格的這番表態是否過度樂觀?
4月10日,紮克伯克出席參議院聽證會。來源:視覺中國
定義仇恨言論是個難題
在聽證會上,共和黨參議員本·薩斯向紮克伯格問道:“你能定義什是仇恨言論嗎?”這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”
通常來說,仇恨言論是以性別、種族、宗教、性取向等特征為基礎,以詆毀他人為核心的冒犯性表達,甚至有可能對被攻擊群體的人身安全構成威脅。
但同一句話在不同的時間、不同的場合,以及不同的人群心可能產生五花八門的解讀。對於絕大多數人來說,種族歧視是不可接受的,但這一判斷在幾十年前還頗具分歧。?如果人工智能將主導仇恨言論的篩選,那它必然也要與時俱進。
澳大利亞新南威爾士大學人工智能教授沃爾什(Toby Walsh)對界麵新聞表示,仇恨言論還和文化有關。例如在德國,否認猶太大屠殺的存在是違法的行為,但在美國憲法第一修正案保障言論自由的情況下,美國人可以合理地質疑猶太大屠殺。對此,沃爾什認為人工智能可以在不同國家接受不同的訓練。
紐約大學計算機教授戴維斯(Ernest Davis)則向界麵新聞介紹說,雖然他沒聽說美國法律對仇恨言論下過定義,但至少現在許多領域都有明顯是仇恨言論的表達,人們已經產生不少共識。戴維斯認為,在可預見的未來,比如5年後,人工智能至少可以捕捉已經被人類標記過的同類型仇恨言論。
識別潛台詞難上加難
目前最受歡迎的機器學習方式——深度學習是一種訓練習得模式。工程師告訴深度學習係統許多好的和不好的例子,把好的例子拆分成單個詞語或句子,讓機器學會辨別這些詞語的關係,並由此構建複雜的是非分析網絡。
新聞網站Quartz報道稱,穀歌母公司旗下的Jigsaw已開發出名為Perspective的人工智能API接口來對抗充滿惡意的網絡表達。但這個係統並不完善,經常分不清負麵詞語和仇恨言論。
例如在係統評估中,“垃圾車”(garbage truck)的仇恨指數高達78%,而“開打種族戰”(race war now)的仇恨指數僅為24%。上文所提到的“對於一個女生來說,你相當聰明啊”,仇恨指數為18%。
Perspective的API接口介紹
在Perspective剛發布的時候,Jigsaw表示,這個係統當前的最大弊端是被標記的數據太少,機器還沒有學會足夠多富有內涵的複雜詞語。比如“種族戰”在一些句子可能是仇恨言論,但在學術著作和曆史書卻不存在負麵含義。
顯然,簡單識別關鍵詞的褒貶已經出現了問題,但理解常識和潛台詞更是難上加難。識別出語句的真實含義需要對世界有更加深入的理解,《麻省理工科技評論》文章指出,正是以所謂的“常識”為前提,語言才成為強大而複雜的交流手段。
一場持續的“軍備競賽”
>>章節報錯<<