第六十談 有山不一般

類別:網遊動漫 作者:作家萌 本章:第六十談 有山不一般

    引度侵刪:

    “在聽證會上,參議員向紮克伯格問道:“你能定義什是仇恨言論嗎?”然而這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”

    界麵新聞田思奇

    “對於一個女生來說,你相當聰明啊。”顯然,這句誇獎背後的邏輯是“女生通常不夠聰明”,帶有一定歧視性意味。

    倘若用戶不希望類似的冒犯性表達出現在社交媒體上,他可以將其標記出來,讓審核人員判斷是否應該刪除。但如果像Facebook創始人紮克伯格所希望的,把最初的標記工作通通交給人工智能,那機器該如何自動辨認出這句話暗含的歧視?篩選關鍵詞“女生”、“相當”、還是“聰明”?

    在4月10日出席數據泄露醜聞的國會聽證會時,紮克伯格向參議員們表示,Facebook到今年底將雇2萬名審核人員監控並移除冒犯性言論。更引人注目的是,紮克伯格指出Facebook將愈發依賴人工智能來標記社交媒體上的仇恨言論(hate speech):

    我很樂觀地相信,在5到10年時間,我們就會利用人工智能更準確地識別語言上的細微差異。

    從技術、機製和監管的角度考慮,紮克伯格的這番表態是否過度樂觀?

    4月10日,紮克伯克出席參議院聽證會。來源:視覺中國

    定義仇恨言論是個難題

    在聽證會上,共和黨參議員本·薩斯向紮克伯格問道:“你能定義什是仇恨言論嗎?”這位33歲的創始人沒能直接給出答案:“這個問題真的挺難的。”

    通常來說,仇恨言論是以性別、種族、宗教、性取向等特征為基礎,以詆毀他人為核心的冒犯性表達,甚至有可能對被攻擊群體的人身安全構成威脅。

    但同一句話在不同的時間、不同的場合,以及不同的人群心可能產生五花八門的解讀。對於絕大多數人來說,種族歧視是不可接受的,但這一判斷在幾十年前還頗具分歧。?如果人工智能將主導仇恨言論的篩選,那它必然也要與時俱進。

    澳大利亞新南威爾士大學人工智能教授沃爾什(Toby Walsh)對界麵新聞表示,仇恨言論還和文化有關。例如在德國,否認猶太大屠殺的存在是違法的行為,但在美國憲法第一修正案保障言論自由的情況下,美國人可以合理地質疑猶太大屠殺。對此,沃爾什認為人工智能可以在不同國家接受不同的訓練。

    紐約大學計算機教授戴維斯(Ernest Davis)則向界麵新聞介紹說,雖然他沒聽說美國法律對仇恨言論下過定義,但至少現在許多領域都有明顯是仇恨言論的表達,人們已經產生不少共識。戴維斯認為,在可預見的未來,比如5年後,人工智能至少可以捕捉已經被人類標記過的同類型仇恨言論。

    識別潛台詞難上加難

    目前最受歡迎的機器學習方式——深度學習是一種訓練習得模式。工程師告訴深度學習係統許多好的和不好的例子,把好的例子拆分成單個詞語或句子,讓機器學會辨別這些詞語的關係,並由此構建複雜的是非分析網絡。

    新聞網站Quartz報道稱,穀歌母公司旗下的Jigsaw已開發出名為Perspective的人工智能API接口來對抗充滿惡意的網絡表達。但這個係統並不完善,經常分不清負麵詞語和仇恨言論。

    例如在係統評估中,“垃圾車”(garbage truck)的仇恨指數高達78%,而“開打種族戰”(race war now)的仇恨指數僅為24%。上文所提到的“對於一個女生來說,你相當聰明啊”,仇恨指數為18%。

    Perspective的API接口介紹

    在Perspective剛發布的時候,Jigsaw表示,這個係統當前的最大弊端是被標記的數據太少,機器還沒有學會足夠多富有內涵的複雜詞語。比如“種族戰”在一些句子可能是仇恨言論,但在學術著作和曆史書卻不存在負麵含義。

    顯然,簡單識別關鍵詞的褒貶已經出現了問題,但理解常識和潛台詞更是難上加難。識別出語句的真實含義需要對世界有更加深入的理解,《麻省理工科技評論》文章指出,正是以所謂的“常識”為前提,語言才成為強大而複雜的交流手段。

    一場持續的“軍備競賽”


>>章節報錯<<

如果您喜歡,請把《別進遊戲》,方便以後閱讀別進遊戲第六十談 有山不一般後的更新連載!
如果你對別進遊戲第六十談 有山不一般並對別進遊戲章節有什建議或者評論,請後台發信息給管理員。