面書面對美國大選可能出現的網絡戰爭

【混亂之器】

阿祖

FB內部人士向《華爾街日報》透露,為因應即將到來的美國大選,已經準備好一系列的演算法防禦機制,預防在大選前後出現假新聞、仇恨與暴力等煽動性的內容,造成社會衝突與裂痕的加劇。特別是在大選過後,有可能會出現一波波社群言論的高峰期,FB官方擔心會因此擴大激情,導致暴力事件發生。

而FB向外界透露的演算法,其實並沒有任何詳細內容的說明;諸如實際運作的機制為何?權重如何分配?篩選判別的標準與方法又是什麼?各種疑問並沒有更進一步的詳述,唯獨表示這套預備好的防禦機制,將會擴大危險內容的判別門檻,經由內部篩選後直接降低文章的觸及率、或直接將該文章或發文帳號予以封鎖刪除。

f3a7-izmihnt9525463

緬甸的經驗

「只有在『最惡劣』的情況,以及開始出現『暴力事件』時,FB才會啟動這個機制。目前我們以正在高度警戒狀態。」FB的副總裁克萊格(Nick Clegg)表示。

這裡提及的演算法,根據FB所說是先前曾運用在緬甸國內的種族仇恨言論時,實際操作過的演算法工具。過去幾年當中,緬甸的FB使用者社群極為活躍,但伴隨而來的卻是越來越多針對羅興亞人的仇恨言論,此間造成的傷害,也讓FB直接被聯合國點名,FB對於這類內容的縱容放任,才深化了緬甸的族群對立。

意識到緬甸情況的FB官方,也相應地祭出各種演算法來作壓制,之中像是知名的緬甸激進派佛教僧侶威拉杜(Ashin Wirathu)── 曾多次公開主張屠殺羅興亞人、鼓吹反伊斯蘭行動的極端主義 —— 在2018年就由FB刪除了威拉度的帳號與相關煽動性貼文。

然而緬甸的經驗卻也反映出FB在遏止「危險內容」上的困境,其一是人工審查的人力嚴重不足,此外大量的關鍵字詞、或是帶有貶意的雙關語等,卻也很難全部都用關鍵字封鎖的方式禁止。「如果等到惡意內容已經散播出去,才有辦法動作的話,恐怕都為時已晚了。」《路透社》轉述觀察者的評論。

歷經過緬甸、2016總統大選的經驗,這一次FB官方卻是信誓旦旦地向眾人表示:「Facebook已從過去的選舉中學到經驗,聘請了各領域專家組成團隊,為接下來的各種複雜情況做好準備  ── 我們投注相當多的時間和精力,來讓選舉能夠更安全。」

70萬羅興亞人已經逃離緬甸

界定危險的標準

但外界也有困惑的是,在FB不透明的演算法下,界定危險內容的標準為何?如果沒有具公信力的第三方協作,是不是就成了FB自己說了算的內容控管?先前才因為將《紐約郵報》報導杭特拜登醜聞,列為「爭議或不實的無證據政治內容」而發動一系列帳戶停權、文章封鎖等爭議,FB卻難以在這一點上提出令所有人能夠信服的答案,因而招致不少言論審查的質疑。

不過FB擔心的「網路大亂」並非空穴來風,今年9月微軟公司(Microsoft)也才發表了調查報告,警告2020總統大選已受到來自中國、俄羅斯以及伊朗三國的駭客攻擊威脅,也極有可能發生網軍煽動、資訊戰的風險。如果選舉前後的72小時,真的不幸發生了社群媒體擔憂的亂象,屆時各加平台又該如何應對?

「在社群平台上網路成癮、彼此撕裂、假新聞亂竄….難道FB自己不就是作惡的來源之一?」近期Netflix紀錄片《智能社會:進退兩難》 (Social Dilemma)中即大力抨擊FB,作為全球社群媒體龍頭,其經營運作的本質就會讓人們會上癮,對於造成的負面影響束手無策。

不過針對紀錄片的指控,FB也公開發表聲明:「這部片扭曲了社交媒體平台的意義,只是替困難且複雜的社會問題,憑空找一個代罪羔羊而已。」

d4af-iqrhckn7197721

發表迴響

在下方填入你的資料或按右方圖示以社群網站登入:

WordPress.com 標誌

您的留言將使用 WordPress.com 帳號。 登出 /  變更 )

Google photo

您的留言將使用 Google 帳號。 登出 /  變更 )

Twitter picture

您的留言將使用 Twitter 帳號。 登出 /  變更 )

Facebook照片

您的留言將使用 Facebook 帳號。 登出 /  變更 )

連結到 %s