【2019亞洲事實查核專業論壇/學界反饋場】事實查核確保民主價值 導入AI協助判定不實訊息

【2019亞洲事實查核專業論壇/學界反饋場】事實查核確保民主價值 導入AI協助判定不實訊息

特約記者/劉玟妤

「2019年亞洲事實查核專業論壇」除邀請各國事實查核組織進行經驗分享,也邀請來自新加坡、香港與台灣的學者一同參與,「事實查核與民主:學術界的反饋」場次中,由政治大學傳播學院兼任教授、台灣事實查核中心諮議委員翁秀琪擔任主持人,邀請來自任教於新加坡科技設計大學的J. Casey Hammond、香港大學新聞及傳媒研究中心助理教授Masato Kajimoto,以及台灣師範大學大眾傳播研究所教授王維菁,透過學界觀點,對事實查核提出研究報告。

圖1:「事實查核與民主:學術界的反饋」場次,由政治大學傳播學院兼任教授、台灣事實查核中心諮議委員翁秀琪擔任主持人。

獨立事實查核機構 保護民主價值

曾在台灣與印尼生活的新加坡科技設計大學的J. Casey Hammond,經歷台灣與印尼從威權統治轉變為開放、民主社會的歷程。他認為,民主是一件很珍貴且需要被保護的事,而「自由的媒體對民主社會而言非常重要」。

Hammond提到,在2018年一份關於各國民主指標的報告,全球只有「政治參與」指標有進步,因為越來越多民眾對政府施政感到不滿,因此積極投入政治參與。此報告中也提及,若要使民主更加興盛,民眾必須積極參與公共討論,且需要擁有一個中立、自由的媒體。

圖2:任教於新加坡科技設計大學的Hammond指出,自由獨立的媒體對民主非常重要。

Hammond指出,美國較早期的事實查核機構,例如FactCheck.org是以查核政治人物的言論為主,希望阻擋選舉時可能會散播的謠言,而近期成立的事實查核機構PolitiFact,其目的也與FactCheck.org類似,都是希望讓民眾有機會參與民主, 在美國,事實查核與民主選舉有很大的關係。

Hammond發現,「自由之家」(Freedom of House)2018年公布報告指出,網路不實資訊及意識形態可能影響公共論述,無論散播者動機是否有惡意,都可能在網路或社群媒體形成同溫層,為民主社會帶來負面影響。

Hammond認為,打擊不實資訊最有力的方式,就是擁有一個獨立的事實查核機構,保護最重要的民主機制。

事實查核多元合作形式  限制來自判定標準差異

香港大學新聞及傳媒研究中心助理教授Masato Kajimoto,引用澳洲學者Lucas Graves的研究《無疆之界》。此研究分析全球的事實查核機構有多種形式,依照媒體、學術、政治與公民社會等三種性質,分別於不同光譜,有的查核機構偏向媒體性質,有些是偏重政策研究,有些是界於兩種性質之間。

圖3:香港大學助理教授 Kajimoto建議,事實查核組織可從個案合作開始著手。

Kajimoto建議,各國事實查核組織可先從個案的合作著手,針對特定議題的不實資訊進行查核,像是近期香港反送中,或是台灣總統大選都是很好的題材。

不過,他提醒,若要進行跨國合作,必須注意資金是否來自科技巨擘,像Google或是Faceboo這類平台是否會影響到事實查核的工作,值得思考。

雖然合作可以成為趨勢,但Kajimoto仍對大型的事實查核合作計畫有所存疑,他說各國事實查核組織類型多元,有新聞機構、非營利機構、民間團體、社運團體或學界等,雖然有相同目標,但由於查核題材不盡相同,是否真能合作,他仍抱持懷疑態度。

此外,Kajimoto也提及事實查核的限制。他舉例,新聞從業人員製作新聞時,很在乎新聞內容資訊與數據的正確性,但讀者通常不會只依照這些資訊與數據,來判斷新聞真假,而是透過情感、意識形態、文化、宗教、社會規範等指標,來決定訊息真假。他的研究發現,在極端紛爭的議題中,讀者不在乎數據和資料正確,卻以情感等指標來判斷訊息,假訊息反而傳散得更快,值得關注。

此外,事實查核的確有很多限制,包括:可疑的評論、片面放大的影像、仇恨言論、迷因等,都是事實查核難以切入的題目。

透過不實訊息創造聲量  人工智慧協助判斷假新聞 

台灣師範大學大眾傳播研究所教授王維菁,正帶領團隊,開發假新聞AI辨識系統,她詳細分享研究歷程。

王維菁表示,由於社群媒體、人工智能以及社交機器人等科技興起,為假新聞增添不少動能,她憂心由於缺乏社會監督,也沒有相關法規限制,會使得假新聞的情形更趨嚴重。

圖4:台灣師範大學大傳所教授王維菁說,透過人工智慧可協助判斷新聞的真偽。

王維菁分析,有心人士可利用假訊息及謠言製造對立、影響網路輿論風向以及創造網路民意,進而去影響主流媒體的報導。這樣的現象可能會造成網路訊息聲量不對稱,或虛假的輿論風向,而且違反「網路聲音平權」。面對這樣的情況,她提出包括開發假新聞AI辨識系統、新科技介入網路傳播後需思考的倫理規範問題,以及推廣傳播素養教育來因應。

王維菁說,人工智能的學習模式有兩種,分別是機器學習與深度學習。「機器學習」是指人工智能透過人的參與與協助來判斷訊息,但這樣的學習模式仰賴人的幫助,加上人與機器的思考邏輯有很大的差異,因此在判斷時不夠有效率。為了解決問題,出現非監督性的「深度學習」,也可稱為「類神經網絡分析」,深度學習就是讓程式或機器自行從不同資料類別裡,找尋差異並進行識別。

王維菁指出,人類的查核速度較慢,難以應付網路上大量且流通速度快的訊息,而AI利用分類的特性,加上深度學習,可分辨一般新聞與假新聞,「但由人工智能所辨識出假新聞,仍然有偏誤。」她提及AI仍仰賴人的協助,去判斷結果是否合理。

她強調,即便如此,還是可以與AI合作,互相補足各自的缺點,也就是將AI作為判斷新聞的輔助工具,但使用輔助工具時,還是要透過數位傳播素養教育,謹慎使用AI。

王維菁說,希望未來三年可開發出文字和圖片的假新聞AI辨識系統,或跟Facebook、Line等社群媒體合作假訊息辨識系統,以及能夠辨識Facebook、Line、Twitter等社群媒體的機器人帳號或殭屍帳號,讓判定假新聞更為容易。