AI生成越來越真,還有哪些手法區別真偽?陽交大副教授許志仲:人與AI互補,找出彼此看不見的資訊作為判斷線索


深偽(Deepfake)技術日新月異,僅仰賴人類判斷文字及影像的真假已有一定難度。人類與AI在識別深偽內容時遇到哪些困難?AI偵測能力追得上深偽技術演進嗎?陽明交大智慧科學暨綠能學院副教授許志仲接受國立教育廣播電台節目及Podcast節目《新聞真假掰》主持人黃兆徽專訪,指出防堵假訊息除了被動偵測,也應透過對生成內容加上浮水印以利主動溯源。
AI難題:生成技術快過偵查技術
台灣事實查核中心教育主任陳柏樺指出在查核實務上深偽內容多樣,其中影樣多經過轉傳導致畫質不佳,用肉眼難以判斷。許志仲坦言在真假難分的狀況下,畫質差確實更難判別,但仍可以透過觀察影像中人類動作是否合理來推測。「比方說他的嘴巴在偽造後,閉合要不是糊掉就是都沒有閉起來,但真人講話的閉合是明顯的。這個線索就算畫質差也還是看得到。」
然而許志仲也不諱言,生成式模型的發展遠比偵測技術還來得快。「生成式模型的發展從一開始的生成對抗網路(GAN)到後來擴散模型出來後,發現生成圖片的品質和多樣性都比以前更上一層樓。」許志仲補充現今流行的深偽技術跟過往換臉不同,改以全部生成、從頭到腳都是虛假的方式,讓辨別真假更具挑戰。「單純換臉還會留下線索,但整張圖都是生成的話,更難判斷了。」
倘若用AI偵測內容是否為AI產出,可行嗎?許志仲直言「很難」,而且只會越來越難。他解釋AI偵測是透過分析大量AI生成資料和人的資訊有何異同來辨識,但不僅AI生成的品質不斷精進當中,由於民眾習慣使用AI,導致人類說話口吻越來越像AI,兩者的區隔已漸漸模糊。「我們常常依賴AI,因為它太好用了;但人類與AI同質化後,人的多樣性就會不見,AI學到的資料也不再多元,那它的效能就不會再提升了。」
可行解方:人機合作+浮水印註記
陳柏樺表示事實查核者常遇到影片標示來自抖音、小紅書,但影片可能為轉傳、浮水印也不一定是原創作者所註記,資訊斷裂導致追溯影片來源出現困境。許志仲指出這類問題的最大難點在於已經沒有額外資訊協助判斷。「假設資料品質高到難以用肉眼判斷,如果影片主角是知名人物還可以藉由援引外部真實影像給人臉辨識AI,得出的結果可作為額外線索提高破解機會;但最難的就是那個人大家都不認識,這應該也是機器的極限了。」
許志仲團隊與心理學家合作,發現人在某些條件下會認為此事為真或假,認知可以受到操作。「若將這些條件用規則化的方式寫出來,找出真影片或假影片規則,根據這個規則,或許我們就可以相信自己的判斷了。」在判斷假訊息上多追求溯源,從政府到業界,若能在生成內容上以浮水印註記並嚴格遵循,將有助於民眾區別真假訊息。
【新聞真假掰|假訊息ByeBye!】由台灣事實查核教育基金會董事黃兆徽主持。節目中邀請各行各業的朋友暢談媒體議題,為聽眾提升媒體素養、增強對假訊息的抵抗力,希望達成「群體免疫」,讓大家都和假訊息說掰掰!
更多精彩內容請搜尋「新聞真假掰」,或上各大Podcast平台收聽,YouTube頻道則有訪談精華影片陸續上架。除了適合大眾收聽收看,也推薦各級學校老師在規劃媒體素養課程時可列入影音輔助教材。(撰文:紀泰永、張育騰)
【立即收聽】新聞真假掰 — 假訊息 Bye Bye|EP179|
Apple:https://pse.is/76bkpm
Firstory:https://pse.is/76bkhh
Spotify:https://pse.is/76bkqz
KKbox:https://pse.is/76bkmy
【非聽不可的相關訪談】
LLM 也可以用來對付假新聞?如何藉由AI向農場文學習更吸睛的新聞寫作方式?
【喜歡這集嗎?想對主持人或來賓提問嗎?】
🌟評分、留言這裡走|https://pse.is/4p9wyd
【好節目需要鼓勵~請給我們五星好評】
🌟訂閱、評分、留言這裡走|https://pse.is/4lblzz