【事實釐清】網傳影片「不法份子可假借問卷調查與受話人通話,並錄製受話人的聲音,透過AI學習後就能讓電腦發出受話人的聲音,進而詐騙其家人」?

【事實釐清】網傳影片「不法份子可假借問卷調查與受話人通話,並錄製受話人的聲音,透過AI學習後就能讓電腦發出受話人的聲音,進而詐騙其家人」?

事實查核報告#2556
網傳影片「不法份子可假借問卷調查與受話人通話,並錄製受話人的聲音,透過AI學習後就能讓電腦發出受話人的聲音,進而詐騙其家人」?
發布日期/2023年8月31日

經查:

【報告將隨時更新 2023/8/31版】

一、專家指出,以短短幾分鐘的錄音去模擬錄音者的人聲,技術上可行,擬仿出來的聲音,民眾若仔細聽仍可能聽出破綻、瑕疵。不過,民眾若在焦慮的情緒,加上電話音質不佳、背景吵雜的干擾下,民眾在通話過程不見得能辨識聲音的真假。

專家建議,民眾在掛上電話後,提高資安意識,養成查證習慣。

二、刑事局表示,台灣警方尚未接獲傳言提到的詐騙案例。

背景

通訊軟體與社群平台流傳一支2分05秒的影片,內容描述不法份子可假借問卷調查與受話人通話,並錄製受話人的聲音,透過AI學習後就能讓電腦發出受話人的聲音,進而詐騙其家人。

影片流傳時,會搭配多種版本文字訊息,其中一版本為:「和不認識的人隨便聊天當心聲音會被AI仿製進行詐騙!接到不認識的人來電要立即掛斷電話,千萬不可和其閒聊。」

另一版本為:「所以以後 接到 任何的 民調的電話 或者是 某某機構 委託的問卷調查 不要出聲音對談 立刻掛斷電話就好 以免聲音被複製」。

圖1:社群平台流傳訊息擷圖


圖2:通訊群組流傳訊息擷圖

查核

爭議點、網傳影片稱可透過通話錄製受話人的聲音,透過AI學習後就能讓電腦發出受話人的聲音,現有技術是否可行?

(一)陽明交通大學智能系統研究所教授廖元甫說,傳言提到「透過通話錄製聲音可以模擬人聲」,這是有可能發生的,但前提是要搜集足夠多的資料量,模擬的聲音才會較準確。

廖元甫說,資料量指的是參與模型訓練的人數,如果參與模型的人數夠多,就可以分析人是怎麼講話,儘管得到的只是短短的錄音,仍可找出參與模型中最像的聲音去模擬音色

廖元甫說,目前台灣尚未有現成可用的AI生成聲音軟體,但有一些開源資源可利用來自製生成模型。

廖元甫說,目前推出此人聲合成技術的企業與團隊中,微軟已搜集數萬筆人聲資料,號稱3秒就可以做得很好;陽明交通大學團隊依照微軟的技術也開發出同樣功能的AI模型,但由於人聲資料只有幾千人,資料量尚不足,因此做不到微軟宣稱的效果。

廖元甫說,現在合成人聲的技術,其實仔細聽還是可以找到瑕疵,不過,不法人士通常是利用民眾緊張的時候去騙人,建議民眾掛掉要求匯款轉帳的可疑電話後,先停下來、想一想,要有資安與查證的觀念。

(二)中研院資訊所研究員王新民說明,目前的技術已可透過幾分鐘的聲音合成人聲,傳言的說法是可行的。

王新民說,製作高品質的AI影音目前還是有難度,不過,若電話音質不好,加上又有背景音干擾,民眾確實較難聽出來是合成音,會難以防範。

(三)警政署刑事局回復查核中心表示,台灣目前沒有AI語音詐騙的案例。

結論

【報告將隨時更新 2023/8/31版】

一、專家指出,以短短幾分鐘的錄音去模擬錄音者的人聲,技術上可行,擬仿出來的聲音,民眾若仔細聽仍可能聽出破綻、瑕疵。不過,民眾若在焦慮的情緒,加上電話音質不佳、背景吵雜的干擾下,民眾在通話過程不見得能辨識聲音的真假。

專家建議,民眾在掛上電話後,提高資安意識,養成查證習慣。

二、刑事局表示,台灣警方尚未接獲傳言提到的詐騙案例。

【更新說明 2023/9/7】為求語意精確,更新摘要二的文字。感謝讀者提醒。