📻國立教育廣播電臺【新聞真假掰】AI究竟會強到什麼程度?ChatGPT是「填鴨式教育」的產物?(逐字稿大公開)

📻國立教育廣播電臺【新聞真假掰】AI究竟會強到什麼程度?ChatGPT是「填鴨式教育」的產物?(逐字稿大公開)

📻國立教育廣播電臺【新聞真假掰】節目資訊

播出時間:每周日 17:05-18:00
收聽方式:國立教育廣播電臺 官網 60 天隨選收聽

📌邀訪來賓
臺大資工系主任 洪士灝

📌訪談精華短片

📌完整訪談內容Podcast

📌節目介紹

ChatGPT是近日的熱門話題,你也跟上了嗎?臺大資工系匯集了許多AI專家,一同開設相關課程,藉由最近的熱潮,推廣人工智慧及相關應用的議題。

臺大資工系主任洪士灝,長年研究相關議題,談到AI的崛起,他指出其實早在十年前的科學競賽中,就已經看到AI的潛力!而隨著ChatGPT爆紅,教育現場也受到極大衝擊。臺大校方在一開始便以開放的態度,擁抱潮流。老師也「嚴陣以待」,準備因應「ChatGPT」寫報告的時代!

AI越來越強大,但AI所寫所繪,是否涵蓋在著作權的範圍中?除了法規的因應,當AI大量複製藝術品,也勢必衝擊藝術的價值。除了民間積極學習應用,政府的作為也大大影響AI產業在臺灣的進展。洪士灝認為政府應盡力升級硬體,給予民眾應得的服務。而以半導體產業聞名國際的臺灣,也可能因為龐大的AI資料庫需求,獲得極大的優勢。

本集節目邀請洪士灝,從ChatGPT的爆紅,談到AI發展的現況與未來趨勢。請收聽「新聞真假掰 」,假訊息Bye Bye。

洪士灝(臺大資工系主任,以下簡稱「洪」)

黃兆徽(台灣事實查核教育基金會顧問/台大新聞所兼任助理教授,以下簡稱「黃」)

📅節目預告
2023/04/30 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)
AI對人類構成深遠風險?ChatGPT適合與不適合的使用場景?老師、家長該怎麼教下一代?

專訪臺大資訊管理系教授 孔令傑

🌐最新精彩內容
2023/04/23 AI可以有著作權嗎?法界如何面對AI世代?生而為人的價值、底線誰說了算?

------------------------------------------------------------------------------------------------------------------------

黃:您怎麼看現在的這些LLM,大型的語言模型?

洪:就是說跟我們所謂的填鴨式教育蠻像的,就是剛才的這個把一堆的資料,透過一些排列組合去灌輸到它的腦袋裡面,然後透過考試來去看它的成績,如果成績不對,就再去訓練它。

黃:是。

洪:那當然訓練……有效率的訓練可以訓練出更厲害的這種語言模型,但是它畢竟還是有它的侷限性,不是真的會想,而是只是會……

黃:所以它並沒有真正的理解人類的語言?

洪:並沒有真正理解,它只是照著做。

黃:Hello!大家好,我是兆徽,歡迎來到新聞真假掰,今天來到現場,陪伴我們一起提升媒體素養的好朋友是臺大資工系的主任洪士灝,洪老師,洪老師好!

洪:大家好。

黃:洪老師,最近AI實在非常非常的熱喔!自從ChatGPT(人工智慧聊天機器人程式)推出之後短短二個月,全球有超過1億的使用人數,那到現在大家都還在熱烈討論,AI會改變世界。

洪:是。

黃:那我們今天就特別想要跟洪老師,真正的AI專家來談談怎麼來面對這個AI浪潮,AI到底有多強大,那它的限制又在哪裡?它可能如何改變我們的生活?以及我們應該要怎麼樣正確的態度來面對它?洪老師,AI越來越強大,您怎麼看呢?

洪:嗯……其實在這一波大家特別有感之前,十多年前就開始有種種的跡象,包括說AI去參加一些比賽就開始拿獎,然後開始判讀照片,判讀的比人類還要快又準確。

黃:是。

洪:那開始做一些決策,什麼決策呢?下棋。

黃:是。

洪:下棋大家都還記得AlphaGo(人工智慧圍棋軟體),也不過是在6、7年前的事情,AlphaGo就……

黃:就贏了這個世界棋王,圍棋。

洪:對,那事實上有些AI已經默默的在使用,大家可能沒有感,但是對於業者是很重要的技術,例如說語音辨認,大家現在用的Siri(人工智慧助理軟體)或是Google的翻譯,現場即時翻譯其實都是在AI的技術的power(力量)下面。

黃:以及很厲害的Google人臉辨識對不對?

洪:又準確對不對?比以前更準確,但是對Google來說,他又是有一些特殊的方法,可以讓他的成本降得很低,所以可以普遍地實現在這些服務裡面,而且不跟大家收錢,這太好了。

黃:嗯。

洪:那最近這波就是現在一直在我臉書刷版的ChatGPT,不少的朋友他們試用的結果就開始在臉書上心得報告。

黃:是。

洪:有的人覺得很好,有些人覺得哪些地方好、哪些地方美中不足,或者是覺得它在胡說八道,都有一些分享一些技法,看起來真的是非常非常熱門的,使用率越來越高的一個新的服務。

黃:對,面對ChatGPT我覺得也有很有趣的不同的現象,比如說可能年紀稍長一點的人,可能會覺得那都只是一個entertainment,終究只是一個娛樂,因為它生產的訊息可能也不可靠。

洪:是。

黃:對,但是像比如說我自己的同溫層,確實跟士灝老師同溫層overlap(重疊)蠻多的。

洪:嗯。

黃:很熱衷使用ChatGPT,然後每天都聽到好多人在讚揚它說:「哇!它好厲害,它可以幫我收集好多資料,它可以寫一篇很棒的新聞稿,它甚至可以寫訪綱,它甚至可以寫論文。」所以我們怎麼來……您怎麼看ChatGPT這樣子的生成式AI?

洪:好,有趣的地方是會挑的人才是會買的,就是說你如果看人類的專家,有時候也是有不同的見解,然後他們也會出錯,更不用說一般人,所以如果我們用一般人,不要用高標準去看ChatGPT的話,它也就是等同於一個一般人的一個身份在回答你的問題,有時候它被逼急了,你追問它,它得生出一個答案就胡言亂語也有可能,但是它比人類厲害的地方就是它知識廣博,因為當初在訓練它的時候,用極大量的資料去訓練它,所以它的知識,就純粹它儲存在它的資料庫裡面的知識是比絕大多數人來得多的,所以在某些領域,它的廣博的知識,跟它這個的文筆,它學了很多專業作家的文筆,所以它可以寫出貌似正確又廣博的這個論文出來,那要怎麼判斷它是真的是假的?就要靠專業才有辦法去判斷,所以這個是一個很好的工具,至少在寫作上面,怎麼去用它寫出更好的東西,這個是有好有壞,那有些人就開始擔心,它如果胡說八道怎麼辦?你要怎麼駕馭這個工具?那如果沒辦法駕馭這個工具,又該如何是好?所以有一堆的這個議題,現在是蠻火紅的討論,學校也在爭議究竟要怎麼看待它?

黃:是,所以您會建議學校怎麼看待它?

洪:臺大已經announce(宣布),對大家講,我們要以開放的態度去面對ChatGPT這類新的AI工具,因為它是人類的好幫手,但是怎麼用它?就是需要一個調適的過程,那坦白說這個對老師跟學生都是需要調適蠻大的挑戰,首先你在課堂上面慣用的那些寫作業的這些方式,就可能要做些調整,重新出作業,不然這些作業……

黃:全部都是ChatGPT寫的。

洪:ChatGPT秒殺,幾秒鐘就做完了,那學生方面就是要學會怎麼用這些工具,然後還要檢驗它,看它產生資料……產生出來的結果是對的還是錯的?對,那學校方面把這個東西要看成是……既然是考工具的話,我們是怎麼支持它?讓所有的學生都可以用得到,如果不給予學生的知識,那有些學生用,有些學生可能不知道怎麼用,那會造成立足點不平等,那在教育上面也是一個一個問題出來,所以對於學校來說,有蠻多的努力要去做。

黃:是,所以您認為像ChatGPT這樣子的生成式AI可能改變哪些產業?

洪:對,現在我們可以想像一下ChatGPT,現在雖然還有些問題,但是已經許多人認為,至少對這些人來說它是可以用的,但是對某些產業它還可能欠缺,例如說它需要ChatGPT不要胡言亂語,要嘛就是懂,知之為知之,不知為不知,就跟我說不懂,它需要一個正確性高於他的創新性,所以這種行業它就需要再想辦法找到適合它的選項或者是在ChatGPT的應用上面要多一些可以去掌控它的一些方法,所以很多人在想ChatGPT作為基礎,怎麼樣讓它是可以駕馭的。那有些產業它有一些專業的需求,它目前ChatGPT是屬於一種通用型的,那學的東西也是雜七雜八的、很多通用,但是它缺乏某一個專業的知識。

黃:嗯。

洪:例如說有些公司,我們舉大家都熟知的台積電好了,台積電有很多內部的資料,是世界上現在少數的這個最先進的晶片製造商,這些內部的資料非常極度的機密,如果去過台積電也知道說手機不能帶,不能帶進去很多東西,這個電腦的USB的孔要把它這個貼起來,對資料的管制是非常的嚴格的,那當然他不可能把這些資料交出來給人家去幫他訓練,因為他需要保密,所以……而且他做的事情,原本他就是做很多大數據分析,那現在也是要用類似的技術,來幫助他的公司內部各個使用者,從一般的這個office(辦公室)的應用到一些專業的運用,他各個部門可能都需要。所以對他來說,他可能需要發展一套使用的方法,然後用自己的內部的資料去訓練,來提升他的內部的生產效率,在國際競爭上會更上一層樓,所以可以有各種不同的產業需要某種的客製化或是特殊化,或是把自己的隱私的資料放進來,我想政府部門也有同樣的需求,因為我們有很多例如說健保的資料,那政府方面有很多的機敏資料,那這些機敏資料大概也需要有一套類似剛才講的這個產業界的方法,來去協助政府變得比較更有效率一點,但是同時照顧到這個資料的隱私性。

黃:嗯,是,那我們知道AI的進步是非常快的,尤其這個give learning(給予學習)開始,它會自我學習,那人類要吃飯睡覺,它不用,所以AI會越來越強大,這是您……也相信您也認同這樣的觀點,但它究竟會強大到什麼程度?現在另外有一些人開始擔憂說人會不會被AI取代,甚至會不會毀滅人類。

洪:那從這一系列,就是這十幾年開始,就是有非常長足地突破,一個milestone(里程碑)接著一個里程碑,一個一個突破,所以會讓很多人覺得這個發展無可限量,一個終極的目標,現在叫做通用型的人工智慧,就是它可以跟人一樣解決人類能夠解決的所有的問題,那目前的AI還沒有到這個水準,究竟離這個水準多遠,那我們就先來看看這個AI,其實它是一個複雜的東西,我們用……我習慣用一個系統的觀點去看它,也就是說它不單純只是一個演算法,也不單純只是一堆的資料,然後就把它灌進去就好,這事實上它……你就把它想成是一個機器的大腦,所謂的神經網路或是深度學習,就是這個表示說它的一個人工大腦這樣子的一個結構,那這個大腦越大,它裡面可以記的東西越多的話,理論上它就越聰明,但是這個大腦的構造也有學問的,怎麼堆疊出一個比較高效率的大腦?這是一個技法,所以在過去十多年來很多人在專精於用不同的方法設計出這個電子大腦的結構,你可能有聽說過一些結構一直變來變去,一些新的名詞不斷出來,就顛覆了上一個結構,較常見的什麼Convolutional neural network(卷積神經網路)、Transformer(採用自注意力機制的深度學習模型)等等,那這是架構上的演進,但是另一方向就是它越變越大。

黃:嗯。

洪:像現在的所謂大型語言模型,它可以到好幾百個billion(十億)的這個大小,它的進步基本上是一個幾何級數,每隔1年它可能就增加好幾倍的這個尺寸,它的大腦越變越大,但它也越來越燒錢就是,基本上就是說它會越來越強大,但是訓練的方法,到目前所謂的深層式學習,或是自我學習這些東西都有它的侷限性,那就是你為什麼data資料給他,它大概所能學的很難跳脫這個資料的範疇,因為它的創造力,雖然你可以用很多方法去生成新的東西,但是畢竟還是有一個限度,但真正的問題在於說,你恐怕沒有辦法有一個絕對正確的方式去告訴它,你做的事情是好還是壞、是善還是惡等等,這個還是綁在那邊,大家可能不瞭解,沒有學到一些規則,那只是記住很多的事項,這個能做那個不能做,可是它如果沒辦法歸納出一個規則的話,它終究還是一個遺憾,因為我們不可能窮盡所有的資源去告訴它每一件事情是對還是錯。

黃:嗯嗯。

洪:它必須要習得一些規則,或者我們想辦法把一些規則放到它裡面去,所以這個是現在AI專家們還在努力來去做的事情,就是它會作文,但是怎麼樣讓它知道說這個東西是有一個我們一般人都會的,小孩子很小就學會說什麼事情能做不能做的rule,一些規則,它還沒有辦法很好的去做這件事情。

黃:嗯,是。可是我們來看看,像另外一個也是生成式AI「Midjourney(人工智慧程式)」生成圖像,那它可以你給它一些關鍵字,它就生成圖像給你,那其實這會讓我開始思考什麼叫做創作?

洪:是。

黃:以前我們說人類,像您剛剛說AI還好,它現在沒有推理能力,但是科學家已經在往這方面研究了,那我們以前說AI不會創作,但是當它已經可以,我們給它一些關鍵字,它就生成一些圖畫的時候,這到底是不是AI的創作?

洪:這個創作其實也是學……

黃:人類。

洪:很多的人類專家,然後人類也會給它這些創作評分,所以會希望它作出一些更討好人類的一些創作,所以現在大家都看到了一些利用AI來去創作,那創作所謂的創意,這個在電腦上面就是各種的可能性,各種的可能性大家都可以在瞬間透過一些演算法把它的結果創造出來,然後我們只要有一個評分的機制,來去對這所有的可能性給分數,那他從這中間挑選出高的分數,所以這就是所謂的創意,因為人之所以創意有限,是因為我們的手沒辦法那麼快的去產生出那麼多的作品,但是AI可以。

黃:嗯嗯。

洪:它可以讓人窮極一輩子沒辦法完成的,那麼多的可能性裡面,它可以在瞬間就做出來,然後再把這些做出來的東丟給人來去評分,那也許有些人喜歡這個,有些人喜歡那個,所以這個創意就看起來就很好,因為在過去受限於人的手,沒辦法做到這件事情,就像更早人類受限於這個書必須要抄寫。

黃:在竹簡上。

洪:所以資訊的傳播很慢,然後開始有印刷術,然後開始有電腦,這個資訊的傳播就越來越厲害,所以從我的觀點來說,這個創作其實是人類早就會的東西,也就是說,它的生產力遠大於人類,以致於說這個創意就變非常豐富,但是同一個時刻,也會讓這個創意的成本降到一個程度,也許大家就不再珍惜它,這也是一個我想很多的創作者的一個隱憂。過去,為什麼現在很多的手工的畫,還是非常的值錢,我們為什麼有些產品堅持要用手工,機械做的就不值錢,那現在AI做的創作,就這個主觀價值上,大家就可能覺得不值錢,雖然它做很厲害。

黃:因為我們最近在觀察,美國最近有一個判決出現,就是說AI畫的圖,美國法院認為沒有著作權。

洪:是。

黃:這個您怎麼看?

洪:剛好我朋友前一陣子問了我類似的問題,他就說太好了,他可以很輕易地透過ChatGPT寫一本書,或是做一本圖畫書等等,但是他馬上就想到那這個書的著作權究竟算誰的?創作者的嗎?還是AI的?那是提供AI工具的公司嗎?還是這個誰呢?那結果我們就去看了一下美國的著作權法,它規定一定要是透過人來去有一個……基本上它是有門檻的,不是說你隨便在上面加幾筆畫,那這個加工後的作品就是你的,不是這樣子,而是說你必須要有一個可以稱之為像藝術這樣子的東西,像創作這樣東西把它透過人的手,或者是什麼樣子的這個方式,才能夠讓這個東西形成,它專利法會去保護的著作,不然你今天作出去沒有人幫你保護,那任何人對它做一些瓢竊,你也沒辦法,因為政府不會幫你去保護它。

黃:是,但這其實當越來越多人使用AI工具來……比如說繪圖,尤其是繪圖其實最明顯,或未來創作音樂其實現在也可以了,但是它如果不受著作權保障,只不過是它因為這中間,包括人要畫一幅Midjourney的畫,用AI做一首歌,我們說要給它下咒語嘛,要下非常多的關鍵字,現在叫做詠唱詩,

洪:是。

黃:對,所以這個其實裡面都沒有這個智慧財產在裡面嗎?

洪:對,所以從這個角度看好像也怪怪的,所以第一件事情就是這個智慧財產的法規可能要看看怎麼去修改,來去面對這個事情,在不修改的前提之下,那這些東西都沒有保護,那怎麼去鼓勵大家來做,或者有另外一個觀點是,那既然這麼厲害的AI在那邊,人類如果不費吹灰之力就可以作出這些創作,那也許這些創作就真的是不值錢。

黃:嗯嗯,那個價值就比較低。

洪:價值就比較低,也許就是這樣,那真正的創作也許會重新再界定過。

黃:是,我們給AI的資料越多,讓它學習的對象越多,它出來的效果就會越好,對不對?但就像您說它就需要更大的模型,然後更花錢,然後系統要夠大、夠快才能有高的效率,所以這個AI模型也就會陷入了一個軍備競賽,對不對?

洪:是,那過去幾年大概有幾個大公司,大家耳熟能詳的就是Microsoft(微軟)、Google,還有Facebook,就這幾家公司他們有非常多的這個人才,在裡面從事AI相關的,當然不只這幾家,只是這幾家比較大規模的在做這些事情,

黃:那它的訓練成本也相當驚人,這是一個single training wrong,那single training wrong中文要怎麼解釋?就花了3.6億台幣。

洪:就是說你收集了一堆的資料來訓練它,那這一堆資料不是只訓練一次就好了,是反覆地訓練,你用各種排列組合去反覆的訓練,到它的結果是令你滿意的,這叫做single training wrong,那最後什麼叫做滿意?你給它一些測試,那通過你的測試,它的分數夠高,那就達到滿意,那剛才講的這一系列的這個模型越來越大,那它的那個標竿,讓人滿意的程度就隨之提高,那之所以是軍備競賽是因為在這個過程中,其實剛才講了幾個大公司都在互相角力,你出了一個,我就推出一個比你大的,然候我的能力比你強,就把你給蓋掉了,所以這一直到去年,這幾家大公司還在做這件事情。所以例如說,去年一個最明顯的例子是微軟推出五百三十個billion大小的語言模型,Google沒隔多久又推出一個五百四十個billion,比他大十個billion的這個模型,然後在各個論文上面就吹噓說他比微軟厲害,在某些測試上面比他厲害一些,大概是這樣。

黃:嗯,是,您提到了語言模型,就是我們現在說的LLM,他的英文是Large Language Model,大型語言模型,您怎麼看現在的這些LLM,大型的語言模型?

洪:就是說跟我們所謂的填鴨式教育蠻像的,就是剛才的這個把一堆的資料,透過一些排列組合去灌輸到它的腦袋裡面,然後透過考試來去看它的成績,如果成績不對,就再去訓練它。

黃:是。

洪:那當然訓練……有效率的訓練可以訓練出更厲害的這種語言模型,但是它畢竟還是有它的侷限性,不是真的會想,而是只是會……

黃:所以它並沒有真正的理解人類的語言?

洪:並沒有真正理解,它只是照著做。

黃:但是像我們在訓練這個語言模型的時候,它到底怎麼樣會講話、會理解、會使用人類的語言文字?

洪:因為人類的語言文字,其實就像剛才講那個圖,對它來說是同樣都是資料,一張圖片也是資料,這個圖片可以用不同的演算法把它做一些轉變,那文字其實也是一堆文字的組合,那這些文字它也可以被轉變成另外一種型態,然後這些型態也可以拿來透過一些評分的方法去給它一個分數,所以換言之就像圖片,你可以生成很多的不同的圖片,這些文字也可以排列組合,生成很多不同的文章,這些文章也可以被評分,所以他就學會一些生成文章的方法,大致上是這樣子,所以它會學習,甚至它知道說哪些……這些方法可能用的是哪些招數?這個招數是某一些作家,它從某一些作家的這個文章裡面所學會的生成的方法,所以你在……有趣的事情我剛才……也有一些網友就說請你幫我用某個作家的筆法。

黃:是。

洪:來去創作出什麼樣的文章。

黃:是。

洪:它會,因為它當初學會了怎麼做這件事情。

黃:已經讀過這個作家所有的作品了。

洪:對,它畢竟不是人,它沒有真的理解這個東西,實際上AI有點像這個樣子,因為它參考了很多的作品,它也會學習各種方法,那它在瞬間可以產生各種文章,於是就可以用剛才講的這個訓練的方法,讓它知道說哪一條路可以走、哪條路不能走,但是它自己其實對於這些文章是沒有感情的,你可以說只是一個訓練有素的工具。

黃:是,所以它就是……您說的它是填鴨教育,但它接受了填鴨式教育,記憶力又比人類強,所以您說它在一些依樣畫葫蘆的工作上,可能可以做得很好,但是它是沒有辦法推理出新的知識。

洪:對,所以例如說人還是可以做實驗,或甚至是一篇文章,真正好還是不好還是要看讀者他的主觀的反應,目前的AI感覺上它是沒有主觀地反映,它的評分的系統來自於所有訓練的資料,所以你可以說這樣子的東西是一種機械性的,因為它基本上還是透過各種的演算法得到的一個東西,那它並沒有像人這樣子,是由生物性的,是由這個腦神經所得到的一些東西,它還是屬於機械性地偏多,所以我不會說它是跟人一樣具有人格的東西。

黃:真的有人格也蠻可怕的,但是您剛有說其實AI還是有可能……將來還是有可能會有更好的。

洪:對。

黃:AI對不對?因為科學家還在往這個方面研究。

洪:因為我講說有沒有人格,這個剛才也是我主觀的說法,因為畢竟我們資訊科技界所謂的這個AI之父Alan Turing(艾倫.圖靈)當年很有名的一個說法,所謂的圖靈測試,就是說你怎麼判斷這個AI具不具有人類的智慧,他的圖靈測試現在看起來有點比較陽春了一點,他說的是你如果隔著一層紗,你沒有直接看到這個,那你只是跟它對話,基本上就是講的就是這個語言模型,當你跟它對話的時候,你有沒有辦法判斷說對方是一個人還是一個AI在後面?如果你沒辦法判斷的話,那就等同於有具有人類般的智慧,或者是智能。

黃:是。

洪:從這個角度來看,他可能覺得它就值得被看成一個跟人類一樣的具有相同的能力,但是主觀上我們還是不覺得它有人格,因為它畢竟這個能力還是透過機械式的學習來學到的。

黃:是,那如果用這樣的標準啊,因為現在AI其實已經被應用在一些智慧客服,甚至應用在詐騙電話了,那它是不是其實也已經通過了這個圖靈測試?

洪:我覺得很多的……我覺得應該算,如果就最陽春的那個,因為其實這幾年不少地方已經宣稱他們做的AI已經通過了圖靈測試,那但是有些人覺得那只是基本的,那通過你的圖靈測試,不表示通過我的,也許我們還有一些方法可以去檢驗它,所以這關鍵可能在於檢驗的方法,我們如果不斷地在提高AI的能力,但在同時我們也在做檢驗是不是AI產生的這些產物的這些技術,等同於就是我們把圖靈測試的標準提高了,這個是一個看法。另外一個看法是,我們有檢定是不是AI產生的能力,那我們就可以判斷在對面,或是人家給我的東西,它是不是人的產物還是是AI的產物,那這個東西對於一些用途,例如說學校在交作業的時候,有些時候希望就是親手寫的,那希望能鑑別是不是AI幫你忙的,是有一些幫助啦,或者是在一些需要判斷真偽的時候,我想尤其在這裡,這個真假新聞,剛好看到這個真假新聞,那真假新聞到底它可以瞬間寫出一大堆的東西,你很難去查證它這個千變萬化的文章,那如果透過很多的假帳號,你就很難去查證,甚至生出來的圖、以假亂真的圖,這個圖片怎麼去判斷他的真偽?有太多的這個以假亂真的事情。

黃:是,是,所以未來這個假訊息、假照片、假影片會越來越多。

洪:對,所以可能要有一套最好的方法,那理想的世界、最好的方法就是所有的AI如果有一個管制的系統,讓它在生成一些產物的時候,能夠有一個watermark(浮水印),就是它不影響它的對人的識別能力,人還是可以用,但是既然有一個浮水印,就可以用一些方式去偵測說這就是AI產生。

黃:嗯哼,就是至少它可以識別說這有沒有經過AI的變造,或者有沒有AI的成分在裡面。

洪:那如果有……可能會有法規會來規範這件事情,大家覺得這是一個問題的時候,可以透過立法或是一些技術來做檢驗。

黃:嗯哼,我們剛剛說到AI的假訊息,也回應到您剛剛之前有講到怎麼樣讓AI更上一層樓、更加可靠,甚至可以推理,這是也是正在研究的方向,這個方向也蠻可怕的,就是人的獨特性好像就不斷不斷地在被消減,會不會有這樣的狀況?

洪:我想它也強迫我們來多思考一下人的獨特性是什麼?對,這跟我們的教育文化其實蠻有關係啦,我們的教育文化一直在過去,有點過分強調讓人去做一些前人就會的東西,我們花很多的時間去模仿前人,然後學習前面的人做的這個東西,到底這些東西的真正的價值在哪裡?我們能夠把書背得出來就很好了嗎?我能夠寫了一手作文就是很好的嗎?在過去可能大家覺得這個你夠聰明的話,應該可以做這件事情,但是現在似乎會去覺得說「AI都可以做的,那我們有需要人來做嗎」?

黃:嗯。是,就隨著科技的演變,人類的面對的問題,跟所謂人的價值、人的本質、人的獨特性,這些問題也不斷地不斷地要再被思考。

洪:那有一個看法,我覺得也很好,就是說我們如果可以不用為了生活去奔波忙碌。

黃:嗯哼,很多瑣事交給AI。

洪:很多的瑣事交給它,那人就可以全心全意地做他喜歡做的事情,這不是很好嗎?但是在這個之前要先釐清一些這個……這就是牽扯到政治的問題,你覺得這樣很好,但是另外一方面就是……

黃:嗯哼,工作機會。

洪:要從掌握權力者的觀點來看的話,他只需要AI,他可能不需要人,那這就是一個很可怕的方向。

黃:是。所以我最近看到一個雜誌的標題:得AI者得天下,會不會是這樣的狀況?

洪:所以這個大家要小心,可能再發生那個東西之前,大家就要小心AI是不是被少數人掌握?所以一個觀點就是怎麼樣democratize,就是民主化,把AI這個技術民主化,要求這些大公司或者是掌握這些科技的人,他不能濫用它,大家都要能夠用,那甚至把這些AI帶來的便利性,它創造的價值、它取代人力,但相對的它增加了生產力,這些價值應該由人類來去分享它,在來得及做這件事情的時候,應該要去做。

黃:嗯哼,是,那因為AI這麼強大,所以我們有必要打造自己的大型語言模型,或者是ChatGPT這樣子的服務嗎?

洪:我們剛才講的很可怕的事情,就是說這個AI如果掌握在某些人身上,他會怎麼樣?那我們把這個命題換成AI如果掌握在某些國家。

黃:嗯,是。

洪:那會怎麼樣?那可能接下來大家就要繳智商稅了,意思就是說你沒有這個技術,你所有的技術都來自於某些大公司、某些國家,你必須任他宰割,他跟你要多少錢就要多少錢,你願不願接受這個事情?這是第一件事情。那第二件事情是更恐怖的,就是國家安全、國防,在過去的戰爭可能是軍艦、大炮、飛機這些東西,武力的侵略,那現在已經變成就是商業或者是科技的戰爭,對不對?

黃:嗯。

洪:你如果沒有自己的這個防禦或者是自主的科技,我們現在……例如說潛艇要自己造、飛機要自己造,我們為什麼不都用買的就好了?因為我們還是要自己要能夠自立自強。

黃:萬一別人不賣給你,掌控在別人手上。

洪:別人不賣你或是賣很貴,那你總要還是要能夠有一些基本的東西。

黃:是。所以您提到就是一般的民眾,如果他是沒有機敏性的資料、沒有特殊需求,然後成本還可以接受的狀況,即時性的要求不高,這樣的狀況我們可以利用現成的?

洪:是,就像search engine(搜尋引擎)大家一直在用嘛,用了可能有二十多年來,對,大家都在用Google的search engine,或者是其他公司的search engine,那因為你也不care(在乎)你search的那些keyword(關鍵字)會不會被人家盯上,或者是你把你的資料放在Google Drive(雲端硬碟)上面,或是微軟的,或者是Apple也有,放在這些雲端的硬碟,你也不在乎資料會被看,那他有經濟規模、他提供的服務的售價便宜,這個是good deal(划算),我們就用,所以不需要國家犯不著跳出來去說我要做一個給老百姓用的ChatGPT,因為能夠買到的,你不要花錢來做這個事情。

黃:嗯嗯。

洪:而且你自己做,你也競爭不過人家,結果就是冤枉,我們在過去有好幾個這樣子的案例,並不是……我並不想在這裡講,這個並非凡事都要做,要看情況。

黃:是。所以您認為在這個AI上面,政府應該要做的是什麼?

洪:政府要想辦法就是也許要跟上時代,有些基本的服務,那可能要想辦法提供給大家,例如說現在大家基本上都有辦法上網,對,這些基礎建設,從2G、3G一直到5G,這個網絡這算是基本建設,然後上網的能力是現代國民基本的東西,所以每個鄉鎮應該都要能夠上網,我想這是政府責無旁貸的事情。

黃:嗯哼,那AI呢?

洪:那AI也會變成這個東西,怎麼樣可以把便宜好用的AI提供給大家?不見得要自己做的事,也許跟大公司合作把這些,看在適當的時間點把這些服務推廣給大家,那在教育的現場也讓大家可以用,那我想產業界自己會去想辦法,這就不用擔心。

黃:嗯哼。

洪:那另外就是這個東西,如果大家好好的用的話,可以提升大家的生產力啊,尤其是在現在我們在少子化,所以少子化我想AI對我們來說應該是個好消息才對。

黃:嗯哼,很多工作確實可以讓AI來輔助。

洪:對,我們過去從臺灣人很多、很擁擠的地方變得少子化,當然對我們這種老人家,我啦,我這種老人家可能會擔心誰來照顧我?但是如果樂觀一點來看,AI的工具加上機器人,這些也都是同樣的這個資通訊的高科技的產品,它可以取代一些勞力,那Why not?為什麼不好好的用它來去讓我們可以安然的度過這個少子化的危機呢?

黃:嗯哼,是,是,對,所以您認為像AI未來會在哪些面向上可以解決人類的問題?

洪:首先就是在文字多媒體,這些所謂的content這些內容上面,由於它的強大的生成的能力,更方便輕鬆地去表達他想表達的,所以像你剛剛講的詠唱,詠唱就是使用ChatGPT的方法,你透過一些指示,那你就可以讓它照著你的意思去產出,所以增加人類的產出,那我相信人類的創意無窮,所以關鍵是要想辦法找到一個制高點,你怎麼找到一些新的方法,與眾不同的方法來去做之前沒有人想做到的事情,這是怎麼讓AI跟人類可以共存,大家和平相處,而不是一個取代一個,在這個過程中人會有壓力,會有壓力他需要……

黃:人要升級。

洪:要升級,那我們怎麼樣讓人的壓力可以不要太離譜了,或者是讓一些人突然覺得沒有價值,安然度過這段時間,這個是……這個操作的難度不低啊!大家要好好的來思考來去經營這個東西,那至於剛才講的是創作這個內容,創作生產,這個是AI顯而易見可以幫到忙,那第二個就是一些專業的領域,專業的領域包括說科技的發展、專業的生產力,我也還在過去聽到一些口號,這個叫做工業4.0,最近其實當初大家講工業4.0的時候,我覺得講得太早了一點,他只是看到了一個趨勢,但是這個他沒有想到這個趨勢,今天再加上這些高級的AI的時候,會超乎大家的想像力,工業4.0不只是取代勞力,可能會取代一些原本是屬於高級的人力會在那邊,那這部分有可能促進人類的……例如說科技的進化,然後科技的進化可能又是工業革命,我不知道現在算到第幾次工業革命,第三次還是第四次?這個越來越快,對世界的改變會越來越大,那這個是屬於科技上面的進展,但是人在另外一方面,在例如說我們的教育、文化、政治上面、心靈上面有沒有辦法跟上,去駕馭我們的科技的進步,我樂觀的期待是說這個在互相激盪之下,會迫使人類去思考這些東西,這些之前可能先擺在後面,先把肚子餵飽,先日子過得下去再去談那些形而上的東西,我想這個形而上的東西,有可能再回過頭來變成是我們現在要去多關注的東西,看看怎麼跟這一波AI能夠去互相參考學習的部分。

黃:嗯哼,是,那另外您也提到就是因為有國家安全的問題,所以一些比較機敏的資料,您會認為其實臺灣還是有必要建置自己的高階的AI模型?

洪:嗯哼,是。

黃:那是怎麼樣的高階的AI的服務是可以自建的?您會建議政府應該要產學界、研究單位應該往哪些方面發展?

洪:剛好今天早上鴻海研究院辦了一場論壇,其實與會的人都很關心這個議題,所以邀請了一些專家學者來談這個,其中一個就是講到說這個運算平臺很重要,因為它如果不在那裡,沒有夠強大的運算平臺的話,那你根本訓練不動,因為所謂的大型語言模型,它本身就那麼大,即便說我們想要把它壓縮得比較小,那也是得等到……通常啦,得等到訓練出來之後再想辦法把它壓縮,如果一開始就限制了你的腦容量的話,你沒辦法做大。

黃:嗯嗯,所以需要高效能的這個計算的平臺?

洪:對,高效能計算,那過去我在國家高速網路與計算中心幫忙了2年,我在那邊兼任副主任的時候,對這個議題我就非常的關心,我會去那邊幫忙,一方面也就是希望看看在這方面能不能在一些政策規劃上面能不能做點事情,但是蠻可惜的,我覺這個轉變需要時間,過去從零開始,大家沒有這個運算設備,突然造了一臺超級電腦給你用,大家不曉得怎麼用,所以在前幾年我在國網中心看到的是,這麼好的設備不曉得是大家不會用呢?還是有不想用呢?還是什麼原因?它的使用率並不高,於是我們就有一些爭論,到底要不要做這件事情?那現在看起來是誘因不高,因為大家在那個時候還沒有發現這個大的模型這麼厲害,大家還在觀望,也許有人覺得這個可能還要5、6年、還要10年,所以他就沒有想要那麼早就做,所以我們幾年前國家建的一些AI使用的超級電腦,我覺得那個是超前部署,這是正面的來講超前部署,但是或許還沒有真正發揮出他的用途,因為大家還不曉得怎麼用、還在摸索,也還沒有看到一個眼前就會立即明顯的一個誘因在那邊,這個有點可惜,然後這些平臺技術其實進步得非常地快,在過去那一套設備到現在過了3、5年,其實在技術上面又進化了兩代之多,所以我們現在回過頭來看,這些國家是不是應該要幫忙建這些基礎設備,因為訓練大型模型、大型語言模型是可以大家群策群力,一些產業界透過一些合作,大家一起來建立這個東西,然後再把訓練的成果分享一起來用,所以不需要說你這個產業界各自去做,那在這個過程中,當然也可以說「你就產業界你自己講好去自己去做一個」,但國家不是應該在大家沒有辦法很快地做這樣的決定之前先做點事情,所以我想過去我們雖然像剛才講的,發現使用率不是很高,但是從技術培育、人才培育的角度,我覺得算是打下了一些基礎。

黃:嗯哼,是。

洪:所以我們今天要在國內,在建能夠做大型語言模型的基礎建設,我想這個沒問題,甚至可以出去幫別的國家做,做這些super computer(超級電腦),因為當初我們在建置國內的超級電腦的時候,也是臺灣的團隊來去做,臺灣原本就有不錯的系統製造的電腦資通訊產業的這個基礎,所以那些硬體基本上是臺灣做的,雖然裡面的關鍵零組件像CPU(中央處理器)、GPU(圖形處理器)那些可能還是要從Intel(推出中央處理器的公司)、 NVIDIA(以設計和銷售圖形處理器為主的公司)這些公司來,但是整個系統是臺灣建的,然後上面的軟體也是臺灣公司建的,所以我們是有能力來做這樣子的事情,然後臺灣也有不錯的資訊科學家,例如說這個大學,一些大學還是有蠻多的學者,還有業界這幾年也對這些AI有相當的關注,所以只要大家把眼界放大,有一些目標,其實要學這些,我個人覺得是……樂觀的覺得是很快的。

黃:嗯哼,是,不過這也面臨到就是說全球都是AI的浪潮,大型科技公司都投注了非常大的金錢在訓練他們的這個大型語言模型,那臺灣的優勢跟機會到底在哪裡?

洪:所以剛才講自建,我覺得自建這個大型語言模型,它是需要的,但是它的產值,坦白說它可能就是滿足國內一些業界,為了提升自己競爭力不得不做的這些東西,那並不能算是……實在是因為臺灣市場相對的不是像國外一樣那麼的大,而是說這個exercise(訓練),我們剛才講的自建的這個能力技術能不能輸出,變成例如說系統,那臺灣過去最引以為豪的就是一些硬體製造的這個能力,所以世界很多的資通訊設備都是在臺灣生產,包括甚至晶片,台積電生產這些硬體的東西,那第一個可能會……大家直接就想到的、會受惠的就是說,當世界各國有這種大型語言模型的需求的時候。

黃:嗯嗯,我們的晶片、半導體產業。

洪:這些產業他們勢必不管是你哪一個公司要的,世界各地都要它的這些硬體設備,那第一個想的就是臺灣,那因為AI和資料有它的一些機敏性的考量,尤其是在中國跟美國關係並不是很好的情況之下,那這些設備來自於臺灣的可能性相當地高,對不對?所以這是一個硬體產業的機會,但是他必須知道說這個硬體的發展的方向、系統的發展方向朝哪裡走,他才有辦做出人家要的東西,這是一點。

黃:是,所以您是認為臺灣的機會還是有的,就是在……即使在面對這個跨國科技公司?

洪:對,因爲……雖然剛才講軟體很重要,制高點,但是在美國一些公司在追求這個軟體價值的同時,他們不自覺或者是有自覺的放掉了硬體,放掉硬體這件事情,最近我看到好幾篇在檢討,美國一些有識之士在檢討做這件事情,他說:「晶片這麼重要的東西全部都是給外面做。」

黃:臺灣來的。

洪:然後有的跑到中國去做,那這樣子怎麼可以?所以他們有一個所謂電子復興的計劃,就是第一個很多的晶片設計,看看能不能在美國國內再起來,然後把台積電在……。

黃:所以台積電不得不到美國設廠。

洪:但是這件事情說起來簡單,做起來難,因為你人才要重新聚集在一起,這個有一定的難度,而且做硬體設計不像做軟體,我自己是電機系畢業的,我後來做軟體,所以我知道這二邊在態度跟文化上有蠻大的差別,做軟體的他可以天馬行空,他可以創意發揮,他可以有彈性,因為做出來的東西隨時可以改,它是軟的,做硬體的人就需要謹慎,因為做出來的東西一旦進了工廠把硬體做出來,你要改就很難,所以他強調你要有規則、要有方法、要嚴謹。所以兩邊的文化是不一樣的,那所以……這個是臺灣有的東西,那其他國家要複製臺灣在硬體上的成功相當的困難,即便是中國也沒有辦法,中國可能在崛起的那個年代,在十多年前我們臺灣這邊有在討論,這個他想要做晶片設計、想要做半導體,會不會威脅到我們的產業?人都找過去了會怎麼辦?可是到現在還沒有發生,反倒是臺灣這邊還很好,這證明了一件事情,就是說這個硬碟產業不是那麼容易被複製的,那這個當作是立基,我覺得是蠻有道理的,軟體相對的複製它不困難,因為現在有太多open source,開源的東西,那其實開源的東西,其實政府也很難管啊,很多公司為了增加他的visibility(能見度),他要讓大家看到、他要推廣他的產品,他得開源,他可能在開源的同時保留一些公司的機密,可是絕大多數的東西是要讓大家知道的,大家才敢用、才會用。

黃:嗯哼。

洪:所以軟體界反倒是很容易的去流通,很容易的去學習,當然你可能跟最厲害的還是有差了一些,但是因為是在一個開放流通的環境,所以你很容易可以把自己拉高到一個層次。

黃:嗯哼,是,所以在AI上面,您對政府有什麼樣的呼籲跟期待嗎?

黃:因為我其實自己有一個憂慮,其實就像您說有那個國安的問題,當所有的AI這些很厲害、很強大的工具,都掌控在Google、微軟這些美國公司,那臺灣的……臺灣會不會很可怕?未來得AI者得天下,那臺灣呢?所有的東西都被AI掌控之後,那臺灣怎麼辦?

洪:我想政府已經意識到這件事情,前陣子也看了一些報導,政府知道這個這波AI浪潮是需要有因應措施的,所以他們也在想辦法,但是這個至於要做什麼呢?第一個就是剛才講的,怎麼樣提供大眾需要的基礎建設?包括基礎的AI服務,第二個是產業界要的訓練大型AI的平臺,是不是可以政府方可以幫忙做點事情?因為這不只是……這不是短期的東西,這個有它的門檻,所以有些小的公司根本沒有辦法,大的公司也許他就內部花錢就做了,但是小的公司他如果要去……他有技術、他有想法,但是他需要平臺的話,終究還是要政府來幫忙,那政府在過去有一些類似的東西,例如說台積電就是這樣子,台積電在當年,也許是因緣際會就幫很多廠商代工,一路代到現在變成很大的公司,那臺灣有些法人單位在做的事情也是這樣子,例如說臺灣在晶片設計為什麼能夠是世界的名列前茅?是因為政府其實跟產學界合作地相當好,在過去這麼長的一段時間,政府始終把這個當作是一個很重要的項目在投入資源,然後把這些東西繼續做下去,維持臺灣的競爭力,那我想在這個方面政府的支持是不可少的。

黃:所以一般的產學研、教育界、社會大眾面對AI浪潮,您有什麼呼籲跟提醒?

洪:我想這波AI浪潮,我們可以施力的地方蠻多的啦,那我看到很多的產學研也開始動員起來,所以開始有很多的論壇,很多人在談這些東西,我想這是一個好事情,我自己比較……接觸比較熟的就是,怎麼樣在訓練大型語言模型的實務上面或者是使用它的這個方面有一些著墨,例如說怎麼樣大家一起來訓練大型模型,而且這個過程中要是有效率的,因為它其實所費的需要的成本相當地龐大,所以如果能夠讓它很有效率的話,才能夠長長久久地做下去,那這裡面還可以結合臺灣的晶片系統設計能力來去做所謂的軟、硬體垂直整合,那可以讓它的效率變得更好,那資安隱私跟AI這個是不可劃分的,所以在同時我們怎麼樣去把資訊安全跟隱私保護的議題,跟現在AI的發展把它放在一起,包括說這AI是真的假的、產生出來的資訊是對的還是錯的、有沒有人在裡面搞鬼等等。那這個裡面的資料究竟是不是合理、合法的在使用?我想這個跟AI的廣泛部署勢必要連在一起看,那這部分我們不能閉門造車,想辦法跟這個一些大公司合作,或是大公司一起,大家一起來、來去看看怎麼做這件事情。然後學校這邊我想剛才提到臺大我覺得很開明的態度,這次讓我覺得臺大的高層是蠻走在前面的,不只是臺大,當香港大學所謂要禁AI的時候,我們在第一時間就表態說要採開放的態度去面對它,那怎麼樣……講容易啦,接下來我們就要處理這個問題,怎麼把ChatGPT這類的工具把它導入到課堂上,讓教學變得更好,對不對?然後怎麼做這件事情?那使用者在用的時候可能用起來很好,可是當他產生了一堆似真似假的結果的時候,你怎麼去驗證它?所以我覺得這個是教育文化需要面對的問題,那老師們怎麼看待這件事情?這也是一個Learning curve(學習曲線)學習的過程,然後學校怎麼幫一些比較落後的?不只是學生,老師也需要重新再學習。

黃:是。

洪:然後我們怎麼樣提供基本的AI服務給所謂的師生,免得大家立足點不均。

黃:是。

洪:那這些終究是要……大家不要想說只看國內,而是想說怎麼利用這個這一波的AI風潮提升我們全民的競爭力,然後改善我們的品質,面對我們少子化的問題,找到一個有效的策略,我個人是非常樂觀其成。

黃:是,因為AI太強大了喔,所以您剛有提到說怎麼樣提供基本的服務,不要造成學生立足點的不平等?這個提醒很重要,對,譬如說我們以前說偏鄉跟都市可能有數位落差,那未來這個AI造成的落差可能會更大喔,會用AI的人,他的工作效率、他的學習效率就會大幅提升;那不會用AI的人,他工作上可能就會處於弱勢,甚至真的很有可能就被AI取代了,所以這個是值得教育現場要好好規劃的議題,那另外您也提到就是目前這個生成式AI—ChatGPT,雖然看起來很強大,但是它不會推理,它也沒有辦法辨別真假,所以……我記得您在臉書上有寫「盡信書,不如無書;盡信AI,也不能太相信ChatGPT」,所以我們也要聰明地來使用AI,然後怎麼樣跟AI一起合作、一起協力,把AI當成人類很好的輔助工具來提升我們的工作效率,增進生活的幸福,讓我們可以有更多時間去做自己喜歡做的事情。

洪:對,歸納的很好,這是我所謂的樂觀審慎的態度來去面對我們的AI。

黃:OK!樂觀審慎!謝謝洪老師。

洪:謝謝。(校對:李建甫|更新:2023/04/21)