📻國立教育廣播電臺【新聞真假掰】ChatGPT使用者破億!「生成式AI」是什麼?人工智慧將帶來人類生活的重大變革!(逐字稿大公開)
📻國立教育廣播電臺【新聞真假掰】ChatGPT使用者破億!「生成式AI」是什麼?人工智慧將帶來人類生活的重大變革!(逐字稿大公開)
📻國立教育廣播電臺【新聞真假掰】節目資訊
播出時間:7 月 1 日起,每周日 17:05-18:00
收聽方式:國立教育廣播電臺 官網 60 天隨選收聽
📌邀訪來賓
人工智慧發展基金會董事長 杜奕瑾
📌訪談精華短片
📌完整訪談內容Podcast
📌節目介紹
PTT「創世神」杜奕瑾再度造訪新聞真假掰錄音室,探討ChatGPT和AI帶來的科技倫理問題!
ChatGPT推出兩個月,活躍用戶已破1億,這意味著人工智慧已從「聽說很厲害」,演變為「人人都可以操作」,也代表我們再也不能忽視人工智慧對當代社會的影響。無論是好的輔佐、或是有心人的「攻擊」,都將是當代人共同面臨的課題。
主持人黃兆徽也提到,去年9月加入AI Labs後,深入了解人工智慧的最新研發成果,只需要提供關鍵字,就能請AI生成文字、圖像、音樂、影像。若讓AI向世界一流人才學習之後,
AI自行生成的作品,要超越普通一般人的創作並不是難事。這也讓人類不得不思考:「人之所以為人的獨特性,還有哪些?」
透過「辨識」、「理解」,一直到「生成」,生成式AI早已不是冷冰冰的機器人,而是知悉你我各面向需求的存在,卻也正是因為他的強大和快速發展,讓人不得不擔心其帶來的隱憂。
早已是人工智慧的領頭羊,AI Labs創辦人杜奕瑾,則從全球經驗看台灣問題,強調選擇「以人為本」、「可信任」的人工智慧尤為重要,在科技發展之際,人權、隱私不需成為陪葬品!
本集節目邀請杜奕瑾,談「生成式AI」為當代社會帶來的影響,及新科技提升人類生活的便利和風險。想知道人工智慧的方方面面?請收聽「新聞真假掰 」,假訊息Bye Bye。
杜奕瑾(人工智慧發展基金會董事長,以下簡稱「杜」)
黃兆徽(台灣事實查核教育基金會顧問/台大新聞所兼任助理教授,以下簡稱「黃」)
📅節目預告
2023/04/09 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)
AI時代需要怎麼樣的人才?不只是聊天機器人,ChatGPT遠比你想得更厲害!教育如何革新?
專訪中央大學資工系教授 蔡宗翰
🌐最新精彩內容
2023/04/02 生成式AI帶來劃時代變革!ChatGPT有哪些技術突破?善用AI「副駕駛」超乎想像的應用報你知!
------------------------------------------------------------------------------------------------------------------------
杜:它在生成模型面,覺得這樣子回答可能是對的,它就是會這樣子去回答。所以其實也有媒體記者就講說,ChatGPT它是人類史上最大的幻想機器之類的。
黃:也有可能是最大的假訊息的製造來源。
黃:哈囉!大家好,我是兆徽,歡迎來到新聞真假掰,今天來到現場,要陪伴我們一起提升媒體素養的好朋友是臺灣人工智慧實驗室的創辦人,同時也是臺灣人工智慧發展基金會的董事長杜奕瑾、奕瑾好。
杜:哈囉兆徽好、各位朋友大家好。
黃:Ethan其實也是曾經任職於微軟,是人工智慧的亞太區的研發總監對不對?大家更熟悉的是Ethan是在大學的時候就創辦了臺灣最大的BBS站PTT(電子佈告欄系統),所以被網友稱為創世神,這個封號就一路跟到現在,到現在也還是很神,那尤其最近那個ChatGPT3(人工智慧聊天機器人程式)在2022年底推出,在全球都引爆熱潮。那Ethan以前在微軟任職的時候就研發過類似的軟體對不對?那我們今天就來跟Ethan聊聊AI(人工智慧),會怎麼樣方方面面的影響我們的生活?那我們就請到AI專家Ethan,ChatGPT它在兩個月時間內在全球就有1億的使用者,這1億非常非常驚人,所以我們知道……我大概搜尋一下手機是16年喔,然後Internet(網際網路)大概花了7年,臉書(社群媒體)大概4.5年的時間才達到1億使用者,可是ChatGPT在兩個月就有1億人去使用,Ethan怎麼看ChatGPT這樣的AI工具 ?
杜:那我想從它體驗角度來講,它就是一個AI去理解然後生成的科技,非常特殊的這個展現,就是其實我們之前在微軟的時候,我的團隊就是負責這個conversation(對話),就是人工智慧跟對話。
杜:所以我們那時候有現在Microsoft Cortana(微軟開發的智慧型個人助理),那Microsoft Cortana的這個計畫,其實在那個時候,我們的資料量跟我們的這個人工智慧的演算法,就當然沒有以現在這個ChatGPT是那麼的大量。當然我們也有做類似像ChatGPT的這個嘗試,就是我們拿網路上可以找得到各種的資料,那我們去做訓練它的語意理解跟這個從語言模型裡面再去產生這些生成式的這個回答。那從生成式的這個回答裡面,我們再看用戶的這個互動反饋,得到使用者對這個對話的感覺怎麼樣,那我們也可以去再進一步地去訓練我們這個人工智慧的模型,如果說以過去我們那時候訓練的量跟現在ChatGPT訓練的這個量,那當然就是以這個人工智慧演算法它的模型的這個複雜度,以及這邊訓練模型的資料量、它運算的這個Computing Power(算力),現在的ChatGPT跟我們那時候比起來已經是有非常巨大的差別。
黃:是。那為什麼當時就有這樣的研究成果,但是沒有公開出來讓大家使用?
杜:其實我們在Microsoft(微軟)的時候,那時候有兩個主軸,一個是Microsoft Cortana,那時候Microsoft Cortana我們在2016年我們訂定的conversation,就是man-machine interface(人機介面),這個也是我們那時候在微軟的這個Bill(比爾)大會裡面去宣示,也就是說未來的人機介面,從微軟的角度,一定是透過自然的人機對話,就可以做到即時的像人一樣的回答。那所以那時候有兩個主軸的產品,一個是Microsoft Cortana,那Cortana是一個輔助人的這種個人助理的角度來去做自然語言跟我們叫Natural Conversation(自然對話)的這個研發,另外還有一個是比較像聊天機器人,就是說助理跟朋友其實不同關係,聊天機器人它是比較像閒聊,就助理做的事情一定要正確,那聊天機器人……
黃:是可以跟你……
杜:可以閒聊,可以比較有錯誤也沒關係,當然就是可以跟你瞎攪……
黃:kill time(殺時間),花時間來聊天。
杜:在那時候其實有……以中文來講就是微軟小兵嘛,然後在英文的這個介面。這也是我們的這個團隊就是Tay(微軟在Twitter平台上推出的人工智慧聊天機器人),那這個projects(項目)我們是用推特上面的言論去學習使用者之間的互動跟對話,但是我們在Tay上線之後,其實它也是造成非常大的迴響,非常多人來玩,非常多人來使用,但是我們在大概1天的時間就把它下架了。
黃:就公開1天就趕快close(關閉)。
杜:有一個很大的議題,其實我們那時候在做研發的時候,沒有注意到的就是……因為當這個聊天機器人,它是在網路上學習各種言論的時候,它會學到好的,也可以學到不好的,那它學到好的,這個是OK的,但是它如果學到不好的,他學到了仇恨,他學到了偏見,他學到了種族歧視,那這種言論是由誰來負責?是我們訓練人工智慧的演算法要負責的呢?還是說微軟要負責的呢?還是說我們只是用一個虛擬的這個形體,去回答使用者的對話。當這個法規的探討,大家都不知道誰要負責任的時候,我們那時候就決定把Tay下架。因為我們已經看到大家對這個自然對話是有非常大的那層去跟它去做對話,那也有很大的迴響,但是在法律的部分我們沒有想清楚之前,我們就先不貿然讓它上線。
黃:是。這個經驗其實對現在ChatGPT也是很好的提醒。就是我們上去問它問題,但是他回答的,好像也沒有辦法誰來承擔對錯,然後更何況是偏見、歧視。
杜:那ChatGPT它跟過去的這個不一樣的就是它的文字的這個生成的模型的這個部分,它有很大的進步,它的前身是InstructGPT(人工智慧聊天機器人程式)嘛,相較於InstructGPT之下,其實ChatGPT它已經開始對回答會做引導、會做收斂,然後也開始有在做可能符合這個法規規範的部分,它會給予一些限制。
黃:對,它回答會比較保守。
杜:相對是……不是看過什麼就回答什麼,它在覺得這有可能會跨越這種法律、道德的這界限的時候,比如說你問它哪個國家比較強啊,它就不方便對這個回答做一些評論,但是因為這些給予它的限制,也是透過這種學習出來,也就是說如果說它沒有學習過的限制,他還是會停留它的直覺去回答,我在測試這過程中一樣還是會有……就是它可以引經據典地去回答你,但是實際上這個內容不是真實的。
黃:是,那更可怕,它會成為假訊息的溫床,因為你看起來它引經據典,但是結果是錯誤的、或者是歧視、或者是有問題的答案。
杜:所以其實它一方面就是說,它在人工智慧的語意理解模型跟以前比起來內容生成這部分比過去來講是進步的這個非常多嘛,那但是就是……雖然說它已經有在對這個回應的部分去做相關的偵測去做收斂,但是還是沒有辦法去確保說它回應的正確性,但是因為它已經有做了前面的那幾個規範,所以你在看這個ChatGPT回答的時候,你會覺得第一個它是well knowledge(知識淵博)。
黃:非常多的知識。
杜:那第二個就是它還算謙謙有禮。
黃:對,很多教授使用的時候都說:「哇!都比現在的大學生有禮貌。」
杜:就是說它是有一個引導的過程。所以它其實在訓練的時候,它會訓練得會回答比較長、比較有理,然後它好像也會對一些不方便表達的,可能會有道德、法規的界限,會守住的聊天機器人,當它說的事情是不正確的時候,其實就要思考的是它的說服力跟殺傷力有可能就是更大的。
黃:對。因為它會引經據典,很有禮貌地然後跟你胡說八道,是有這樣的可能性。對。所以我們在使用這樣子的工具的時候,有哪些提醒?
杜:我覺得這就是有點類似像我們在使用網路的時候,大家說網路可以知道很多訊息,但是並不代表網路上面說的訊息是真的。那同樣的你Google(瀏覽器搜尋)到的東西不見得是真的。那當這個是ChatGPT,它講的內容其實它也都是從網路上去學到的,甚至它更不好的是一個,它有可能有些東西是它在生成模型面,覺得這樣子回答可能是對的,它就是會這樣子去回答。所以其實也有媒體記者就講說,ChatGPT它是人類史上最大的幻想機器之類的。
黃:也有可能是最大的假訊息的製造來源。
杜:當我們去用一些道德規範判斷判斷真假,的確它在回答的部分會比較正確。但是也就是說它在回答如果是錯誤、或者是有偏見的時候,就更不容易被發現,因為它是可以騙過這些……我們設置的這些規範。
黃:是,是。所以現在要更提高警覺,對於網路上訊息。這是我們先提醒大家它的風險,但它對於人類的美好生活其實也帶來更多的想像跟可能性。那大概是……我們先回來談談,它為什麼叫做生成式AI?因為它有一個特色,就是你給它同樣的關鍵字,每次會生出不一樣的內容來。所以其實對我們在大學教書,最困擾……不只是我,很多老師們困擾,是以前學生如果是copy(複製)網路上的東西來交作業比較容易被發現,因為全班假設50個學生,可能有5個、10個都copy一樣的內容,就知道他是抄襲的。可是現在生成式AI它可以根據同樣的關鍵字生成說50篇、100篇不一樣內容的文章來,你更抓不到他抄襲。那我們先回來談這個技術面,什麼叫生成式AI?為什麼它可以理解人類的文字語言然後來生成內容給我們?
杜:這其實它是有幾個過程,最早在做這個NLP就是自然語言處理,這個部分會比較是有grammar base(文法基礎)的這種自然語言處理,但是其實在這幾年就是從微軟那個時候開始做Tay開始,我們在做的人工智慧網路,就是做這種深度學習的類神經網路。那這種深度學習的類神經網絡它的訓練跟過去不一樣,就是你可以把它想像成它邏輯跟規則像大腦一樣是用非常非常多的這個神經元來去做訓練,也就是它在做生成的時候,其實它就是會有非常非常多的豐富多樣性,那這個豐富的這個多樣性生成出來的結果,那當你給它的訓練的資料是越多,你給它的這個模型是越複雜的話,它就會越接近人感覺的這種回答,今年應該是生成式模型大爆發的1年,就是你可以看到在ChatGPT之前的,Midjourney(人工智慧程式)在……
黃:就是AI畫圖的軟體。
杜:人工智慧去輔助2D的圖片,那不管是從以前是DeepFake(深偽技術)照片的生成,那到現在的這種藝術的生成、海報的生成、漫畫的生成。
黃:就是只要給AI幾個關鍵字,它就畫好一幅畫給你。
杜:到這個音樂的生成,像ChatGPT就是內容的生成,那ChatGPT其實它內容生成還有非常非常多的應用,比如說像你給它幾個關鍵字讓它去生成完整的這個內容,這一般人會去實驗的嘛,你也可以讓它去角色扮演去生出一個有互動感覺的這種劇本,那你還可以比如說我想要寫一個什麼樣的程式,那它可以給你產生比如說類似的這種程式代碼,那甚至你也可以用問他一些有關基本的這種數學的這種問題,你過去覺得這種人工智慧不太可能會回答你有點類似像……好像是需要推理才可以得到答案,那它都是可以看似很合理的生產出來,而且其實在大部份的時候可能都是對的。
黃:這個聽起來其實有點恐怖,因為大家以前會說,AI它只會學習人,然後會大量複製……複製人類的一些創作,但它不會自己創作、不會推理,覺得這是人之所以為人,還保留了一點價值,可是現在生成式AI它可以透過理解之後,它好像有推理能力,而且它也可以創作了。所以你給它幾個關鍵字,它可以創作出一幅畫,它可以創作出一首歌、它可以創作出一篇小說、文章、劇本,那人真的會不會就開始要擔心說到底哪些工作會被AI取代?
杜:當這個人工智慧的這個模型它的模型複雜度夠高,而且它看過絕大多數……因為像現在ChatGPT之後,其實它就是把大量的文本進去,大量的程式碼Stack Overflow(堆疊溢位)放進去之後,它所學到的實際上也是從人過去經驗去學習過來的,但是因為它看過大量的這個文本的內容,所以它可以從AI認為合理的方式去生成人可以接受的這個內容,這樣子的話就會讓你覺得就是說它好像是有創作的這個能力。
黃:對,是。我也要自我揭露一下,在去年9月接受這個Ethan的號召、感召,也加入了AI Labs(台灣人工智慧實驗室),那據我所知像AI Labs自己的研究,就有可以用關鍵字就可以讓AI創作出一首歌曲。從詞曲到演唱,甚至MV都可以生成出來,那它也可以去跟世界一流的畫家學畫之後,我們給他幾個關鍵字它就畫出畫來,那我覺得這當然是有好處,但也有一點可怕,就當AI它可以去大量跟國際一流的、最一流的畫家、最一流音樂家來學習創作,那這個創作出來也是一流的作品。那真的沒有辦法這麼一流的人要怎麼辦?
杜:我覺得就是當這個人工智慧到了這個程度的時候,就像過去當你會用Google的時候,你就比不會用Google的人強大非常多,同樣的,當你會使用這種生成式工具。你利用生成式工具輔導你去寫內容,輔導你去創作劇本、寫程式,甚至輔導你去做相關的藝術創作、音樂創作,因為這些生成式工具它都是大量地去學習,就是一個在這個領域非常非常專業,它可以去模仿大師去做出它的作品,不管是文字、音樂或者是內容圖像都是這樣子。我們其實AI Labs在這段時間我們有找各領域最專業的專家,不管是在拍攝影片的導演或者是說在音樂製作最有名的人,那甚至在主播界,就是你要怎麼去做好一個新聞播報這個部分,我們都是有跟最專業的人去做學習,但是這個學習的過程其實也有會嚇倒人,就是我們曾經有找配音員,當我們把他學習起來之後,他就決定他要退出這個研究,也希望我們把所有的資料都銷掉,因為他覺得……
黃:他以前是靠配音來維持他的工作。
杜:因為他覺得說聽到一個聲音是很像他,但是不斷地講他沒有說過的話,這種感覺是很可怕的。那在相反的部分就是像我們跟天下雜誌的這個Sky——李洛梅主播,我們去學她的播報方式,她就覺得這很方便。如果說這個是在自己可以控制的範圍之內,去做聲音的生成,其實是人工智慧幫她讀稿,讀成她的樣子,她就覺得這個東西是非常的方便。
黃:對,就是說以臺灣目前的技術已經可以做到用人工智慧來學習某個特定的人的聲音,然後即使這個人過世了,也都可以把他的聲音還原。而且需要的音檔不用太久對不對?大概多久時間可以讓AI學習一個人的聲音?
杜:就看你要做到什麼樣的品質,那你如果說只是要聽得出這個是誰的聲音,你只需要幾分鐘,不用很長。那你如果說是要做到很高品質,比如說像專業的歌手,他聲音就要跟他很像,他要重視到他的聲音的很多細節的這個quality(質量),那我們就需要比較長的時間。
黃:對,就可以用幾分鐘到幾個小時,就可以讓AI學一個人講話的模式,甚至學他的聲音維妙維肖,而且它的方式跟不是像一般人想像的,一般人想像可能說,今天假設一個主播要幫我們用AI主播念出一個稿子,是我們去抓這個主播曾經念過這個字的聲音出來,其實不是對不對?即使這個主播從來沒有講過這句話、沒有講過這幾個字,AI也都可以用他的聲音把字讀出來。
杜:人工智慧它是會先聽過各種人說話的方式,然後去擬一個Jinal AI model或者是pre-trained model(機器學習的模型),那從pre-trained model再依照譬如說這個人的特色,然後再去修飾它的生成的聲音,變成很像這個人說話的聲音。
黃:是,就是它有點像人類在學語言,先大量的聽各種聲音之後,然後是大概只學人怎麼講話,然後再去學某個特定的人,他的聲音有什麼特色。而且我知道AI更厲害是它還可以優化他的聲音,就好像我們用這個美顏、美肌相機,可以讓每個人皮膚都變很好,AI還可以讓這個人的聲音……比如說太弱了,可以讓它變得厚一點;太強悍了,可以讓他溫柔一點對不對?怎麼樣的方式?
杜:因為人工智慧它學到的是這個人的聲音,所以其實它也可以去腦補,就是說這個聲音再加上什麼樣的flavor(味道)會變成怎麼樣的結果?那所以其實比如說它學到了一個歌手,他怎麼去唱歌的話,不是只有說唱出這個歌手不一樣的音高,它甚至可以mix(混合)其他不同歌手這個style(風格),唱出一個新的風格的這個歌曲,以後的創作的思路就會變得很廣泛,就是說我今天唱腔不是只有單一的唱腔,不是只有一定的音域,音域可能是無限的寬廣,因為是人工智慧學習,那同樣的,我們在創作這個過程就不是只有我自己唱得出來的才可以,我自己唱得出來之外,我可以融入其他不同特色的這種唱法,那你這個出來的聲音就會有不一樣感覺。
黃:最基本的應用,像現在天下雜誌已經在用的就是每一篇文字的報導,就不需要再派一個人去專業錄音室,然後花幾個小時把它念出來對不對?那個速度上會比較慢,它現在只要文字報導一出來就可以有天下專屬的聲音,為所有的讀者來朗讀那一則新聞對不對?我前一陣子逛臺北書展,我就覺得想到另外一個應用,就是因為我們其實現在人眼睛都很不好,所以看書都覺得很吃力,如果每一個作家都有自己的聲音,有AI的替身,那作家寫了一本書,他就可以用……比如說假設黃春明老師他如果讓AI學習了他的聲音,他的所有的這麼多的小說、散文啊,都可以用黃春明老師的聲音幫我們念出來,而他自己不用花時間進錄音室,他可以更專注在他的創作對不對?
杜:我們那時候在2016年,那時候還在微軟裡面,我們在講「Conversation will be the next interface」(對話將是下一個界面),就是在講因為大家在智慧手機的時代,都很習慣用觸摸式屏幕去看這個內容。
黃:引用文字。
杜:對,那你如果現在去馬路上看到每個人都低頭族、都低頭看著螢幕,所以造成的結果就是每個人都是有一些什麼肩頸的問題,或是眼睛的問題啊,看東西眼睛都花了看不清楚,那所以當我們在講「Conversation will be the next interface」,它的意思就是說像人跟人之間的這種對話,才是最自然的人際交流的這種方式,那所以從ChatGPT,或者說我們那時候在做試驗的這個Microsoft Cortana、Tay來講的話,我們就是希望以後在人工智慧未來應該就是我們人在跟機器互動,就是像你跟ChatGPT對話一樣簡單。
黃:就是以後直接用語音、用說話就可以溝通。
杜:對,那你就只要用說的、用聆聽的。
黃:就可以拯救大家的眼睛。Ethan剛剛在休息時間為我們點播一首AI的歌曲,從作詞、作曲到演唱,很多都是AI的作品,我們今天的錄音師是臺大新聞所的碩士生博瑞,博瑞也是電臺DJ,主持音樂性節目已經6年了,剛剛聽到這首AI歌曲很驚訝,跟我們談談你的心得。
張:很驚艷,就是一直聽說AI可以做很事情,但是沒有想到它是連從作詞、作曲,這麼前端的前置作業就可以開始做,那其實我蠻好奇的是因為,其實現在蠻多音樂人的確他們在錄音的時候就不是用真實的樂器在錄,他們就是用電腦的音樂的生成樂器的聲響,那我好奇的是那AI做的音樂,那跟這些我們在電腦上可能一些可以做音樂編曲的這些軟體,它所生成的這些樂器的聲響,它的差別會在哪裡?
杜:我覺得如果說以聲音工程的這個部分,過去在聲音工程很多都是你是預錄,然後再透過一些轉換器去轉換,然後把它以數位需要存到電腦裡面,然後再MIDI(音樂數位介面)檔,就用那個聲音把它播出來,那人工智慧是不一樣的地方,就是人工智慧它其實你可以想像,就是去聆聽這個聲音,當它大量的聆聽,它就知道如果說曲子有這樣子的旋律的變化的話,這種樂器或是這個歌手,它的聲音會怎麼樣的去做變化?所以它比較不一樣的就是人工智慧它是聽大量的聲音之後,那當你給它一個譜,然後一個文字,就像我們人腦袋裡面就有這個旋律出來,那人工智慧就是腦補之後把它產生出,我們常常在講就是辨識、理解、生成,就人工智慧的這個步驟就是它先學會去辨識,那再從聽裡面去理解,就比如說你聲音這樣子變化,跟譜之間的關係是怎麼樣?那生成就是反過來,那譜如果是這樣子的話,那聲音應該是怎麼樣?
黃:辨識、理解、生成,其實它是跟人類在學習的時候是非常類似。
杜:對,它就是當我們在講說人工智慧的學習跟生成的過程,其實就是在做辨識、理解、生成,比如說我們AI Labs在做音樂的學習,最早我們就是先從辨識,就當你一首流行音樂進來之後,歌手唱什麼?吉他彈什麼?鼓打什麼?我們是用人工智慧把它辨識出來,把它辨識出來之後,所以理解就是你理解各種屬性,除了它原本的這個譜、它原本的這個文字、它原本的這些旋律要怎麼去做?它是悲傷的?它是快樂的?這其實都是理解,理解之後你就可以反過來,當你想要嘗試一個悲傷的什麼樣的風格的歌曲,給一小段文字,你要怎麼把它生成?就從這裡面反過來去做生成。
黃:所以其實對於創作者來說,也不用感到很擔心說會被取代。他反而是像剛剛Ethan在前一個段落訪問提到,我們要學會使用它對不對?創作者他就不用自己去嘗試非常多的創作,絞盡腦汁,他可以先讓AI生成一些東西讓他有更多靈感對不對?那甚至也可以協助創作者在創作過程更順暢,然後加快他創作的速度。
杜:我們大概可以想就是說,過去沒有這個Google的日子,我們寫報告要先去圖書館,看完書之後再回來寫報告,那有了Google之後,寫報告之前就會先Google一下、閱讀之後,然後再去想這個脈絡,我要怎麼去寫這個內容。
黃:是。
杜:那當我們有人工智慧,我們當然可以想就是辨識、理解的這個部分,其實就是在各個領域會有人工智慧去做大量的閱讀,或是大量的學習。所以當你有某些內容創作的這個需求的時候,你就可以給它少量的指導,它就可以幫你生成有可能的各種不同的樣態,那你就可以把它生成的內容當作一個基礎,再去做更多的這個創作,那你這樣創作出來的作品,就會比過去你純粹自己從頭打造,就會更豐富,而且是更快速。
張:既然透過瞭解後的AI是可以這麼強大的這個狀況下,你沒有考慮跟實際上音樂人合作?就是因為可能我們就會害怕說,當AI可以做到這麼厲害,你看像實驗室在2020就曾經推出過專輯嘛,然後剛剛跟創辦人在聊天,其實這3年的時間,其實變化非常大了,我們剛剛聽到的可能因為呼吸聲、喘息聲,其實跟人聲是非常的接近了,那未來有沒有可能是跟真的音樂人合作,就是在他們的專輯開案的時候,就進入到他們的團隊,然後說我們可以給予什麼樣子的的輔佐、讓你的音樂達到什麼樣子的境界。
杜:這個其實在一個新興的科技進入一個產業,尤其是這個產業是高度的創作產業,都會有兩派的反應。有一派就是非常的生氣,因為他覺得創作是人的靈魂,那我剛剛講就是人工智慧如果模仿了聲優的聲音,聲優就會覺得說……
黃:他的工作權被侵犯。
杜:不見得是工作權,他覺得這個人工智慧就不應該模仿人到這麼的像。
黃:對,聲音也是一個很重要的人的特質。
杜:就是一個人的特徵,identity(身份),那像藝術創作有很多都是比如說這個畫作有什麼樣的風格?大師他的作品都有怎麼樣的感覺?這有可能被學起來,當他看到人工智慧模仿出他的作品,而且去用在不同的地方的時候,有的人會覺得非常的生氣。這個是已經在發生的,所以我們可以看得到就是,在有些比如說藝術的比賽,像Midjourney出來之後,它曾經拿了一個世界冠軍,之後有很多的比賽就禁止用人工智慧去輔助生成畫作,你一定要人,希望把人這個元素保留下來,就以後不是在比誰的程式基礎比較強,而是人的本位還是要在那裡。
杜:那同樣的就是當ChatGPT可以生出很好的內容了之後,光是在1月就有很多的雜誌投稿啊,或者是論文的投稿,它就禁止有人工智慧生成的內容去投。因為人工智慧生成的內容相對來講,它可以用很少的努力就可以產生很大量的內容。那跟過去這種文字創作者,會有這種比較……
黃:人類可能會覺得是在不公平的基礎上比較。
杜:不公平的基礎在做比較,那所以有一方面就是非常的反對人工智慧加入創作的這個行列,那但是也有一派就是會比較開放,就像我們跟天下雜誌合作,我們主播李若梅就是那種把她的聲音學習起來之後,在她的這個可控的方式之下去幫她去做新聞播報,這個就是比較擁抱新科技,那同樣的就是在音樂創作部分也是,我也認識有非常多的音樂創作人,那有一些當我們把這些功能展示給他之後,我可以感覺得到他的不悅。
黃:很怕自己被取代。
杜:不見得怕自己被取代,他就覺得就是說這種做藝術的態度跟他們過去的方式,他們相信的方式是不一樣的,那這件事情已經在發生了,那我們人工智慧實驗室也有跟最專業的這個音樂製作人,還有就是像我們元宇宙的這種生成科技,怎麼去生成一個空間,去做這種電影節目的製作,其實我們也正在進行,那這種科技就是願意使用的,我們是一個enable跟empower(允許)這個專業的這種角度去支持創作人的創作。
黃:是,因為其實人工智慧的這個研發的風潮或是技術能力,其實是擋不住的啦,所以換個角度來想,即使是不願意有這樣科技的人,你也沒辦法阻擋。所以我們能夠想的是說,那我們怎麼樣把這樣的技術運用來協助人,可以創作出更好作品,然後讓人類的生活可以更便利、更美好,所以回來談這個生成式AI,就Ethan來觀察,它可以在哪些面向讓人類的生活可以更美好?
杜:你可以看到ChatGPT在這麼短的時間就有這麼多的使用者,那你可看到Midjourney它在這麼短的時間有這麼多的人開始使用它來做藝術創作,所以生成式科技在剛才所謂的ChatGPT跟Midjourney,它其實都只是一個部分,也就是說在未來的世界有任何不管是文字、影像、藝術、音樂,那甚至各種的需求,比如說你可以有個Live Band(線上樂團),你有什麼樣的需求,你過去是要由人去把它創作出來的,那我們都是可以有相對應的生成式科技去輔助等等創作,那甚至像剛才講這種ChatGPT,它可能只是很多生成式科技的基礎,就像這個Google Map(電子地圖)一樣它是一個基本,再往上去展開各種應用,它就可以有各種的這種有關地圖相關的應用,生成式科技也是一樣,各種的文本的藝術創作,你往上去到各種不同的這個應用領域,它都可以有很多不同的應用的空間,你可以去思考,那其實這個空間去做思考,其實我們已經可以看得到這個浪潮已經正在發生,今年光是生成式科技,這個新創是非常非常多,每一個都是有非常好的這個成果,那所謂的非常好的成果,也就是說你在日常生活中你會看到越來越多的應用,是從生成式科技裡面去展開。
黃:可不可以幫我們舉一些例子?
杜:像我們剛才在講的就是比如說我們現在有很多的這個公關廣告公司,他們會需要產生DM(直郵廣告),所以像我看到有很多的這個廣告公司,過去他們會需要非常多的這個美術編輯的這個人去做這個廣告的這種創作,那現在他們已經不是去請美術編輯的人,有很多他們都已經開始找會AI詠唱的人,所謂AI詠唱就是說你要怎麼去告訴AI去生成畫作,那AI用怎麼樣可以把好的畫作把它生成出來,所以在AI詠唱的這個部分我們已經可以看到,有一批人他們過去是不太會畫圖的,但是他們也已經開始在做這個藝術相關的這個創作。
黃:就是有一種新的工作興起,其實你講得很詩意,AI詠唱,也有人說是AI溝通師,這樣的工作出來,就你不用會畫畫,但你要會給AI關鍵字。
杜:應該說你會知道怎麼帶領AI去做相關的創作工作,那另外來講就是以前我們比如說大家不是要花很多時間去學資訊科技、要去學會寫程式。我其實最近也開始看到有越來越多的人,他在寫程式的這一塊,他也用ChatGPT去幫助他寫程式,就是說他過去可能沒有什麼程式的經驗,但是他會知道說,我要產生一個怎麼樣的程式、做怎麼樣的功能,ChatGPT就產生一個code(代碼)給他,那他再去用很簡單指令去跑,這個東西很多人發現一直這是work(行得通)的。也就是說越來越多需要專業技能的事情,這個人工智慧也可以幫你去用生成的方式去產生。那自從我們跟天下雜誌有的這個Sky的計畫之後,其實有非常多的這個媒體業者就開始在跟臺灣人工智慧實驗室討論說,那我也要一個主播,你能不能有一個人工智慧幫我去播報我們的這個新聞,那這樣它在未來在做這個podcast的速度就會比你不會使用這種生成式科技就會快非常的多。
黃:是。因為用文字閱讀真的很慢、很傷眼,而且要在一個特定的環境,你要站著在定點或坐著在定點才能好好的閱讀,可是如果當AI可以把所有的文字都用語音,然後是舒服的聲音,念出來給我們聽的時候,它就可以幫我們讀文字、讀書、可以洗碗的時候,開車的時候、跑步的時候、散步的時候都可以聽,這確實是AI對於紙本閱讀已經式微了,但是AI可以在這方面做很多的協助。
杜:未來以後有很多這種專業的工作會變成從對話就可以達成。
黃:是。AI有很多對於人類生活的更便利、更美好的可能,包括您剛剛說其實我們也不用再低頭滑手機,然後脖子痠痛。眼睛要這個老花得很快,我們可以直接跟我們的手機用對話的方式,它就會提供訊息給我們。所以銀行的客服是不是也是很適合用這樣的方式?
杜:對。過去大家在講的這種智慧客服已經有用語音辨識,但過去的語音辨識跟語音理解它還是在比較傳統的那個時代,就是不是使用這種大型語言模型去做出來的智慧客服,其實它回答的多樣性就會少很多,所以大家在用智慧客服感覺就是好像有點笨喔。
黃:卡卡的。
杜:那在ChatGPT這種時代在往後其實這種有pre-trained大型的這個語言模型搭配未來的這種智慧客服應用,那在智慧科技的應用,就是會有非常巨大的轉變。很有可能他可以回答得出就像專業的客服人員的這種回答。那當然他回答的正確性還是一樣,就是會需要有人去instrcut(指導)跟驗證。
黃:去校對他。所以傳統的是不是說是給它一些題庫,比如說一百題大家最常問的問題,然後AI就會搬出一套的回答來給你。那現在這個生成式AI,因為它會辨識理解,然後聲稱他有那個理解的過程,所以他並不是把題庫裡面的答案找給你,它會自動生成……收集相關的訊息之後,生成一個正確回答給你,是不是這樣子。
杜:時間比較傳統,智慧客服它很多是……它是做到語音辨識,從理解裡面去找到最可能的答案,那個答案就是制式的。那你如果說今天是用這種生成式科技回答的話,它其實是從語音辨識與理解之後,它可以很精確、很像人直接回答這個內容,那我們目前來做測試來講的話,就是以現在的智慧客服來講,應該在這2年會有非常革命性的改變,就是可能過去的那種傳統的智慧客服,我全部都是會變成新的型態,也會更大的節省人真正來做客服的這個時間,就像剛才講的就是以前都是我們人直接去面對第一線的服務。那以後我們人的地位是在教導AI去回答第一線的服務,也就是說可能第一線是屬於人工智慧去學習,那再來就是人退到第二線去看人工智慧它的回答是不是正確?是不是專業?然後再不斷的精進這個客服。
黃:是,所以好人或者是正派的人運用AI,它可以做很好的智慧客服。不管是政府單位或任何單位、銀行,更可以符合民眾的需求,然後節省客服的人力,但是另一方面其實我們有看到社會新聞,已經有AI被詐騙集團用來……他也是打電話給你,但其實你對話對象是AI,而且真人在打詐騙電話的時候,他可能會被拒絕、會生氣、會掛電話,但AI不會對不對?AI你拒絕他更高興,因為它就跟你學說你講了什麼電話被掛斷,它下次就變更厲害了,詐騙集團也開始用AI這樣的現象,我們該怎麼因應呢?
杜:人工智慧拿來做為服務,那當然拿來做攻擊,這個也是有很多人馬上把它拿來做應用,像過去很多在這種打假反詐,他們都是會從文本來去找到詐騙的內容,但是當你如果說這種生成式科技被使用的話,其實每一個詐騙的內容它是不一樣。
黃:都是新的。
杜:那所以其實你就比較沒有辦法從內容裡面去看得出這個是不是大量的發出來,還是說這個每一個就是真人在後面去做相關的這個詐騙,同樣的其實不是只有在詐騙,在……比如說在認知操作,以前認知操作在很多人是用什麼文字雲去瞭解是不是操作的策略,哪些被不斷地使用,那現在你可以看到人工智慧它可以照樣造句去把一個意象,它用一百種方式去講。你如果是沒有用人工智慧去做理解的話,你是很難用傳統的這種term frequency(詞頻)或文字雲的這種方式把這個它怎麼去做認知的攻擊,去把它summarized(總結)起來。
杜:甚至在資安的領域也有人開始在討論,就是過去像攻擊性的很多都還是透過病毒碼的pattern(程式)去recognized(認出)這種攻擊的軌跡,或是攻擊的這個程式。那因為以後有這種自動生成程式的這種方式,有可能它在攻擊的時候,它病毒本身會不斷地去變異,就是有點像現在的疫苗一樣,為什麼這個COVID(嚴重特殊傳染性肺炎)很難根絕,就是因為它會不斷地變化、不斷演化,也就是說它其實在傳播的每一個過程,它就再演化一次,那你就沒有辦法用傳統的這種像病毒碼的這種資料庫,去做特徵的偵測,然後把病毒下架。
杜:所以在未來的不管是資訊安全或者是詐騙,或者是像認知操作的這種領域,其實大家也是在嚴陣以待,已經看到這些應用,大家已經開始有在思考,如果人工智慧是拿來作為攻擊,人工智慧要怎麼拿來作為防守的這個問題。
黃:是,因為要科技造成的問題,恐怕還是得要靠科技的力量,包括Deepfake用AI很快的這個深偽技術來偽造人臉、人的行為、人的話語,這恐怕用人眼已經越來越難辨識,所以大家也要靠AI來偵測說,它這裡面是不是有被AI偽造、變造的成分在裡面,所以這也是一個AI研究的另外一個方向對不對?
杜:其實如果說是像DeepFake的這個議題的話,這也是蠻有趣,就是當人工智慧有辦法去辨識這個是真或是假的時候,這個人工智慧也會被拿來加入訓練,這個就是對抗網路,那它在生產過程中,就是要能夠騙過這個辨識的人工智慧。所以在未來會是一個很有趣,而且是很嚴肅的議題,就是生成式的科技其實被拿來做攻擊,但是你如果訓練這種辨識的人工智慧網路,像現在ChatGPT就開始有人叫ZeroGPT(檢測內容是否為AI 產生的線上工具),就怎麼去辨識是ChatGPT產生的內容,一旦它有這個辨識的能力,那你一樣就是可以把辨識的加到你的攻擊的網路裡面,去騙過這個辨識的結果再做生成。
黃:是。因為一旦知道漏洞在哪裡,就又可以把它補起來,所以就一直是軍備競賽對不對?
杜:以後可能就是人工智慧對抗人工智慧的時代。
黃:是,用人力真的是太難,也不太可能,在茫茫的這個網路的大海的資訊量裡面,去偵測出這些行為,還是得靠人工智慧的協助。另外就是Ethan其實這幾年不管是在國內的演講,國外的演講受訪裡面,都不斷地提到「以人為本」,然後您創辦AI Labs也是一個強調是可信任的人工智慧,剛剛我們提到AI可能造成的問題,就可信任的人工智慧就越來越重要了。那什麼是以人為本、可信任的人工智慧的研發?
杜:臺灣人工智慧實驗室是在2017年成立喔,那時候成立的時代背景,就是我那時候是在微軟是做亞太區的研發總監嘛,那同時其實你可以看到人工智慧在全世界各地都在快速的這個發展,在那時候其實已經可以看得到,人工智慧將會變成科技裡面的超能力。那也就是誰擁有人工智慧,他就是擁有掌握不管在各個領域主導的角色,在那個時代環境的話,大概有兩個模式嘛,大家都在講說未來大量運算跟大量的資料,以及大型的人工智慧網路是由誰掌握?大概不外乎是這兩個方向,一個就Big Government,就是比較是極權政府的角度,那另一個是Big Tech,就是大型跨國科技公司,那Big Government 跟Big Tech,一個其實是profit driven(利益驅動),Big Tech是profit driven,那Big Government其實就是他們以國家利益這個角度去driven,那其實這兩個往下去做發展,其實就會牽涉到很多有關人權跟隱私的議題。
黃:這其實很可怕,一個是為了而政治服務,一個是為了商業力量而服務,人權在中間可能就會被犧牲掉,包括人的隱私啊。
杜:對,那所以我那時候特別想要回來臺灣成立人工智慧實驗室,有一個很大的緣由,就像我們那時候在1995年成立PTT一樣,當然全世界社交媒體都是以這種營利導向為成立來講的話,我們PTT是保障公平開放以及我那時候在講聲量平權的方式,去做一個直流、交流的平台,同樣我們在講人工智慧,在2016年全世界正在飛速地發展的時候,大家開始有一個迷思,那以後人的位置在哪裡?
黃:是。
杜:你有可能就是在科技之中,人權、隱私其實就會喪失,那所以我們是在2017年應該是全世界第一個強調就是人工智慧的發展,未來其實不在於資料量的多寡,不在於你的Computing Power有多少,這兩個是很重要的關鍵沒有錯,但是要人工智慧往下去走,一定是有相關的科技倫理議題,也就是說在全世界人工智慧往下走,有一個很重要就是,你要可以做到可信任的人工智慧演算法,那我那時候把它叫做Responsible AI(負責任的AI)。
杜:那Responsible AI怎麼做到Human Center(以人為本)的Responsible AI,我們在臺灣是第一個要參與人工智慧演算法的這個透明度,以及可追蹤、可解釋、可驗證以及是可被audit(審計),去做這個稽查的這種方式,那所以我們也在臺灣建立全世界第一個聯邦式學習的這個聯盟,那這個聯邦式學習的這個聯盟也是在基於這種資料治理的、資料正義的角色,我們這次去歐盟討論,他們就講說我們其實就是Right and Respecting(權利和尊重)的Technology(科技),就是注重到人權隱私的角度去做相關的科技研發,有時候你在做未來的科技發展。第一件事情你要思考到你的人權隱私,以及資料收集的這個合法性,第二件事情就是你的演算法是不是可以開放的被驗證?所以確保你的演算法是沒有偏見的方式再進到這個市場,那在我們的AI Labs裡面,我們提出來的這種科技方式、解決科技倫理問題,其實就是所謂的Federated Learning聯邦式學習以及Federated verification聯邦式驗證。
黃:是,聯邦式學習其實是非常有趣的概念,可以落實以人為本,然後負責任的人工智慧可以被信任的,不會侵犯人權隱私,我知道在智慧醫療上其實有很好的應用。是不是可以用智慧醫療的例子,跟我們解釋一下什麼是聯邦式學習?
杜:我可以舉一個例子。就是我們那時候剛回到臺灣,那時候其實全世界都在講說醫療的資料要怎麼拿出來?要放到國家才對呢?還是要放到Google data center(Google資料中心)才對呢?以AI Labs的角色我們就提出……那我們是不是不要把醫療的資料從醫院裡面拿出來?我們所有的醫學中心,講好一個共同的架構,那我們用一個開放、開源的這個平臺,讓醫療資訊在同一個protocol(協議)下儲存在醫療院所裡面,那所以不是把資料拿出醫院,而是把開放的演算法藉由開放的平臺,到各個醫院去跟資料做學習,那學到的經驗我們再把它aggregate(合計)起來,它學到的經驗本身是沒有人權隱私的疑慮,那聽起來好像有點不太懂,那其實可以很簡單地去講,就是我那時候剛回到臺灣,就是有遇到楊泮池前校長,他也跟我們介紹了TCTC臺灣臨床測試聯盟,那時候其實就講到一個觀念,你要去訓練最好的醫生,你不需要把所有的病人找到一家醫院去看病,因為你醫生看診就是要經驗。
黃:是。不用所有的病人都集中到臺大醫院,然後門診量爆掉醫生會很痛苦。
杜:沒錯。那就反過來應該是有一套機制讓醫生可以到各個地方去學習、去看診,那你很自然而然就會看到各種產於各種習性不同的人。
黃:沒錯。所以其實台大醫院的醫師其實都會到各個大大小小的醫院去學習,因為在大醫院會看到可能是癌症的病人。可是到地區的小醫院可能可以看到一些比較輕微的或比較不一樣的疾病。
杜:對,那你這樣子,你才會藉由這個病人的多樣性、設備的多樣性才可以學到更多經驗。那其實人工智慧的模組也是一樣,當我們在做訓練的時候,我們不需要所有的資料都到一個中心來。我們要尊重資料所有權人,我們在資料所有權人的設備下面去建立聯邦式學習的平臺,那所以我們的人工智慧演算法就像那個醫生一樣,到各個……
黃:醫院裡面的系統裡面去學習。
杜:那學習之後,學出來的AI model,這model weight(模型衡量)這是沒有隱私的這個問題。
黃:所以在設計的時候就已經先把病人的隱私資料先隱匿起來了對不對?
杜:對。所以就是說資料會先做匿名化處理,那資料本身,即使匿名化處理,我們也不會離開醫院的方式去做演算法的學習,那其實在這次的2020年的科技防疫,我們除了拿跨院的資料去做全世界第一個TFDA(衛生福利部食品藥物管理署)EUA(緊急使用授權)認證通過的胸部X光的model之外,我們還有一個很廣泛的、被應用的就是大家手上的這個社交距離App,那社交距離App也是我們在2020年4月是第一次開放原始碼,那也是全世第一個就是說我們利用跨device(裝置)的這種去中心化的分析方式,我們一樣可以知道病毒除了這個傳散,那它的作法就是把所有的資料,你接觸的歷史透過匿名的藍牙device來紀錄14天,儲存在你自己的手機設備,那當大家都做這件事情的時候,我們就可以有一個共同的portocol,可以知道病毒的這個傳散。
黃:然後我又不會洩露我的個資給一個……比如說疾管署或者是任何人的系統對不對?
杜:所以就沒有一個中心化的這個資料庫,那以這種方式的話,我們就可以保障人權隱私,而且是保障不會因為一個資料庫被攻破了,所有的資料都外洩,那當你過去這種中心化蒐集的問題是,你醫院一旦資料給出去,你不知道它之後是怎麼運用。
杜:那這個就是在法規上常講的這個secondary use(二次使用),你當初申請的資料是說為了這件事,或許這件事情是理所當然的。但是它有可能拿到資料之後是作為其他使用,那這其實就是後來大家在臉書上面,以為說我在臉書是為了交朋友,但是發現其實我們的資料是被拿來作為賣廣告,這secondary use透過這種聯邦式的方法,其實就是可以保障在資料所有人的手上。他是可以管控自己要不要加入,或是自己要不要參與這個未來的學習或是分析。
黃:給AI的資料,它學習的對象越多,它其實可以做出更精準的判斷對不對?
杜:其實所有的資料就是經驗。那你有越多好的quality(品質)的資料,你可以學習到越好的這個人工智慧的演算法,結果……
黃:那所以我知道像在醫學影像跟基因上面,其實臺灣的AI人工智慧都可以有很好的成果對不對?
杜:醫療的這個部分我們在臺灣的medical center(醫療中心),大概有80%的佔有率,那醫療影像跟基因的計畫我們在臺灣人工智慧實驗室大概120個相關不同的這個團隊,在上面去做不同的這個發展。那同樣的也有一些聯盟計畫,就相對來講是已經非常的廣泛被使用,而且是突出的。那比如說像臺灣有全腦聯盟,那這個是最早由臺北榮總郭萬祐醫師帶領臺北榮總團隊,那我們去訓練的轉移性腫瘤的這個AI模型,那我們也把第一個這個臺灣的TFDA腦部轉移性腫瘤的驗證之後,那我們也拿到歐盟的CE(歐洲合格認證),那目前也拿到這個相關的這個……比如說FDA(美國食品藥物管理局)的Pre-Sub(送審前審查),所以像這些我們都已經在……
黃:這項研究成果好像CNN也有報導,這其實是一個很聰明的方向,因為以前醫生要判讀X光片的時候要憑自己的經驗,可是一個醫生一輩子能看幾張X光片,那比起來AI它如果大量的到各個醫學中心去看X光片、去學習,所以它可以更精準地知道說,假設這個腦瘤它的大小、它的位子代表腦癌已經進入第幾期,它可以更精準的判讀。
杜:那為什麼這個計畫可以拓展的這麼快跟這麼順利?有一個很大的原因就是我們剛剛講的可信任的AI。
黃:可信任的AI,讓世界的其他國家願意跟我們合作。
杜:對,就是我們在人工智慧的發展方向,平臺部分是公開透明的,在成果的部分是他們可以公開被驗證的。那以這種方式開放的跟大家去做合作,那我們資料治理大家可以相信;我們的資安大家可以相信;我們做出來的成果、我們拿到的認證,大家可以相信,那大家就會很樂於跟我們一起合作。
黃:是。所以這是剛剛您提到的中國或是這樣極權國家它是用big data(大數據),用大量的、不顧人民權利隱私的方式,以及可能美國的科技公司的這種比較重視商業利益的模式,這二大陣營夾擊下,臺灣靠著可信任、負責任的、以人為本的AI,可以走出一條自己的路,但同時Ethan也提醒科技倫理是非常重要的。那最後可不可以提醒……不管是政府或者我們的社會、我們的聽眾在使用AI的時候,還有我們接下來AI可以預期它會大爆發,會影響生活的方方面面,在科技倫理上,我們如果要制定相關的政策法規,有哪些應該注意的思考面向?
杜:科技倫理的這個部分,比如說像最近我們跟美國的紐約基金會在討論科技倫理,有很大的一部分,其實就是因為人工智慧跟數位平臺大家可預期的未來都會dominate(支配)人類的……不管是你的資訊的來源。
黃:是。
杜:你每天開車的這個決定,你每天要吸收或者是要生產的,都會有人工智慧很大的一個決定,所以倫理的議題就尤其特別的重要,將人工智慧它可能是會有錯誤、會有造假、會有偏見、會有歧視,它會把人的這些不好的一面學習起來,那我們要怎麼去確保我們這些科技在應用的時候不會造成這樣的傷害?一個就是像剛才講的內容創作,大家可以注意到其實在這個數位平臺開始之後,你可以看到現在內容創作者是越來越難得到他該有的這個reward(報酬),因為其實他創作出來的內容很快地就會被一個content(內容)包裝成一個虛假消息。而他在放送虛假消息的認知操作,他的營收也會遠比你好好的認真做一個媒體來得好。
黃:對。所以其實臺灣的新聞產業受害很深。
杜:所以第一個議題就是內容有價,就是人工智慧是要拿來服務人的,當我們科技是拿來服務人的時候,就要確保在這個經濟體系,它的……可能要透過一些相關的法規立法確保這個內容創作者,就人本的內容創作者,他是可以獲得這整個經濟體系的收益,就是內容有價。
杜:或者是在美國、在臺灣有個叫新聞有價的這個推動。那另外一方面就是在人工智慧的這個應用的層面。像剛才有講到資料治理的爭議性,資料治理相關的法規就是像歐盟的這種GDPR(歐盟一般資料保護規則),那在臺灣其實也開始在思考我們現在的個人資料保護法該怎麼去做修改?那個人的醫療的資料到底要怎麼去修改?去符合這個人工智慧的趨勢,GDPR的這個法規的用意其實是把資料的所有權還回個人本身,並不是說平臺收集之後,它就可以無止盡地使用跟保存,這個就是GDPR的真諦,就是說我使用者可以把你平臺收集我的資料,我可以Right to be forgotten(被遺忘權),就是隨時我說要你平臺要把它忘掉,你就不能存任何的紀錄,那這個其實是把資料的控制權,防止我剛才講的secondary use,被平臺abuse(濫用)的一個很重要的刺蝟。那它Right to be downloaded(被下載權)其實它也是防止平臺去壟斷,因為它幫我把資料下載之後,我可以找到替代性的平臺去把我的資料再放回去。
黃:是,是。
杜:所以有時候我在講說……很多臺灣媒體會講說最嚴格的個資法危機,我覺得這是對這個法規本身的一個偏見,其實它是用一種方式……
黃:回到人,真的以人為本對不對?
杜:把資料的所有權恢復到……
黃:還給我們。
杜:人的本身,那這個就是在資料治理的層面。
黃:所以就是要從各個方方面面,說我們已經看到了人工智慧好用的地方,也提醒大家它可能的風險。所以政府也要趕快把相關的政策制定好,然後導引人工智慧網對人們的生活更美好的方向,那同時儘量來防止它對人類可能造成的隱私啦,或是各種的傷害,然後導向正確的正途,讓科技真的可以是為人服務,而不是會變成是折損人性尊嚴。謝謝Ethan。
杜:謝謝兆徽!(校對:李建甫|更新:2023/03/31)