📻國立教育廣播電臺【新聞真假掰】生成式AI帶來劃時代變革!ChatGPT有哪些技術突破?善用AI「副駕駛」超乎想像的應用報你知(逐字稿大公開)

📻國立教育廣播電臺【新聞真假掰】生成式AI帶來劃時代變革!ChatGPT有哪些技術突破?善用AI「副駕駛」超乎想像的應用報你知(逐字稿大公開)

📻國立教育廣播電臺【新聞真假掰】節目資訊

播出時間:每周日 17:05-18:00
收聽方式:國立教育廣播電臺 官網 60 天隨選收聽

📌邀訪來賓
微軟首席技術長 花凱龍

📌完整訪談內容Podcast

📌節目介紹

生成式AI大爆發,當我們還在熟悉ChatGPT帶來的科技浪潮,GPT-4便緊追而來。微軟也在近日發表Microsoft 365 Copilot功能,未來我們甚至不用自己製作PPT、Excel檔案,只需要學會「與AI溝通」!全球破億使用人次,讓政府、企業,個人,無不想在這全新領域分一杯羹。

對於這波人工智慧浪潮,微軟首席技術長花凱龍用「挖土機」理論,說明這項新科技的衝擊,當挖土機出現,我們的技術能量就可以轉換:誰能掌握挖土機的使用,誰就可以更有效率,將挖土的工作做得更好。

然而,當AI大量在生活中應用,強大科技會不會取代了我們?「人」的價值到底在哪裡?個人與企業該如何因應?大家都想掌握AI的下一步,但在這快速成長的科技中,別忘了提升自己的能力,它就會是我們的好朋友,幫忙我們更輕鬆,並且做更重要的事情。

本集節目邀請花凱龍,拆解AI和ChatGPT的語言模型,帶我們掌握人工智慧的發展趨勢。請收聽「新聞真假掰 」,假訊息Bye Bye。

花凱龍(微軟首席技術長,以下簡稱「花」)

黃兆徽(台灣事實查核教育基金會顧問/台大新聞所兼任助理教授,以下簡稱「黃」)

📅節目預告
2023/04/09 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)
AI時代需要怎麼樣的人才?不只是聊天機器人,ChatGPT遠比你想得更厲害!教育如何革新?

專訪中央大學資工系教授 蔡宗翰

🌐最新精彩內容
2023/04/02 生成式AI帶來劃時代變革!ChatGPT有哪些技術突破?善用AI「副駕駛」超乎想像的應用報你知!

------------------------------------------------------------------------------------------------------------------------

花:我們的想法裡面,它就是一個好朋友,那它就是我們的副駕駛,那我們是正駕駛,所以我們正駕駛就是要來駕馭我們的副駕駛,那透過副駕駛的幫忙讓我們更輕鬆,然後可以做更重要的事情。

黃:哈囉大家好,我是兆徽,歡迎來到新聞真假掰。今天來到現場,要陪伴我們一起提升資訊媒體素養的好朋友,是微軟的首席技術長花凱龍,花博士,花博好。

花:大家好。

黃:花博士是微軟的首席技術長,我們知道ChatGPT(人工智慧聊天機器人程式)非常的火紅,當這個AI的工具出來之後,它在短短兩個月內就突破了1億的使用人次,其實是全球成長最快速的一個AI的應用,甚至是科技應用,微軟在這當中扮演非常關鍵的角色。那到底ChatGPT是怎麼練成的?一個弱的AI到強的AI,有哪些技術的突破?但是我們也看到了包括內容的正確性有一些問題,甚至有一些偏見可能會產生的問題,以及這項AI技術要怎麼樣在生活中好好的來應用,然後科技會不會取代了一些人?那人的價值到底在哪裡?個人跟企業該如何因應?OpenAI(人工智慧研究實驗室)接下來還有哪些?還有微軟發展的方向?這些都是今天想要跟花凱龍、花博士請教的。

黃:花博我們先來請教一下,ChatGPT這麼火紅,就是短短兩個月內全球就有上億人次使用,微軟在這當中扮演什麼樣的角色?

花:第一個是說,微軟在幾年前就開始投資OpenAI大概10億美元的一個經費。那在近期其實微軟又加碼,又加碼到100億美元。那所以在這個整體的過程之中,微軟算是OpenAI一個非常死忠的支持者。那我們的期待也是希望說,更前瞻的AI的技術,能夠來賦能(藉由一種學習、參與、合作等過程或機制,使獲得掌控自己本身相關事務的力量)個人跟賦能這個企業,讓大家都可以把我們的時間更集中在更重要的事情上面。

黃:那我們知道ChatGPT其實是由OpenAI來研發的,那OpenAI它原本是一個基金會,它剛開始成立的時候是一個非營利的組織,它希望確保每一個人都能夠盡量地可以使用到人工智慧,它說:「確保人工智能能夠造福人類。」是基於這樣的前提,成立了這樣的組織,但是當然在後來運作的時候,發現其實需要有更多的資源才能做更好的開發,微軟在這個時候就投入了資金進來,對不對?您說原本10億美金到現在加碼到100億美金進來了。

花:我們的目標就是希望「 empower every person and every organization on the planet to achieve more.(讓地球上的每個人和每個組織都能取得更大成就。)」微軟的策略也是看到了人工智慧對未來人類的生活可以提供很多的幫助,那我們也非常認可OpenAI這樣的一個想法。不管是在策略面,或者是把這個AI的技術導入到微軟相關的商品裡面,都是我們一直在努力的方向。

黃:是。您剛剛有說,就是希望能夠empower,可以讓在做這些AI研發的,或者是說各方面對於人類進步有貢獻的各種科技都可以藉由你們公司的資源,可以讓它更快速的成長,對不對?

黃:其實OpenAI就是一個這樣的組織,OpenAI,它是把它的研發成果,其實都會盡量的open。OpenAI的Open,您可不可以跟大家說明一下?

花:OpenAI它在前幾個模型裡面,那其實是有完全的open,讓大家可以來使用,那但是後來在非營利的期間,所有的模型都是可以開放,讓大家來下載跟使用。那在策略調整之後,從盈利到開始考量商業的價值,到目前的新的模型裡面,那目前其實是獨家授權給微軟。

黃:其實微軟最近也把它釋出了,這個API(應用程式介面)大家可以去對接。

花:是。就是說目前是把API釋出,但是它的程式碼跟模型的部分其實是獨家授權並沒有完全的開放。

花:我們這邊提供的API,就是讓大家可以容易也輕鬆的馬上可以透過subscribe(訂閱)的方式,那就使用到這樣一個最新的科技。

黃:AI研發的成本是非常高昂的,因為一般機構、一般企業是不太可能有這麼大型的這個超級電腦來運算,然後來架構這些AI的大型的語言模型,對不對?那現在我們有一些可以比較低廉的方式,就可以讓大部分的企業都可以使用到,是不是這樣?

花:是。就訓練一個、這樣一個大型的語言模型,其實需要非常大的Computational power,運算的能力,那包含了你可以想像它其實是需要幾百臺超級電腦以上規模的狀態,那也要訓練很長的一段時間,才能夠收斂出一個成果。那所以在這個API的開放上面,其實就是協助大家,我們先 pre-trained(預訓練)好了這個model(模型),事先把這個模型把它收斂出來,收斂出來來協助大家可以快速的、可以直接來應用,直接來利用它。

黃:是。那我們來談一下ChatGPT它到底是怎麼變得這麼厲害?它怎麼訓練的?在技術上。

花:在技術上面,其實回到幾年前,那有一個叫做「attention(注意力)」的機制,在人工智慧的這個技術裡面,其實從傳統的機器學習到深度學習,已經是一個突破式的發展。那我們可以看到說,前幾年我們看到AlphaGo(人工智慧圍棋軟體)的一個成功,那它其實就是一個深度學習的技術造成的一個突破。

花:那近幾年來看,我們在文字上面的分析裡面,又導入了一個叫做「attention」的機制,那這個「attention」的機制說起來好像有點不容易理解,它的概念就是說,我們在一段文章裡面可能會有很多的代名詞,或者是有一些文字跟前後文的關係,舉個例子好了,微軟花凱龍技術長今天接受這個國立教育廣播電臺的訪問,那他提到了什麼事?那在這個機制裡面,其實它就會把這個「他」,跟微軟技術長,把它連接起來,那甚至在一個更長的文章裡面,它的記憶力很強,所以在一個比如說有上下文,或者是兩段的文章裡面,其實它都可以持續地記住這個不同的名詞之間的關係。

花:那掌握了這個名詞的關係,其實就像人的腦袋一樣,你有好的記憶力,那你又可以分清楚說「這個他是誰」,因為一個文章裡面可能有五個人在裡面,以前如果記憶力不好的時候,其實你很容易去搞錯他們之間的關係。那現在如果你可以掌握到每個名詞對應到的,不管是動詞或者是它的受詞的時候,那你就可以更瞭解這篇文章想要帶給你的這些資訊。那不只是人,人、事、物其實在這個模型裡面,它都可以協助我們的電腦,瞭解這樣的一個狀態。那這是第一個部分,在技術上面的突破。

花:那第二個是在整個模型上面,ChatGPT它的training data(訓練集),就是它訓練的資料主要是來自於把這個網路上很多元的資料都把它收集下來,那……

黃:它大概是收集了哪一年到哪一年的所有的網路上的訊息?

花:他收的年份非常的多元,那在以OpenAI公開的這個版本裡面,它其實是收集到2021年6月左右的……

黃:它是從哪一年開始?

花:應該是2021年6月之前所有公開的資料都在它收集的目標裡面。對,所以當然它的訓練還是有一個範圍啦,但是它是很努力地去收集了這些所有的資料。

花:那另外一個訓練成本的地方在於說,在ChatGPT的模型裡面,其實它是有一個human feedback,就是說有一個人為的給一個回饋的機制的存在。

黃:是。

花:也就是說,當訓練的模型有一些問題的時候,那OpenAI也跟這些專家,那有一些合作,會來針對不好的答案給它一些分數。

黃:修正。

花:對。

黃:它推出兩個月,然後全球上億人次使用,我們也是不斷地在幫它調整它的模型,對不對?

花:其實某種程度我們也是提供它們越來越多的訓練的資料。

黃:然後它就會從大家的回饋裡面然後不斷地再改善。

花:有兩個改善的模式,一個是說它可以持續的有一個human feedback,針對一些狀態做一些調整,那其實我們也看到網路上也有人提到說,他跟這個ChatGPT聊一聊天之後,那ChatGPT開始有一些發瘋,或者是一些比較奇怪的行為出現,那其實這些都也可以透過後面的一些處理的機制來避免這些問題的產生。

黃:是,對。那您提到了後續,它產生的……大家應用了之後發現,它可能會一本正經地跟你胡說八道,會讓你誤以為一些錯誤的訊息是真實的。那您說現在我們也都有一些解決的方法。

花:是。生成式的AI,它潛在的一個疑慮就是說,它在生成這個資訊的時候,它的正確性到底是不是這麼的可靠?那以技術面來看,它本身就是一個機率的分析,所以這個機率的分析本身就不是一個完全可靠的狀態。那當然依照不同的資訊應用的服務,我們可以去做不同的一些規範。那譬如說在這邊我們把ChatGPT導入到我們的搜尋引擎Bing,那在這個New Bing的這個搜尋引擎裡面,我們其實就會把它的這個出處、相關的reference(參考)把它標註在這邊。跟Google比起來,他們會找到很多這些相關的資訊,那我們這邊呢是找到這些相關資訊之後,又幫讀者去把它快速的……

黃:彙整起來。

花:對,幫他讀完,然後做彙整跟歸納,然後把收斂到的結果呈現給讀者,那同時我們也給了reference的資訊,來確保說這個資料的正確性。

花:那另外在模型本身,我們其實也有一個Content Filter(內容過濾器),那針對一些比較不應該出現的內容,比如說色情、暴力,我們其實都會做一個把關的動作。

黃:是。其實前陣子國外媒體也有記者去實測這個New Bing,然後當時有發現一個問題,就是說他發現他跟Bing對話之後,Bing竟然愛上他了,然後好像開始有一些談情說愛,甚至開始會指控說這個使用者的婚姻不幸福啊,所以你應該要跟我在一起……諸如此類。就是您剛剛說,有時候AI你跟它對話之後,它可能會到了一些比較奇怪的對話模式。但是現在也有一些解決方案了嗎?

花:是。我想這可以分二個方向,我們剛剛提到說,我們在training data、訓練的資料,來自於這個網路上爬蟲很多的資料,那坦白說網路上也有很多不一定這麼精準或正確的資訊在裡面,甚至是說也會有一些偏頗的想法,同時都會存在在這裡面。那所以我們在回覆使用者的詢問的時候,我們假設爬到一堆比較奇怪的資訊,那這時候它訓練出來,其實就有點會被引導到那個方向,那因為網路上的資訊實在非常的多元,那也沒有辦法在短期之內其實對training data就有一個很好地掌握。那所以會有問題,其實持續會發生,但是我們也持續的在針對有問題的部分,再做這樣的……

黃:不斷地修正。

花:對,再不斷地修正,那也會讓它模型越來越好。

黃:這就再回到生成式AI的技術,很多人還是有很多的疑惑跟猜測,比如說我們跟ChatGPT對話的時候,你給它同樣的一些關鍵字,可是它會生成不同的內容,它怎麼決定它什麼時候生什麼樣的內容?

花:這個生成式的AI,還是以文章來說,那譬如說我前面舉例,我開始打字說「我今天喝了」,那喝了……可能喝水、可能喝了果汁、喝了咖啡。所以其實這都是一個不錯的答案,那生成式AI,它其實也是一個機率的分析,所以你前面有一個文句出現的時候,其實它後面就開始依照不同的機率去猜測,或者是說去判斷說,應該用什麼樣的文字是一個理想的資訊。那因為是機率的關係,所以它其實裡面也有一個機制,就是說,我在選擇的時候,它有一個叫做「random seed(初始化偽隨機數生成器的數字)」的模式,去選擇它覺得理想的答案。

黃:回覆。

花:對。那其實如果它都回一樣,大家也不喜歡。

黃:對。

花:就是說當你問了問題,那……

黃:會無聊了。

花:對。就覺得沒有意思,那其實我們也期待說,它更有趣一點點、更像人一樣,其實每次你問我今天想喝什麼,我的回答其實也都不太一樣。

黃:對,所以它會去判斷說,你希望它的回覆是什麼?

花:它會依照你之前的問題,它其實是有一個記憶的能力。

黃:記憶。

花:對。所以在你之前的問的問題,它會把它當作它的考量,那依照之前的對話來產生未來的問題。

黃:所以當我們使用越來越頻繁之後,它就越來越瞭解你。

花:某種程度是。那當然在現在的技術裡面,因為它「要一直記得你」這件事情是要成本的。

黃:是,是。

花:那所以現在其實它會有一些規範,我們可以看到說,以OpenAI的API裡面,那一個chat,就是說你可以去開一個新的視窗,那在這個新的視窗裡面,它就會去紀錄你之前跟它的對話,但是當記越來越多的時候,它就會有一些限制,就是它需要的資源的成本其實會提升,所以它也會有限地讓大家來看說,10年之後還記得所有的使用者。

黃:這樣它可能比我們自己還瞭解我們自己了。

花:是,是。

黃:那再回到這個生成式AI,跟以前的AI,它的重大的突破的點,好像生成式AI它是……比較是類……模仿人類大腦神經元的模式在建置,對不對?

花:我一樣把它分兩個階段來看。那第一個是說深度學習,其實又回到AlphaGo的時程,那在那個時程裡面有一個深度學習的技術其實就開始突破,那深度學習裡面你可以把它想像成是一個深層的類神經網路,那在這個深層的類神經網路裡面,其實它有很多的階層,那其實那個階層的概念就像人的思考,其實有點接近,我們會從這個local view、局部的觀察,我舉一個例子好了,比如說我們針對人臉辨識。

黃:是。

花:那有時候我們今天要看這個人臉是誰的時候,我們可能會有local view,譬如說嘴巴旁邊有一顆痣,那這比較local的概念,那global view可能又會看到說,它的二個眼睛相對比一般人比較接近,或分得比較開,那這就是一個比較global view(全部的觀察)的關係,那在深度學習技術裡面,其實它同時掌握了這種local跟global的關係,那所以其實它某種程度其實跟我們人在這個分析事情上面是接近的。

花:這是深度學習的第一個進步的地方,那到了生成式的AI,你可以把它想成是說,它對東西的掌握度變得更高了。那比如說在文字上面,我們ChatGPT的這個model裡面,它是一個多國語言訓練的狀態,它在訓練的時候,它不是針對說中文訓練一套、英文訓練一套,它是把這個網路上所有的資訊都把它彙整、讀進去,那接著就打通它的任督八、二十脈,或一百脈,那把各種語言都把它搞清楚,那所以它掌握……

黃:它會事先學習人類語言的規則這樣子?

花:它等於是把所有的技術都掌握之後,其實它對語言的掌握度比我們還高,因為我們可能一般人只學習到一種語言,那有些人可能學習到兩種語言。

黃:它是把網路上所有的文字都……

花:對。

黃:學習了。

花:它是依照公司當初它蒐集到的data,其實他們也有一個那個分佈圖,那針對不同的語言,那具體的資料可能要再查一下。那但是它的訓練的資料是跨語言的,所以它蒐集了不同語言,那同時去學會了這些語言。所以你可以想像一個語言的專家,我們不要太誇張了,我們就說一個懂十國語言,然後都講得很好的人,其實他對語言的掌握度跟回覆的能力是非常的強。

黃:它就可以找出這些語言共通的原則,就是人類到底語言怎麼一回事。

花:是,它可以找到,而且它可以去讀懂,然後你問它的時候,它也知道要怎麼回覆你。

黃:但是它本身在運算的時候,是沒有語言的障礙的?或是說沒有語言的區隔的?比如說我們用中文跟它對話,它是本身先用英文來有一個模型之後,再翻譯成中文?還是它本來就是已經各種語言融合在它的……?

花:在它的模型裡面,我們可以想像它就是一個這個會講多國語言的人,那所以它聽懂了你要跟它講的事情,那你希望它用英文回答,它就用英文回答;你希望它用中文回答,它也可以用中文回答。

黃:所以它根本沒有什麼中翻英、英翻中的問題。

花:它可以做到,但其實它不是去做那個翻譯,它是瞭解了你的意思,然後也可以回覆你,那你希望我用英文回覆你,我就用英文跟你說;那你希望我用中文,我就用中文講給你聽。

黃:那它怎麼可以瞭解我們的問題?

花:就回到剛才有一個技術上面,它有一個叫做transformer(變壓器)的機制,那這個transformer就是一個轉換的技術,那這轉換技術的前身,就是一個attention的概念。那attention的概念其實就回到了說,它會有一個比較中、長期的記憶體,它會去記憶說,在一段文章裡面所有的關係,不管是主詞、名詞、受詞的這些關係,它都精準地掌握到。那所以它掌握到之後,你可以想像,它就懂了你要跟它說的內容。

黃:那這些是人類給它一個語言的格式,還是它是蒐集了2021年之前的人類在網路上的資料之後,它自己歸類出來的一些準則?

花:其實在以技術的角度來看,有不同的方式可以來做這件事情,我們可以用supervise,就是說監督式的,告訴它我們精準、希望它學會的東西,那有了初步的模型之後,那我們其實可以衍生成unsupervise的模式。

黃:根據這些小小的規則,然後再去大量的閱讀人類的文章。

花:對。它裡面可以有一個獎勵的機制的模型,就是說它其實可以分階段,就是說我們現在先初步的理解之後,那後面會有一個也可以再延伸、有一個這個獎勵機制,就是說我們去教它什麼叫做「講得好」,什麼叫做「講不好」,那這獎勵機制也是可以學習的。

黃:它會自我學習。

花:對。需要一個像是專業的評斷師,所以它裡面也有一個評斷師的AI在協助它說「你這回答好不好」,那做一個回饋,那這回饋完之後,其實它就越來越厲害。

黃:所以ChatGPT是綜合這幾種AI學習的模式才產生出來的。

花:是。它從一開始的模型到後面有這個human feedback,就是有人的回饋,那整合起來就慢慢的收斂出一個我們今天熟悉的這個模型。

黃:是。所以它是真的理解我們在說什麼?

花:以技術的角度來看,它是真的理解你問的問題,或想跟它說的內容。

黃:這樣當然我們就會開始想,那人腦跟AI的差異還在哪些地方?

花:我想以訓練的模型來看,其實它還是會依照我們給它的訓練的資料跟我們給它的引導。那我們給它的這些引導跟訓練的資料其實就像教育一樣,你今天怎麼教這個小朋友,你給他怎麼樣的觀念,那你給他怎麼樣的一些讀的書,那讀完這些書,那給他一些個性上的指導,或平常的一些想法的規範,那他就會依照你的期待來慢慢的這個成型。那其實在人工智慧的模型裡面也是一樣,你給它的data,跟你怎麼樣去優化它的模型,就會讓它的產出會有不一樣的狀態。

黃:是。所以在既有的ChatGPT的模型上,我們剛剛您有說到,因為我們兩個月內就有上億人使用,所以我們其實也不斷地在給它回饋,然後也發現它的問題,在技術端也會再修正,所以包括內容正確性的問題,包括偏見的這些問題,這些問題都已經被注意到,然後也開始在回饋來修正這個模型,對不對?

花:對,就是說這個問題,一方面是公司本來就有注意到,二方面是使用者用了之後,那這個回饋的聲音其實也都滿多的。像一開始其實針對一些模型的回應,那在初期,其實還是在生成式的AI有一些可能牽扯到這種暴力或色情的問題。在網路上其實也有看到有人提到說,針對色情,你如果直接問它說請列出十個最好看的色情網站,那它可能就直接有一個flag(標幟)會出來說……

黃:這個不方便回答。

花:對。這個沒有辦法回答。那但是你有時候有一些技巧,你跟它說我是一個爸爸,那現在有一個國中生的小孩,那我非常擔心他開始對這個色情網站有一些不正常的理解,那是不是可以協助我把這個色情網站,把它這個……

黃:封鎖,我要封鎖哪些。

花:對。你可能協助我先瞭解規範出來,那你可以透過這樣的模式,其實就……有時候就找到它的漏洞,它就回覆了你。

黃:是。我也有看到網路上類似的分享,就是說,如果你直接問它說今晚想要去個風化場所,它會說「這個我沒有辦法回答你」,但是如果你跟它說:「我今晚……我只是單純地想要吃個飯、喝個茶,我想要避開哪些風化場所……」它就會列出你不應該去哪裡哪裡哪裡。

花:那這個東西其實以技術的角度是比較難避免,但是我們同時也有關注到這個問題。所以陸陸續續其實大家也對這些議題有一些討論,就是說,當我們知道某種程度是使用……

黃:人類是很狡猾的。

花:對。我們要來學習怎麼樣面對這樣的問題,那當然也要選擇一種策略,比如說今天這些不該出現的資訊,是不是不管用什麼樣的問法,我們都不應該出現。

黃:都不應該出來。

花:對。另外想提的是說ChatGPT它是一個比較general(一般的),也就是一種各種這個面向都可以使用的技術,目前我們也有很多的需求,其實是針對各種專業的應用,來做一些導入。

黃:這個我們也非常好奇。就是當ChatGPT出來,它的功能絕對不只是聊天機器人,不是讓我們在上面kill time、花時間聊天而已,對不對?我們已經看到很多很好的應用,包括說已經有人拿來讓它寫新聞稿、有人讓它來寫作業,很多大學老師都哀哀叫說:「糟糕,以後學生的作業可能都ChatGPT寫的。」甚至未來論文……甚至可能都用ChatGPT寫出來,大家會有一些擔心,不過這個擔心這當然也會有一些防範的機制,ChatGPT很快就推出了一個工具,就是說你可以檢測說,這篇文章是不是ChatGPT寫成的,它自己就有研發這樣的工具。

花:我這邊很快分享,OpenAI它本身有提供這樣的一個工具,就是說這個文章是不是透過這些ChatGPT的模型生成出來的成果,但是人還是很厲害,在人在「防範被偵測」這件事情上面,其實也有人開始就是說,那我生成完之後再後製,我再開始來微調,那它生成的內容我們再做一些變化。那所以OpenAI也對這個題目有更進一步的去做一些分析跟實驗,在我們把它稱作「挑戰型」的data set(資料集)裡面,那這挑戰你可以把它想像成說,它生成完之後,第一個挑戰就是有人去後製它,那把這個不是它完全主動生成的資料,有一些人的加工的資料在裡面,那在這個模型裡面,大概只有三成左右的資料是有被偵測出來的,也就是說以現在的技術,那如果你適當的……

黃:把它修改。

花:修改好,其實在偵測器裡面是七成……

黃:只有三成會被偵測出來。

花:對。那當然這技術會持續的去提升,現在是一個初期的狀態。那未來可能這個學習到各種修改的模式,那也可以再做一些突破。

黃:AI會自我學習,像您說,還有deep learning(深度學習)現在的技術,自從AlphaGo之後,我們就往這個方向發展。可是像以ChatGPT這樣的大型語言模型,它到底怎麼學習?比如說在哲學界,哲學家會認為人有一個先驗,先於經驗。就是我們出生前,出生的時候可能就帶著一些先驗的知識來到人間,有這樣的哲學的理論。但是在AI的學習上,比如說以ChatGPT,它大量的吸收了2021年之前,人類在網路世界上所有的資料,這麼多資料,我們是不可能給它一一標籤的,那您有提到有非監督式學習,它自己去看了這麼多資料以後,自己會歸納出一些原理,這是怎麼運作的?怎麼學習?

花:我想分成兩個部分,一個是語言的模型,那第二個是ChatGPT的模型。那首先要跟大家講的是說,在ChatGPT的模型裡面,其實它是有一個human feedback的動作在,所以在人的回饋這部分,某種程度它是有……初期的有一些監督式的學習在這邊。

黃:就是幫它標籤。

花:那它有回答完之後,那這些專家就會去給分數,比如說它有五個回答,那你裡面就會去說,它的排序12345,給這個不同的順序,那透過這些不同的標籤裡面,它就會去學習到說你想要的資訊是怎麼樣的回答是你期待的。所以初期它是有一個監督的學習的機制的存在。那第二步,它有一個reward的model,也就是說有一個獎勵的模型,那這個獎勵的模型其實它就在學你剛才怎麼打分數的?你剛才打分數其實也是有一個標準的存在,那這個標準其實就對第二個獎勵的模型來看,它就慢慢學會你是怎麼去選擇、怎麼給分數的,12345你也有了這樣label(標籤)的data,有標註的資訊到了這個獎勵的機制裡面,那獎勵的機制裡面它就透過看了更多的資訊,它就學會了,那這時候它就可以又開始自動地給標註,就是透過讓不同的模型的合作的機制,那它就可以從監督式,那到這個非監督式的模式,就可以再做下一步地展開。

黃:監督式就是需要人去標註、去標籤。

花:是。

黃:幫它分類。那非監督是AI看了大量資料之後以後,它自己會分類,它怎麼做到這件事?

花:它自己分類這件事其實就是學來的。我們今天怎麼給它一些input(輸入),它可以從少量的資料其實就會學會,就是說我們從監督式到非監督式中間,其實還有一個Few-Shot learning(小樣本學習),也就是說,你需要少量的標註,它就可以開始去學會,不一定要全部都有標註。所以它的初期你可以想像的是說,我們一開始以整體的AI的這個技術來看,我們從監督式學習是最容易,因為我們就給它一個範本,那希望它學會,那下一步呢,就是給它少量的範本,希望透過少量的範本,那這個電腦就可以很快地掌握到你想要跟它表達的部分,那再下一步就是說透過這少量的範本,你裡面也會有一個這個獎勵的機制,怎麼樣從少量的範本訓練出一個好的獎勵的機制,就是它的這個技術的難度。

黃:是。那大型的語言模型呢?怎麼訓練語言?

花:大型的語言模型裡面在這個GPT的模型裡面,你可以看到的是,GPT它分別是這個general、pre-trained、transformer的這樣的一個技術,那general指的就是說很大型,各個語言、各個不同的內容,那這個蒐了很多的資料,那 pre-trained的部分其實就是提到的2021年6月之前都是它蒐集到的data,那最後一個字其實就是它的技術,也就是它怎麼做的,就是transformer的概念。那這transformer的概念其實它就是去掌握每一個字,它跟前、後文或者是上、下段的這些關係,那透過了這個深度學習的這個模型的機制,它會去分析,那這個分析的模式就是透過……因為你有大量的data,那大量的data很多的時候,它就會去看到說不同data之間對這個文字跟不同文字之間的關係,它就把它學會下來。

黃:以這樣的大型語言模型的學習模式,當它的大腦越來越大的時候……

花:它可以處理更複雜的問題。

黃:它是不是真的就比人類的大腦更強大?

花:要分幾步,第一步來看,因為它這個腦還是被控制,就是說你叫它什麼,它就自己會什麼。比較要注意的就是那個reward的機制,什麼叫做好?什麼叫做不好?那這個是……

黃:現在是人類來給它設立一個好壞的標準。

花:對,就是我們還是會來教它,但是教得對不對、教得正不正確、教的方向是什麼?那這是一個值得討論的議題。

黃:這是科技倫理的問題。

花:對。這就回到倫理的問題,沒錯。所以技術上面其實不太會有問題,那但是在操作上面,也有一些值得再進一步討論的。

黃:就是您提到這個reward、獎勵打分數的機制,告訴AI說你生成出什麼樣的結果是好的、是正確的,是應該要往這個方向去自我學習的。

花:對。就是我們怎麼引導它?你怎麼教它?目前來說,我們都會遇到譬如說色情、暴力的問題,我們就會直接給它打叉,就是說這是不允許的,你絕對不能往這邊走。那當然如果以這個另外一個角度來看,你也可以一直教它這個大家不期待的方向,那這時候又會是另外一種型態的出現,就是不管是它的個性,或者是它的這個……

黃:偏見。

花:對。它的偏見、它的傾向,那都會是另外一種問題。

黃:所以在這個時候就是在透過獎勵機制、打分數的機制要把那個標準建立好。

花:是。那微軟在這邊其實有很嚴格的規範,就是針對這個倫理的部分,或者是責任的部分,或資安的部分,我們這邊都有非常嚴格的標準。

黃:如果ChatGPT生成出來的東西有人的智慧加進去給它做一些調整,這似乎也是一個未來人機協作很好的模式。

花:是。我想我們的期待也是希望說新的科技,或新的人工智慧的技術來協助我們人類可以發展得更好。那我這邊舉一個例子就是說,以前這個挖土的概念來看,以前可能你要拿一個鏟子去挖土。

黃:一匙、一瓢慢慢挖。

花:是。那可能你的目標是要把身體練強壯,那要強而有力的雙手、手臂。

黃:愚公移山。

花:對,慢慢移。但是後來科技的發展就開始了有挖土機出現,那挖土機出現的時候,其實我們的技術能量就可以做一些轉換,我們就掌握怎麼樣去使用挖土機,那這時候我們就可以更有效率地把這個挖土的動作做得更好。

花:那人工智慧或ChatGPT其實是一樣的例子,就是說我們在很多的應用上面,譬如說我們現在也有在程式語言的編寫上面,我們在公司裡面也有很多的同仁都在做一些實驗,比如說以前要寫一個九九乘法表,沒有這個程式背景的人要做這個事情其實不太容易,但現在你……

黃:是。還要特別去學寫程式。

花:是。那你現在就跟它說「我要一個九九乘法表」,那它就幫你寫完了。那甚至是說,它寫完之後,你還故意去破壞它,你就把一些參數做一些調整,然後變成是一個有bug(漏洞)的程式。那你就問它說裡面有沒有bug?它還可以幫你找到。

黃:還可以幫你寫程式,而且還可以幫你修正程式裡面的問題。

花:是。所以有了這樣的一個功能,對程式設計師來說,其實它就可以更快、更容易地來做這些調整。

黃:所以在您這邊看到的,有哪些很好的ChatGPT的應用?導入這個……不管有沒有商業化。

花:是。第一個微軟在這個Teams(會議軟體)視訊的這個商品裡面,其實在很快的我們就推出的新一代的Teams Premium裡面,就會做講者的分析。就是說我們在開會的時候,你就可以知道A說了什麼話、B說了什麼話,那開完會之後,其實也會有一個這個會議紀錄,就是……

黃:逐字稿就出來了。

花:第一個是逐字稿,第二個是說可能誰是老闆,對不對?我們identify(辨認)誰是老闆,那老闆今天的重點是什麼,那甚至整個會議大家討論的結論是什麼。

黃:所以用一個會議軟體Teams,然後它就會幫你把逐字稿生出來,而且會議摘要都生出來了。

花:對。然後會議紀錄跟會議的結論,都有這樣的服務出現。

花:另外上一個例子也提到的是說針對程式的應用,就是把大家程式能力……第一個是技術的提升,那第二個是把它門檻降低。以前可能都是電機系、資工系的人對程式的掌握度比較高,那未來其實譬如說管院的學生,他有一個程式的概念。

黃:是。

花:那他可以透過這樣一個Copilot(AI程式碼工具),或一個副駕駛的概念,你是駕駛,那人工智慧是你的副駕駛,那你就只要有程式的概念,你就可以跟副駕駛說「我要寫一段什麼東西」,然後它就幫你生成出來,那你就可以繼續的引導它或指導它,把你想要完整的、整個project(項目)把它完善出來。

黃:我們先來談談微軟好了。微軟現在正在嘗試用ChatGPT做哪些應用?您剛剛提到Teams是一個,還有呢?

花:一方面是大家正在腦力激盪,有怎麼樣可以來幫助大家、可以幫到更多的事情,那在需求上面,近期啦,比較真實的需求包含了說,以前我們可能在工廠,或者是說新人進到一個新公司,那可能對很多事情的掌握度不是這麼樣的高,那這時候常常有一個狀態,我們新人可能就去問一個比較資深的同事,跟他請教,就是說我對這個東西不太熟悉,你可不可以來指導我?那這時候有些很熱心的這個同事可能會一步一腳印的指導你,那也有一些可能比較忙的同事,他也很好心,提供了你好多資料,就說這本是一個使用手冊,那再寄了五個檔案給你,那再把它過去10年累積的這個經驗值的檔案全部交給你說:「你把這看完你就會了。」那這也是一個很好的例子。ChatGPT在這個例子裡面,其實它就可以協助這個新進的員工快速地去掌握這些資料。那以公司的角度來看,其實公司它可以建立一個知識的系統,那在這個知識庫系統裡面,它對新進的員工,其實他就可以透過ChatGPT的能力,跟公司累積下來的知識,來做一個回應。

黃:它就是一個職場訓練的一個很好的工具。

花:它就變成是一個可能10年、20年、30年累積出來,然後又非常熱心的同事,你問它什麼,它都很樂意地來服務你。那如果方向錯了,你可能也可以跟它說,我想要的是什麼答案,那你就會有一個非常好的on boarding(到職)的這個partner(夥伴)在這邊來協助你。

黃:所以這個微軟也正在研發這個方向?

花:應該說以ChatGPT的技術來說,這個已經是可以做的事情,所以我們也陸續接到很多這樣的想要合作的需求,那想把這個技術導入到不同的這個領域的公司裡面去。

黃:是。很有趣,還有呢?微軟現在還有在嘗試怎麼樣來嫁接ChatGPT的技術做更有趣的應用?

花:其它領域,譬如說我們在這個E-mail的回覆裡面,那在未來其實也會從這個E-mail的上、下文裡面去有一些對歷史這個E-mail的一些資訊的瞭解。那譬如說今天有這個顧客可能對一些產品先做了一些討論,那後續當他的E-mail在針對更細節的產品或需求做詢問的時候,那我們也掌握到了它之前的一些資訊,所以在回覆的時候,ChatGPT這邊的技術就可以先給它一個像是草稿的概念,就是說建議這個使用者你可以怎麼樣來回覆這個詢問,他可能之前在意什麼事、不在意什麼事情,那你現在在這個回應,或這個問題裡面,我們可以給一個初版,說你怎麼來回應他對這個商品的一些不清楚的地方。

黃:您一定看到全球很多、大家ChatGPT這麼熱門,除了微軟自己,全球也都在想ChatGPT可以怎麼用,那全球、全世界您看起來,有哪些很有趣的應用的很好的案例?

花:目前的案例其實陸續的越來越多了,那很多也還在開發的階段,另外一個我想到也蠻實用的是在教育上面,臺灣其實有一個酷英網,酷英網算是全球首例把ChatGPT導入到英語學習的一個實例。那我們可以看到說ChatGPT它的能力,就是說,比如說你今天有一段很難的文章,那你可以要求它說,你可不可以用一個,比如說字彙量一千,或字彙量兩千,不同的英文程度做一個rewrite(改寫),或者是做一個重新編輯。那這時候你對這個使用者來說,他就會依照他的能力去做一個學習。那同時它對文章的掌握度也滿高的,就是說你今天可能看了一個文章,其實內容都看不太懂,那你也可以跟它說這個ChatGPT你讀完了,可不可以用一個9歲小孩的能力,那幫我這個重整一下,或重新說明一下。

黃:就做一個讀書心得報告。

花:是,是,是。就可以用你期待的能力,不同的標準來……

黃:所以它是一個很好的書僮跟助理。

花:對。在我們的目標裡面,我們就是希望把它這個提供一個各種全方位,或者是各個領域都一個很好的助理來協助大家可以把事情做得更好,也協助各個領域的公司都可以把它原本的業務也都做得更有效率。

黃:還有什麼ChatGPT在全世界您看到有趣的應用?

花:以國際來看,我們其實也看到了這個commerce(商業),那它一開始也打入微軟、OpenAI的相關的一些服務,那在這個服務裡面,它們其實是用來對客戶,跟對他們產品做一個更真實的一些理解。所以它們在……

黃:怎麼應用在汽車產業很有趣。

花:對。所以他們在行銷上面就可以更客製化地瞭解客戶的需求,然後跟提出他們這個跟競爭對手之間的一些優勢,那從網路上面,你可以想像的是輿情的分析也是一個重點,你可以去瞭解說你的競爭的產品,那在網路的世界裡面,大家對不同產品的一些定位或想法,或者是一些質疑,那可能找到這些質疑,你在銷售的過程之中,那你就會掌握幾個重點,你的優勢在哪裡,那大家的……

黃:就知道大家關注是什麼、質疑是什麼,然後我自己的優勢,就把它寫成一篇文案嗎?

花:就可以是文案,那也可以是不同的教戰手冊。你遇到了不同的客戶……

黃:可以讓sales(業務員)做參考的。

花:那我們另外也在這個遊戲產業,那也有很多元的一些應用,其實一個遊戲的產業來看,裡面有越多互動的元素,好玩的程度越高,那有時候在遊戲的初期不太容易很快地增加這麼多的使用者,那這時候ChatGPT就可以扮演一個很好的角色,那這個一開始玩家跟遊戲的AI在互動的過程之中,就可以更體會到好像跟真人在遊玩的這些體驗,那這也是一個我們可以看到這個遊戲產業上面目前的一個發展。

黃:所以在遊戲產業上,它就是運用讓那個ChatGPT聊天的模式可以讓更貼近真實的真人對話,是不是?

花:是。讓這個以前我們跟AI的互動可能都一板一眼,就像可能你問它同一個問題,它就會……

黃:它就有標準答案。

花:對。那ChatGPT有時候胡說八道。

黃:會比較有趣一點。

花:在遊戲的世界裡面其實也是一個優勢,就更像真人,因為我們在遊戲的世界裡面常常都胡思亂想。

黃:是,天馬行空、有更多的想像。還有呢?

花:這個Azure OpenAI(微軟與OpenAI的合作產品)的服務理念,我們還有一個DALL·E 2(製圖模型)的模型。那在這個模型裡面剛才有提到的是說,我們其實可以用簡單的文字來生成這個無限數量的圖片,那在這個應用裡面,其實在很多的設計師裡面,它就可以有更快速的產生這些他們想要設計出來的不同的風格、不同的內容,那也協助他們可以更快速地來完成他們本來的一些設計的一些專案。

花:好,那另外在體育跟娛樂的範例裡面,我們也在國外的案例裡面其實有看到說,我們會針對一個轉播,那去瞭解說在這個比賽裡面,那你關注的這個player,這個球員他的一些表現的狀態,其實我們ChatGPT是限縮於在文字上面的分析,但是我們如果再把它擴展到整個AI裡面,其實我們可以在一個運動賽事裡面知道你的player在哪邊,可以去identify這個運動員的狀態。

黃:影像辨識。

花:對。那透過影像辨識,你也可以知道他的表現,比如說他投球進了幾個球,那我們也可以連結到他的一些forum(論壇),大家針對他的表現的一些討論、他的愛好者,或者是說大家對他的表現的失望。那透過ChatGPT,我們可以對文字上面會有一些情感的分析,大家是正向的,或者負向的,那對這個整個轉播球賽就可以針對客製化球員的表現,那有不同的一些情感上面,或者是感受上面的一些分析的成果。

黃:就有更多的資料可以讓球評來參考。

花:是。就可以透過快速地從網路上的forum也找到這些資訊來做分析。

黃:是。現在ChatGPT自己就可以變一個球評了。

花:是,是,是。當然就也要看是哪個球評的個性去分析它,或者是去指導它。

黃:是。所以有非常多有趣的應用正在發生,那微軟發展的方向?

花:微軟發展的方向,目前我們其實有把這些相關OpenAI的model都已經在我們的Azure的平臺上面,那都部署好了,那微軟的發展的方向,其實就是會來賦能,不管是個人或企業,來快速地來掌握這樣的技術,那我們可以跟有興趣的企業共同來開發,找我們的partner一起共同來開發他們的這些需求,那進到微軟的平臺,這個資安是微軟本身的DNA,所以針對企業用戶來說,在不管是資安的議題,或者是在responsible AI(負責任的AI)的這些規範上面,都會有一個更完整的solution(解決方案)。

黃:我們看到OpenAI,然後之前有Elon Musk的資金,後來有微軟的資源也投入了。我們看到ChatGPT它有這個生成式AI,越來越被全球注意到,而且大家就往這個方向不斷地在研發,但看起來都是要大資本、大資源,那臺灣的機會在哪裡?您認為臺灣還有沒有機會?

花:我想這可以分幾個方向來分享。第一個是說,當人工智慧的機會出現的時候,或者是說人工智慧可以協助不管是企業或個人創造更多價值的時候,其實第一個是硬體的需求會提高,應該說電腦的GPU(圖形處理器)的需求會大……

黃:所以像臺積電這樣子晶片的需求量會更大。

花:對。所以硬體的……

黃:後面都要有相應的運算能力,對不對?

花:所以臺灣在經濟上面,至少在硬體的需求,就協助到了我們臺灣的廠商,其實像NVIDIA(輝達)高階的這些顯示卡,都是非常的缺貨,我們微軟也下了很大的訂單,那目前幾個國際大廠,其實都跟NVIDIA的這些GPU下了很大的單,所以一般使用者大概都要等很久,才可以等到你想要買的GPU,所以這在硬體的供需上面,我覺得創造了一個很大的需求。那第二個,在軟體業上面,我們也看到的說,有了這樣一個很好的武器,那有一個很好的工具,臺灣掌握了這麼多的軟體的技術的人才,那我們怎麼樣去掌握這個核心技術,那透過這個核心技術,站在這個核心技術的肩膀上面,那針對各行各業都可以有更多的延伸的應用服務出現。

黃:是。那臺灣本身,您會認為臺灣也有必要研發一個像ChatGPT這樣的大型語言模型,有這樣的能力嗎?臺灣是不是也應該要往這個方向發展呢?還是就像您說,我們就站在巨人的肩膀上,站在這個大型語言模型ChatGPT的基礎上,往下來發展?

花:我想臺版ChatGPT這個議題是一個值得來好好評估跟考慮的狀態。那臺版的定義,我們可以從整個模型自己的訓練,或者是說我們站在這個巨人的肩膀上面來做一些延伸的應用的服務。如果要從整個模型的訓練來看的話,那我想就是針對資源。一個是你要去訓練出這個模型,第二個部分是說,你要怎麼去維持這個模型,那第三個部分是我們剛剛提到的,模型生成出來,因為它是生成式的AI,你要怎麼去讓它負責任或可解釋,其實都有更多的成本在這個部分。那要不要原生型訓練的模型,我想這是一個這個open的issue(議題),我現在沒有一個最好的答案。那但是可以肯定的是說,站在巨人的肩膀上,那趕快掌握各種新型態的應用的服務,在這個時機點,我覺得是非常的理想,也是非常的重要。

黃:是。臺灣的這邊可以先來思考說怎麼對接這樣的技術,然後應用到實際生活的層面上,對不對?在企業、個人,可以怎麼用。

花:對。就是說在企業、個人上面,我們可以快速地掌握這個技術,然後讓自己的價值,或者是企業的機會都可以做更好的一些提升。

黃:所以很多人會怕他會被AI取代,您怎麼看?

花:還是回到我挖土機的概念,AI不會取代人,那畢竟人還有很多AI沒有辦法做的一些事情。我的看法是說,在科技不停的進步的情況之下,那我們要怎麼樣去找到自己的價值,那怎麼樣去利用它們,讓它把你變得更厲害,而不是讓它來取代掉你。那所以電腦有很多沒有辦法做的事情,那但是我們怎麼樣學會去利用它,我覺得是一個非常重要的技能,那我們也應該要持續的能夠關注一些科技的發展,那從關注科技的發展到掌握科技可利用的部分,來讓自己的價值可以持續的提升。

黃:所以在教育上呢?您會有一些什麼樣的建議?

花:在教育上面向其實也蠻廣的,我們剛剛提到的是說,在語言的教育上面其實ChatGPT就可以是一個很好的老師,它可以依照不同的程度給一些不同的範例,那甚至你的英文有錯的時候,你也可以跟它說幫我編修一下,或幫我找到文法的錯誤,其實它都已經有成熟的能力可以做這樣的事情,那這是在語言教育上面。剛才也提到的是在程式教育上面,它其實會把程式的教育又提升到不同的面向,你可以不會寫程式,但寫出很好的程式,這個有點奇怪的邏輯,但這件事就在發生之中。所以在這個面向上面,需要來做一些好的規劃,就是說我們以前都會比較集中在把資工系的人教好寫程式,可是在未來其實說不定這個管理學院的學生,因為舉例他邏輯更清楚,那他掌握 domain know-how(領域知識)更多,結果他寫的程式比資工系的還厲害。

花:那另外一個面向是在這個寫報告的部分,就是說大學裡面可能有一些課程就是有一些open的問題,那期待學生有一個論文的產出,或者是希望訓練學生能夠蒐集資料之後,有能力自己去重新組織、理解完之後回覆,那這個部分以後也變得比較挑戰一些些,因為人工智慧在這個地方也做得還不錯,那它也會有一個不錯的版本出來,那所以老師跟學生之間的這個互動的模式,我想是需要再來做一些思考跟討論。那未來也許因為技術的這些發展,老師的要求可能也會做一些調整,可能也不單純只是說希望你能分析出來,而是說我們透過ChatGPT生成出來的不同的一些版本,那我們是不是可以更加值這些它幫我們收斂出來的一些想法跟成果,那是不是有自己的看法在裡面,你蒐集到這麼多不同的角度的看法,那你的觀點在哪邊?那你可以看到說,第一個觀點,它有怎麼樣的缺點,會有怎麼樣的問題,那我想這是在未來教育上面會可能……

黃:老師很好的教學的建議,不是一味的就是害怕它。很多老師會害怕說那以後出作業,到底是學生寫的?還是ChatGPT寫的?

花:這個已經在發生。

黃:對。現在有大學老師因為很多考試是可以用電腦打,open book,然後用電腦操作來解題,很多老師說那現在不行了,考試的時候,我一定要叫大家把電腦關起來、用手寫,好像才能確保是這個學生寫的。但是您也提到另外一種出作業跟考試的方式。

花:我想以教育的角度來看,可能都要來思考做一些調整,從最基本的,也許就是像剛才提到的,就是close book,然後大家來做一些回答。那同時我也建議應該也要來掌握科技,怎麼樣讓我們的學生也可以是更好的訓練,讓他們怎麼樣能夠掌握這些科技,然後站在這個科技的肩膀上面做更厲害的事情。

黃:是。怎麼教育AI其實也很多學問,包括像您說ChatGPT,其實我們要下一大串的指令,怎麼樣讓它回答出你真正想要的東西,這也滿困難的。

花:是。怎麼樣問對問題,其實也是一個能力。

黃:更重要。

花:因為你問錯了,它可能胡說八道更多,但你問的精準、問得好、那當然問得巧,有時候也可以找到一些別人找不到的資訊。

黃:要怎麼樣訓練自己面對AI的能力?

花:我想第一個能力就是要接受新知,就是看到了一個新的技術,那就去瞭解它、去使用它。從開始瞭解之後,那有了這個經驗之後,我覺得後面就可以再連結你自己的本職,連結你的 domain know-how,去看說怎麼樣把這個技術應用到這個跨領域的這些服務上面。

黃:那我們怎麼樣下更精準的問題,來導引AI做我們想要它做的事情?你覺得這樣的能力是可以培養的嗎?

花:我覺得這個問題分幾個方向,如果是公司,站在企業的角度,其實它可以透過它的這個微調,就是說針對一般的ChatGPT的模型,那公司是可以透過它自己的一些prompt(提示),也就是說它可以去收斂出針對公司自己的訓練的資料,那透過這個新型態,或者是公司它新提供的訓練的資料去協助這個模型去達到它想要的這些回答。所以這是一個角度,就是說企業是可以去引導或指導這個模型回答它想要的部分,那這時候對使用者、對員工或它的使用者來說,門檻就會降低,它會因為你的指導,它就更懂得怎麼樣來回答問題。那第二個面向是說,如果沒有個人的角度,不是企業的角度,企業可以去訓練它,但個人要訓練它可能成本比較高,那所以個人的角度來看,我想這還是要回到經驗,就是多瞭解、多使用、多學習,可能也可以參加一些forum的論壇,那跟大家多分享,那也多看看別人怎麼在跟這個新的人工智慧一些互動的模式,那我覺得透過這些交流都可以讓自己在問問題的能力上面有一些提升。

黃:對。它其實也可以當成一個朋友,你跟那個朋友多聊、多溝通,你就知道怎麼樣跟它有效的溝通。

花:哎,其實很正確,就是說我們有時候跟人家的溝通也不太知道那個默契在哪裡,那當我們跟這個AI的模型互動更多一點點的時候,其實雙方的默契都持續地提升。那一方面這個模型更瞭解你想要問什麼問題,那你也更瞭解說,你怎麼問它可以問出你想要的答案。

黃:是。現在很多人都擔心說我的工作會不會被AI取代,但我想要換一個角度來問,您覺得哪些工作比較不容易被AI取代。

花:我想,容易被取代掉的工作,以ChatGPT的出現來說,可能是回到一些比較基本的工作,譬如說你今天是一個這個會議的紀錄師。

黃:紀錄員。

花:對,記錄員,那你今天就是把大家講的話收斂下來,那這時候科技已經可以做這些分析跟紀錄了,那這樣的一個模式其實就要去思考,你要怎麼去精進你的能力?因為科技已經可以說清楚、它可以收斂,那你這邊要怎麼樣去優化你自己的價值?那這是一個要思考的面向。

花:那第二個是說,程式設計師也是我們剛剛提到的,以前可能是在很多的這個程式設計有很多的經驗跟能力,但是現在有ChatGPT這樣的一個模型,或一個Codex(OpenAI開發的人工智慧模型)的模型出來,它可以協助很多人寫程式,那這時候因為它門檻會降低,那你的價值你要怎麼樣去持續提升,那當然裡面還有很多的問題,寫程式你可能還要考量它的這個時間複雜度、空間複雜度,程式都寫完了,也有比較好的演算法,跟比較這個浪費資源的演算法,所以你必須花更多的時間去精進這些在進一個門檻的這些演算法分析的能力上面,那就可以持續地創造你更多的價值。

黃:是,所以我們不用怕被AI取代,我們要想辦法訓練自己的專業能力,然後我們可以來駕馭AI,我們想辦法可以好好的善用它、利用它、多跟它溝通。

花:我們的想法裡面,它就是一個好朋友,那它就是我們的副駕駛,那我們是正駕駛,所以我們正駕駛就是要來駕馭我們的副駕駛,那透過副駕駛的幫忙讓我們更輕鬆,然後可以做更重要的事情。

黃:好,非常謝謝花凱龍首席技術長來到我們的現場,謝謝。

花:謝謝。(校對:李建甫|更新:2023/04/07)