📻國立教育廣播電臺【新聞真假掰】AI美女圖假可亂真!教你如何簡單做出來!人工智慧生成工具的應用與想像。專訪李怡志(政治大學新聞系助理教授)

📻國立教育廣播電臺【新聞真假掰】AI美女圖假可亂真!教你如何簡單做出來!人工智慧生成工具的應用與想像。專訪李怡志(政治大學新聞系助理教授)

📻國立教育廣播電臺【新聞真假掰】節目資訊

播出時間:每周日 17:05-18:00
收聽方式:國立教育廣播電臺 官網 60 天隨選收聽

📌邀訪來賓

李怡志(政治大學新聞系助理教授)

📌完整訪談內容Podcast

 

 

📌節目介紹

記者出身、現為政大新聞系助理教授的李怡志老師近年在生成式AI的領域下足功夫、費心研究,今年甚至在政大傳播學院開設「AI與傳播科技應用」課程。

面對AI科技的浪潮來襲,許多人最害怕的莫過於「被取代」,李怡志老師則以樂觀的態度舉出一個嶄新的觀點,從歷史經驗爬梳,每一次的科技革命後,人們從未被取代,只是借助更強大的科技量能,進化成更能夠駕馭科技的人,想不想被取代,人們其實是有主動權的。

除了與我們分享人工智慧的應用及面臨的挑戰,李怡志老師更手把手的分享「咒語」秘訣!要讓大家少走些冤枉路、精準下指令,生成出栩栩如生的AI圖像。

本集節目邀請李怡志教授,帶您了解人工智慧生成工具最新的應用與想像。請收聽「新聞真假掰 」,假訊息Bye Bye。

李怡志 (政治大學新聞學系助理教授,以下簡稱「李」)

黃兆徽(台灣事實查核教育基金會董事/台大新聞所兼任助理教授,以下簡稱「黃」)

📅節目預告
2023/10/15 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)
從核廢水假訊息到YouTube抖內,矢板明夫如何看認知戰下的台灣?專訪矢板明夫

🌐最新精彩內容
人工智慧生成工具的應用與想像:教你如何簡單做出AI圖!

------------------------------------------------------------------------------------------------------------------------

黃:哈囉大家好,我是兆徽,歡迎來到新聞真假掰,今天來到現場要陪伴我們一起提升科技資訊與媒體素養的好朋友是政大新聞系的助理教授李怡志老師,怡志好。

李:嗨,大家好。

黃:怡志是現在是生成式AI 的應用專家,怡志同時也是中央通訊社的董事,也是我們臺灣事實查核基金會的董事,就非常謝謝怡志這麼多年來一起跟著事實查核中心一起努力,不過事實查核現在面臨很大的挑戰,就生成式AI大爆發之後,假訊息、假影片的生成就更容易了,那怡志這幾年對於AI 的工具下了非常多的心力在研究,也常常在臉書上跟大家分享,也開了一些課程,這個學期甚至在政大的傳播學院開了AI 與傳播科技應用,所以今天就想要跟怡志老師來請教一下,人工智慧生成式工具的哪些很有趣的應用?以及人類面臨的挑戰?尤其是AI在傳播科技上對於新聞業有哪些幫助?哪些要值得大家提醒?值得大家注意的風險?怡志,為什麼你會對生成式AI 的工具這麼著迷?

李:其實沒有很著迷,然後這件事情其實也沒有很久,因為Midjourney出來是大概去年5、6月的事情,到現在才十幾個月,然後ChatGPT到現在不到1年。

黃:對,去年11月。

李:對,所以不敢說很久,但是花了很多時間這樣,然後我覺得這件事情它比較有趣的是,我們傳統認為人類的心智活動得到再一次的擴增或者擴能,那你傳統不會畫畫的人可以畫畫,然後那個文章寫不好,它可以幫你寫文章,但生成式AI它不是只有產出而已,現在很多人對這件事情很介意就是,到底我們可不可以說它會思考?

黃:對。

李:那我覺得如果我們不說它會思考的話,那起碼它可以模擬思考的過程,然後可以協助你做判斷,可以協助你辨識很長的文章,所以你可以把它當成一個書僮,或者當成一個秘書,那你理論上你會叫秘書做的事情,叫助理做的事情,其實它都可以做,不一定做得比真人差,所以我覺得它有非常多的應用範圍,那如果在企業端我們就可以想像,如果今天你把這樣的能力放在非常多的地方,我舉個例子好了,就像我們以前買一支電子錶,在我小時候可能要當時的幾千塊新臺幣,在四十幾年前五十年前,那你現在在所有的工具上面都可以看到它具有一個會跑的時鐘對不對?電冰箱也有、微波爐也有。

黃:更不用說手機每個人都有。

李:對,就是它從一個幾千塊的東西,變成一個微小的晶片再加上一個顯示螢幕,那它就可以無所不在,那我們就可以想像,當生成式的AI它被燒錄晶片之後,當它又可以貼在所有的地方上面,譬如像我們這邊,這裡有個麥克風,我前面有個攝影機,那當這些東西都有這個晶片的時候,那就是一個很可怕時代,那以前你無法想像這臺機器可以跟我們說話,照相機會跟我們說話,譬如說我們今天拍照好了,拍五十張照片那這個照相機呢它就自己可以針對這五十張照片的內容說,這五十張照片內容是什麼,然後它從五十張照片就給你一個今天你拍攝的這個大綱和回顧摘要,聽起來很可怕,但可能就只是未來幾年就會發生的事情。

黃:是,其實我看你新的AI工具出來你都非常勇於嘗試,而且非常密切注意市場上有哪些新的AI工具,然後可以怎麼用對不對?你的心得是你剛剛說它到底會不會思考?還有以前人類會覺得人類才會創作,這是人之所以為人很重要的一個特質、能力,你現在怎麼看?甚至有些人會覺得說,人類會不會被AI取代?

李:我自己對科技都是保持偏樂觀這邊,就是要回答這個題目都要從一兩百年前開始講起,如果把這一波當成第四波工業革命,那前面就有三波,那每一波都有人擔心被取代,然後也都有人抗議過,但最後大家都認為其實給人類比較好的生活,第一波是蒸汽機被發明了,那但是蒸汽機很大嘛,那它取代就是就是非常非常巨大的勞動力,譬如說取代了馬的力量,然後這個這個以前對不對?人要去推磨,那現在人也不用推磨,這個到了後來,這個就是這種大型的發動機,它就被放到車子上面,人的走路就被取代了,那我也很少聽到有人抗議說請還給我走路的權利。

黃:我們還是可以走路。

李:對,你可以走。

黃:但是多了一些選擇。

李:對啊,那你不會說我堅持我從臺北到高雄我一定要用走的,有這種人但可能1年就二個。

黃:對,是。

李:那電力出來之後,取代的東西就更多了,因為它把發動機變小了,那所有人家裡都可以有,那我聽過一個說法,就是這個電力出來最大的影響就是就這電力還加上自來水嘛,對不對?自來水可以運到你家,那電跟水到你家之後再加上洗衣機,一個很大的變化是我們想像150年前女性要挑柴、要回家生火、煮飯、要洗衣,這就去掉她大部分的時間,這些所有的工作都被電力、微波爐跟洗衣機取代,那取代之後,女性就大幅的可以進入就業市場,做以前沒有辦法做的事情,我也很少聽到女性說請讓我手洗衣服。

黃:還是可以啊。

李:對,你還可以。

黃:珍貴的衣服我們仍然可以選擇手洗。

李:但沒有沒有人抱怨說我被取代了,就是你為什麼要取代我洗衣服?你為什麼取代我這個那個?那進入就是我們講電訊的時代,以前很多人很會背東西嘛對不對?那你現在上網都可以查到,那也沒有人說,你把我這個作為金頭腦的權力給取代了對不對?我以前大家都叫我這個萬事通,什麼東西問我,我就可以回答出來,很少人抱怨說我因為這樣被取代,所以我覺得AI 這波,就我們現在看到的具象的AI 應用,大概就是過去十多年的發展,那很多能力其實它也不是今天被取代,因為有很多東西發展的速度在每個國家有快有慢,我都相信什麼東西要被取代人類是可以有選擇的,那通常被取代的都是人類覺得。

黃:不想做的事、很繁瑣的事情。

李:或者他發現了機器可以做得比他更好之後,人類發展的過程就是懶惰的過程。

李:其實人類都一直沒有往休閒方向走,你說那個Internet出來之後,很多人就講說這個,這個Internet會帶來這個那個,然後人類就變輕鬆,就沒有啊。

黃:就我們反而被這些通訊軟體綁住了,工作時間變24小時。

李:我們看我們看媒體業,後來就發生一個現象對不對?像現在前面在拍攝我們這臺照相機,這麼的小,那以前我當記者的時候,攝影機扛的那個東西。

黃:又貴又重。

李:那個東西我也是很後來才知道,那一臺再加上通訊的設備聽說要100萬。

黃:超過,常常要200萬,剛開始。

李:這很多人不知道,攝影機肩上扛的那個。

黃:而且很重要二、三十公斤。

李:對,所以之前不是發生一個這個事情嘛,台視記者為了保護這個他就喪命了,現在沒有人會保護那個5萬塊的東西或2萬塊的東西喪命,可是它品質是一樣的,那當越來越多的工具提供以前的品質,價格更低,然後更容易上手,我覺得人只有更忙,他沒有更輕鬆,所以以前文字記者不需要攝影,文字記者不需要拍照,文字記者現在什麼都要做,他也要會剪片對不對?他也要會拍照,他什麼都要做,因為人會一直想辦法。

黃:讓自己忙起來。

李:我覺得在這個過程中,人都是不斷地被擴能,就是我一個人原本只能做一件事情,現在在這個輔助下我很可能會做多樣的事情,然後特別是我們看臺灣的環境,少子化是不可逆的,政府沒有能力也不想逆轉這件事情,那以後人那麼少,一個人本來要做的事情就是現在的三倍多這樣。

黃:所以AI還是一個小助手,可以讓我們做更多的事情,我比較樂觀,我想說這樣子我們以後工作時間可以縮短,可以去休閒娛樂。

李:沒有,並不會。

黃:可是照歷史經驗看起來其實不會。

李:對,你會有新的事情可以做。

黃:所以我們更不用擔心被取代,老闆沒有那麼容易放我們被取代,是,尤其是這1年生成式AI從Midjourney然後到ChatGPT出來,各種生成式AI開始大爆發了,怡志覺得有哪些是超乎人們想像的應用?一些很有趣的應用,可以跟我們分享一下,尤其是在圖像方面是怡志非常專長,而且非常沉迷的。

李:我覺得圖像這件事情蠻可怕就是,現在的人你只要經過可能十幾個小時的學習,那你在一些很基本的圖像上面,你可以達到過去設計師要可能花幾十倍到一百倍時間學習的結果,然後更可怕的是,以前的設計師終其一生,或者我們講藝術家都只能掌握幾個風格或者幾種能力,他沒有辦法做到全能,那可是生成工具可以讓你廣度變廣,因為它不斷在進步,所以今年初你可能很容易達到六十分的水準,第二季你可以達到七十分水準,然後現在我真的覺得只要微小的訓練,就是不用到大學一學期,就只要一學分的上課量,那它做出來的東西就跟2年前專業設計師,他要讀完這個3年的高職,再加上4年的這個技術學院能夠達到的程度,特別是在影像處理上面,那真的非常可怕。

黃:是。

李:所以AI 再加上生成式圖像這個概念,大概2020年左右開始,然後去年2022年商業化,就是有付費的工具出來,那付費工具才花1年的時間,就從原本很可怕的品質到現在還是叫很可怕品質,但二個很可怕不一樣。

黃:第一個很可怕是。

李:你沒辦法用。

黃:大家覺得很恐怖。

李:你1年前的東西是完全沒辦法用,那現在你會覺得這個東西。

黃:你可以描述一下1年前用起來有哪些讓你覺得很可怕的狀況?

李:1年前的圖呢,原則上你第一眼就可以看得出來這個是電腦隨機生成的,現在的話我們假設以照片類的東西而言,它可以做到,你在手機或者即便你在桌機上面放大,你都很難辨識它是真假,因為我們現代人看到的照片因為也大部分都經過修圖過。

黃:後製。

李:對,所以你就沒辦法辨別這東西到底是後製過之後的照片?還是電腦生成的照片?

黃:對,就是AI用畫的,結果都可以栩栩如生了對不對?我現在看到一些網路上的美女,都想說這到底是真的還是生成式AI工具畫出來?那個皮膚已經吹彈可破了對不對?然後幾個月前有看到是會有六隻手指頭,會有三隻腳,然後耳朵會非常的不清楚,現在這個狀況好像也全部都改善了。

李:這個人工智慧它最厲害的地方就是,它可以針對使用者的回饋來自我學習嘛對不對?那這件事情就是它跟以前所有工具都不一樣,早年我們用Word對不對?用Powerpoint然後用Photoshop 任何工具,我們對它有任何不滿,微軟都不會知道、Adobe也不會知道,但現在工具就是你在生成圖像的時候,你很清楚就是你下什麼提示都是會被蒐集的,然後你今天生成的圖,會不會再放大?那如果這張圖被放大,它通常就是一個正面的訊號,那就是這張圖生成是好的,是對的,那如果生成四張圖都沒有被放大,那這就沒有帶訊號過去這樣,所以機器它會自我加強學習嘛,那這一點就會把這件事情的進步的速度變得以前無法想像的快。

黃:是,就上億人使用,等於上億人都是AI 的老師。

李:我們就是我們這個叫勞動式消費嘛,我們花錢當它老公這樣。

黃:花錢幫AI 優化,這是一個互相學習的過程,是,所以現在已經都可以栩栩如生了,但有哪些你原本沒想到這麼快已經發展成這樣的應用?

李:我覺得圖你可以產出類似照片的圖片,那因為現在生成式圖像的工具跟去年又不太一樣,去年就是生成一張圖,那你現在可以局部修改對不對?你生成一張照片然後你覺得,就譬如說你剛剛講手指有六根、七根、八根,那你就重新跟它下一個指令說五根,它就變成五根,然後你要畫這個山道猴子,然後希望這個肩膀上有刺青,你就把肩膀圍起來,然後再下提示說刺青,那它就作出刺青來了,那種東西以前很難,你要經過學習,學習還做得不好,所以現在你一個大學生,不是設計科系的,你要做到以前可能真的經過很長時間學習才能到的結果,不管你要做海報,你要做類似照片的東西,你要模仿,我們媒體經常會使用圖庫照片嘛對不對?

黃:是。

李:那你要做出圖庫的照片,那再可能三個月前圖庫的照片,你說這個裡面出現五個人,有一個人我真的不喜歡他的樣子,這個三個月前不能怎麼辦,那現在你不喜歡那個人,把那個人塗掉就好了,然後或者是那個是男的,你覺得裡面要有女的,就是說把它畫成女的,然後背景是在日本,你說希望變成臺灣就變臺灣,那這個東西它的品質很好、速度也很快,所以你只要有想法,原則上都做得到,那這個東西再下一步就是做影片,那影片目前的水準,大概就是1年前圖像的水準,它還沒有那麼好,因為圖像比較可怕的是它要更大的算力嘛,你一秒要算二十四張或者三十張,那你1分鐘你就得有個一千多張、一千八百張是吧,你一個人如果說圖片要算一千八百張可能要算很久的時間,那它現在要做成影像,它要找到更好的演算法,然後用更低的算力來達到這件事情,那現在技術有待突破,但我們知道它突破都是很快的,所以1年之後或者2年之後,你就可以看到任何一個人他都可以設計很好的影片,只要他有想法。

黃:是,怡志有提到就是有一些圖庫,尤其這個是新聞媒體最多的很多圖庫,那它未來也可以生成在新聞媒體上可以怎麼應用?這個我們待會來談,我們先來談談你剛剛提到了圖片,從原本的生成圖片,我們已經覺得很厲害了,到現在還可以局部修改,哪裡要一個刺青、哪裡要戴個耳環、耳環要換成什麼樣子、是不是眼睛要再大一點?都很容易局部修改,但它其實要學一些咒語對不對?可不可以跟我們分享一下,下咒語,下Prompt 下指令的秘訣在圖像上?

李:我覺得下提示有幾個重點,那現在因為可以局部修改,所以它變得不是那麼的重要了。

黃:但我們還是希望在一開始就生成一個最符合我們需求的。

李:所以你下提示我覺得最重要最重要最重要的還是你要先思考,它是哪一種風格?那我會把這個風格用社會科學方法把它稱為本體,譬如說它是一張。

黃:本質是什麼?

李:它是一張照片嗎?還是它是建築攝影嗎?它是一個雕塑嗎?還是它是浮世繪?還是油畫?那你要先跟它講說這是什麼東西,這就跟你假設做這件事情。

李:是你要選擇模型?或者你要外包?那你首先得定義這是什麼對不對?那定義完人家才會給你報價嘛對不對?

黃:對,我要張水彩畫,還是我要張抽象畫。

李:因為你水彩畫裡面畫人畫風景價格都是一樣的,各位買過畫就知道,它是用號在算的嘛。

黃:甚至要跟它說我要印象派的風格,還是我要野獸派這樣。

李:然後再來就是你去描述裡面要的東西,那描述裡面要的東西就是你儘可能的簡單去描述它,因為你描述真的很複雜的時候,生成圖像工具它未必能夠理解跟真的做出來,所以你今天就是做簡單的描述就好了,那這個描述裡面有一些我覺得比較重要的是傳統構圖的用語。構圖的用語,生成式圖像工具可以理解我覺得可能有個6、7分,那第一個就是我們我們在攝影都會講,就是遠景、中景、近景,那你可以跟它講這個,它不一定能夠真的遠景就跟一個真的很寬的東西,但它起碼可以把景變得很大,人變得比較小,那你跟它說這個close up 近景,那或者特寫那它也可以儘量,然後再來就是構圖的方式,那構圖的方式你就可以說這個人在畫面的中間,那或者是我裡面有不同的物件,那物件你可以跟它說是對稱型的構圖,還是是不對稱的構圖,或者是透視型的構圖,那這些構圖生成式圖像工具都做得蠻好的,所以你不用真的很精準描述人長什麼樣子、物品長什麼樣子,但是呢你要告訴它就是構圖怎麼構圖,那當然構圖你可以事後再透過局部深層來去修改它,但起碼就是你一開始可以獲得一個比較好的樣貌,然後再來第三個部分就是下提示,我覺得就是一些很質感上面的描述,跟作法上面的描述。

黃:就這張畫的質感是什麼。

李:譬如說水彩畫好了,那水彩畫它有很多的畫法嘛對不對?那它有乾筆、有濕筆、暈染,然後有什麼甩筆等等的,那你跟它講說我要水彩,但是我要水彩裡面的什麼東西,那這個地方可以跟它講,那油畫有厚塗啊對不對?那然後這個這些東西都跟它講完之後,我們就有個層次對不對?從最上面它是一個什麼東西,再來中間就是它的,我們怎麼去認識這個東西?然後最後它在產出的細節是什麼?那這三樣東西,我覺得它是比較基本的,這樣描述就不錯了,當然還有一些很特別的字,那譬如說跟情緒、情感有關的字。

黃:畫圖也要有情感?

李:這個情感其實還蠻有趣的,因為生成圖像工具它在學習的時候,譬如說它今天上網學到,它上網抓了一幅畫,這幅畫旁邊有解釋,這個解釋一定會描述譬如說這個畫家在這個畫中表現了什麼什麼的情感,要傳遞什麼樣的訊息,那這個情感跟訊息也都可以加上去。

黃:所以AI的畫作裡面還可以傳遞情感?

李:你可以叫它傳遞這個情感。

黃:你覺得它,結果它畫出來,真的可以讓你有這樣的感覺嗎?

李:它可以儘量做到。

黃:譬如說這個孟克的吶喊,基於一個什麼樣的狀態下畫出來的畫,你就把這樣的指令也給AI,它就可以生產出,讓人可以有這樣感受的作品,這個真的太厲害了,原本我們覺得這個是人大概才畫得出來,機器不會有感情,我們接下來再來慢慢談為什麼AI可以做到這樣,還有哪些有趣的或是更有效率地下指令的方法,我們先休息一下,怡志幫我們點一首歌。

李:我點一首這個Gun and Roses 的November Rain。

黃:槍與玫瑰的November Rain 。

27:00

黃:就是繪圖,很多人就是想的東西怎麼把它畫出來,我們以前在沒有AI輔助的時候,其實還蠻難的對不對?小時候學寫生,看到什麼把它畫出來是一個磨練,然後接下來把腦子裡面看不到的東西把它畫出來,現在都可以用生成式AI工具把我們腦子想的畫出來對不對?但是怎麼精準下指令,怡志可不可以跟我們做一些提醒跟教學還有示範呢?如果我們來分成人物畫跟風景畫,現在的AI 工具畫人物畫跟風景畫都畫得非常好了嗎?

李:都蠻好的,應該是說你越常看到的東西,它就做得越好,而且如果你去看所有生成圖像工具,因為大部分的圖像生成工具它都有一個功能叫做藝廊,就是你可以看到別人畫得比較好的東西,然後藝廊裡面的東西呢全部都是女性人像,所以它女性的人像都做得非常的好,然後你也可以。

黃:為什麼呢?是因為大家比較想要畫女性人像?還是它真的是女性人像生成的比較好?

李:我覺得是很多人想要畫女性人像。

黃:看起來美的。

李:這我就不知道,這個這值得研究這樣子,因為生成圖像工具還有一個叫Stable Diffusion嘛,那它可以自己建模,就我身邊的朋友非常多人,用這個工具貼在自己臉書上面的全部都是女性,而且尺度很大的圖片這樣。

黃:再魔鬼的身材都畫得出來這樣。

李:看每個工具,因為大部分商用的工具都很怕觸犯美國的法令,那所以它隱隱約約有一個界限就是美國。

黃:太清涼、不能太裸露。

李:它大概都會設到美國PG13的這個程度,就大概是我們的輔導級差不多。

黃:所以可以穿bikini 這樣,不能再更少了。

李:bikini可以,對對,它就是你會發現生成圖像工具它都是一直在抓這個邊界在哪裡,那早期有很多工具它會是事先審查,譬如說它發現你寫了bikini這個字,它說bikini很危險,因為生成有一定的隨機性嘛,那比基尼的東西它如果不小心生成壞了。

黃:會露點。

李:對,它會露點,它偶爾會露點這樣子,那後來是現在比較多都是事後審查,覺得它這個圖像生成完,它要給你看之前AI自己。

黃:先過濾一次。

李:先自己讀一遍,發現有點點或者有其他的東西,因為要防的不是只有這個,包含暴力、血腥對不對?然後各種神怪的東西,然後還有假設你下了一些提示,如果用在正常人可以,但是你後面再加了一個名人,譬如說川普、拜登,那可能就會有一定的風險。

黃:我看現在好像只要你提到名人,它幾乎就會說我不行對不對?

李:可以誒可以誒。

黃:真的嗎?因為我之前譬如說我說我要長得像某某明星的女生,它就會說這是我們會侵犯到她的人格權。

李:他如果是名人,它對裸露的標準會比沒有下名人更嚴格一點點。

黃:是,我之前試是說連我想要說像一個名人的長相,譬如說我想要一個長得林志玲的女生怎麼樣,那麼它就會說這是會侵犯到他人的肖像權,所以我沒辦法畫。

李:這個就看平臺了。

黃:就其實AI的科技跟人類的各種倫理法規在拉扯。

李:因為越大的公司越需要防,那你看很多小公司剛出來的,它就不會它就不會介意這件事情。

黃:如果每個人都畫林志玲,以後大家都不找林志玲代言了對不對?會不會有很多小公司請不起林志玲,就直接畫一個林志玲出來代言各種商品對不對?也是有這樣的風險。

李:其實我覺得未來可能有一個趨勢,這個趨勢說不定已經在醞釀了,或者已經要發生了,就是很多公司它未來會認為。

黃:它直接創造一個AI model。

李:是的,就這樣。

黃:不會鬧緋聞、不會要調薪、不會怎麼樣不聽話跳槽這樣。

李:對,它不會跟你漫天喊價,你把它捧紅了,它反過來。

黃:而且你可以叫它做任何事情。

李:對對對,在合法範圍內做任何事情,那這樣的東西其實其實很多國家都開始在嘗試,因為這件事情還是比較難是,找名人最大的好處並不是因為他真的很漂亮,而是因為他有名對不對?所以民眾已經先認得了這個人,然後他才會跟有品牌有進一步的認知,那你今天自己訓練一個虛擬的代言人,那你要做的事情是你先把代言人。

黃:讓它成名對不對?

李:對,你要先讓它成名,然後要。

黃:要有粉絲,有時候我們會很欣賞一個人不只是他的廣告代言的形象,可能是他的講話方式、他待人接物的方式、他的生活哲學。

李:對啊,所以今天你把一個虛擬的東西要用是很簡單,但這件事情就沒有那麼單純這樣,就像你用圖庫的人當模特兒一樣,一點用都沒有。

黃:是,那我們現在要用生成式AI工具要畫一幅人像,栩栩如生,給我們示範一個指令。

李:那我用口述的這樣,我今天譬如說我要畫一個像兆徽這樣的女生,就是大概看起來20多歲這樣。

黃:謝謝。

李:那我就會說,我們先看外觀嘛對不對?那假設是一個照片,那我可能一開始本體的字就會下photography 。

黃:讓它知道這是要像照片像人。

李:雖然兆徽已經很漂亮了,但我如果要再更進一步的描述的話,因為攝影有很多種,所以我可能會說這是一個fashion photography。

黃:很時髦的。

李:那fashion photography,衣服就會比較漂亮,妝下的會不一樣、髮也會不一樣,那這個fashion photography完了之後呢,我就描述它是一個女性,那我就可以說是一個這個Taiwanese的 lady。

黃:是,要畫一個臺灣人、女性。

李:對,然後我可以說long hair長頭髮,然後穿著一個dress。

黃:穿一套洋裝。

李:然後dress在上面有這個patern這樣。

黃:有花的形狀。

李:那其實描述到這樣,那通常我可能會再補一個字,因為我要取這樣的景象嘛,我這樣描述完了它可能只取頭,也可能取全身,所以我可能跟它說這是一個這個近景的這個肖像,所以會加close up portray。

黃:要一個特寫的鏡頭。

李:對對,那這樣描述大概就差不多了,那我剛剛有提到生成圖像是進步的,所以可能在幾個月之前還要描述皮膚白皙,現在不用了皮膚一定都白皙。

黃:因為臺灣人,所以它知道嗎?

李:沒有沒有沒有。

黃:因為它知道人類喜歡,比較偏好白皙的。

李:是的,它是學習的過程,然後之前還要特別跟它說這個。

黃:眼睛鼻子要怎麼樣這樣子嗎?

李:就是皮膚可不可以露出多一點點?那現在也不用了,因為已經被訓練到皮膚都露出很多。

黃:它都知道人類喜歡穿清涼一點的女生。

李:對對對,所以這些現在都不用描述了,它自然就會畫出這個樣子來。

黃:反而是如果你不要這樣要特別描述。

李:對對對對對對。

黃:比如說你想要一個皮膚黝黑、比較健康色的要特別說了。

李:然後接下來還要再稍微做一點描述,譬如說表情是微笑的,然後或者是自信的,然後。

黃:自信這種它也?

李:可以的。

黃:感覺得出來什麼叫自信?

李:你可以跟它講說confidence pose,它真的就會這樣。

黃:所以它也知道什麼樣的架勢可以展現自信。

李:然後,再來我可能就會,假設是室內,那我會描述一個場景,譬如說這是在一個這個studio。

黃:在一個錄音室裡面。

李:對,或者在一個房間,那在戶外我可能說在馬路上,什麼on the street,然後在戶外通常還要再做一點描述,就是它是早上中午下午晚上。

黃:燈光不一樣。

李:它會影響光,然後再來是季節,所以就是時段跟季節會大幅影響光影的效果跟人的穿著。

黃:還有穿著,對。

李:譬如說你現在穿著其實我可以不用描述,我只要說夏天,那它就會自動穿成你這個樣子。

黃:是。

李:就不用特別描述。

黃:那今天假設我們生成了,但你想要改的時候,你剛剛說已經可以局部修改了嘛,剛剛這已經是一個我們可以原則上符合需求的一個指令的下達,就是有這些要素,那如果我要局部微調的時候可以怎麼講?

李:調的話就不用特別講什麼東西誒。

黃:就它畫完之後你跟它說我要把皮膚換成健康的黝黑色是這樣子嗎?

李:它現在的作法通常有二種,英文術語都沒有統一正式翻法,我先講英文,英文第一個叫做outpaint那另外一個叫inpaint,那outpaint、inpaint二個的差異就是,譬如說我今天已經畫出一張這樣的肖像,那我希望旁邊再長出一個譬如說公園,那我在我在你的右邊這一塊我就再下提示,那假設我左邊已經說是什麼,在戶外場景嘛對不對,那我就可以在右邊再描述,那我就可以在右邊這一塊再下我的提示,那就看我要什麼東西,我可以說是一個什麼廢墟的場景,或者是臺北市。

黃:這就回到另外一個我們剛剛說的,我們分成人物畫跟風景畫,其實我們也可以是人物跟場景的生成對不對?那剛剛講的是人物的生成,人物的生成上我們先把它講完,還有什麼是可以微調的?

李:我可以往外長嘛,就是四面八方都可以長,然後裡面譬如說好我希望你帶一個皇冠,那我就在你頭上這邊框起來,框起來然後再下提示,提示的下法還是一樣,這皇冠我就可以說它是一個prada design,然後呢我就可以描述它是一個crown然後再加一點指令,譬如說再加上什麼jewellery、diamond。

黃:有帶珠寶的、鑽石的。

李:然後什麼什麼ornament,然後什麼luxury。

黃:比較奢華風的。

李:那它的材質我可以說,譬如說這個金再加銀類似這樣。

黃:是是是。

李:那它就會幫你生成一個皇冠,或者是或者直接寫對不對?什麼princess crown,就是公主的。

黃:那人物的身材呢?你需要描述到多具體?

李:人物的身材,它通常,我們最基本的你可以描述胖瘦。

黃:高矮,高矮要說幾公分或是什麼嗎?

李:幾公分,你大致上可以描述,你可以描述它高跟矮,然後胖你可以說這個obese 對不對?一直到slim都可以都可以下。

黃:如果我們跟它說我要一個165公分、50公斤的女性,它畫出來會像嗎?

李:我沒有這樣做過,可能會像。

黃:是,就更精準了這樣。

李:有可能,就我還我還沒有想過要下身高、體重,女性的思維真的不一樣。

黃:那如果三圍呢?你要給它很精準的比例,它也會嗎?

李:這個就是因為身材,特別是女性,她就很容易觸犯那個紅線,所以不同的工具不一樣喔,有些工具我以下就是為了示範才講這些字。

黃:好。

李:那你可以真的跟它說這個胸部很大的、大胸部的,但不是每一個工具都可以接受。

黃:但你不要用大小這種帶有價值判斷,你如果就是說我要一個多腰圍多少幾寸、臀圍幾寸,三圍的。

李:也有些工具它可以接受譬如說罩杯的描述。

黃:有些是不行的?

李:然後有一些時候你可以用替代的字,譬如說你跟它說豐滿的,但豐滿的會有二種豐滿。

黃:很胖這樣子?

李:對對,跟只有一個地方豐滿,這二種都叫豐滿。

黃:是。

李:那都可以,都有可能畫得出來。

黃:這是女性嘛,那男性呢?如果說我要一個八塊胸肌的諸如此類。

李:男性你就儘量描述都沒問題。

黃:所以它對男性的這個繪圖出來的成品的接受度很高。

李:因為男性本來就可以半裸,所以你怎麼描述,就是你要說什麼six pack就是六塊肌,一般都會寫muscle啦,另外還有一些特別的字,男性會下masculine男性的,女性下feminine,下這些字。

黃:比較女性化。

李:它就會偏那個方向走,我通常都兩個字我會併用,就是我會寫這個masculine就是男性的再加muscle,通常就很壯了。

黃:是,對,所以在這個是很精準地下AI 指令,生成我們想要的圖像的方法,但其實我們在討論這個的過程中,也發現AI 的偏見問題對不對?

李:偏見很大。

黃:對,就像你說的,假設我們要女性化,它可能就會出現一個很豐滿,但是這個才叫做女性化嗎?這是AI現在產生的這個偏見問題對不對?怎麼用的時候會有一些偏見,我們要先提醒大家。

李:AI的偏見來自於幾個原因,就我們先講可能的偏見,那但偏見當然有很多嘛,第一個偏見。

黃:就包括你剛剛說白皙的那些,其實也都是偏見對不對?

 

李:第一個偏見是我們會把它叫做data bias,那它從資料蒐集的時候就來的,那這個bias或者這個偏見、偏誤,它不一定是程式設計者有意造成的,像我們講圖像生成工具,它一開始很大的學習來源是來自於ImageNet這個計畫的資料,那ImageNet當初很大部分是去Flicker撈的,所以Flicker原則上反映了美國白人中產階級以上的生活,所以它才可能在,因為flicker出現的時候是2005年,所以你在2005年雖然聽起來沒有很遙遠,但是其實我們想像那個時候還不是所有人都有上網。

黃:手機,也還沒有手機。

李:很多人還沒有上網,所以你在2005年要有上網。

黃:2005年已經有手機,也可以上網了啦。

李:不是很多人有,真的喔,將近20年前不是人人上網。

黃:是。

李:然後你要在當時有數位相機,因為當時手機拍照品質很差。

黃:對。

李:所以你在當時要買得起數位相機,你上傳可能有一點點寬頻,因為窄頻的上傳照片很慢嘛對不對?然後你要知道用這樣的服務,那這些綜合在一起,你反映出來的生活的價值觀,你的品質,它並不平均,然後也排除了某些族群,特別是這個服務又以美國為主,當然那時候我也用,那很多亞洲人用,但是你就是。

黃:數量還是不足。

李:你是裡面的一小部分,然後再來就是這個圖像工具後來大量的跟Internet上面抓到的東西來學習,那抓到的東西它會有個問題就是,人類既有的偏見或成見,它會繼承並且放大,那學者有做研究就是,就是生成圖像工具我記得有一個研究是跟ChatGPT有關的,這個bias大概都類似,所以他們研究方法是這樣,那假設譬如說我們講軍人好了,軍人有一定比例是女性,雖然比較少,然後有一定部分是男性,學者就請ChatGPT寫一篇文章,因為英文都有詞性嘛對不對?所以譬如說我今天要寫一篇文,要寫信給一個軍人好了,那就看它裡面到底出現男性還是女性的代名詞,然後就可以判斷它把他當男性還女性,然後做完之後會發現就是,舉例齁,假設這個職業女性佔15%、男性佔85%,雖然不平均對不對?但女性還是有一定的數量,生成式工具呢會簡化這件事情,所以它可能那15%的女性就會縮到幾乎不會出現。

黃:因為它在算機率的時候,它就是用機率最高的。

李:因為我們知道演算法它會有個結果,就像我們這個卷積式的人工智慧,它都是一層一層一層的過濾,所以它每一層的訊號都會被檢閱檢閱再檢閱,那可能檢閱完之後這15%的女性就檢閱到不見了,所以data bias是一個非常大的原因。

黃:是,所以我們用生成式AI在談軍人的時候,它可能都用男性的他,然後畫圖說我要畫一個軍人,他最可能都是出現男性。

李:像因為我上課的時候都會示範,譬如說你跟它講pilot。

黃:飛機的駕駛。

李:對,就是這個飛行員,他一定是白人的男性,他沒有別的機會。

黃:就你不管試幾次都是白人男性。

李:可能要夠多次,我沒有要做研究啦,那你如果跟它講說一個壞人,一個buster一個bad guy都是有色人種。

李:那跟它說收銀員就比較有趣,很多都是有色人種的女性,或者是男性,那這個社會偏見它會繼承並且放大,所以這個叫data bias,然後另外一種bias 呢來自於蒐集資料的選擇,對不對?那這個就是solution bias,然後再來演算法實際在算的時候,它也會產生誤差,那最常見的我們把它叫做reward bias,那reward bias其實各位每天都是活在reward bias裡面,因為你在刷臉書的時候,臉書已經經過了這麼多人這個多少造次的行為去判斷之後,它就知道人愛看羶色腥的東西。

黃:嗯哼。

李:那這個Facebook 在創立的時候,它當初心中一定沒有這個想法,可能有那它也講沒有,可是它演算法在不斷學習的過程中,它就發現對阿你就是愛看八卦,你就是愛看這個人類不好的這一面,那這個就是reward嘛,因為設計這個演算法的人,他的標準就是當這篇文章容易被點擊的時候,請你偏好提供這樣的文章對不對?

黃:對。

李:那它就是不斷地這樣,所以不管是data bias也好,這個solution的bias,或者是reward bias,它是不斷出現在任何有演算法的地方,包含生成圖像工具。

黃:那個偏見就不斷不斷地在被擴大。

李:對,那像我剛剛講就是,我大量使用Midjourney,我朋友就覺得Midjourney畫出來的女性,她實在越來越符合我們偏見中所謂的好看。

黃:就是擴大了我們刻板印象中的這個。

李:對,然後你今天要畫出不那麼漂亮的女性變難了。

黃:對,這其實滿可怕的,因為美其實有很多種對不對?有一些不是符合刻板印象,什麼大眼睛、鼻子要很高,因為這是西洋人的標準,要什麼瓜子臉,其實東方女性也有東方女性的特色,但如果用Midjourney畫出來的會不會像以前大家都笑說,韓國明星、美女明星都長得很像,因為都是同樣幾個整形醫師出來的,現在Midjourney又會複製擴大了這樣的狀況。

李:應該說就是我們用以前的學者說法,AI生成工具它原則上做一件事情就是再現,人類的想法、人類的價值觀、審美觀,它其實是做第一次做再現,那再現呢如果再現不夠好,我們又透過我們的使用,不斷地跟它說就訓練嘛,訓練它再現。

黃:假設原本畫的還沒有這麼刻板,但是人在調整它的過程是我要眼睛再大一點、我要這個身材在魔鬼一點,最後AI就會知道說人類心目中的美女大部分是長這樣子。

李:我們講有色人種,不管是這個皮膚比較黑的,或者這個比較咖啡的,他在人口比例一定超過50%,那可是你在生成圖像工具所有的藝廊裡面,你看到有色女性的機率,遠低於真實的機率,每個人畫起來的人都要白淨漂亮。

黃:是是,這確實是一個警訊,我們要意識到會有這樣的狀況,這個之後我們來談一下場景,下場景的指令有哪些秘訣?

李:場景比人要複雜。

黃:剛剛有說春夏秋冬、白天晚上,甚至早上中午下午都是有不同的光影,還有呢?

李:那我今天假設說我要畫一個這個風景好了,然後我第一步我可能先跟它說好這是一個油畫,那油畫有很多風格嘛對不對?那我跟它講說是寫實的、是後現代的,然後是這個印象派的。

黃:都不一樣。

李:風格很明顯,因為越古老的風格它越穩定,所以生成圖像工具學得越好。

黃:因為它在網路上看到太多這類的。

李:對,它可能學了幾百萬張印象派,它比人要厲害,那假設你跟它講說印象派的風景,然後再來你就是描述風景嘛對不對?那你可以要構圖也可以不要構圖,最基本你就跟它講說landscape ,那它就會隨機有風景畫,那你也可以跟它講說好我要有山、要有瀑布、要有溪流,然後我還可以跟它講說構圖嘛對不對?構圖我要平衡式的,或者非平衡的,然後或者是我們甚至可以說像哪一個藝術家的構圖,然後再來我們還可以做一些這個更細節的描述,譬如說光,那光有幾種下法嘛對不對?譬如說我就真的講時間,那像譬如說什麼golden hour,大概就是日出日落那個時候對不對?然後我也可以跟它講說什麼上帝光,然後或者什麼雲氣透出來的光,這個逆光,然後等等的,然後再來差不多就這樣吧,再來就是風景帶來的情緒跟訊息跟人像是不一樣的,所以風景很常用的就是我們講的譬如說什麼田園風格的,然後這個恬靜的、壯闊的,然後你也可以下情緒性的字眼,像什麼moody,然後dramatic或者是神秘的,然後奇幻的這些字都可以下。

黃:是是,所以連恬靜這種讓人會覺得很舒適的環境。

李:它也可以畫得很好。

黃:可以畫得很好,所以它其實也知道什麼叫做,讓人會有看了這個畫以後會有什麼樣的感情。

李:它無法理解什麽叫恬靜,但是它學的可能幾萬張畫裡面有恬靜這個字。

黃:這個說明。

李:那它就知道什麼叫恬靜,或者什麼叫田園般。

黃:是,所以AI這個應用已經超乎我們想像,所以像這樣以圖像來說它可以應用在哪些商業應用上?

李:我們講數量跟商業價值最高的應用,還是在數位廣告上面,那目前我們可以看到已經真實發生的,就是譬如說我們今天下數位廣告,那這個廣告通常都會有圖片對不對?那個圖片呢因為我們大部分的人看到那個圖片,一次二次三次之後我們就不會去點它了,它雖然一再觸及我們,我們就不會點了,那以前呢要人工換稿,早年我有認識一個小朋友,他後來變很有名就是了,他去美國讀碩士畢業,第一件事情就做手工換稿,我想說哇你去美國讀個碩士做手工換稿,那現在不用手工換稿啦,這個生成圖像工具知道你原來那張圖片長什麼樣子,然後它經過兩個階段,第一個是機器先去讀這張圖片轉成提示,就先從圖轉成提示,再從這個提示呢生成好多張圖,然後接下來它在執行廣告時候,它就把好幾張圖伴隨廣告一起出來做我們叫做A/B testing,那點選最好的這個它就留存下來,所以換圖就是生成圖像工具換圖,那這個東西已經上線了,所以我們可以看到此時此刻應用量最大的應該就這個。

黃:因為它幾秒鐘就生一張新的圖來了對不對?

李:然後我就不講廠商名字了,然後它目前的合約規範好像是每二個禮拜,它會執行4、5張圖片,那這就很可怕了對不對?然後它還伴隨可以自動換標,這個標不好,文字生成,它就自動再換一個。

黃:更吸引人的標題。

李:所以一模一樣的廣告,你下個禮拜再看到,它裡面已經。

黃:整個連標題到圖片都換掉。

李:標跟圖都換了,你就不知道你看過那個東西沒有。

黃:是。

李:所以這是運用最大的地方,然後再來比較大的地方就是媒體的使用,那媒體比較有可能的都還是拿來做圖庫的示意圖啦,下大雨這種。

黃:正好也要跟怡志來分享一下說在AI跟傳播科技上的有趣的應用你看到的?或者是新聞媒體上怎麼用然後用得很好的?

李:好,我覺得用得很好的可能還要再等一段時間,但現在比較可怕的是如果這家公司沒有跟你講,你也不知道你看到的東西是?

黃:是不是AI?

李:對,因為用生成或者用類似生成的方法來產出新聞內容的歷史已經十多年了,那所以從這個美聯社到路透社,他們在過去10年間,他們都用生成的手法來產出財經新聞,然後氣象報導,然後運動賽事的文章,以及選舉。

黃:因為它相對容易,只要把那個比數、隊伍換掉就好了。

李:那同樣做模板,中文你要產生變化很難,那使用者看了第一篇,他再看第二篇就發現。

黃:你怎麼用字都一樣。

李:這是模板嘛對不對?但英文它要修改比較簡單,所以英文二大通訊社再加上像什麼華盛頓郵報,他們都已經做很久很久了,只是有沒有標示而已,第一個就是文字生成,那文字生成就是早年的應用,我們一般就把它叫做Data to Text它有數據,數據再轉成文章,然後另外一個我們可以預想有可能的發展,是我今天已經有一個文本,這個文本我可不可以針對主持人產生一個版本,就是我今天講可能有點刻板,就是一位女性,然後我是一位男性,但其實電腦也沒有那麼笨,因為我們每天看廣告就知道廣告系統已經鎖定我們這麼多資訊對不對?這個我今天雖然是一個外觀是一個生理男,但我情感上可能是女的,它這個比外人知道都要清楚。

黃:對,搞不好比我們自己都清楚。

李:新聞機構只要能夠取得這個data,它就能夠依照我的喜好,把這篇文章變成我喜歡看的樣子,那這件事情是可做到,只是看它這樣做需要算力,這個算力划不划算?它需不需要投資算力在這個裡面?然後另外一個就是多語言版本,那多語言版本國外的媒體也都已經開始在做了。

黃:對,因為語言對現在的AI來說太容易了。

李:因為新聞的稿件,就是這種稿子它如果情緒越少、事實越多,它翻譯起來出錯的機會就越少,它如果都是事實對翻,以前可能這樣就是我是一個編譯,然後我一個小時可能只能翻三篇文章,那現在我讓機器一個小時翻假設三十篇好了,我就花2分鐘就看它有沒有大錯,所以它從翻譯員變成審核員,它的工作沒有被取代,可是它工作內容不一樣了。

黃:是。

李:那有一些比較嚴肅很重要的稿子,可能還是他本人來翻,或者本人來潤,那就是他原來的技能還在,但他用的機會就比較少一點,所以這個是語言翻譯,所以我們剛講的就是個人化語言翻譯,然後再來就是加值型的內容,那加值型內容會出現在幾個地方,我們看到就是網際網路出來之後,人類面臨第一個問題就是資訊大爆炸,當然這個有生成式AI會再爆一次這樣,那所以以前的稿子,前面是沒有摘要的,但是現在越來越多媒體,我們看到臺灣有些媒體也是請工讀生寫摘要,那摘要我真的覺得欠佳這樣。

黃:不如AI來寫。

李:對對,這個英國有個媒體叫Daily Mail,Daily Mail我覺得也蠻有趣的,它一開始剛開始做這件事情的時候,它的摘要是條列的只有2條,現在寫到5、6、7條,然後我有時候摘要看完,我都覺得我根本就。

黃:不想再看文章了。

李:對,那個文本可能是相同的長度,摘要我真不知道在摘什麼。

黃:你是說它的摘要已經多到已經跟文本一樣長了?

李:對,那摘要完全可以讓機器來做,而且機器它有個更強的地方是,我今天如果請人來做摘要,因為摘要這件事情是一個格式化的內容,它應該你做、我做、他做不應該有很大差別,那實際上就不太可能,我今天請工讀生來做,我訓練,工讀生他有自己的情緒、有情感、價值判斷。

黃:是,每個人的判斷能力。

李:AI沒有,而且AI你可以訓練它,所以譬如說我在教課的時候,經常拿這個文章來做示範,我講一個極端的例子,我們這個媒體不希望出現某某人的名字。

黃:摘要裡面就通通不要有他。

李:對對對,我只會以市長或者總統來代替這個人的名字,對不對?那所以我可以跟他說摘要,什麼方向,然後口氣怎麼樣,那我可以確保每一篇摘要的品質都一模一樣,這實在是太難了,因為在真實的環境,我怎麼訓練人他都不可能到品質一模一樣,他起伏變化會很大,所以不管是做條列的摘要、短文的摘要,機器現在都做得很好,然後還有一個我以前在上班的時候也做過就是,國外的新聞界大概在10年前開始有一個趨勢就是做新聞測驗,那新聞測驗有趣味型的跟很嚴肅的,很嚴肅的華盛頓郵報、紐約時報每週或者每天都有在做,出新聞測驗題目沒有想像簡單對不對?那你的選項譬如說這個中華民國副總統叫什麼?那這種題目就不用出了嘛對不對?你要出你可能只能出很搞笑賴清德、賴皮狗,這只是示範而已,但使用者一定也知道哪個答案是錯的,這就不是好題目,它要出到那種模稜二可。

黃:讓大家可以促進思考。

李:對不對?然後你沒有看文章,或者你沒有仔細看,你還真的想不出來答案的這種。

黃:是,大學聯考的閱讀測驗。

李:對對,那像這種,你人出一篇,假設是一篇文章你叫他出個一題、兩題,那可能一個小時就過去了,但是你現在可以稍微訓練下機器,機器就可以幫你出得很好,這件事情臺灣已經有媒體這樣做,然後我自己也用這個生成式工具自己跑過,我覺得品質不會比人差。

黃:你是給它什麼樣的指令,可以讓它生成一個很好的測驗題?

李:你就是吐給它文章,然後說情你按照這個文章,然後出一個新聞測驗,因為它知道什麼叫新聞測驗。

黃:你只要講這樣子就好啦?

李:對對對對對對,你可以在反覆訓練過程中,再看你原來提示,因為我都不認為下提示是一次性的工作,所以你可以反覆地去調整它,那像這種叫加值嘛對不對?所以個人化,然後多元版本、加值,那我覺得是現在,就是我們在使用者這一端比較有可能會看到的,那當然它還有一些很特別的應用,譬如說我們講這個記者的食物好了,過去記者可能1天他可能會收二十封、三十封新聞稿,我可不可以讓機器先幫我判斷。

黃:嗯,先過濾過。

李:對,裡面哪一則。

黃:重要性。

李:有新聞價值。

黃:怎麼判斷?可以怎麼用?

李:但現在的這個ChatGPT是做不到這件事情的,可是生成式的AI 你只要能夠串接,我今天公司有公司的email系統,然後email 系統我去串了一個這個GPT的API ,或者任何一個這個大型語言模型的API,我就可以讓它去讀啊,那我可以訓練它對不對?就是我做微小的訓練,就人教它說這一則,就是新聞價值很低,那一則新聞價值很高,那我訓練一千次、一萬次。

黃:它就知道你的篩選標準在哪裡。

李:對對,它就知道有賴清德我是要去還是不要去?有侯友宜要去不要去?那每個媒體有自己的判斷嘛對不對?那這個時候記者他就不用自己每一則判斷,然後再來我也可能上網去查資料,像我以前當記者的時候,我經常就是我固定會看行政院公報,然後行政院公報裡面其實有非常多的新聞是沒有人寫過的,重點就是你夠不夠勤勞,你只要夠勤勞。

黃:你就可以挖掘獨家報導。

李:對,那這個事情完全可以讓機器做,機器看了之後再去跟過往的資料作判斷,這個東西是不是新的?然後不一定是行政院公報,就是同理可以用在更多領域,像我們大部分的路線記者,我以前跑過大專院校,那臺灣有一百多所學校啊,然後。

黃:你就不用一一上這些學校的網站了對不對?

李:其實以前也沒有人一一上,所有人都只看臺大,但是通常臺大你有我也有就通稿這樣,但我今天我這麼多所學校的東西我撈一撈,我每天要有好的獨家我覺得是蠻容易的,然後再來還有一個臺灣現在已經有媒體用了,這個兆徽很清楚,就是在稿件的這個排序跟篩選上面對不對?那有這麼多新進稿,到底哪一則重要?那我也可以下重要性的指令,我同樣還是訓練它,那我就可以知道說這個,這個今天有二十則稿子,然後對我的audience而言,可能這五則比較重要。

黃:是是,這就是生成式AI有趣的應用,不過我們剛剛在談的過程中其實我們談到了它的一些挑戰,包括這個偏見的問題,還有剛剛講到的,其實你剛剛說可以學某個人的風格來畫畫,或學某個人的風格來寫作,其實就又侵犯到人格權的問題對不對?這個是在使用上我們要注意的一些規範,我們最後的一點時間來做一些提醒好不好?怎麼樣是一個比較合理的、比較安全的、比較符合倫理的使用方式?

李:我覺得第一個就是你不要有主觀的犯意,那所以你在生成的時候,我覺得圖像比較比較可怕,文字這件事情,因為我今天即便模仿一個人的寫作風格,實際上被告機率都很低,因為這就是人類進步的方式嘛對不對?

黃:是,我們從小也是讀了很多作家的文章,甚至小時候還要背嘛。

李:所以年輕的作家都會模仿這個成熟作家,那這成熟作家你可不可以模仿得很激烈的原因,這個分界就在於他是否還在世,他如果往生了你愛怎麼學就怎麼學嘛,只要沒有人罵你就好了,如果還在世那可能會有點爭議,那圖像比較麻煩,就是這個圖像你有可能學得很像,那這就跟文字不一樣了,就是文字你學即便再像,都還是原創,圖像學到一定程度之後,可能會被告。

黃:就變臨摹了?

李:對對對。

黃:以前我們也會拿一些畫來臨摹,可是如果你拿來作為公開出版,或者公開銷售就有問題。

李:因為有些人會用比較不一樣的字眼叫致敬,致敬也有範圍嘛對不對?所以你在生成圖像的時候,儘可能不要用這個知名品牌、知名的動漫人物、然後活著的知名的設計師作為你提示的一部分,除非你這樣做只有自己用,自己看看自己練習,那你要真的使用它的話,就這些事情都不要做這樣,反正就是你今天可以下一個指令最後畫出來的東西很像某某人的東西,但你只要沒有下這個提示,起碼我主觀上面。

黃:沒有犯意。

李:我沒有想要侵犯你對不對?那生成因為它是生成的嘛,所以在這個生成的偶然當中跟你一樣這就叫巧合對不對?那我可以巧合跟你很像,但在嚴格的商業上面,巧合跟你很像也是不行的。

黃:是,對,所以我們在下指令的時候要小心,尤其是還在世的創作者,然後也不要就是給它指令說特定的創作者,或特定的作品、特定的要像某一個人的長相,這樣都有一些風險,所以我們在使用的時候,剛有提到像另外呢比較積極面呢?標示是一個重要的對不對?

李:現在一般會建議如果你的圖像有用任何一個部分是生成的,最好就標示由生成圖像工具產出,然後文字如果是用在這個媒體上面,最好也是標示這樣,不過我真的覺得現在有很多人他在工作上面使用,他是不會標示,因為標示看起來很奇怪,那但我覺得這件事情可能再過一段時間就不會有人討論了。

黃:因為所有的東西都有藉由AI 工具來。

李:它可能都混了一點點在裡面。我們看東西都要有警戒心嘛,那這個警戒心從過去就要有了,現在應該還要有,然後它不會被,就是你必須越來越警戒就是了。

黃:就其實常常會被用在fake news 上對不對?有哪些是fake news很容易用的這個圖像的方法?所以我們要特別小心的。

李:我覺得假新聞的圖片,它只要是西方媒體用英文大量報導過的,都很容易模仿到很像,那我自己做過非常多的場景,這都沒有辦法講出來,它都可以做到很像,西方的人物。

黃:因為它的資料非常多對不對?

李:對,然後西方熟悉的場景,這個場景也可能在東方喔對不對?譬如說我要描述東京大海嘯。

黃:東京的畫面太多了對不對?

李:大海嘯也太多,然後那個AI 都很清楚,這個在日本發生大海嘯就會有車子在水上漂。

黃:它只要用以前的海嘯發生過的場景,它就可以畫得出來了。

李:它在學習的時候它模型裡面,它就知道海嘯、日本、要有車在水上漂,然後知名的建築物它都可以畫得很好,譬如像臺灣最容易劃好的建築物就是。

黃:101。

李:就是101,我有嘗試劃過譬如說假的什麼農民大遊行的場景,然後跟它說背後要101,老實說這張圖片你給任何一個外國人。

黃:都看不出來。

李:他不可能知道那是假的,即便101前面出現一個大廣場,臺灣人一看就知道哪有大廣場,但外國人他知道101,但他不知道101前面沒有廣場,所以這個東西一旦脫離原來那個語境,那它騙人就非常容易了啊。

黃:是是,所以也是一個提醒,就是有圖有真相的年代早就已經不存在了對不對?是,那面對這樣的狀況下,我們要怎麼能夠分辨真假?或者我們還需要分辨真假嗎?

李:我覺得這個回到一個我很浪漫的想法,但我不確定那會發生,就是如果如果你有能力負擔的話,還是看需要錢才可以看的媒體,那這種媒體它也不一定百分之百都是真的,可是它可能只有1%是不小心錯的,那你網路上面看到的東西,就真的這個各種垃圾都有,因為人類不可能無窮盡地把時間花在判斷真偽上面,這已經脫離了本質對不對?我的目的是為了獲得資訊,跟環境有連結,結果我們每個人都變成事實查核員,這其實是不應該發生的事情,那過去很多人對Internet有個想像就是人類會自律會過濾掉不好的東西,結果發現演算法反而把這件事情強化了。

黃:沒錯,以前我們說言論自由市場、真理越辯越明,後來發現因為有演算法,宰制了我們看到的世界對不對?

李:因為現在人就是他分眾分得很厲害對不對?這個會看報導者的人,跟會看這個館長直播的人,他已經很乾淨的被切在二個不同的場域,所以這些人是沒有機會看到對方跟對話的。

黃:是,所以您剛剛有提到就是,我們有一個信任的消息來源很重要,不管是臺灣事實查核中心,或者是你常常看的一個比較你覺得可信度比較高的新聞來源,是,我自己會覺得這個年代反而是傳統新聞復興的年代。

李:要看讀者有沒有這個需求,因為很多人不覺得它這個重要的就算了,但是如果你覺得看正確的資訊很重要,你要去想我到底是花錢支持一個媒體,訂它的會員這件事情一個月就2、3百塊,你要省這2、3百塊然後看每一則新聞你都可能被騙,還是我就花這2、3百塊?

黃:是。

李:因為以前花錢,就早年報紙年代,很多人想像我是買那個報紙的載體對不對?一份10塊、15塊,我是買那份報紙,但你現在可以把它想像成我是真的去買一個服務,這個服務呢就我們傳統講守門員嘛對不對?我要不要這個花三百塊錢減少我被騙的機會,跟減少我每一則東西都去判斷。

黃:都懷疑,然後還要自己花時間去查證。

李:這個心理負擔,那我覺得一個月幾百塊很便宜。

黃:是,對,所以我們知道生成式AI 的厲害,它的可怕的地方,包括它非常厲害,它現在已經可以生成栩栩如生的照片了,但它的另一面的厲害其實就是對於我們認識這個世界其實會構成阻礙,這構成風險,我們要怎麼樣找到我們可以信任的消息來源,然後自己做好判斷,這個非常重要,謝謝怡志今天的分享。

李:謝謝兆徽。(校對:魏君道、林新茹|更新:2023/10/12)