理財

生成式AI上市一年,你體會到它的魔力與誘惑了嗎?

哈佛商業評論
更新於 01月15日02:27 • 發布於 01月12日02:24 • 張彥文

生成式AI於2022年11月問世以來,愈來愈多人將重覆、固定的工作,交給AI處理。「AI不會取代人類,但會使用AI的人會取代不會使用AI的人。」生成式AI還有哪些我們該知道的應用領域?未來它會發展成什麼樣貌?

自從ChatGPT這類生成式AI於2022年11月問世以來,帶動全球生成式AI的旋風。《哈佛商業評論》在去(2023)年一整年,也持續發表相關文章

廣告(請繼續閱讀本文)

AI的發展史已有70年,一直被歸類為冷門科技研發,直到生成式AI,才開始符合人類對於「人工智慧」的期望,不只能夠整理資料、計算數據,甚至還具備了創造力、想像力等特質。

在日本,許多漫畫迷就見證了生成式AI的魅力。陪伴許多四、五年級生長大的日本知名漫畫《怪醫黑傑克》,原作者手塚治虫已過世34年,但透過生成式AI,學習大量過往的漫畫內容後,AI與人類共同創造出一部《怪醫黑傑克》全新作品問世。

人們愈來愈好奇,生成式AI還有哪些應用領域?未來它會發展成什麼樣貌?

廣告(請繼續閱讀本文)

生成式AI具無限延伸可能,開啟更多面向及創造多元機會

微軟資深產品經理周寬表示,生成式AI是一種水平式的科技(horizontal technology),有無限的延伸可能。不僅能生成特定的內容,還能根據個人、公司或組織的數據及需求,提供不同的解決方法,想像空間無限大。他指出,不論是個人、學校、研究機構或企業,都能拿自己手上的資料去「餵」給ChatGPT這類的生成式AI,找出適合的應用,創造客製化的內容。

人們也期望利用生成式AI,節省許多瑣碎工作的精力和時間。Appier工程團隊副總經理陳明愉表示,許多重覆、固定的工作,現在都可以交給AI處理,像蒐集資料、整理會議紀錄等。

隨著生成式AI應用的時間和範圍擴大,人們也開始發現各種不同的可能。例如在行銷領域,過往行銷專家多認為,行銷是一項藝術,屬於軟技能;但自從社群媒體出現後,行銷就加入了許多數據分析,科學和藝術各占一半。

現在,生成式AI讓行銷當中藝術成分,也向科學靠攏。例如,老王是一位咖啡愛好者,以往只能透過相關的網路足跡,推薦咖啡產品給他;但生成式AI介入後,企業會進一步理解老王是一個注重個人健康的消費者,可以再推薦低糖的點心等其他產品,開啟更多的面向及創造更大的消費機會。

另外,生成式AI的應用也向更深層次的研發推進,特別是在找尋新配方、新材料和新藥的領域。

工研院資通所副所長暨AI辦公室副主任黃維中表示,AI很早就被用來協助尋找配方和材料,從資料庫中尋找各種可能的組合,做到初步篩檢,減少嘗試錯誤的次數。

近期《哈佛商業評論》有兩篇關於AI的討論文章,其中〈化生成式AI為競爭優勢〉一文指出:過去要耗費大量人力和創意才能創造出來的產品及服務,運用生成式AI,可望以更簡易和低價的方式產出。

另外一篇文章〈在AI發威的世界中領導〉,則試圖從企業領導者的角度,解析人類未來應如何與AI共處?因為生成式AI在大型語言模型(LLM)與機器學習的重大突破下,進步的幅度一日千里;但文中強調,新系統雖然充滿魔力與誘惑,但人類的未來仍掌握在自己手中。

相關專家也一致指出,目前我們看待生成式AI最正確的態度,應該是找出與它最和諧、最有效率的協作方式。

機器人與人類的食指相觸

圖/Redshinestudio_Shutterstock

與生成式AI協作,讓人能把時間花在更重要的事情上

目前看來在白領階層的工作中,生成式AI的應用最為廣泛。因為白領工作經常涉及大量數據的收集、分析,並根據數據來制定決策。

雖然這些任務是高度技術性且需要良好教育背景,卻也往往包含許多重複性的工作,例如,閱讀資料、撰寫提案、快速提取摘要、進行市場調查等,都是許多白領工作者的日常。

身為企業領導人,就應該將一些重複性、機械化,不太需要創造力的日常工作,交由AI來取代。像是白領工作者每天要花費大量時間撰寫的電子郵件,就可以由機器代勞。

現在的生成式AI,甚至可以學習並模仿使用者的寫作風格,協助撰寫電子郵件。不過周寬也提醒,生成式AI還不完美,有時郵件內容看起來很華麗,卻沒有重點,還會離題,使用者仍需對內容進行審核和修改,「協作」才是最好的做法。

「生成式AI是讓人類有更多的掌控權,讓我們可以把時間花在更重要的事情上面,」周寬強調,透過協作,方能釋出員工更多的時間和潛能。

陳明愉認為,未來人與AI協作的方式,是由人類「規劃」,交由機器「執行」。這更代表了未來的教育、人才培養方式也都會產生巨大改變。

雖然現在針對生成式AI的討論,多集中在白領階級的工作上,但其實它對製造業的生產過程也會帶來重大改變。

大量生產製造強調的是標準作業流程,企業得花很多時間訓練員工。但透過AI將流程自動化後,人員不再需要按照步驟操作機器,而是轉變為「警示驅動」(alert-driven)或「監控驅動」(monitoring-driven)的任務,及時處理反應異常狀況,維持生產的穩定性和效率。

留意生成式AI「幻覺效應」帶來的道德風險

針對生成式AI的討論,除了它帶來的機會外,風險及道德上的議題,也不得輕忽。

「ChatGPT可能會出錯,請考慮核對重要資訊。」現在跟ChatGPT對話時,會發現底下出現了這一行字。這正是生成式人工智慧最需要注意的風險:資訊正確性。

以往採用的人工智慧稱做「鑑別式AI」(Discriminative AI),是以所訓練的模型來識別或區分不同類別或特徵,常用於圖像識別、語音識別,或是在特定的資料中,預測可能的結果;然而「生成式AI」則是一種大型語言模型,會根據大量的資料所訓練出來的模型來理解並產生文字內容。

黃維中指出,兩者有一個不同之處,是生成式AI更為容易會有「幻覺」(Hallucination)的效應,讓AI會有虛構、與現實不符的回覆。

幻覺效應是一個在使用生成式AI時需要注意的議題,除了從資料品質、模型挑選、提示工程、結果確認等技術的面向來解決之外,在應用的導入面,也可以先從輔助性的應用來著手,避免幻覺效應所造成的負面影響。

因此在使用生成式AI時,一定要確認正確性。舉例來說,如果我們詢問ChatGPT,地震時應該去哪裡避難?就必須確認資訊來源,否則當災害發生時,可能產生嚴重後果。

另外就是防範利用生成式AI的犯罪行為。約一年前,國內就曾經破獲一起首次利用人工智慧語音技術的詐騙犯罪,會根據詐騙電話的回答內容,自動篩選心動的民眾,進一步發送邀約簡訊,導致詐騙成功率大幅提升。

在ChatGPT出現前,人工智慧只是一個聽起來很炫的科技名詞,對絕大多數人的工作或生活沒有太大影響;但現在,已經變成了影響人類未來的創新科技。我們必須盡早學習如何駕馭它,並學會與之協作。

誠如不少專家提醒,AI不會取代人類,但會使用AI的人會取代不會使用AI的人。

加入哈佛商業評論LINE好友,隨時接收管理新知

延伸閱讀:

查看原始文章