請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

企業不該盲目導入生成式AI,應先了解要解決什麼問題

哈佛商業評論

更新於 2024年09月09日08:13 • 發布於 2024年09月06日08:11 • 張彥文

9月4日,由美國哈佛大學商學院於1922年創辦的全球最權威管理雜誌《哈佛商業評論》(Harvard Business Review, HBR)繁體中文版,於台北舉辦2024年管理年會。一整個上午邀請來自美國的權威專家與台灣產、學代表,共同討論時下最夯的生成式AI科技,對企業經營、管理思維與人才培育的全面影響。

2006年起,遠見.天下文化事業群發行《哈佛商業評論》全球繁體中文版,18年來致力將全球最前瞻的管理知識,落地到台灣與華人世界,助力台灣與華人企業的經營管理邁向卓越。

今天論壇首先登場的講者是《哈佛商業評論》英文版總編輯殷阿笛(Adi Ignatius),他以「AI浪潮下的管理創新」為題,發表專題演說。

殷阿笛之前曾在《華爾街日報》、《時代雜誌》等重量級刊物服務,是全球管理趨勢的領航者,近幾年在《哈佛商業評論》開創「工作新世界」系列報導,親身專訪過無數國際級大企業家。自從2022年底生成式AI問世以後,《哈佛商業評論》就用許多篇幅探討AI的發展與影響。以下是他在管理年會上的演講精華重點:

AI就像剛發明的電力互聯網一樣,尚在發展初期

生成式AI出現得非常迅速,它就像是當初電力或互聯網問世之初一樣,人們仍在努力了解如何使用它。如果你是一個管理者,你需要能夠很自在地使用它,並且讓你的團隊試著使用,主動出擊、多加試驗,看看它如何能幫助你,不能坐等解決方案出現在你的面前。

以《哈佛商業評論》為例,內容就是我們的產品,因此適應生成式AI相對較慢,因為我們對內容非常重視,大家信任我們的內容,所以我們擔心生成式AI會產生的幻覺或錯誤。

ChatGPT讓寫作變容易了,HBR投稿量大增

但我們正在嘗試將它應用於不須署名的內容。比如標題,或者書籍封面的文案、文章摘要、翻譯,或是把內容分解成更短的形式,以及把一篇文章轉化為影音和各種短影音、音頻以及文章的短版本等等。我們創造內容,但把AI當成助手來轉化內容,將內容用於其他形式。

如果你問我是否能分辨文章到底是由AI創造的,還是由人寫的?我做不到,據說軟體也無法辨別。我們主要接受外部的大學、顧問公司或企業的投稿,這些文章很多是基於有趣的研究,以往有些人可能不擅長寫作,但ChatGPT使寫作變得容易,因此有了ChatGPT之後,很明顯的,我們的投稿量增加了不少。

我有位朋友是加州大學柏克萊分校哈斯商學院的教授,他指導三個博士生,其中一個非常優秀,可能將來會在哈佛商學院任教,另外兩個則不那麼出色。然而當他們提交論文時,三個人的論文都非常優秀,品質都達到了A+。這意味著過去學術界認為,能否寫出好論文是最重要、最有價值的能力,但在AI的時代可能就不同了。

圖/《哈佛商業評論》英文版總編輯殷阿笛(左方螢幕)與台灣活動現場越洋連線;張智傑攝。

數據是AI最重要的使用案例

我認為對企業來說,最重要的使用案例之一是數據。有些公司擅長處理數據,有些公司卻不知道如何處理,生成式AI正在幫助公司了解他們擁有什麼數據。比如有個大公司,好幾個部門都有數據,該如何將這些數據集中起來?如何從中發現價值?這些數據可能是關於公司營運、溝通、管理的內部數據,也可能是關於客戶的外部數據。AI最大的功用是使得以前無法使用的數據變得有意義。

現在很多企業把AI當成助理,用它來寫電子郵件,評估員工工作,或生成簡報檔等。如果我能把這些工作交給數位助手,讓我有更多時間做創造性的工作,是一件令人興奮的事。這些使用案例只是開始,將來會有更多。

防堵AI絕非好的政策,應該設立護欄

目前美國有些大公司禁止員工使用ChatGPT,其中有非常成熟的科技公司,像蘋果(Apple Inc.)就禁止員工使用,主要擔心的是不小心導致機密數據外洩。

但我認為生成式AI未來會像搜尋引擎一樣普遍,所以防堵絕非好的選擇。企業若擔心機密資訊外洩,可以設置一些「護欄」,同時教育員工在使用公司的資訊時,什麼可以做,什麼不該做。因為最終我們都會使用這些工具,如果我們自己不使用,而競爭對手使用,他們將會擁有競爭優勢。

現在外界也很好奇,AI技術對商業領袖的決策過程產生了哪些重大影響?事實上,生成式AI已經為企業領導者在制定策略時,提供了實質的幫助,愈來愈多創意人士和高階主管使用生成式AI作為一種創意生成器;更重要的是,AI有能力解鎖數據並使之有意義。

我們生活在一個管理變得非常複雜的時代,領導者經常會面臨到決策壓力,他們必須比以往更快速地做出更多決策,結果往往做出錯誤的決策。所以大家期望AI能幫助管理者理解數據的真正內涵,有效地分析數據,並幫助他們即時做出更好的決策,這項領域的未來發展更令人期待。

導入生成式AI前,先了解希望解決什麼問題?

生成式AI問世後,我看到一些公司非常興奮,但他們只是一味想應用生成式AI這項技術,我認為這是錯誤的。正確的作法是,你必須先考慮要解決什麼問題?希望改善什麼?企業的痛點是什麼?可能是針對內部流程,也可能是與客戶更有效地連接。先找出問題之後,再考慮是否有生成式AI的技術應用可以協助解決這些問題。

我認為在不知道具體如何使用之前,匆忙應用這項技術是沒有意義的。儘管如此,每個人都要去了解它是很重要的。對於企業高階主管、領導者如微軟的執行長納德拉(Satya Nadella)來說,他們的員工需要了解這項技術,並多方嘗試使用。至於領導階層則必須考慮,企業究竟在做什麼、想做什麼,這項技術能在多大程度上實際幫助企業。

生成式AI帶來了許多進步和便利,但也帶來一些前所未有的風險,外界也開始廣泛討論這項議題,我認為目前最大的風險是機密資料可能會外洩。有些企業會禁止使用大型語言模型,因為害怕內部機密可能會被用做訓練AI的素材。

生成式AI最大的風險不是洩密,而是不使用它

雖然生成式AI有內在風險,但更大的風險是不使用它。你需要熟悉它,看看它能為你做什麼。除此之外,更值得注意的是生成式AI會犯錯,會產生奇怪的幻覺,捏造事實和創造不存在的事情。

這是壞事,但也是好事,意味著人類的存在仍是不可或缺的。現在被強調的概念是人機協作,人類可以發揮更高的價值;更重要的是,生成式AI雖然會取代部分工作,更可能會在不同領域創造新的工作。

《哈佛商業評論》之前已經寫了很多關於生成式AI的文章,許多重要的人物像是前面提到的納德拉、OpenAI的營運長萊特凱普(Brad Lightcap),還有像哈佛商學院的教授拉哈尼(Karim Lakhani),以及賓州大學教授莫里克(Ethan Mollick)等人,都相信生成式AI未來會改變一切。

我們正處於一個重要時刻,許多企業還沒有看到對他們至關重要的使用案例,所以這就是《哈佛商業評論》正在努力做的事情。

生成式AI讓個人化產品成為可能,並大幅提升工作效率

接觸了許多AI相關的專家意見後,我對AI未來發展的看法是:它最終會為每一個個人產出客製化內容。舉例來說,我想要一首像披頭四那樣流行、但又有點像肯德里克.拉馬爾(Kendrick Lamar)風格的音樂,生成式AI就可以根據我個人喜好,產出這種音樂。或者我想看一部由喬治.克魯尼(George Clooney)主演的浪漫喜劇,背景設定在1950年的巴黎,我也能看得到這樣一部電影。

所以我們可能正在走向一個為單一觀眾創造內容的世界。我們需要弄清楚,如果你是像HBR這樣為數百萬觀眾創造內容的機構,如何在這樣的環境中生存?顧客對此有什麼看法?

還有另一個有趣的例子。幾個月前,我去參觀日本知名酒廠三得利,這家公司利用AI來加速黑麥釀造過程,過去15年的陳年釀酒過程可能在一年,甚至更短時間內完成;而且連專家都沒有辦法辨別與傳統釀製法的口味差異,大幅提升生產效率。

這樣的例子就顯現,做為一名管理者或領導者,需要對AI這項科技的使用感到自在,了解它的潛力,思考這項技術在多大程度上能幫助企業簡化流程、提升效率,對客戶服務更好。

總結,企業需要對這項科技必須有足夠的信任,願意花時間來熟悉它,並樹立行為榜樣,讓員工也這樣做,就可以找到AI對公司有價值的使用方式。

加入哈佛商業評論LINE好友,隨時接收管理新知

延伸閱讀:

查看原始文章

更多理財相關文章

01

台廠AI影像辨識「秒判刀或槍」 美警搶下萬台訂單

TVBS
02

半導體232調查出爐!川普突宣布25%關稅 輝達、超微中槍 台積電影響曝

鏡報
03

台灣通緝「知名中國手機創辦人」!違法挖角70台籍工程師 替母公司搞研發

風傳媒
04

台積電2025年獲利1.71兆創新高 每股純益66.25元

中央通訊社
05

物價狂漲不怕!35K上班族存錢術曝光

LINE TODAY 討論牆
06

13家金控2025年獲利成績出爐!3金控最會賺、全年最飆的金控竟是「它們」

商周財富網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...