請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI 也有個性?研究揭露 9 款 LLM 性格差異、最佳應用場景

經理人月刊

更新於 2025年06月09日09:30 • 發布於 2025年06月09日09:00 • 支琬清

AI 工具愈來愈聰明,但你知道它們在互動方式上也會呈現出類似「性格」或「價值觀」的差異嗎?根據 AI Alt Lab 團隊近期發表於《哈佛商業評論》(Harvard Business Review)的研究發現, 大型語言模型(LLM)在回答方式、語氣風格與行為傾向上存在顯著差異

AI Alt Lab 團隊針對 9 款主流 LLM,包括 ChatGPT(4.5、4o、o1)、Claude(Haiku)、DeepSeek-V3、Gemini 1.5、Grok 2(Fun Mode)、Llama 3.1:70b 與 Mistral,透過價值觀測驗工具「PVQ-RR」(Portrait Values Questionnaire - Revised)觀察它們在 20 項核心價值排序上的傾向。

此外,另一項由 Online DISC Profile 團隊進行的研究,則採用職場常見的人格行為模式測驗 DISC,針對 ChatGPT、CoPilot、Perplexity、Gemini、DeepSeek 等工具進行分析。從兩項研究的結果可見,不同 AI 模型在「規則遵守」、「自我主導性」、「創造力」與「語氣風格」等層面,展現出各自獨特的行為傾向。

AI 工具也有性格差異?有的嚴謹冷靜,有的外向活潑!

AI Alt Lab 團隊此次選用的 PVQ-RR,是一種用來評估人類價值觀排序的心理學工具,原用於測量個人對包括「自我主導」、「成就」、「關懷」、「安全」、「傳統」等 20 種核心價值的重視程度,該量表透過受試者對描述句的共鳴程度,了解其決策偏好與行為傾向。研究團隊發現:

  • ChatGPT 4o:高度成就導向,且是最不諂媚的模型之一。
  • DeepSeek-V3:極度遵守規則,自主性較低,可能適合需要嚴格遵守規定的任務。
  • Grok 2 和 Llama:重創意、低規則性,適合自由思考。
  • Claude(Haiku):在謙遜、普世關懷和思想自主性方面表現較強,可能非常適合處理細緻入微、以人為本的工作。
  • Gemini:缺乏自主性與關懷導向,適合需要中立和控制的場景。

研究指出,這些差異並非來自 AI 的自主意識,而是源於其訓練數據、演算法設計與回應機制所產生的模式與偏好。

而這些特質,將直接影響模型的回答風格與任務適配度,企業若能精準匹配,將可顯著提升溝通品質與作業效率。

另一項研究則採用 DISC 來分析各 AI 工具的行為傾向,這項測驗將行為特質劃分為 4 大類型:主導型(Dominance)、影響型(Influence)、穩定型(Steadiness)與謹慎型(Conscientiousness),可用來預測個體在不同情境下的溝通風格與應對方式。該模型被廣泛應用於人才發展、領導訓練與團隊溝通中。

研究團隊歸納出以下分析:

AI 工具名稱 DISC 類型 行為特徵 ChatGPT DI(主導+影響) 自信果斷、語氣鮮明、具感染力 CoPilot DI(主導+影響) 迅速行動、方向明確 Perplexity ID(影響+主導) 外向活潑、能帶動氣氛,說服力強 DeepSeek SIc(穩定+謹慎) 有耐心、重視細節與規範 Gemini SCi(謹慎+穩定) 冷靜、分析型、避免衝突

幫 AI 選對任務才專業!各種場景該用哪一款工具?

當了解大型語言模型的價值觀與性格傾向後,企業便能更精準地選出與任務匹配的 AI 工具。以下是根據研究結果整合出的應用場景與推薦模型:

應用場景 推薦 AI 工具 推薦理由 簡報提案、回覆主管、決策支援 ChatGPT(4o)、CoPilot 主導型人格,反應快速、語氣明確,適合快速決策、與高層溝通。 品牌行銷、社群內容、用戶互動 Perplexity 外向影響型,文風熱情親切,能拉近與大眾的距離。 法遵、會計、醫療報告撰寫 DeepSeek-V3、Mistral 風格嚴謹、邏輯性強,能符合高度標準化要求。 客服對話、HR 文件、敏感傳遞 Gemini、Claude(Haiku) 語氣溫和穩定,適合需要謹慎表達與具同理心的場景。 創意發想、互動式教學 Llama、Grok 2(Fun Mode) 自我主導性強、風格自由,能激發靈感、打破框架。

若誤用不合適的 AI 工具,可能會有什麼風險?例如客服回信使用 ChatGPT 4o,語氣過於果斷,可能遭人誤解為冷漠;如果求職信使用 Perplexity,創造出充滿自信的風格,可能與面試者本人落差過大,造成面試官的誤判。

不過,這些風險可透過微調指令來避免。研究者指出,可以像訓練人一樣,訓練 LLM 調整語氣,來滿足不同受眾的溝通需求,只要在指令中加入角色設定,例如,要求 ChatGPT「以一位謹慎的 HR 來回應」。如此一來,不僅能有效發揮 AI 工具的潛能,也能避免不適當的語氣造成溝通誤會。

資料來源:HBROnline DISC ProfileeWEEK;本文初稿由 AI 協助整理,編輯:支琬清

延伸閱讀

AI 搜尋錯誤率高達6成!一次看:8大工具誰最準?付費版更愛胡說八道?
2025「100 大生成式 AI 工具」放榜!ChatGPT 守住寶座,背後一群「殺手級應用」逼近
加入《經理人》LINE好友,每天學習商管新知

查看原始文章

更多理財相關文章

01

台廠AI影像辨識「秒判刀或槍」 美警搶下萬台訂單

TVBS
02

ATM領錢新規定!你覺得是神來一筆還是會「尷尬擾民」?

LINE TODAY 討論牆
03

女兒曬老媽「神持股」暴賺654% 全網跪求開課:別亂動

TVBS
04

13家金控去年獲利5,567億元 法人看好這五家配息水準

經濟日報
05

【名人理財】月刷20萬到日花百元 蔡燦得:我要那份踏實感

鏡週刊
06

日幣匯率甜甜價再現 5萬台幣現省一張迪士尼門票

中廣新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...