請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科學家發現:賦予 AI 代理「數位人格」,能提高複雜任務的準確性

科技新報

更新於 03月05日13:34 • 發布於 03月06日07:30

相對於主流 AI 會遵循處理指令、形成回應、輸出結果、等待下一個指令等溝通風格,人類的溝通不僅經常時斷時續,還會穿插著激昂的插話、猶豫的沉默,甚至模稜兩可的話語。科學家發現,當 AI 聊天機器人被允許以更像人類溝通者的方式(例如在對話中打斷對方、保持沉默或主動發言)行事時,它會成為更有效的辯論夥伴,並得出更準確的結論。

以日本東京電氣通信大學(UEC-Tokyo)資訊學系教授清雄一為首的研究團隊提出一種框架,使大型語言模型(LLM)不必遵守既有電腦那種你來我往、輪流等待的溝通特性。而為其指派一種「個性」,讓它能不按順序、打斷對方說話,或保持沉默。結果,他們發現,除了打造出更像人類的 AI 溝通方式之外,這種彈性也可以提高複雜任務的準確性。

研究團隊首先將根據傳統心理學中「五大人格」(開放性、盡責性、外向性、親和性與神經質)的特徵整合進 LLM 之中。他們接著重新設計以文字為基礎的 LLM,以精細控制討論的流程。他們也進行了固定發言順序、動態發言順序,以及允許插話的動態發言順序等三種對話設定的比較結果。最後一種設定讓模型能計算出「緊急度分數」,進而即時掌握並處理對話。該分數愈高,AI 聊天機器人會更立即進行插話。

清雄一表示,該團隊使用「大規模多任務語言理解」(Massive Multitask Language Understanding,MMLU)基準測試中的 1,000 道 AI 推理測試題目來評估表現。當一個代理最初給出錯誤答案時,固定順序討論的整體準確率為 68.7%,動態順序為 73.8%,允許插話時為 79.2%。在更困難的情境中,當兩個代理一開始都給出錯誤答案時,固定順序的準確率為 37.2%,動態順序為 43.7%,允許插話時為 49.5%。他們因此證明了由人格特質驅動的模型比傳統 AI 聊天機器人更準確。

接下來,該團隊計畫將他們的發現應用於各種訴求創造性協作的領域,以了解「數位人格」是如何在群體決策中發揮作用。

(首圖來源:科技新報)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

豪宅買氣慘2/北市30坪即為豪宅?沒千萬現金別想換房 大坪數成「票房毒藥」

CTWANT
02

漂流木變小提琴2/晚上7點後只剩便利店最亮!竹科工程師返鄉想振興小鎮 下場是天天茫到不敢再出門

鏡週刊
03

不只台積電!外媒點名2檔個股:買了10年後會感謝自己

民視新聞網
04

豪宅買氣慘1/「哥吉拉」甦醒半價搶市咬冠軍 億元豪宅交易卻大減4成

CTWANT
05

台股西進首度倒退嚕》中國學徒複製台灣經驗 台塑寧波、台聚古雷淪錢坑

自由電子報
06

短線逆風 臺銀:金價長多未扭轉

經濟日報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...