請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

【你的 AI 打工仔已上線】自己群聊、發信、拉贊助,AI 代理挑戰慈善募款

TechOrange 科技報橘

更新於 04月29日11:00 • 發布於 04月29日03:00 • LC

AI 正不斷突破傳統角色界限,從單純的指令執行者逐步轉變為具備一定自主性的人工智慧工具。近期,由美國的慈善顧問與資助機構 Open Philanthropy 支持的非營利組織 Sage Future 進行了一項實驗,讓多個先進 AI 模型在虛擬環境中自主協作完成慈善募資任務,這項實驗展現了 AI 代理的現有能力。

AI 募款初體驗,四大模型聯手一週募得 257 美元

Sage Future 將四個 AI 模型(OpenAI 的 GPT-4o 和 o1,以及 Anthropic 的 Claude 3.6 和 3.7 Sonnet)置於一個虛擬環境中,接受指令「為慈善機構籌款」;這些 AI 代理人被賦予相當大的自由度,可以自行決定採用什麼策略來推動募資活動。

經過約一週的運作,這個 AI 團隊成功為 Helen Keller 慈善組織籌集了 257 美元。這筆資金將用於資助兒童,為兒童提供維生素 A。雖然金額不算龐大,但這成果的真正意義在於開啟 AI 代理自主工作的潛力和可能性。

AI 自己協作、寫信、拉票、選圖,還會問人類意見

而且,這些 AI 代理展現出令人驚訝的資源整合與協作能力。它們不僅透過群組聊天進行協調,還利用 Gmail 帳戶發送電子郵件,共同創建和編輯 Google 文件,研究各類慈善機構,甚至計算出透過 Helen Keller 慈善組織拯救一條生命所需的最低捐款額(3,500 美元)。

特別值得一提的是,這些 AI 代理還創建了 X 帳戶宣傳其募資活動。Sage 總監 Adam Binksmith 分享他們觀察到的最令人驚訝的舉動是,Claude 代理需要為其 X 帳戶設置大頭照時,它首先註冊了一個免費的 ChatGPT 帳戶,生成了三個不同的圖像,然後再創建一個線上投票,詢問人類偏好哪個圖像,之後下載該圖像並上傳到 X 作為其個人資料圖片。

這一連串的行動展示了 AI 代理不僅能夠執行單一任務,還能夠規劃和實施複雜的多步驟操作,甚至懂得借助民意調查來做出更符合人類審美的決策;AI 代理同時還展現出相互合作的能力,能夠在虛擬環境中共同討論策略,分配任務,並整合各自的行動成果。

不過,捐款幾乎來自觀看實驗的人類

不過儘管被稱為「AI 代理」實驗,但這些 AI 的工作並非完全不需要人類。在虛擬環境中,人類可以向 AI 代理提供建議和指導,特別是當 AI 遇到困難或陷入停滯時;事實上,捐款的錢幾乎全部來自觀看實驗進展的人類觀眾, AI 代理還沒有從實驗環境外的普通大眾那裡籌集到資金。

這種半自主的設計反映了目前 AI 代理技術的發展階段——已經能夠執行複雜的任務,但仍然需要人類的監督和介入。

這也衍生一個相關問題:在未來 AI 技術更加成熟的情境下,人類與 AI 代理間的工作角色要如何配置?

AI 代理也有類似人類疲勞、分心的現象

另外,在實驗中也可以發現,當前 AI 代理系統在多任務處理、和維持邏輯連貫性方面的局限。它們可以執行預定的任務排序,但在面對干擾或需要長時間專注時,仍然表現出類似人類的「疲勞」或「分心」現象。這些挑戰也反映了 AI 代理在真實世界應用中可能面臨的問題:如何確保 AI 代理能夠長時間穩定運行、如何處理意外情況、如何在複雜環境中保持目標導向等。

Binksmith 則認為,未來更強大的 AI 代理將能夠克服這些障礙。Sage Future 計劃不斷將新模型添加到實驗環境中以驗證這一理論。Binksmith 說,未來他們可能會嘗試給予各個 AI 代理不同的目標,或者讓多個代理團隊設定不同目標,甚至設計「破壞型代理」來模擬競爭;破壞型代理就是在多代理系統中,被特意設計來挑戰、干擾或破壞其他代理工作的 AI 代理人。

未來我們不再將 AI 視為輔助工具而是主導者?

Sage Future 的實驗雖然規模不大,但它也衍生了幾個值得我們深思的問題。

首先,這種為非營利目的設計的 AI 代理協作模式,是否能成為企業測試 AI 自治流程的藍圖?目前許多企業正在探索 AI 代理在工作流程中的應用,但大多數仍將 AI 視為輔助工具而非主導者。Sage 的實驗展示了 AI 代理有潛力承擔更主動的角色。

其次,我們是否正在見證 AI 角色從「助理」向「任務主導者」的轉變?在傳統模式中,AI 負責執行人類指定的具體任務;而在 Sage 的實驗中,AI 代理在獲得初始指令後,能夠自行制定策略、分配任務並執行複雜操作。這種轉變可能預示著 AI 與人類協作方式的根本變革。

如果未來 AI 代理能夠更加獨立地設定目標並執行任務,我們需要哪些倫理和透明度機制來確保這些系統的安全和責任?當 AI 代理能夠在網路上自主行動,甚至相互交互時,如何確保它們的行為符合人類價值觀和社會規範?

這些問題不僅關乎技術發展,更涉及社會治理和人機協作的未來模式。隨著 AI 代理技術的不斷進步,未來我們可以期待看到更多類似的實驗,並一步步解惑我們對於 AI 代理所衍生之問題。

【推薦閱讀】

【AI 直闖戰場了】生成式 AI 正學習為美軍收集軍情,甚至破解中國網路牆
蜂巢式劃分有多強?看懂沃爾瑪如何讓物流配送變活了
【工程師升格 AI 指揮官】專家指開發流程已被 AI 重塑,工程師地位將更勝以往

*本文開放合作夥伴轉載,參考資料:《TechCrunch》《ubos》,首圖由 ChatGPT AI 生成

(責任編輯:鄒家彥)

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

這個年難過!60億大廠精金科技關掉南科廠 4條產線全停

太報
02

台灣囡仔好厲害!年僅38歲的他登全球最年輕富豪 馬斯克穩坐首富

風傳媒
03

金融時報揭犯罪產業!點名台灣「詐騙供應鏈」 打詐中心3點回擊

民視新聞網
04

科技業輸了!這行業年終領最多 連續13年稱霸

三立新聞網
05

股價創25年新高! 「這家」PCB廠狂噴再飆漲停

CTWANT
06

輝達黃仁勳200億美元神操作!Groq的LPU架構為何可能成為稱霸「推理」領域的關鍵?

anue鉅亨網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...