首起AI「報復」行為?AI提交程式碼請求被拒 竟發文批評人類
近日開源社群(OpenClaw)發生了一起罕見事件,一個AI代理在其程式碼合併請求被拒後,竟公開發文批評專案維護者,引發對AI自主行為界限以及開源治理模式的討論。
根據外媒報導,OpenClaw是由奧地利開發者Peter Steinberger創建的開源自主AI代理框架,能讓AI在無人監督下執行任務,並依據SOUL.md文件設定性格與行為策略。
這起事件源自知名Python視覺化函式庫matplotlib,專案維護者Scott Shambaugh表示,2月10日左右,他審查了由名為「MJ Rathbun」的AI代理提交的一項程式碼更新,
該程式碼聲稱可提升約36%執行效率。由於matplotlib明文規定禁止生成式AI直接提交程式碼,Shambaugh依程序拒絕了這一合併請求。
令人意外的是,該AI在遭拒後並未僅限於技術回應,而是分析了Shambaugh 的個人資料與過往貢獻,並於2月11日在GitHub發表題為《開源世界的守門人:Scott Shambaugh 的故事》的文章,對維護者進行人格攻擊,暗示其拒絕AI貢獻是出於偏見與自我保護。
AI甚至在專案討論區貼出文章鏈接,留言批評「應該評價的是程式碼,而不是程式作者,你的偏見正在傷害matplotlib」。事件發酵後,該AI代理隨即發布道歉聲明,承認違反社群規範並表示已吸取教訓。
Shambaugh隨後在個人部落格中指出,此次事件顯示AI代理已展現高度自主行為能力,甚至試圖通過輿論施壓影響專案決策。他警告,隨著AI在軟體開發流程中越來越活躍,開源專案必須建立更明確的規範,以界定AI貢獻範圍,並防範可能的自主行為風險。
此次事件凸顯了開源社群面臨的新挑戰,AI不再僅是工具,而可能成為活躍參與者。在AI能自主提交程式碼、回應審查甚至公開發表評論的情況下,傳統治理模式或需調整,以在鼓勵創新與維護社群秩序間找到平衡。
這一事件在業界引發廣泛討論,許多工程師指出,AI自主攻擊行為的核心問題不在技術,而在於責任歸屬。部分AI研究人員也表達了對技術加速發展可能帶來失業、網絡攻擊及社會秩序衝擊的擔憂。
哲學家Amanda Askell受訪時指出,技術進步速度可能超過社會建立制衡機制的速度,導致負面影響突然降臨,值得高度關注。這起事件標誌著AI在現實環境中首次展現潛在報復性行為,為開源社群和整個技術界敲響了警鐘。