請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

避免未來 AI 失控,美團隊建議發展 AI 精神病理學

科技新報

更新於 2018年07月05日12:38 • 發布於 2018年07月04日22:03

隨著人工智慧(AI)技術持續提升,許多人都開始出現對於 AI 的焦慮,如果未來真的出現「行為偏差」的 AI 該如何是好?對此,堪薩斯州立大學(KSU)研究人員提出一個有趣的理論:如果精神病理學在人類身上能取得成效,那麼稍微調整後運用在 AI 是否也可行呢?

雖然聽起來有些奇怪,但這並不是一個玩笑。堪薩斯大學團隊在論文指出,人類認知具有的適應機制提供了快速適應動態環境的獨特技能,但也造成人們容易罹患 PTSD、憂鬱症等相關精神疾病,而研究者也正希望在通用人工智慧(AGI)實現類似的認知機制,可想見未來 AGI 也可能出現類似的認知障礙。

舉例來說,AI 不顧一切追求獎勵最大化的「wireheading」行為便與妄想和上癮行為相似,而在基於強化學習(RL)的 AI 探索/開發軌跡中,如果設定了非常負面的懲罰和壓力,AI 則可能會出現類似憂鬱症和 PTSD 的行為障礙。

目前關於 AI 安全的研究多半著重於安全意識設計和緩解技術(mitigation techniques),但 AGI 的複雜性,將會使得分析這些與生物智慧相當的問題變得更困難。考慮到診斷和治療的目的,團隊認為要修復 AI 的行為偏差,或許也可以從人類的精神病理學(Psychopathology)研究獲益。

團隊相信,透過運用類似的框架來思考 AI、替 AI 的「精神障礙」建立模型並進行驗證,未來我們將能診斷出 AI 不當行為,同時找出系統性的治療方法來解決問題。

這篇論文只是一個起點,但它提出了一些相當有趣的看法:畢竟當能夠代替人力執行任務的 AI 代理人(AI agent)「生病」時,處理方式可不像是電腦重開機或重灌系統這麼簡單。

雖然坐在沙發上和 AI 談論佛洛伊德可能沒什麼用,但至少可以慶幸,一些在人類起作用的診斷與治療效果,或許也會對 AI 有用。

(首圖來源:shutterstock)

查看原始文章

更多科技相關文章

01

知情人士:中國報關行被告知輝達H200晶片不准入境

路透社
02

a16z合夥人:如果AI公司的毛利有75%,那代表沒人在用你的服務!

創業小聚
03

X平台全球大當機 數以萬計用戶受影響後已緩解

路透社
04

「帶不來營收,別說你在做BD!」矽谷創投用5大思維打破商業拓展迷思

創業小聚
05

川普政府准輝達H200銷中 設第三方檢測防軍用

路透社
06

安世半導體控制權之爭 荷蘭法院開庭審理 

路透社
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 1

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...