請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

要更強大的 AI 先理解大腦?新研究揭示:語言模型與人腦其實長得很像

科技新報

更新於 04月08日16:26 • 發布於 04月09日07:20

人工智慧與神經科學之間的距離,可能比外界想像得更近。近期多篇研究與一篇評論都指向同一個方向:若要打造更強大的 AI,理解人類大腦或許是關鍵一步。

首先,在語言理解上,研究人員透過腦電描記術分析受試者聆聽長篇 Podcast 的過程,發現大腦處理語意的方式,與大型語言模型的分層結構相當接近。研究指出,語言訊號並非一次被完整理解,而是隨著時間逐步展開;AI 模型的早期層較偏向基礎詞彙特徵,深層則整合語境與更高階意義。這種階段性變化在大腦語言區域中也能觀察到,尤其是布若卡氏區(Broca's area)等高階語言區反應更明顯。團隊並已公開完整神經紀錄與語言特徵資料集,供後續研究使用。

另一方面,針對記憶形成的研究也出現新進展。另一組研究發現,AI 模型的記憶處理機制,與人類海馬迴的記憶鞏固過程具有相似性。研究者將人腦中與學習、記憶形成相關的 NMDA 受體概念帶入 Transformer 模型,結果顯示,類似「閘門」的機制可影響模型的長期記憶表現,且調整相關參數後,AI 的記憶能力甚至能得到提升。研究團隊認為,這說明神經科學知識可用來解釋並改進 AI 的學習方式。

這些發現也呼應一篇於今年 4 月 5 日左右發表的評論文章所提出的核心觀點:相較於目前 AI 產業在算力、資料中心與基礎設施上的巨額投入,全球對大腦研究的資源配置仍然明顯不足。文章指出,幾家大型科技公司近年投入 AI 基礎設施的金額高達數千億美元,而大型腦科學計畫的規模仍小得多。作者認為,人類大腦是已知宇宙中唯一證明過的通用智慧系統,若能更深入理解其運作原理,將有機會為 AI 帶來連續學習、更高能源效率,以及生成真正新知識的能力。

文章同時點出,現有 AI 在連續學習上仍受「災難性遺忘」困擾,難以像人腦一樣在吸收新知的同時保留舊知;在能源效率上,人腦約以 20 瓦運作,卻能完成遠超今日 AI 的認知任務;在創新能力上,現代大型模型主要依賴既有資料,仍難以像人類一樣產生真正突破性的原創概念。作者因此主張,與其只是一味擴充現有 AI 架構,不如更積極投資腦科學,尤其是連接組等基礎研究,做為下一代 AI 的設計藍圖。

(首圖來源:pixabay

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

荷莫茲海峽封鎖重創航運 印度咖啡恐流失西亞80%市場

中央通訊社
02

24萬股東哭暈了! 國家隊本周倒貨「這檔」綠能股420萬股

CTWANT
03

全聯將砸40億全面換成電子價卡! 預計2年半全台完工

CTWANT
04

1大廠股票恐變壁紙!若繳不出財報 最快這天下市

三立新聞網
05

1大廠繳不出財報「股票恐淪壁紙」 最快這天下市

太報
06

房貸揹到老1》 史上揹最久!最新數據曝新增房貸長達26.75年

自由電子報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...