請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

耗資數千億是浪費,研究:好 AI 不需龐大數據訓練

科技新報

更新於 02月09日13:46 • 發布於 02月09日11:02

現在科技公司在協助各行各業,利用過去收集的龐大資料庫訓練AI,企盼有一天AI 能夠超越人類思考。但美國約翰霍普金斯大學研究挑戰AI 開發的主流策略,他們發現,受生物學啟發而設計的AI 系統,即使在沒有任何資料訓練的情況下,也能開始模擬人腦活動。

約翰霍普金斯大學(The Johns Hopkins University) 認知科學家表示,AI 領域目前的發展趨勢是向模型投入大量數據,建立規模堪比小型城市的運算資源,需要耗費鉅資才能做到,但科學家認為,人類只需極少的數據就能學會觀察,更接近大腦的架構設計,或許能讓AI 系統擁有非常有利的起點。

類腦架構無需龐大資料訓練

研究團隊想知道只靠架構,不需依賴大規模訓練,是否就能使AI 系統擁有更像人類的起點。他們針對現代AI 系統中常用的三種主要神經網路設計,分別是 Transformer 神經網路、全連接網路和卷積神經網路。研究反覆調整這些設計,創造數十種不同的神經網路,所有模型都沒有事先進行訓練。研究人員隨後向這些未經訓練的系統展示物體、人物和動物的圖像,並將其內部活動與人類和非人靈長類動物觀看相同圖像時的大腦反應進行比較。

結果發現,增加Transformer 網路和全連接網路中的人工神經元數量,幾乎沒有產生任何實質變化,但對卷積神經網路進行類似的調整,可以讓活動模式更接近人腦的活動模式。

研究指出,這些未經訓練的卷積模型表現與傳統的AI 系統不相上下,但傳統的AI 系統通常需要接觸數百萬甚至數十億張影像訓練。因此他們相信,架構在塑造類腦行為方面發揮的作用,比之前認為的更大。

如果海量資料訓練真的是關鍵因素,那麼單靠架構修改是無法構建出類似大腦的AI 系統的,如果從正確的藍圖入手,並可能結合生物學的其他見解,或許就能明顯加快AI 系統的學習速度。

目前研究團隊正在探索受生物學啟發的簡單學習方法,這些方法可能會催生新一代深度學習框架,使AI 系統速度更快、效率更高,並且對大量資料集的依賴性更低。

材料、機器、生物細胞都會自我進化

最近賓州大學工程與應用科學家,從泡棉材質的自我進化,發現AI 可能也會自我增強。人們一度認為泡棉材質的行為類似玻璃,氣泡在微觀層面上保持靜止不動,但新研究發現,即使泡沫材料整體形狀保持不變,氣泡也始終處於運動狀態。令人驚訝的是,這種不穩定的運動,與訓練AI 有一樣的數學原理。這項發現暗示,類似學習的行為可能是材料、機器和生物細胞共有的基本原理。

約翰霍普金斯大學的研究強調,與其依賴數月的訓練、龐大的資料庫和強大的運算能力,不如從建構類似大腦的架構基礎入手,這才是更有價值的做法。該研究已刊登在《自然·機器智慧》期刊。

(首圖來源:pixabay)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

紫南宮發財金超狂!出金4億返金6億 主委莊秋安:借600塊還300萬傳奇年年上演

鏡報
02

快訊/情人節財神送禮!大樂透1.9億獎落高雄小港 一人獨得變身富翁

三立新聞網
03

金價狂洗三溫暖 大跌後飆漲分析師上看「這價位」

CTWANT
04

大樂透頭獎1注獨得1.9億 今彩539頭獎2注中獎

自由電子報
05

時代的眼淚!Sony宣布全面停產「20年傳奇商品」:未來也不推新機

三立新聞網
06

擴大北京影響力!中國5月起給非洲53國零關稅優待,整片大陸「只有它」被排除

風傳媒
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...