模仿大腦而生的人工神經網路,如何回過頭來幫助了解人類腦神經?過去,腦科學研究經常遇到對「軟體」了解不夠的困境,台灣大學物理學系教授朱士維表示,人類腦袋就像一台電腦,單純拆解外殼和電路板,對內部運作的了解依然有限,「所以需要活體影像,而且速度要追得上神經活動。」
因此,在國科會「腦科技創新研發及應用計畫」支持下,朱士維攜手清華大學工程與系統科學系教授吳順吉,與台灣大學藥理學科暨研究所副教授潘明楷,組成跨領域團隊開發超高速4D顯微鏡,在三維空間(長、寬、高)之外、加入時間維度,幫助AI更了解人類腦神經;而類神經網路的AI技術也立大功,將腦部影像清晰度提升近10倍。
延伸閱讀:AI PC中常見的TOPS是什麼?1TOPS是多少算力?TOPS越大越好嗎?
國科會開發「超高速4D顯微鏡」,能提升10倍影像清晰度、提高成像速度
負責高速深組織影像技術的朱士維說明,運用物理光學原理,新開發的超高速4D顯微鏡採取雙光子技術,除了加強雷射束穿透深度,也能夠在一塊有厚度的細胞組織中,捕捉單一層、不受雜訊干擾的影像。此外,藉由超音波透鏡技術,則有效提高成像速度至每秒千張,全體積成像時間只需要傳統影像的千分之一。
只不過曝光時間愈短,影像就愈模糊。為了克服成像對比度差的問題,吳順吉以超高速顯微鏡產生的大量影像,利用降噪技術「Noise2Noise」訓練AI模型,「看到的雜訊不一樣,不代表裡面的結構不同,深度學習模型就會想辦法把兩張圖像弄到一樣,保留共同的東西、把不一樣的拿掉,結構就會呈現。」吳順吉表示,因為重複捕捉了密集的影像資訊,即使不提供作為正確解答的基準真相(Ground Truth),AI也能在影像交互比對中過濾掉雜訊,重建出高解析度的影像。
腦神經像GPU,洞悉人腦還能為AI節能?
透過超高速4D顯微鏡,團隊試圖揭秘腦中的細胞之間如何「聊天」,例如,在活體鼠小腦中,團隊發現控制動作的神經元分佈就像GPU,彼此平行排列運算;同時觀察不同層的神經網路,則會發現相鄰神經元即使收到相似的訊號,傳遞到細胞本體的結果卻不同。
本身是神經科醫師的潘明楷表示,過去細胞之間怎麼溝通,只有在手術房才有機會一探究竟,「從小動物腦波,就會知道這些神經訊號加起來長什麼樣子,橋接到人類身上,也能了解這些神經放電的電訊號。」
而對於小腦神經運動的理解,也有助於未來發展「節能的AI」。潘明楷表示,一個AI模型運作的耗能大約是人腦的10萬倍,「當我們了解人腦怎麼做到這件事,個別單位減少幾個(耗能)數量級,能堆疊的運算單位就多。」
吳順吉也表示,AI雖然是模仿、觀察大腦怎麼運作的類神經網路,但數學模型和神經實際運作狀況仍有差異,「神經之間在溝通其實是不連續訊號,連續訊號每個點都要給能量,不連續就是ON和OFF,有ON的地方才需要放能量。」
透過「腦科技創新研發及應用計畫」發展的工具,揭秘腦區神經元的實際運作,未來團隊也有機會建構一個更貼近神經元的AI模型,為腦科學與AI技術建立正向循環。
延伸閱讀
【觀點】AI奪諾貝爾物理、化學獎,是憑人氣還是真有開創性貢獻?
仁寶與新光醫院簽MOU!首波聚焦「肺部纖維化」分析,聯手拚AI醫療落地
「加入《數位時代》LINE好友,科技新聞不漏接」