請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

MIT 發表新機器人控制方法 NJF,讓機器人「用看的」學會控制身體

TechOrange 科技報橘

更新於 2025年07月01日09:52 • 發布於 2025年07月01日01:52 • 廖紹伶

機器人未來可能將不再需要透過複雜的感測系統來「了解」自己。麻省理工學院科學與人工智慧實驗室(MIT CSAIL)最近開發了名為「Neural Jacobian Fields(NJF)」的機器人視覺導向控制方法──這項系統不須手動建模、無須複雜的外部或機載感測器,只要一台攝影機,就能讓機器人感知並學習其身體如何回應命令,這種方法賦予機器人新的「身體意識」。

學習「自我觀察」,顛覆傳統機器人設計思維

MIT 電腦科學與人工智慧實驗室(CSAIL)博士生兼資深研究員 Sizhe Lester Li 表示,現在多數機器人任務仰賴大量工程與程式設計,「但未來我們希望能透過示範動作給機器人看,讓它自己學會怎麼達成目標。」

是什麼需求驅動此一突破?根據 MIT CSAIL,當前機器人設計多建立在既有假設之上:機器人具備不易變形的剛性結構、內建大量感測器,並能對應建立出精準的數位孿生模型。這些假設讓傳統控制系統比較容易運作,可是一旦換做柔軟、可變形或結構不規則的機器人就不適用。NJF 技術背後邏輯是,與其強迫機器人適應這些假設,不如透過觀察自己,學會控制邏輯和內部系統。

也就是說,開發人員可以更自由地探索機器人非傳統、不受拘束的型態,不必擔心之後是否能對特定型態進行建模獲控制。MIT 研究團隊表示,這能讓機器人開發降低門檻、技術價格更實惠、適應性更強,「視覺是一種靈活可靠的感測器。」

NJF 研究團隊表示,這項方法已成功應用於多種機器人,包括氣壓驅動的軟體機械手、剛性機械手(Allegro)、3D 列印的機械臂,以及未內建任何感測器的旋轉平台。根據在每種實驗中,NJF 都能靠視覺學會機體形狀與動作反應,並實現即時控制,每秒可達 12 次閉迴圈反饋。

NJF 應用場域可拓展至農業、建築與家庭

CSAIL 所長 Daniela Rus 補充,NJF 展現的潛力不只是在研究室,農業自動化、建築工地、倉儲環境、甚至家用機器人,都可能因此受益。

MIT 研究團隊也強調,雖然目前 NJF 的訓練仍需多攝影機架設、針對單一機體重新建模,但未來有望簡化到只用手機拍攝機器人動作影片,就可快速生成對應的控制模型,讓業餘開發者也能參與應用。

這份研究成果已於近期發表於《Nature》期刊,並獲得 MIT 研究支持基金、美國國家科學基金會及韓國光州科學技術院等機構資助。

*本文開放合作夥伴轉載,資料來源:《The Robot Report》MIT CSAIL,首圖來源:MIT CSAIL

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

2025年終大賞💰你是金閃閃 還是「薪」酸酸?

LINE TODAY 討論牆
02

全球富豪財富2025年創新高! 最富有500人大增69兆

CTWANT
03

元旦新制/2026減稅上路!財政部證實 這類人居然可完全不用繳稅

三立新聞網
04

退休更有錢2/45歲退休後每年玩100天 他靠「選對城市」過環遊人生

鏡週刊
05

3大電子票證命運青紅燈 北捷多元支付壓垮駱駝?

卡優新聞網
06

全球最賺錢企業出爐!Google母公司奪冠「台積電強勢擠進前10名」

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

留言 1

留言功能已停止提供服務。試試全新的「引用」功能來留下你的想法。

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...