請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

WEKA 推出 NeuralMesh:人工智能創新的智能自適應基礎,並為推理時代而有目的地建立

PR Newswire 美通社

更新於 2025年06月18日07:56 • 發布於 2025年06月18日07:00 • PR Newswire

NeuralMesh 憑藉革新服務導向網格架構,最大化人工智能基礎設施來創造具備彈性、效率、可大規模擴展權杖倉庫和人工智能工廠,而加快取得首個權杖和降低人工智能創新成本

新加坡和加州坎貝爾 2025年6月18日 /美通社/ -- 來自 SuperAI 2025:WEKA 今天 NeuralMesh™ 首次亮相,人工智能數據基礎設施迎接革新進步。NeuralMesh™ 是個全新兼強大的軟體定義儲存系統,具備動態網格架構。這為企業人工智能和代理式人工智能創新提供智能兼自適應的基礎。WEKA 的 NeuralMesh 是有目的地建立的,協助企業迅速開發和擴展人工智能工廠和權杖倉庫,並部署智能人工智能代理。這帶來微秒延遲的世界級效率,而支援即時推理和回應時間。NeuralMesh 有別於(隨著人工智能環境成長而變得更加脆弱,並隨著人工智能工作負載效率需求增加而停滯不前)傳統數據平台和儲存架構和相反方向而行——隨著規模擴大,變得更強大兼更具彈性。當硬體出現故障時,該系統會在幾分鐘內重建,而並非幾小時。隨著數據成長至百京位元組,效率不僅提升,而非下降。

WEKA Introduces NeuralMesh: An Intelligent, Adaptive Foundation For AI Innovation, Purpose-Built for The Age of Reasoning

WEKA Introduces NeuralMesh: An Intelligent, Adaptive Foundation For AI Innovation, Purpose-Built for The Age of Reasoning

隨著推理興起,傳統數據基礎設施正在達到臨界點
人工智能行業正在以意想不到的速度,從人工智能模型訓練轉為推理及即時推理。隨著代理式人工智能激增,人工智能團隊需要能夠於微秒(而非毫秒)內回應的自適應基礎設施,並從全球分散網絡的多模式人工智能模型,汲取見解。這些增加效率和規模要求,傳統數據架構和儲存面對壓力,並推至崩潰點。結果,由於機構的 GPU(人工智能創新引擎)閒置,並等待數據、消耗能源和減慢權杖輸出,而機構面對增長基礎設施成本及潛在效能。最終,許多企業被迫不斷增加昂貴的運算和記憶體資源,增強自身的數據和 GPU 基礎設施,從而跟上他們的人工智能發展需求。結果,造成無法承受的高創新成本。

「人工智能創新持續以驚人速度發展,推理時代已經來臨。我們過去依賴的數據解決方案及架構,雖然可處理過去技術範例變化,但無法支援代理式人工智能和推理工作負載所需的龐大效率密度與規模。在我們的客戶群中,我們看到千兆位元組客戶環境,正在以無法想像的速度成長至百億億次元組。」WEKA 共同創辦人兼行政總裁 Liran Zvibel 表示,「未來是百億億次元組的。無論您目前處於人工智能之旅任何位置,您的數據架構必須可以適應和擴展來支援這種必然性,否則面對落後的風險。」

NeuralMesh:專為推動代理式人工智能創新和動態人工智能工廠而建造
WEKA 借助 NeuralMesh,而徹底重塑代理式人工智能時代的數據基礎設施,並提供完全容器化兼網格為本的架構。這可無縫連接數據、儲存、運算和人工智能服務。NeuralMesh 是世上唯一專為加速 GPU、TPU 和人工智能工作負載而建置的智能自適應儲存系統。

但是 NeuralMesh 不僅是儲存它的軟體定義微服務為本的架構,不僅可適應規模,還可以此為生長。它隨著數據規模從千兆位元組成長至百京位元組(甚至更高),而變得更快、更有效率兼更具彈性。NeuralMesh 與現代人工智能應用程式同樣靈活兼可組合,輕鬆適應每種部署策略——從裸機至多雲端,以及介於兩者之間。機構可從小型開始和順暢地擴展,而毋需昂貴的代替品或複雜移轉。

NeuralMesh 的架構提供五個革新功能:

  • 一致兼光速的數據存取:即使面對大量數據集,也能以微秒為單位實現
  • 自我修復基礎設施:規模擴大而更加強大
  • 部署地點靈活:可跨數據中心、邊緣 、雲端、混合雲端或多雲端部署
  • 智能監控:自動最佳化效能
  • 企業級安全:亳不減少效能

NeuralMesh 有別於強迫人工智能團隊圍繞限制工作的僵化平台,而可動態適應人工智能工作流程的多變需要。這為企業和代理式人工智能創新,提供靈活兼智能的基礎。無論機構正在建造人工智能工廠、權杖倉庫,還是期待在企業內實施人工智能,NeuralMesh 都可釋放 GPU 和 TPU 的全部功能,大幅增加權杖產量。同時,控制能源、雲端和人工智能基礎設施成本,從而實現真正業務影響:

  • 人工智能公司可以更迅速訓練模型和部署能夠立即推理和回應的代理。透過卓越用戶體驗,而獲得競爭優勢。
  • 超大規模和 Neocloud 服務供應商可使用相同基礎設施為更多客戶提供服務,同時帶來有保證的大規模效能。
  • 企業可於整個營運過程中,輕鬆部署和擴展支援人工智能就緒基礎架構和智能自動化。

Cirrascale Cloud Services 行政總裁兼聯合創辨人 Dave Driggers 表示:「在緊湊空間內,WEKA 提供卓越效能密度,而且符合成本效益。它協助我們根據每個客戶的獨特需求,而自訂人工智能儲存解決方案。無論我們的客戶需要 S3 相容性來實現無縫資料遷移,還是在運算需求激增時,需要爆發至高效率儲存能力,WEKA 都能消除限制人工智能訓練、推理和研究工作負載的資料瓶頸。這協助他們專注開發突破性創新,而非管理儲存和人工智能基礎設施的複雜性。 」

「Nebius 的使命是透過最先進的人工智能基礎設施,為企業提供支援。我們的客戶最嚴苛的工作負載需要一致兼超低延遲效能和無比流通量,從而進行大規模訓練和推理。」Nebius 創辦人兼行政總裁 Arkady Volozh 表示,「我們與 WEKA 的合作,協助我們提供卓越效能和可擴展性,而我們的客戶可以充份利用人工智能的潛力,推動創新和加速成長。」

「我們憑着 WEKA,現在於人工智能模型訓練期間實現 93% GPU 利用率,並提高雲端儲存容量 1.5 倍,而成本僅為之前的 80%。」Stability AI 的 HPC 工程主管 Chad Wood 表示。

製造超過十載
WEKA 的 NeuralMesh 系統擁有超過 140 項專利,以及超過十載創新。人工智能應用成為主流前,最初是個用於高效能運算 (HPC) 和機器學習工作負載的平行檔案系統。後來,它發展成用於人工智能的高效能數據平台,這是 WEKA 於 2021 年首創的市場種類。但是,NeuralMesh 不僅是 WEKA 創新之旅中的下一步進化。這是場新革的躍進,在推理時代中的動態人工智能市場中,滿足爆炸性成長和不可預測的需求。

WEKA 產品總監 Ajay Singh 表示:「WEKA 不僅提升儲存速度。我們為人工智能創新而創造智能基礎,推動企業實施人工智能於他們各業務方面,並協助人工智能代理商即時推理和反應。NeuralMesh 提供客戶喜愛的 WEKA 數據平台的全部好處,還具備適應、彈性網狀架構兼智能服務。這專為滿足現實世界人工智能系統的多變與低延遲要求而設計,同時允許增長至百億億次級,甚至更高。」

供應NeuralMesh 現時為企業和大規模人工智能部署而限量供應,預計於 2025 年秋季全面上市。
如欲更多資料,請瀏覽:

  • 觀看 NeuralMesh 亮相影片:
  • 請參閱「如何運作」:
  • 查看我們的網誌:

關於 WEKA
WEKA 正在透過其智能自適應網格儲存系統 NeuralMesh™,改變機構建立、運作和擴展人工智能工作流程的方式。NeuralMesh 有別於(隨著人工智能環境擴展而變得更脆弱)傳統數據基礎設施,而隨著規模擴大而變得更迅速、更強大兼更有效率。它隨著您的人工智能環境而成長,為企業人工智能和代理式人工智能創新提供靈活基礎。NeuralMesh 獲 30%《財富》雜誌 50 強企業和全球領先新興雲服務提供商和人工智能創新者信賴。它可最大化 GPU 利用率,加速取得首個權杖,並降低人工智能創新的成本。如欲了解更多,請瀏覽 或追蹤我們的 LinkedIn 和 X。

WEKA 和 W 標誌乃 WekaIO, Inc. 的註冊商標,而此處其他商品名稱可能是其各自擁有人的商標。

查看原始文章

和譽醫藥依帕戈替尼完成治療肝細胞癌的注冊性臨床試驗首例患者給藥

PR Newswire 美通社

全球 MANCOZEB 高峰會:歐盟法庭聆訊前,探討 MANCOZEB 的農作物保護關鍵作用

PR Newswire 美通社

孫耀達博士工程師獲任應科院行政總裁下月履新

PR Newswire 美通社
查看更多
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...