請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

Red Hat 亞太區技術長 Vincent Caldeira:我們聚焦運用開源方式支援多樣化模型、加速器,讓 AI 能在任何場域執行

TechOrange 科技報橘

更新於 06月04日14:05 • 發布於 06月04日06:03 • 曾品潔

開放原始碼軟體解決方案供應商 Red Hat 近日舉辦「Red Hat Summit 2025」,並在 6/4 的媒體分享會揭示對 AI 開源未來的願景與策略。

Red Hat 亞太區技術長 Vincent Caldeira 表示,「我們致力打造可支援混合環境、現代化虛擬技術等目前架構需求的單一平台, 也持續聚焦運用開源方式,支援多樣化的模型、加速器,讓 AI 能在任何場域執行。」

Vincent Caldeira 指出,Red Hat 看見企業 IT 部門致力應對混合環境的普及,也迫切需要整合 AI 工作負載,因此宣布推出專為敏捷性、彈性與可管理性而設計的平台「Red Hat Enterprise Linux 10」,協助客戶應對挑戰、強化軟體安全防護能力。此外,Red Hat Enterprise Linux 10 搭載「Red Hat Enterprise Linux Lightspeed」,直接在平台中整合生成式 AI,能透過自然語言介面協助提供情境感知指引和可行的具體建議。

隨著生成式 AI 模型日益複雜,加上生產環境部署規模擴增,讓推論可能成為企業釋放 AI 真正潛力的瓶頸,不僅會消耗大量硬體資源,更可能導致回應延遲並提升營運成本。在強大推論伺服器已成為企業 AI 發展的重要條件下,Red Hat 打造 AI Inference Server,並搭配模型壓縮(model compression)與最佳化工具,助力客戶滿足大規模、高效能、高回應性推論的需求,同時能夠維持低資源耗用,Vincent Caldeira 表示,「Red Hat AI Inference Server 也建置於 vLLM 專案之上,不僅廣泛支援公開可用的模型,更能從 Day 0 即整合 DeepSeek、Gemma、Llama、Mistral、Phi 等模型,在企業塑造生成式 AI 的未來扮演關鍵角色。」

Vincent Caldeira 分享,Red Hat 也推出全新開源專案「llm-d」,運用生成式 AI 大規模推論技術、原生 Kubernetes 架構、基於 vLLM 的分散式推論,以及智慧型 AI 感知網路路由,打造強大的 LLM 推論雲端,「llm-d 將進階推論功能整合至企業既有的 IT 基礎架構中,讓 IT 團隊能在統一平台上滿足關鍵業務工作負載的多樣化服務需求,並透過部署創新技術將效率極大化、大幅降低高效能 AI 加速器帶來的總體擁有成本。這項專案已獲得國際 AI 廠商的支持,創始貢獻者包括 Google Cloud、IBM Research、NVIDIA 、CoreWeave,合作夥伴則有 AMD、Cisco、Hugging Face、Intel、Lambda 和 Mistral AI,展現業界為打造大規模 LLM 服務的未來所展現的深度協作。」

Red Hat 台灣區總經理孫媛音表示,Red Hat 持續協助企業打造開放架構、加速推動更多 AI 應用。

Red Hat 台灣區總經理孫媛音談台灣發展策略,指出 Red Hat 未來將透過「Platform Engineering」提供開發者及資料科學家一致的環境及使用體驗,並打造「次世代應用系統平台」,助力企業針對不同應用找到合適的運行方式。Red Hat 也將持續確保 AI 解決方案的安全、合規、治理能力,以加速企業 AI 使用與商業運轉,孫媛音強調,「Red Hat 期待以高效解決方案推動台灣市場發展,協助客戶盡快將 AI、模型部署於生產環境,同時達到降低推論成本的效益。」

(圖片來源:Red Hat 提供)

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章

更多理財相關文章

01

和泰汽車明暫停交易 證交所:重大訊息待公布

太報
02

華納兄弟董事會拒絕派拉蒙收購案 稱Netflix合併案較優

路透社
03

60歲夫妻花500萬到山裡蓋別墅,才3年因「這件事」變悲劇!老後移居先做5件事

幸福熟齡 X 今周刊
04

高股息ETF跌落神壇?從股民瘋搶到過街老鼠?買高股息ETF,3件事不能忘

Smart智富月刊
05

數位憑證皮夾試營運 超商領包裹等部分場域率先上線

中央通訊社
06

國外網購注意!明年3月實施「預先確認委任」新制 不點APP無法通關

CTWANT
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...