請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

群聯 CES 推出全球首款 aiDAPTIV+ iGPU PC 平台,加速大型 AI 模型落地

科技新報

更新於 01月07日15:12 • 發布於 01月07日10:30

群聯電子於 CES 2026 宣布,將其獨家專利的 aiDAPTIV+ 技術正式延伸至整合式 GPU(iGPU)的 PC 架構。此項技術突破讓筆記型電腦、桌上型電腦及迷你電腦等主流設備,能以更低的門檻解鎖大型 AI 模型的運算潛能,標誌著邊緣 AI(Edge AI)普及化的重要里程碑。

NAND Flash 轉化為 AI 記憶體,突破邊緣運算瓶頸

隨著邊緣 AI 需求日益複雜,市場急需可負擔且能運行於日常設備的解決方案。群聯電子宣布憑藉 25 年在 NAND 控制晶片領域的深厚實力,開發出 aiDAPTIV+ 方案,其核心技術在於將 NAND Flash 作為 AI 延伸記憶體使用。這不僅有效解決了市場上記憶體資源短缺的痛點,更讓大型 AI 模型得以在本地端進行推論(Inference)與微調(Fine-Tuning)。

群聯與宏碁(Acer)的深度技術合作充分驗證了此技術的威力。透過工程優化,aiDAPTIV+ 讓原本需要極大記憶體才能運行的 gpt-oss-120b 等大型模型,在僅配備 32GB 記憶體 的 Acer 筆電上順利運行,大幅提升了使用者與裝置端 Agentic AI 互動的流暢度,無論是智慧查詢或生產力應用皆有顯著進步。

三大關鍵優勢,成本、效能與規模的全面提升

群聯在展覽期間揭示了 aiDAPTIV+ 在實際應用中的三大核心價值:

  • 顯著降低總持有成本(TCO):在 Mixture of Experts (MoE) 架構下,aiDAPTIV+ 將原本依賴昂貴 DRAM 的需求轉移至成本較低的 NAND 儲存快取。測試顯示,處理 120B 參數模型時,DRAM 需求可從 96GB 大幅降至 32GB,極大擴展了可支援 AI 的硬體平台範圍。

  • 推論效能大幅加速:透過優化 KV cache 的儲存機制,該技術能將已計算的 token 儲存於 NAND 中,避免重複計算,使推論回應速度最高提升達 10 倍,並同步降低功耗。初步測試在 Time-to-First-Token (TTFT) 表現上有顯著改善。

  • 小型裝置處理大型模型的能力:結合 Intel Core Ultra Series 3(內建 Intel Arc GPU),aiDAPTIV+ 讓筆電也能進行 70B 參數模型 的微調訓練。過去這類工作通常需要依賴成本高出 10 倍以上的專業工作站或資料中心伺服器,現在則讓學生與開發者能以低廉成本取得強大運算力。

業界生態鏈共襄盛舉,驅動 AI 普及化

群聯電子執行長潘健成表示,記憶體需求已成為 AI 普及的關鍵挑戰,群聯透過 aiDAPTIV+ 成功突破 iGPU 的運算限制,讓 AI 模型能真正落實於日常使用的 PC 中。他強調,這能讓企業與個人在兼顧成本、效能與隱私的前提下,加速 AI 的應用落地。

此次 CES 展場上,包含 Acer、Corsair、MSI、NVIDIA、ASUS 與 Emdoor 等多家合作夥伴均展示了整合 aiDAPTIV+ 的相關系統。其中,MSI 現場展示了如何利用此技術加速會議紀錄摘要等線上 AI 應用情境。

(首圖來源:群聯提供)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

台灣好野人資產擺哪裡?首位不是ETF!43%放存款!

自由電子報
02

不買10年後會後悔!外媒點名「現買2檔股票」 台積電入列

CTWANT
03

台億萬富翁再增近萬人!有錢人資產配置曝光 超過4成都在這

台視
04

家樂福要走入歷史了?「賣場降價大清倉」老顧客全愣 更名真相曝光

太報
05

難怪房價貴!北市額滿國中「這區上榜7所」 2區全軍覆沒

壹蘋新聞網
06

資產2000萬「買3500萬的房子會太吃力嗎?」 網勸:我是不敢啦

ETtoday新聞雲
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...