理財

AWS re:Invent 2024 雲端科技發表會前進台灣站,解析如何重塑企業生成式 AI 和雲端創新

TechOrange 科技報橘
更新於 01月17日16:48 • 發布於 01月17日08:48 • 產業動態

Amazon Web Services(AWS)在 2024 年 AWS re:Invent 全球大會上發布一系列新技術,聚焦於生成式人工智慧(AI)、資料策略及基礎設施技術三大領域,加上涵蓋模型和應用程式的全方位創新,助力企業運用生成式 AI,全面重塑客戶的雲端創新體驗,而台灣站活動在 1 月 17 日舉行,這場雲端科技盛宴由 AWS 技術專家群發布最新技術及趨勢,並深度聚焦在核心服務功能,將現場精彩內容帶回台灣。

AWS 台灣暨香港專業解決方案架構師總監楊仲豪表示:「AWS 是全球雲端運算的開創者和領導者,更是企業建構和應用生成式 AI 的首選,2024 年 re:Invent 全球大會的一系列重磅發布再次印證了這一點。我們不僅在雲端核心服務層面持續創新,更從晶片到模型,再到應用程式的每一層技術堆疊都取得突破,讓不同層級的創新相互賦能、共同進化。只有這樣全方位的大規模創新才能真正滿足現今客戶的發展需求,加速釋放前瞻技術的價值,助力各行各業重塑未來。」

廣告(請繼續閱讀本文)
AWS 台灣暨香港專業解決方案架構師總監楊仲豪解析 2024 年 AWS re:Invent 全球大會重磅發布的創新服務。

生成式 AI 全面創新,訓練推論、模型和應用程式全面進化

在生成式 AI 領域,AWS 全面強化基礎設施、模型和應用程式三層技術堆疊,幫助企業更輕鬆、更經濟實惠地將生成式 AI 應用於實際業務場景。此次新發布包括:推出 Amazon Nova 六款基礎模型;生成式 AI 基礎模型託管服務 Amazon Bedrock 新增 100 多款模型,並推出 AI 安全防護機制、多代理合作(multi-agent collaboration)和模型蒸餾等重磅更新,全面優化推論場景的準確性、成本和回應速度;生成式 AI 支援助理 Amazon Q 更加深入軟體開發和商業應用場景,並為傳統工作負載轉型開闢新途徑;完全託管的機器學習平台 Amazon SageMaker AI 將幫助客戶更快、更輕鬆地建構、訓練及部署模型。

廣告(請繼續閱讀本文)
  • Amazon Nova 大幅降低基礎模型成本:Amazon Nova 一發布即成為全球領先基礎模型的重要系列,包括 Nova Micro、Nova Lite、Nova Pro 和 Nova Premier 基礎模型,以及用於生成高品質圖片的 Nova Canvas 和生成高品質影片的 Nova Reel。在各自的類別中,Amazon Nova Micro、Lite 和Pro 的應用成本比 Amazon Bedrock 中表現最佳的模型至少降低 75%,同時也是 Amazon Bedrock 上相同級別的模型中,速度最快的模型。

  • Amazon Bedrock 平台能力全面升級:Amazon Bedrock 模型選擇全面升級,AWS 成為首家提供 Luma AI 和 poolside 模型的雲端服務供應商,並且新增 Stability AI 的最新模型,還透過新推出的 Amazon Bedrock Marketplace 功能為客戶提供 100 多個熱門、新興及專業模型;同時,Amazon Bedrock 推出低延遲優化推論、模型蒸餾、提示詞快取等功能,大幅提升推論效率;支援 GraphRAG 等知識庫功能,提升資料運用能力;透過自動推理檢查(Automated Reasoning checks)功能和多代理合作等創新,進一步提升AI安全性,並推動智慧代理發展。

  • Amazon Q 擴展應用場景:Amazon Q Developer 增加三款新的智慧代理,能自動執行單元測試、文檔生成及程式碼檢查流程,並透過與GitLab深度整合,擴展應用場景;推出轉型功能,以加速 Windows.NET、VMware 和大型主機工作負載的遷移和現代化,縮短轉型時間並降低成本;強化 Amazon Q Business 和 Amazon Q in QuickSight 的洞察能力,並自動化複雜的工作流程。

  • 基礎設施創新:推出 Amazon SageMaker 的四項 AI 創新,包括 Amazon SageMaker HyperPod 新的訓練配方(recipe)功能、彈性訓練計畫和任務治理功能,以及在 Amazon SageMaker 中使用 AWS 合作夥伴的熱門 AI 應用程式。這些功能將幫助客戶更快開始訓練熱門模型,透過彈性訓練計畫節省數周時間,並將成本降低高達 40%。

AWS 於活動現場展示最新生成式 AI 服務。

資料體驗升級,統一平台釋放資料價值

現今,越來越多客戶不再分開使用不同的資料分析工具,而是正在將分析、機器學習(ML)和生成式 AI 互相結合來獲取洞察。AWS 推出的新一代 Amazon SageMaker 提供一個新的、統一的編輯器,為客戶提供單一的資料和 AI 開發環境,用戶可以在其中尋找和使用組織中的所有資料,為各種常見的資料應用案例選擇最佳工具,並與不同團隊和角色合作,以擴展資料和 AI 專案。

  • 新一代 Amazon SageMaker:將快速 SQL 分析、PB 級資料處理、資料探索和整合、模型開發和訓練以及生成式 AI 等功能統一到一個平台。透過全新的 Amazon SageMaker Unified Studio,客戶可以輕鬆尋找和使用組織內的所有資料資源,並借助 Amazon Q Developer 選擇最適合的工具來處理資料。Amazon SageMaker Catalog 和內建的治理功能則能確保資料、模型和開發套件的使用合規。此外,透過零 ETL(zero-ETL)與領先SaaS 應用程式的整合,客戶無需建構複雜的資料管道,即可在 Amazon SageMaker Lakehouse 和雲端資料倉儲 Amazon Redshift 中分析合作廠商的應用程式資料。

  • 推出 Amazon SageMaker Lakehouse:實現資料湖、資料倉儲、營運資料庫和企業應用程式資料的統一管理,支援客戶使用熟悉的 AI 和 ML 工具或與 Apache Iceberg 相容的查詢引擎來使用和處理資料。

全方位創新,升級基礎設施技術

作為全球雲端運算的開創者和領導者,AWS 在運算、網路、儲存和資料庫等核心領域持續創新,為各類工作負載提供更強大的底層架構支援。

  • 自研晶片引領運算力創新:基於 AWS Trainium2 的 Amazon Elastic Compute Cloud(Amazon EC2)Trn2 執行個體正式可用,相較於目前 GPU 執行個體性價比提升 30% 至 40%;推出配備 64 個 Trainium2 晶片的 EC2 Trn2 UltraServers 伺服器,提供高達 83.2 Petaflops 浮點運算力,運算力是單一執行個體的四倍。在大規模訓練方面,Project Rainier 叢集搭載數十萬個 Trainium2 晶片,運算力超越以往叢集五倍以上。採用 3 奈米工藝的下一代 AWS Trainium3 晶片預計在 2025 年末上線,將使叢集效能提升四倍,並在效能、能效和密度上樹立新標準。

  • 網路基礎設施升級:推出第二代 UltraCluster 網路架構,也稱為 10p10u 網路,支援超過 20,000 個 GPU 同步工作,頻寬達 10Pb/s,延遲低於 10ms,這項突破性升級將模型訓練時間縮短至少 15%。

  • 儲存服務強化資料處理能力:雲端可大規模擴展的物件儲存服務 Amazon Simple Storage Service(Amazon S3)新增 Metadata 中繼資料功能,實現自動獲取和即時更新資料;推出專為Iceberg表格優化的 S3 Tables 儲存類型,將查詢效能提升三倍,交易處理能力提升 10 倍。

  • 資料庫服務新突破:全新的無伺服器分散式 SQL 資料庫 Amazon Aurora DSQL 採用 active-active 架構並具備自動故障修復功能,支援應用程式在任意端點進行讀寫。不僅提供 99.999% 的多區域可用性,還能實現近乎無限的可擴展性,且無需進行資料庫分區(sharding)或執行個體升級。同時,快速 NoSQL 鍵值資料庫 Amazon DynamoDB global tables 新功能新增支援橫跨多區域的強大一致性,進一步升級分散式資料庫服務。

  • 資料中心設計重塑基礎設施:透過簡化電力分配和機械系統,使基礎設施可用性達99.9999%,並將受電力問題影響的機架數量減少 89%。創新的「液體到晶片」冷卻系統無縫整合空氣和液體冷卻功能,使機械能耗降低 46%,全新的設計更讓每個站點增加 12%的運算能力。同時,在永續方面取得重要突破,採用可再生柴油作為備用發電系統燃料,與傳統化石柴油相比,溫室氣體排放可減少 90%,而資料中心建築的混凝土固有碳排放量相較於業界平均水準最高可降低 35%。

助力全球企業在 AWS 上重塑未來

眾多新創企業與產業領袖正在使用 AWS 持續創新,從AI前瞻探索到金融風險管控、從數位娛樂體驗優化到生技製藥科學發展,AWS 正助力各行各業加速創新,突破既有模式、重塑未來。

在亞馬遜,Amazon Kindle 的技術支援工程師採用 Amazon Q Developer 的營運調查功能後,問題解決速度提升了 65% 至 80%,這使他們能夠更快地回應客戶需求,確保提供卓越的用戶體驗。Amazon Music 的開發人員將 Amazon Q 視為全天待命的得力助理,能自動調查並辨識各種潛在問題,大幅提升了回應速度。初步的使用資料顯示,Amazon Music 的問題解決速度提升了一倍,確保聽眾能不間斷地享受喜愛的音樂。

Anthropic 專注於 AI 安全和研究,致力於打造可靠、可判斷和可控的 AI 系統,Anthropic 的旗艦產品 Claude 是全球數百萬使用者信賴的大型語言模型。Anthropic 已開始優化 Claude 模型,以便在亞馬遜最先進的 AI 硬體 Trainium2 上運行。Anthropic 也計畫使用數十萬個 Trainium2 晶片,為在 Amazon Bedrock 上使用 Claude 的客戶提供卓越的效能表現,此規模超越以往叢集五倍以上。

領先的生物科技公司羅氏羅氏(Roche),致力於推動科學進步以改善人們的生活。羅氏將使用 Amazon SageMaker Lakehouse 統一來自 Amazon Redshift和Amazon S3 資料湖的資料,以消除資料孤島,強化團隊之間的合作,並允許使用者無縫使用資料,無需昂貴的資料移動或重複的安全存取控制。借助 Amazon SageMaker Lakehouse,羅氏預計資料處理時間將減少 40%,這幫助他們減少資料管理工作,能將更多精力用於推動業務發展。

(本文訊息由 AWS 提供,內文與標題經 TechOrange 修訂後刊登。新聞稿 / 產品訊息提供,可寄至:pr@fusionmedium.com,經編輯檯審核並評估合宜性後再行刊登。圖片來源:AWS。 )

加入『 TechOrange 官方 LINE 好友』 掌握最新科技資訊!

查看原始文章