【科技早餐】祖克柏替自己做 AI 代理,Meta 開始重寫公司的工作方式
【科技早餐】今天精選 8 則國內外重要科技新聞。
*祖克柏替自己做 AI 代理,Meta 把 AI 推進公司工作核心
根據《華爾街日報》報導,Meta 執行長祖克柏 (Mark Zuckerberg) 正在打造一個「執行長 AI 代理」,協助自己更快取得公司內部資訊,縮短原本需要透過多層員工才能完成的流程。報導也指出,Meta 內部已有員工使用可存取聊天紀錄與工作檔案的個人代理工具,讓 AI 不只是產品功能,而是逐步進入日常工作系統。
Meta 近期也成立新的應用 AI 工程組織,專門用 AI 加速大型語言模型的開發,並持續推動更扁平化的團隊結構。從祖克柏自己的工作方式,到員工績效與組織設計,Meta 正把 AI 採用視為競爭力核心,試圖讓大公司也維持 AI 原生新創那種快速運作的節奏。
*黃仁勳把 Token 當管理指標,AI 算力開始進入薪酬邏輯
NVIDIA 創辦人暨執行長黃仁勳近日在《All-In Podcast》表示,如果一位頂尖工程師在 AI 上投入太少,他會非常擔心。黃仁勳舉例,一名年薪 50 萬美元的工程師,如果一年使用的 Token 不到 25 萬美元,代表沒有充分利用 AI 工具;若想讓工程師效率提升,公司就必須給足算力資源,而不是讓他們回到只靠紙筆或傳統流程工作的方式。
黃仁勳也提到,Token 正逐漸成為矽谷招聘的新條件。除了薪資、獎金與股票之外,企業可能開始把可使用的 AI 推論資源視為人才競爭的一部分。當 Token 從模型計費單位,轉變成效率與招募條件,代表 AI 算力已不只是基礎設施成本,也開始進入企業的人才制度與管理邏輯。
*OpenAI 要把員工翻倍到 8,000 人,擴編迎戰 Anthropic 與 Google
根據外媒報導,OpenAI 計畫在 2026 年底前,將員工數從目前大約 4,500 人擴大到 8,000 人,新聘人力將主要集中在產品開發、工程、研究與銷售。報導也指出,OpenAI 已在舊金山租下新的辦公室,目前在當地的總辦公面積已超過 100 萬平方英尺,反映整體組織仍在快速擴張。
這波擴編正值 AI 競爭持續升溫之際。OpenAI 不只要面對 Anthropic、Google 與 Microsoft 等對手,也持續透過收購補強開發者工具與 AI 安全部署能力。從模型、產品到企業導入,競爭已不再只關乎技術,而是快速補齊商業化與銷售能力,把 AI 真正推進企業流程裡。
*白宮要推全國統一 AI 規則,美國開始收攏監管框架
美國白宮公布一項 AI 政策框架,川普政府呼籲國會建立全國統一法規,取代各州分散立法,並同時處理兒童保護、能源成本與產業發展等議題。白宮科技政策顧問 Michael Kratsios 表示,美國需要的是一套聯邦級 AI 規範,而不是由 50 州各自拼湊的制度,以免削弱美國在 AI 競爭中的速度與一致性。
這份框架也主張簡化高耗電資料中心的許可流程,讓業者更容易自建電力設施,以支撐 AI 發展帶來的能源需求。除了兒童安全與詐騙防制,政策內容也涵蓋國安、智慧財產權、言論自由與人才培育。對美國來說,AI 監管不再只是風險管理,而是直接與基礎建設、能源配置與國家競爭力綁在一起。
*馬斯克啟動 Terafab 計畫,地表最大晶片廠瞄準「超乎想像」產能
特斯拉 (Tesla) 與太空探索科技公司 (SpaceX) 創辦人暨執行長馬斯克 (Elon Musk) 宣布正式啟動 Terafab 計畫,預計在美國德州奧斯汀 (Austin) 附近打造先進半導體製造設施,生產 AI、機器人與太空資料中心所需晶片。根據目前披露內容,這項計畫不只做晶片設計,也將涵蓋製造、測試與改良;外媒更形容,它瞄準的可能是「地表最大晶片廠」等級的產能規模。
馬斯克表示,Terafab 將由 Tesla 與 SpaceX 共同運作,長期目標是支撐地球每年 100 到 200GW 算力,以及太空中 1TW 的運算需求。外媒指出,初期投資金額可能介於 200 到 250 億美元之間。馬斯克也坦言,現有供應鏈擴產速度仍遠低於未來需求,Terafab 最終更將協助人類成為能夠利用其他行星與恆星資源的「銀河文明」。
*AI 基建愈擴愈快,科技巨頭的碳權採購也同步暴增
隨著生成式 AI 帶動資料中心快速擴張,Microsoft、亞馬遜 (Amazon)、Google 與 Meta 等科技巨頭,也開始大幅增加碳移除額度的採購。根據碳權管理平台 Ceezer 統計,科技巨頭購買的永久性碳移除額度,自 2022 年以來快速放大,2024 年與 2025 年更分別年增 104% 與 181%,顯示 AI 基礎設施擴張,正同步推高企業處理排放的需求。
背後原因很直接。大型語言模型與資料中心需要龐大電力與用水,當再生能源供應還沒完全跟上,碳權就成了科技公司在擴建 AI 的同時,處理排放壓力的短期工具。也就是說,AI 的外部成本現在不只反映在電網和土地,也開始明確反映在企業的碳管理帳上。
*阿里巴巴蔡崇信談中國 AI 優勢:不是只有模型,還有電力、開源與製造
阿里巴巴集團主席蔡崇信在中國發展高層論壇表示,中國當前 AI 發展的主要優勢,來自電力投資、模型開源以及智慧製造。蔡崇信指出,過去 10 年中國每年在電力領域投資高達 900 億美元,為 AI 提供充足且相對低成本的能源基礎;同時,中國對開源的投入,也正在降低技術門檻,讓 AI 更快往外擴散。
蔡崇信也強調,中國最大的優勢之一仍是完整製造業體系。當製造流程持續數位化與智慧化,大量工業數據會成為訓練與落地 AI 的核心資源。對中國科技產業來說,AI 的競爭不只在前沿模型,而是能不能把能源、開源與製造能力接起來,形成真正可規模化的應用場景。
*美光看見下一波需求,L4 自駕車每台可能要 300GB 記憶體
美光執行長 Sanjay Mehrotra 表示,未來具備 Level 4 自動駕駛能力的車輛,單車所需記憶體容量可能從目前約 16GB,大幅提升到 300GB。這意味著,當汽車逐步從電子控制系統走向更高階的自主運算平台,車用記憶體需求也將被重新定義,並可能打開下一波高容量、高規格的供應鏈機會。
除了自駕車之外,美光也認為人形機器人作為另一種 AI 載體,對記憶體的需求可能與車輛接近。若未來 Robotaxi、商用自駕服務與機器人應用同步擴張,記憶體供應壓力可能不只出現在資料中心,也會延伸到邊緣裝置與車用市場,讓記憶體成為實體 AI 時代更值得關注的關鍵零組件。
*本文開放合作夥伴轉載,資料來源:《The Wall Street Journal》、《Business Insider》、《CNBC1》、《Reuters》、《Bloomberg》、《CNBC2》、《Tech in Asia》、《Tom’s Hardware》,首圖來源:Unsplash。