年薪 55.5 萬美元的「災難預測師」:OpenAI 急徵高階主管,奧特曼究竟在怕什麼?
OpenAI 正在尋找一位能夠預測並阻止 AI 潛在災難的高階主管:緊急準備主管(Head of Preparedness)。這份工作的基本年薪高達 55.5 萬美元(約新台幣 1,742 萬元),外加股權,但執行長奧特曼直言這將是一份「壓力爆表」的工作。
千萬年薪的任務:預測 AI 風險並制定防護網
根據 OpenAI 的職缺說明,這名主管隸屬於安全系統團隊,負責領導公司「準備框架(Preparedness Framework)」的技術策略與執行,需與研究、政策和產品團隊合作。具體來說,這個職位必須追蹤並評估前沿模型可能帶來的嚴重風險,包括網路安全威脅、生物威脅,以及模型自我改進所帶來的潛在危險。這不只是紙上談兵,該主管有權設定風險門檻,並決定是否需要額外的安全措施,這些判斷將直接影響新模型或新功能是否能夠發布。
想要拿到這份高薪並不容易。OpenAI 要求候選人必須具備大型技術系統、安全性、風險分析或安全治理方面的深厚經驗,並且要有能力將複雜的研究成果轉化為實際的操作控制。奧特曼在社群平台 X 上發布這項職缺時承認,隨著模型能力快速提升,雖然帶來了巨大好處,但也開始浮現「真正的挑戰」,而這是一份「幾乎立刻跳入深水區」的工作。
AI 的潛在風險:從心理健康到網路攻擊
在招募公告中,奧特曼特別點名兩項近期快速升溫的風險:一是 AI 對使用者心理健康的潛在影響,二是模型在電腦安全領域的能力,已經強到足以主動發現關鍵資安漏洞。
這些擔憂並非空穴來風。《SiliconAngle》報導,OpenAI 在 10 月透露,每週有超過 100 萬名用戶,會在與 ChatGPT 的對話中表達嚴重心理困擾。雖然數據並未顯示 ChatGPT 直接造成問題,但已突顯 AI 在心理層面扮演的角色正快速擴大。另一方面,業界也越來越關注 AI 協助駭客攻擊、漏洞探索與自動化網路攻擊的可能性。
安全團隊大換血,OpenAI 急尋新掌舵者
這項高階招募也發生在 OpenAI 安全領導層經歷劇烈變動之後。原任緊急準備主管的 Aleksander Madry 於 2024 年年中被調職,隨後接手相關職責的高階主管 Lilian Weng 已離開公司,而另一位高管 Joaquin Quiñonero Candela 則轉調負責招募工作,導致該職位目前懸缺。
此外,該公司原本的安全團隊領導人 Jan Leiki 曾在 2024 年 5 月辭職,並公開批評公司的安全文化與流程已讓位給光鮮亮麗的產品開發。這使 OpenAI 在推進商業化的同時,必須更積極地透過此次招募,證明其對建立嚴格、可擴展的安全管道之承諾。
立即報名 1/10【2026 AI 人才年會】,聽簡立峰、台積電、NVIDIA 等重磅講者剖析與 AI 協作成為超級人才的關鍵戰略!
*本文開放合作夥伴轉載,資料來源:OpenAI、Sam Altman、《SiliconAngle》、《The Verge》、《money control》、《Business Insider》,首圖來源:Unsplash