請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

《紐約客》揭露OpenAI奧特曼的「絕地控心術」!是天才領導者還是頂級騙子?

anue鉅亨網

更新於 2天前 • 發布於 2天前
圖:Pixabay/Unsplash/Pexel

《紐約客》最新文章指出,儘管 OpenAI 執行長奧特曼(Sam Altman)表示,他將致力於成為人工智慧(AI)的可信守護者。然而,一些同事對此持懷疑態度,其中一人甚至直言,他不應該「掌握決策權」,使外界依舊懷疑奧特曼到底是否可信。

本文即將刊登於 2026 年 4 月 13 日的《紐約客》雜誌,印刷版標題為「Moment of Truth.」作者為曾獲得普立茲獎和喬治波爾克獎的《紐約客》特約撰稿人 Ronan Farrow。

《紐約客》指出,奧特曼常被稱為其世代最頂尖的推銷員,能讓各方相信他的目標就是他們所需。其導師、Y Combinator 創辦人格雷厄姆(Paul Graham)曾形容他即使被丟到荒島,五年後也能成為「國王」,凸顯他幾近失控的求勝心。

格雷厄姆還指出:「區區規則擋不住奧特曼。」

而奧特曼親近的同事、OpenAI 的聯合創始人蘇茨克維(Ilya Sutskever)與 Anthropic 創辦人兼執行長阿莫迪(Dario Amodei),卻在備忘錄中批評他說法前後矛盾、操控同僚,認為這不利於 AI 安全。

前董事與內部人士也指出,他擁有強烈權力欲,能說服工程師與投資者,甚至在必要時無視誠實與規則。

報導指出,奧特曼並非技術專家,但憑藉話術與策略,能暫時化解衝突、達成目的。前 OpenAI 研究員形容他的說服力幾乎是「絕地控心術」,在智力較量中,他能以小勝大,如同「AGI 逃出牢籠」。

魅力與爭議並存:奧特曼的說服力、權力欲與反社會特質

《紐約客》採訪了逾一百名親歷奧特曼商業運作的人士,包括現任與前任 OpenAI 員工、董事、奧特曼各處宅邸的賓客與工作人員、同事與競爭對手、朋友與敵人,以及在矽谷逐利文化中兼具多重身份的人。

部分受訪者支持奧特曼的商業才能,駁斥其對手(尤其是蘇茨克維和阿莫迪)為妄圖奪權的失敗者,或形容他們為輕信、心不在焉的科學家,甚至被「末日論」裹挾、幻想自己研發的軟體能復活殺人。

前董事蘇 · 尹認為,奧特曼「並非馬基雅維利式惡棍」,只是「無能到能說服自己相信推銷說辭裡不斷變化的現實」。

她補充說:「他過度沉浸於自我信念,所以做出現實中毫無意義的事,根本活在自己的世界裡。」

然而,大多數受訪者同意蘇茨克維和阿莫迪的評價:奧特曼擁有不屈不撓的權力欲,即便在那些將名字刻在太空飛船上的實業家中也格外突出。

一名董事指出:「他不受真相約束,具備兩種極少並存的特質:一是極度渴望取悅他人,任何交流中都想被喜歡;二是近乎反社會般無視欺騙他人的後果。」

這名董事並非唯一將奧特曼形容為「反社會」的人。奧特曼在 YC 首批同期學員、已故程式設計師亞倫 · 施瓦茨去世前曾向多位朋友警告:「你要明白,山姆永遠不值得信任,他是反社會者,什麼事都做得出來。」

多名微軟高層表示,雖然納德拉長期對奧特曼忠誠,但公司與他的關係已緊張。一位高層指出:「他歪曲事實、篡改協議、出爾反爾。」

今年初,OpenAI 重申微軟為其「無狀態」模型的獨家雲服務商,但同日又宣布與亞馬遜達成 500 億美元交易,使亞馬遜成為企業 AI 代理平台的獨家轉售商。

儘管此舉法律上允許,但微軟高層認為與其獨家權可能衝突。該高層評價奧特曼:「我認為有小但真實的可能,他最終會被視作伯尼 · 麥道夫或山姆 · 班克曼 - 弗里德級別的騙子。」

奧特曼並非技術專家。多位身邊人士指出,他缺乏程式設計和機器學習的深厚專業知識,工程師回憶他經常誤用或混淆基礎技術術語。他主要靠整合資金和技術人才打造 OpenAI,這對商人而言並不特別。

然而,他最突出之處在於能說服謹慎的工程師、投資者及懷疑科技的公眾,即便這些人之間的需求相互矛盾,也能暫時接受他的方案。當有人試圖阻止他的行動,他總能用話術化解,通常等對方失去耐心時,他已達成目的。

前 OpenAI 研究員溫賴特指出:「他設立看似能約束自己的架構,但真正需要受約束時,就直接拋棄這些架構。」

一名曾與奧特曼合作的科技高層稱:「他的說服力極強,幾乎是絕地控心術,水準登峰造極。」

蘇茨克維備忘錄揭奧特曼管理爭議:信任危機引發董事會解職決定

根據報導,2023 年秋,蘇茨克維向董事會發送機密備忘錄,質疑執行長奧特曼及副手布羅克曼(Greg Brockman)是否適合管理公司。

雖然蘇茨克維和奧特曼曾是好友,但他認為奧特曼不應「手握決策權」,擔憂公司即將開發出媲美或超越人類的 AI。

應董事要求,蘇茨克維與同事整理約七十頁的 Slack 聊天記錄、人資文件及說明文字,其中還包括手機拍攝的照片,以避免在公司設備上留下痕跡。

備忘錄指控奧特曼向高層和董事歪曲事實,並在內部安全規程上欺騙他們,其中一份備忘錄甚至直接指出,奧特曼已經習慣「說謊」。

《紐約客》指出,OpenAI 自成立起就與多數科技公司不同,其創始人,包括奧特曼、蘇茨克維、布羅克曼與馬斯克,認為 AI 可能是人類歷史上最強大也最危險的發明,因此公司以非營利形式成立,董事會須將人類安全置於公司利益之上。

蘇茨克維指出,掌握這項技術的人肩負前所未有的責任,但最終擔任執行長的人往往熱衷權力。他在備忘錄中表達擔憂:將技術交給只會迎合他人的人極具風險。

若執行長被認定不可靠,六人董事會有權解職,而部分董事在審閱備忘錄後更確信:奧特曼雖肩負人類未來,但不值得信任。

隨後,蘇茨克維在拉斯維加斯觀看 F1 賽事期間,邀請奧特曼參加董事會視訊會議,並宣讀簡短聲明,通知奧特曼已不再是 OpenAI 員工。

董事會則對外僅表示解除其職務是因「在溝通中未能始終保持坦誠」。此舉震驚 OpenAI 投資者與高層,而投入約 130 億美元的微軟 (MSFT-US) 事發前甚至毫不知情。

微軟執行長納德拉事後表示:「非常震驚,完全摸不著頭腦。」投資者霍夫曼也承認,他們曾懷疑可能涉及挪用公款或性騷擾,但查無實據。

根據報導,支持解雇奧特曼的同事指控其嚴重欺騙,對掌控顛覆性技術的領導者尤其危險。前任 OpenAI 技術長穆拉蒂表示,他分享的觀察均屬實,對此負責;奧特曼的盟友則長期反駁這些指控。

然而,被解雇不到五天,奧特曼便官復原職。員工戲稱此事為「小插曲」,但關於他是否值得信任的爭論已擴散至 OpenAI 董事會之外。

奧特曼的野心與爭議:從 AI 擴張到信任危機

此後,OpenAI 成為全球最具價值公司之一,據稱正籌備首次公開募股,潛在估值達兆美元。奧特曼積極推動規模龐大的 AI 基礎設施建設,其中部分部署在海外。OpenAI 也獲得大量政府合約,為移民執法、國內監控及戰區自主武器的 AI 應用制定標準。

奧特曼在 2024 年的部落格中描繪願景,推動 OpenAI 發展:「修復氣候、建立太空殖民地、破解物理奧秘,終將變得尋常。」

他的言論支撐公司以史上最快速度燒錢,合作方大舉借債。美國經濟愈加依賴少數高槓桿 AI 公司,專家(包括奧特曼本人)都警告 AI 存在泡沫。

奧特曼去年曾表示:「有人會損失巨額資金。」但若最樂觀預測成真,他可能成為全球最富有、最有權勢的人之一。

奧特曼被解雇後的一次緊張通話中,董事會要求他承認存在習慣性欺騙。據在場人士,他反覆說:「這太離譜了,我改不了自己的性格。」

奧特曼回憶稱,他可能想表達的是「我想成為凝聚人心的力量」,認為這特質助他領導公司成功,並將批評歸因於早期「過於回避衝突」。

但一名董事解讀為:「他的意思是『我就是愛撒謊,而且不會改』。」事件引發疑問:解雇他是否源於危言聳聽與私人恩怨,還是董事判斷正確,他真的不值得信任?

《紐約客》指出,奧特曼成長於密蘇里州克萊頓的富裕郊區,是家中四個孩子的長子,母親為皮膚科醫生、父親從事房地產並關注住房權益。他曾就讀私校與改革派猶太教堂,坦言校園環境並不友善於公開同性戀身份。

青少年時期,奧特曼曾在聖路易斯同志社區遭受暴力攻擊,雖未報案,也不願多談,但承認可能留下心理陰影。

其弟則形容他自小就有強烈掌控與求勝慾。奧特曼後就讀史丹佛,並沉迷校外撲克遊戲,認為從中學到的商業與人生經驗甚至多於課堂所學。

矽谷新星奧特曼:Loopt 爭議與 Y Combinator 總裁之路

在充滿創業野心的史丹佛環境中,奧特曼大二便加入 Y Combinator 首批創業計畫,並推出定位社交平台 Loopt。他展現強烈進取心,也被指傾向將模糊情況往有利於自己的方向解讀,甚至與電信商合作運用定位功能。

雖然 Loopt 多數員工喜歡他,但部分人認為他常誇大其詞,連小事亦然。投資人委派的資深員工更直言,他容易混淆「可能做到」與「已經做到」的界線,極端情況甚至可能走向類似 Theranos 的詐騙風險。

報導指出,因質疑其領導能力與不透明作風,多名資深員工曾兩度要求董事會撤換奧特曼,不過也有人對他展現高度忠誠,甚至有董事力挺「這是山姆的公司」。

Loopt 成長不順,最終於 2012 年被收購,外界認為部分是為替奧特曼挽回顏面。儘管爭議不斷,2014 年公司創辦人格雷厄姆仍指定他接任 Y Combinator 總裁,並形容奧特曼當時露出罕見且毫不掩飾的喜悅。

28 歲的奧特曼出任 Y Combinator 總裁後,成為矽谷重要的創業推手,負責挑選潛力新創並對接資源,推動孵化器規模從數十家擴展至數百家。

不過,部分投資者質疑他偏袒特定公司,甚至優先自身投資利益,但遭奧特曼否認。他也曾因投資策略與合作夥伴產生摩擦。

到 2018 年,多名合夥人對其作風不滿並向格雷厄姆反映,儘管奧特曼表示將轉任董事長並退出日常管理,但實際離任過程反覆,職務變動一度出現不一致紀錄。

2019 年 5 月,Y Combinator 宣布新任總裁時稱奧特曼將轉任董事長,但數月後改為已辭去所有職務,隨後相關說法又被刪除。儘管如此,直到 2021 年,美國證券交易委員會文件仍將他列為董事長(奧特曼稱事後才知情)。

報導指出,多年來,奧特曼始終強調自己未曾被 Y Combinator 解雇,也否認拖延離職。格雷厄姆公開表示,當時只是要求他在 YC 與 OpenAI 之間做出選擇,並稱 YC 無權正式解雇任何人。

但格雷厄姆私下卻指出,奧特曼是因合夥人失去信任而被迫離開。多方受訪與資料亦顯示,此次離職並非完全出於自願,且格雷厄姆曾指稱他在被免職前「一直在說謊」。

OpenAI

2015 年,奧特曼致信當時的富豪馬斯克,討論 AI 可能帶來的生存風險。雖奧特曼原本偏向技術樂觀,他之後轉向更具警示意味的立場,認為 AI 不應由逐利科技巨頭主導,甚至提出類似「AI 曼哈頓計畫」的構想,強調以安全為首要原則。

最終,他與馬斯克共同確立了組織名稱 OpenAI。

不同於政府主導的曼哈頓計畫,OpenAI 最初由私人資金支持。奧特曼認為,超級 AI 將創造龐大經濟價值,甚至「捕獲未來宇宙的價值」,但同時警告其存在性風險,極端情況下可能被美國政府接管甚至國有化,最終馬斯克被說服出資。

2015 年底,馬斯克同意投入最高 10 億美元資金。初期,奧特曼將 OpenAI 納入 Y Combinator 的非營利體系,透過 YC 分配股權與資金支持(他後稱自身持股影響有限)。

OpenAI 的人才策略被比作曼哈頓計畫:在小眾但關鍵的機器學習領域,爭奪少數頂尖天才。

面對資金與資源遠落後於 Google,馬斯克與奧特曼仍認為,只要持續吸引最優秀人才並走對方向,最終能勝出。

核心招募對象包括被視為頂尖 AI 科學家的蘇茨克維,以及阿莫迪。兩人原本任職高薪機構,卻成為奧特曼極力延攬的關鍵人物,他甚至笑稱自己曾「跟蹤」蘇茨克維以挖角他。

《紐約客》指出,雖然馬斯克名氣更大,但奧特曼手段更圓滑。他以一對一晚餐方式約談阿莫迪,贏得信任。阿莫迪認為 AI 必須與人類價值觀「對齊」才能安全發展,奧特曼表示認同。

阿莫迪後來加入 OpenAI,多年來詳細記錄奧特曼與布羅克曼的行為,形成超過兩百頁的內部文件,強調奧特曼目標是建立「以安全為核心的 AI 實驗室」。

OpenAI 創始人們相信,AI 若受控,可帶來後稀缺烏托邦時代:自動化繁重工作、治療疾病、讓人類享受富足生活;若失控或落入惡人之手,則可能徹底毀滅,包括模型自我複製、掌控電網或核武庫。

奧特曼深信這一風險,他在 2015 年的部落格警告,超人類 AI 可能對人類漠不關心,為實現目標將我們消除。

OpenAI 承諾以安全優先、造福人類為法定使命,並保持非營利性質,新員工因此降薪入職,公司接受慈善資金,包括當時名為「開放慈善計畫」的機構 3000 萬美元資助。

布羅克曼和蘇茨克維負責 OpenAI 日常營運,馬斯克和奧特曼每週才來公司一次。

從警示到行動:奧特曼與馬斯克共同創立 OpenAI

2017 年 9 月,馬斯克對 OpenAI 可能重組為營利公司失去耐心,要求若要盈利,他要掌握多數控制權。

奧特曼的核心立場則是:若設首席執行官,必須由自己擔任。蘇茨克維代表自己和布羅克曼致信馬斯克與奧特曼,表達擔憂,指出首席執行長頭銜可能導致「AGI 獨裁」,並質疑奧特曼要求執行長頭銜的要求。

馬斯克最終警告,要不是奧特曼他們獨立創業,就是 OpenAI 保持非營利運作,五個月後他則憤然辭職。

2023 年,他創立營利性競爭對手 xAI,次年對奧特曼及 OpenAI 提起訴訟,指控欺詐及濫用慈善信託,案件仍在進行中,OpenAI 予以抗辯。

馬斯克離開後,阿莫迪等研究員對布羅克曼(被部分人視為強勢)與蘇茨克維(原則性強但缺乏條理)的領導表達不滿。

在奧特曼升任首席執行長期間,他對不同團隊做出不同承諾:一方面向部分研究員保證削弱布羅克曼權力,另一方面又與布羅克曼和蘇茨克維達成秘密協議稱,他擔任執行長,但若兩人認為有必要,奧特曼同意辭職。

雖然他否認,但三人都確認協議存在,布羅克曼形容為非正式約定。隨後董事會發現首席執行長私下設立「影子董事會」,感到震驚。

內部紀錄顯示,創辦人早在 2017 年就對 OpenAI 的非營利架構心存疑慮。馬斯克當年試圖掌權後,布羅克曼在日記中寫下對非營利轉型的保留意見。

阿莫迪回憶,早期曾詢問布羅克曼優先事項,對方直言追求「金錢與權力」,但日記中也流露矛盾心態:既寫「只要沒人暴富,我自己不賺也無妨」,但同時又自問「我到底真的想要什麼?」,並列出包括「實現 10 億美元財富」的目標。

OpenAI 內部裂痕與安全考量:從 Transformer 革命到團隊分裂

2017 年,蘇茨克維在辦公室讀到 Google(GOOGL-US) 研究員剛發表的一篇論文,提出「全新簡單的網路架構:Transformer」。

他立刻興奮起來,跑到走廊告訴同事:「停下手邊的所有事,就是這個了。」蘇茨克維意識到,Transformer 可能讓 OpenAI 訓練出更先進的模型,最終催生了首個生成式預訓練 Transformer——ChatGPT 的雛形。

隨著技術日益成熟,約十二名 OpenAI 頂尖工程師秘密召開多次會議,討論是否信任包括布羅克曼和奧特曼在內的創始人。

其中一次會議中,一名員工引用英國喜劇小品《That Mitchell and Webb Look》的橋段,一名納粹士兵突然醒悟問道:「我們是壞人嗎?」來形容公司心態。

到了 2018 年,阿莫迪開始公開質疑創始人的動機。他在紀錄中寫道:「一切都是輪番上演的融資遊戲。我認為 OpenAI 需要明確使命、界限,以及如何真正改善世界。」

儘管 OpenAI 已有使命宣言「確保 AGI 造福全人類」,但阿莫迪不確定公司高層是否真正理解。

2018 年初,阿莫迪開始起草公司章程,並與奧特曼、布羅克曼討論數周,推動加入最激進條款:若任何「價值觀對齊、重視安全」的團隊先於 OpenAI 研發出 AGI,OpenAI 將「停止競爭並提供協助」。

這代表,若 Google 研究員率先研發出安全 AGI,OpenAI 可停止營運並捐贈資源。雖在常規企業邏輯下近乎瘋狂,但 OpenAI 本就不是一般公司。

2019 年春,OpenAI 與微軟就十億美元投資展開談判,但交易前提受到考驗。負責公司安全的阿莫迪協助向比爾 · 蓋茲介紹交易,但團隊多數成員擔心微軟加入的條款會削弱 OpenAI 的道德承諾。

阿莫迪向奧特曼提交安全要求清單,將保留「合併協助條款」列為首要事項,奧特曼最初同意。

然而,6 月交易即將完成時,阿莫迪發現新增條款賦予微軟阻止 OpenAI 任何合併的權力。他回憶道:「章程 80% 的內容被背叛了。」阿莫迪當場朗讀條款內容,迫使另一名同事確認其存在,奧特曼則稱他不記得此事。

紀錄顯示,雙方矛盾持續升級,數月後奧特曼傳喚阿莫迪與其妹妹丹妮拉,聲稱獲得「可靠消息」,指兩人密謀政變。丹妮拉當場情緒激動並找高層對質,對方否認曾說過此話。

知情人士回憶,奧特曼後來也否認自己說過這番話,只稱阿莫迪兄妹有「政治操弄行為」。

2020 年,阿莫迪、丹妮拉及其他同事離職成立 Anthropic,現為 OpenAI 主要競爭對手之一。

安全承諾與現實落差:OpenAI 內部的算力分配與對齊困境

奧特曼仍強調 OpenAI 對安全的承諾,尤其向潛在新員工宣傳。2022 年底,四名電腦科學家發表論文,部分因擔心「欺騙性對齊」,即高度先進的 AI 可能在測試中表現良好,但部署後追求自身目標。

論文發布數週後,其中一名加州大學伯克利分校博士生收到奧特曼郵件,表達對未對齊 AI 的擔憂,並提及可能投入 10 億美元或設立獎勵,鼓勵全球研究者研究這一 AI 領域最重要的挑戰。

這名博士生雖曾「聽聞奧特曼圓滑的模糊傳言」,但其承諾打動了他,最終休學加入 OpenAI。

2023 年春,多次內部會議中,奧特曼態度搖擺,不再提設立獎項,轉而主張成立內部「超級對齊團隊」,官方公告稱該團隊將獲得「公司算力 20%」,價值或超過 10 億美元。

公告指出,若對齊問題無法解決,AGI 可能「導致人類失去權力甚至滅絕」。與蘇茨克維共同牽頭該團隊的揚 · 萊克表示:「這是有效的留人手段。」

然而,算力承諾並未落實。四名內部人士透露,實際僅占 1% 至 2%,且大部分算力被分配至老舊、效能最差的集群。

研究員認為,優質硬體被保留給盈利項目,但 OpenAI 否認此說法。萊克向首席技術長穆拉蒂投訴,卻被告知別再糾纏,稱承諾本就不切實際。

同一時期,一名前員工指出,蘇茨克維「被安全問題沖昏頭腦」。早期,他認為災難性風險合理但遙遠,如今卻愈發相信 AGI 即將來臨,焦慮加劇。

該員工回憶,一次全員大會上,蘇茨克維站起來說:「未來幾年內,公司所有人基本都要轉向安全研究,否則我們完了。」然而,次年超級對齊團隊解散,任務未完成。

內部消息顯示,高層與董事認為奧特曼的隱瞞與欺騙行為可能影響 OpenAI 產品安全。2022 年 12 月會議上,奧特曼向董事保證即將推出的 GPT-4 多項功能已通過安全審查,但董事托納要求查看文件時發現,最具爭議的兩項功能:允許用戶「微調」模型、將模型作為個人助理部署,並未獲批。

另一名董事麥考利離開會議時被員工提醒印度「違規事件」,奧特曼在數小時匯報中未提及微軟未完成必要安全審查就發布 ChatGPT 早期版本。OpenAI 研究員雅各布 · 希爾頓指出:「這件事完全被忽視了。」

儘管這些疏漏未造成安全危機,研究員卡羅爾 · 溫賴特指出,這反映了 OpenAI「持續重產品輕安全」的問題。

GPT-4 發布後,萊克向董事發郵件表示:「OpenAI 已偏離使命,我們將產品與收益置於一切之上,其次才是 AI 能力、研究與規模化,對齊與安全排在最後。」

他還提到:「Google 等公司也在加快部署,無視安全問題。」

董事麥考利則在郵件中認為董事會需加強監管,但前董事蘇 · 尹坦言:「坦率說,一群缺乏經驗的人根本無法應對。」

2023 年,OpenAI 準備發布 GPT-4 Turbo 模型。蘇茨克維在備忘錄中指出,奧特曼明確告訴穆拉蒂該模型無需安全審查,並援引總法律顧問杰森 · 權的說法。

然而,穆拉蒂在 Slack 上詢問杰森 · 權時,對方回應:「不知道山姆哪來的印象。」公司發言人則稱此事「沒什麼大不了」。

不久後,董事會決定解雇奧特曼,而後全球見證他逆轉局勢。OpenAI 章程版本仍掛在官網,但知情人士表示,內容已被稀釋至毫無實質意義。

去年 6 月,奧特曼在個人部落格談及超級 AI 時寫道:「我們已越過事件視界,起飛已然開始。」

按章程,此時 OpenAI 理應停止與其他公司競爭,轉而合作。但在名為《溫和奇點》的文章中,他語氣轉為樂觀,稱「我們都會擁有更好的事物,將為彼此創造更精彩的成果」。

雖承認對齊問題仍未解決,他卻將其重新定義:不再是致命威脅,而類似 Instagram 算法造成的小困擾。

末日策略與操控魅力:奧特曼如何掌握 AGI 研發主導權

《紐約客》指出,即使是與奧特曼關係親近的人,也很難判斷他所追求的「人類福祉」與個人的野心之間的界線。他最大的能力,在於能夠讓不同立場的人相信,他想要的目標,其實就是他們所需要的。

報導認為,他抓住了一個特殊的歷史契機:社會大眾對科技產業的過度炒作心存戒心,而能夠研發 AGI 的研究者,又對其真正問世感到恐懼。

《紐約客》最後寫道,奧特曼使出了一個其他資金提供者未曾掌握的策略,以末日警告的語氣描述 AGI 可能對人類帶來的毀滅性威脅,藉此論證,唯有自己才應掌控研發方向。這或許是精心策劃的布局,也可能只是他在摸索如何取得優勢;但無論如何,他確實成功了。

更多鉅亨報導
《紐約客》批川普與赫格塞斯的伊朗戰爭構想「扭曲」
《紐約客》封面:帝國主義的終結?解析川普外交政策的背後

點我加鉅亨網LINE好友🔥財經大事不漏接

查看原始文章

更多理財相關文章

01

上市櫃2025稅前賺5.75兆元創新高 僅永冠-KY年報難產最快11/18下市

anue鉅亨網
02

台新證、元富證合併!App當機災情頻傳 股民崩潰:庫存消失了

鏡報
03

兒赴美深造「自費上名校,連維持呼吸都貴…」台商爸矛盾:該成全孩子,還是把夫妻養老金擺第一位?

幸福熟齡 X 今周刊
04

台積電今發股利6元 最大股東國發會估入帳近百億、魏哲家可領4,750萬

新頭殼
05

塑膠袋短缺有望緩解 經長:台塑增量5千噸明日出貨

中央通訊社
06

台泥砸268億活化台北老廠,5年後進駐全新總部

MoneyDJ理財網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...