請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

當 OpenAI 愈來愈不 open,DeepMind 獨立研究夢碎,AI技術為科技巨頭掌握,人類社會將付出哪些代價?

經理人月刊

更新於 2天前 • 發布於 21小時前 • 簡鈺璇

「你今天 ChatGPT 了嗎?」在2022 年底,OpenAI 發布 ChatGPT ,微軟為最大投資者、接著Google 推出 Gemini 後 ,加速生成式 AI 的發展與普及,AI逐漸成為人們的日常

然而,科技巨頭競相投入,讓原本帶著崇高理念的AI公司,漸漸改變。一個例子是誓言「為全人類服務」的 OpenAI,愈來愈不「open」了。

為何 OpenAI 愈來愈不open了?

在 2018 年,OpenAI 發布 GPT-1 模型仍相當透明,公開表示是利用 Books Corpus(一種大型文字資料庫,由大量小說或長篇書籍構成)訓練模型;2019 年推出 GPT-2 時,他們僅提及是從 Reddit 等社群網站篩選文章,但並未具體公布篩選的內容。

GPT-3 之後的版本,OpenAI 就不再說明訓練資料的細節,對外說法是避免有心人士學習語言模型的操作指南,製造垃圾訊息。然而,長期關注科技法規的《彭博觀點》(Bloomberg Opinion)專欄作家帕米.奧森(Parmy Olson)在新著作《AI霸主》指出,OpenAI 沒說的是,如果外界發現他們使用某些受到版權保護的內容訓練模型,將引發法律訴訟。

另一方面,資料導致AI偏見的案例層出不窮。例如,加州大學學柏克萊分校心理學教授史蒂芬‧皮安塔多希(Steven Piantadosi)透過ChatGPT寫一段電腦程式,要求程式根據兒童種族或性別決定是否要拯救這個孩子。假設是黑人男性,ChatGPT 會給予否定答案。

對此,OpenAI 執行長山姆.奧特曼(Sam Altman)建議使用者在 ChatGPT上點選「回應不佳」,幫助他們改進模型。不過 OpenAI 未公開說明,他們花費多少人力與時間處理,抑或改善的進度。

追溯 AI 演算法問題的難度,就像查找汽車故障原因,需逐步反查數百個生產環節。公開 AI 訓練資料雖然有助於檢視偏見與問題,但也可能迫使 OpenAI 停下技術開發的腳步,向外界溝通和修正模型,進而在AI賽局中落後。

以非營利組織方式發展 AI 不可行?OpenAI 逐漸向科技巨頭靠攏

《AI霸主》以 OpenAI 和 DeepMind(Google於2014年收購)2 家公司的競爭為背景,探討他們如何從原本獨立研究的團隊,開始向科技巨擘靠攏。這場競賽的壓力,最終讓 OpenAI 必須在「為全人類服務」的理想與商業現實間做出取捨。

2015 年奧特曼和特斯拉執行長伊隆.馬斯克(Elon Musk),期望以更負責任、更透明的方式推進 AI 技術發展,透過非營利組織方式成立 OpenAI。2018年,馬斯克提議 OpenAI 與特斯拉合併,讓其研究進展超越 Google 的 DeepMind。提議遭到拒絕後,馬斯克退出董事會並切斷資金支持。

失去重要資金來源後,OpenAI 面臨巨大的財務壓力。奧特曼也意識到,以非營利組織發展 AI 技術根本不可行。其一,科技巨頭能以數倍薪資挖角明星員工;其二,需要大量雲端伺服器協助,才能處理數十億筆的資料、訓練 AI 模型,OpenAI 只能找企業協力。

於是,奧特曼宣布在非營利組織 OpenAI 之外,再成立一個「有限獲利」(capped profit)公司—— OpenAI Global。任何一位投資人都必須同意他們的股票報酬會有上限,當投資獲利超過 100 倍報酬時,多餘的獲利會轉移到非營利組織 OpenAI。

OpenAI Global 的第一個最大投資者就是微軟(Microsoft)。2019 年微軟投資 OpenAI 10 億美元,該投資必須創造 1000 億美元以上的報酬,微軟的獲利才會達到上限。為了回報微軟的投資,OpenAI 獨家授權技術供微軟使用,用於開發人工智慧助理 Copilot。

分析師推估,OpenAI 技術會為微軟創造數十億美元的年營收。OpenAI 正在為最有權勢的企業服務,任何拖慢 AI 技術開發的安全審查,未必是 OpenAI 和微軟最關心的事情。

想要開發 AGI 的 DeepMind,被 Google 收購後要負擔搜尋引擎優化

DeepMind 也遇到同樣狀況。DeepMind 創辦人德米斯.哈薩比斯(Demis Hassabis)召集 AI 領域在2010年成立時,目標是開發通用人工智慧(AGI,Artificial General Intelligence,模擬人類智慧達成多種任務的 AI),解決全球性問題,包括:氣候變遷、醫療創新和科學發現。

為了深化 AGI 研究、取得更多資源,2014 年他們接收 Google 以 5 億美元收購,但 Google 必須履行負責任開發 AI 的承諾:第一,不將技術用於軍事武器;第二,希望 Google 領導人簽訂倫理與安全協議,授予哈薩比斯和 DeepMind 共同創辦人斯塔法.蘇萊曼(Mustafa Suleyman)成立倫理委員會,掌握未來 DeepMind 開發的 AGI 技術,並找外部人士加入監督。

儘管 Google 答應以倫理委員會作為收購條件,但收購一年後,倫理委員會第一次開會時,Google 就反對會議進行,提議未來 Google 將轉型成「字母」(Alphabet)控股公司 ,可用更獨立方式讓 DeepMind 變成子公司獨立運作。哈薩比斯原本對此抱有期待,但 Google 不斷拖延分拆計畫,後來更因 OpenAI 提前發布生成式 AI 技術進展,擔憂未來廣告收益受威脅,開始要求 DeepMind 負擔搜尋引擎優化、提高 YouTube 推薦的精準度任務。

2023 年 DeepMind 與 Google旗下的 AI 研究部門 Google Brain合併,組成新的 Google DeepMind 團隊,雙方合併也代表 DeepMind 獨立研究和監督 AI 技術發展的夢碎。DeepMind 在 2020 年時擁有約 1000 名員工,但其中專門負責AI安全與倫理的成員僅不到 25 人,顯示在快速推動技術進步的同時,AI 安全與倫理的投入比例仍相對有限。

要求科技巨頭打開演算法黑箱,避免AI助長偏見、分化社會

由科技巨頭主宰 AI 技術,會發生什麼問題?《AI霸主》形容,就像大型食品公司生產愈多美味的零食,卻拒絕解釋食品成分,以及它如何製造。生成式AI也正逐漸以類似方式滲透進人們的生活。

例如,生成式 AI 能從用戶的聊天記錄中,精準提供個性化建議。如果 AI 模型內含偏見,用戶長時間互動後,這些偏見可能被進一步強化,甚至影響用戶的思維方式。這樣的影響力,讓人不禁擔憂 AI 帶來社會分化與公平正義的問題。

歐盟率全球之先,在 2024 年通過《人工智慧法案》,要求 OpenAI 等企業揭露更多演算法的運作資訊。然而,各國都未有更積極的行動,但技術的發展一定會走得比法規更快。除了要求科技業公開訓練資料來源與細節之外,奧森在書中強調,技術本身是社會的鏡像,當社會仍存有偏見時,AI 只會進一步放大這些問題。

奧森在接受《金融時報》訪談時表示,人類仍有機會塑造一個更加多元、公正的未來,而這樣的進步也將反映在 AI 系統中,成為未來開發負責任技術的根基。

[《AI霸主:OpenAI、DeepMind與科技巨頭顛覆世界的競賽》]

1
書介:帕米.奧森(Parmy Olson)是《彭博觀點》(Bloomberg Opinion)專欄作家,專門報導科技法規、人工智慧和社群媒體。她曾是《華爾街日報》和《富比世》記者,曾揭露誇大 AI 能力的公司名單,以及 AI 系統及背後的金流來源,喚起各界對科技安全議題的關注。新著《AI霸主》則獲得英國《金融時報》與施羅德投資 2024 年商業書籍獎。

出版社:天下文化
出版日期:2024.12.25
ISBN:9786264170895

延伸閱讀|享受技術進步紅利的同時,深思背後的風險

《權力與進步》

《AI霸主》提到,科技為人們帶來便利,也可能有負面效應,它引述《權力與進步》主張,當機器取代工廠勞工,若公司未輔導勞工升級職能,將加劇社會不平等。生成式AI發展也會如同其他自動化技術,帶來同樣的副作用。
出版社|天下文化
出版日期|2023.11.30

《AI底層真相》

本書揭示AI發展的灰暗面,包括演算法依賴低薪勞工外包協力、狹隘資料導致偏見、技術集中於大企業手中,以及法律追不上技術進步的步伐。對此,書中提出如保護數位隱私權等解決方案,讓你認識AI風險的同時,掌握應對之道。
出版社|天下文化
出版日期|2024.10.29

《控制邊緣》

本書作者之一是DeepMind共同創辦人,現任微軟「Microsoft AI」執行長穆斯塔法.蘇萊曼(Mustafa Suleyman),他見證DeepMind崛起並被Google收購。書中指出科技發展常偏離初衷,人類需在控制與失控間謹慎抉擇。
出版社|感電出版
出版日期|2024.05.08

核稿編輯:張玉琦

延伸閱讀

比爾蓋茲 2024 年度推薦書單!怎麼看待 AI?用4本書拓展視野與格局
有了科技加持,勞工反而愈來愈弱勢?MIT 教授呼籲:應創造「生產力便車」
加入《經理人》LINE好友,每天學習商管新知

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

留言 0

沒有留言。