請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

營收破5億美元為何還要變相漲價?Cursor撕開AI新創商業模式的殘酷真相

創業小聚

更新於 10月15日07:16 • 發布於 10月15日07:26 • 曾令懷

當一家新創公司估值逼近100億美元的門檻時,大家期望看到的是堅不可摧的商業護城河,以及對未來盈利模式的清晰藍圖。但是這在AI時代,或者說以大語言模型(LLM)為應用基礎的新創來說,可能不是這麼回事。

2025年6月的一場堪比好萊塢災難片的公關危機發生了:曾被譽為AI程式界新寵的Cursor,在短短幾週內,因為調整收費方案,將其最忠誠的用戶變成了最憤怒的批評者。這不是一場關於功能迭代的小爭論,而是一場關於AI新創商業模式是否可行的殘酷檢視。

Cursor的母公司Anysphere從2024年12月至今,估值幾乎翻了4倍,並聲稱年營收(ARR)已達5億美元。擁有如此「含著金湯匙出生」的背景,他們為何還要選擇一個會讓用戶氣到跳腳的瘋狂漲價策略?答案殘酷且直白:他們必須想辦法賺錢。

這場定價混亂,揭示了AI應用層新創正試圖從「VC貼補」的溫室,掙扎著走向現實世界的生存法則。

AI程式新寵的「背叛」:從無限制使用到44美元的帳單驚喜

Cursor產品的核心賣點,是提供一套流暢的AI程式碼輔助工具,包括程式碼自動完成、聊天輔助介面和程式碼自動產生模式。然而,Cursor在許多開發者心中,曾憑藉其優異的速度和強大的自動完成能力(特別是整合自動補全功能後),讓資深開發者甚至願意每月花20美元(約新台幣600元)購買Cursor Pro方案,只為了那「眨眼之間」的編輯速度。

可以透過自然語言,要求Cursor生成出特定的網頁功能。

但這份信任,卻在2025年年中開始動搖。

Cursor Pro的定價策略在2025年1月至今經歷了幾次關鍵轉變,最引爆爭議的變化發生在6月16日。原先的Pro方案提供了500次最高級的模型請求,超過之後會改以性能較差的模型運行。然而Cursor新的計價方式從「請求次數」轉向了更難以捉摸的token用量(AI模型處理語言數據的基本單位),如果今天用完了一定的運算量,使用者將會收到額外的費用。

白話的概念是,以前你支付20美元,可以命令模型跑500次,來到第501次請求時,也只是用比較低階的模型運作而已,不需要支付額外費用;現在,這20美元則更像是一個儲存錢包,Cursor會根據你實際消耗的語言數據來扣這個錢,所以如果你使用Sonnet 4模型這種高階、高成本的模型,20美元的額度大約只能支付225次請求,如果是使用GPT 4.1模型,20美元的額度則能支付650次請求。

越高階的模型,成本也越高。

因此表面上看起來都是20美元,用戶實際能獲得的服務次數會因為「使用的模型」和「每次明令的複雜度」(token消耗量)而大幅波動。

那為何這會成為公關危機導火線?因為Cursor對外溝通時,刻意模糊了「便宜、速度優先的基礎服務」與「昂貴、智慧優先的高級服務」之間的界線。以下是Cursor部落格官方的說明:

本週將調整並提升Pro方案的權益。預設情況下,Pro方案將從「請求數限制」改為「運算量限制」;所有使用者每月都可依API價格獲得至少20美元的模型推理額度。配合此變更,我們將開放對「Auto」模型的無限制使用,並移除所有工具呼叫的限制。現有使用者如偏好,也可選擇維持「500次請求上限」的方式。

這裡的細節是「Auto模式」。所謂的「Auto模式」,是指Cursor會根據當前用量自動配置最有空的模型給使用者,就像是派車系統,系統會自動分配當時最快抵達、最不忙碌的車給你,可能是比較貴的豪華車(如Sonnet 4),也可能是比較便宜的標準車(如GPT 4.1或更快的模型)。

但是對於已經習慣Pro方案的Cursor用戶來說,大多都手動選擇自己需要的模型——絕大部分都是高成本的高階模型。所以在未能查明差異的情況下,不知不覺間就額外支付了諸多費用。

一位在Reddit社群上「吃瓜」的開發者說,他從來沒達到過舊版的限制,但在新方案上,他一天內就花光了$20美元的月費額度,並額外產生了$18美元的超額費用,總月費直逼40美元。另有用戶回報,超額費用甚至可能超過44美元。

面對社群的排山倒海的怒火和「徹底耗盡社群好感」的批評,Cursor不得不在7月4日發出道歉聲明,坦承這次定價溝通「不到位」,並承諾將全額退還6月16日至7月4日期間產生的意外超額費用。

都5億營收了為何還要變相漲價?背後是AI商業邏輯的「死亡谷」

Cursor這次的定價災難可能是單純因為溝通不良而造成的公關危機,但很顯然沒這麼簡單,這背後可能是整個AI應用新創可能都要經歷的集體焦慮,也就是商業模式與成本結構的根本挑戰,因為就連Cursor的競爭對手GitHub Copilot也在同月份漲價了。

困境一:API介面層的脆弱性

這或許是AI應用新創最不重要、卻也最無法逃避的命題:缺乏真正的技術護城河、被視為是一個包裹了其他公司AI模型的「Wrapper」。

「這些包裝層公司的整個商業模式,都取決於別人不擁有或控制的技術。」一位Reddit用戶精準地點評了這種脆弱性。當底層模型供應商(如OpenAI)調整API價格,或推出更強大的功能時,Cursor這類應用層公司就會被夾在維護用戶滿意度和保持獲利的兩難之間。

困境二:無法負荷的單位經濟

像是Cursor、GitHub Copilot、Lovable這類AI應用層新創,本質上是一個「高科技中間商」,他們不自己訓練或運行最貴的底層大模型,而是透過API接口,向供應商(如OpenAI、Anthropic、Google或xAI)購買運算資源,再將這些服務包裝成工具賣給開發者。

假設用戶輸入一個指令(無論是問答、補全程式、還是代理模式),首先會產生的成本是輸入的token,而且用戶輸入的提示詞、程式碼或專案上下文越長,輸入token成本就越高,而模型推理後生成的回覆、程式碼或Agent的「思考過程」,則會形成輸出token的成本,而且因為經過推理和思考,輸出token的價格通常會高於輸入token。

也就是說,在不考慮其他固定營運成本的情況下,AI應用新創的成本結構是:指令次數 ×(輸入token成本+輸出token成本)。從中就可以看出Cursor改變定價方式的原因:過去以次數計算是極不合理的,因為後面的「輸入token成本+輸出token成本」波動極大,「單純問答」和「代理模式」所需要的語言數據量極不相同、消耗的token量級也不一樣,所以Cursor才會改以波動性高的「token用量」定價。

知名創投a16z更值機計算了AI寫程式的成本

如果你的程式碼量有10萬token,使用Claude Opus 4.1的推理模式,並產生1萬單位的輸出與思考token,現在的計價成本是每百萬個輸入token為15美元,每百萬個輸出token則是每百萬75美元。
輸入成本:10萬token(0.1M token)×15/Mtoken=1.50。
輸出成本:1萬token(0.01M token)×75/Mtoken=0.75。
總計:1.50+0.75=2.25美元。

也就是說,每次查詢的成本約為2.5美元。如果每小時3次查詢、每天7小時、每年200天,年成本約為$10,000美金。這顯然不是每個人每月20美元收入可以填平的成本。

Cursor自己也坦承,「最複雜的指令需求成本,比單純的指令高出一個量級。」這意味著他們在舊的固定價格下,很可能正在虧本銷售,尤其是對那些使用最多token用量的「超重度級用戶」(Power Users)而言。

困境三:重度用戶的「原罪」與定價模式的漏洞

從上述解析,我們可以看出Cursor的第三個挑戰:超重度級用戶佔比過多。

雖然並沒有公開資料顯示Cursor有多少高級用戶,SaaStr創辦人Jason Lemkin以吃到飽的訂閱商業模式做了簡單的計算:他假設一家擁有1,000個用戶、每月收取20美元訂閱費的公司,每月總營收為2萬美元,在健康的用戶組成下(60%輕型、30%典型、8%重度、2%超重度用戶),利潤率可以達到55.7%;但如果重度用戶和超重度用戶佔比來到10–15%,每月會虧損75美元,利潤率僅有−0.4%。

「AI新創們一直都用創投的錢來掩蓋這個問題。」Jason Lemkin直言,一旦投資人開始要求獲利,這場「VC貼補」的慷慨盛宴就必須結束,AI應用新創也必須檢視自己的商業模式是否可行。

Cursor的執行長Michael Truell也坦承:「我們的確比較喜歡按月計價的方式,但是從成本結構來說,這已經不太可行。」也就是說,期待AI應用新創繼續以類似SaaS新創以人頭為單位的收費方式已經不現實了,儘管這在財務預測上來說確實更好計算,但終究敵不過逐漸被蠶食的利潤。

Cursor共同創辦人暨執行長Michael Truell坦言,Cursor必須調整收費模式。

大語言模型成本降幅比雲端快,為何AI新創卻不像SaaS賺錢?Zeabur創辦人:大家都想用最高級的模型

那為何SaaS的收費方式可行?這得益於雲端設施的成本大幅降低,而對AI應用新創來說,他們仰賴的基礎設施就是大語言模型,值得注意的是,大型語言模型的成本,其實也是持續降低的。

大語言模型的成本正經歷著一個被稱為「LLM flation」的趨勢,跌幅速度相當驚人。根據a16z的統計,自2021年GPT-3公開推出以來,LLM推理的成本已大幅下降,達到GPT-3級別性能的最便宜模型,從2021年11月的每百萬token 60美元,下降到撰文時的每百萬token 0.06美元,這代表成本在3年內下降了1,000倍,換句話說,同性能的大語言模型推理成本,正以每年10倍的速度下降。

a16z整理出LLM的費用,是以每年10倍的速度在下降。

這個速度跟雲端服務降低的速度是天差地遠:在2010年到2015年間,亞馬遜網路服務(AWS)的S3 Standard價格下降了84%;2010年到2014年間,Google Cloud Platform(GCP)的標準儲存價格下降了85%;在2010年到2017年間,Azure的Blob LRS價格則下降了87%。

然而,大語言模型的成本降幅雖然高,本質上跟雲端服務還是不同,因為SaaS新創的「利潤魔法」在於,產品一旦建構完成,服務新客戶的邊際成本趨近於零,但AI應用新創不同,每一次的API呼叫都會產生實質的費用,邊際成本並非零。Cursor的數據也顯示,AI新創的運算/託管成本佔營收的比例,在一年內從24%飆升至50%。

Zeabur創辦人暨執行長林沅霖對此表示,「token成本確實不斷下降,但同時也不斷出現新的更好的模型,大家為了更好的效果,肯定都是追求最好的模型,而更好的模型同時又更需要算力,所以成本會增加。」林沅霖認為,除非從晶片層級發生改變,否則成本還是會繼續上升。

AI產品的終局之戰:如何在$3兆市場中建立永續模式?

儘管如此,業界還是相當看好AI輔助軟體開發的市場潛力。業界預估,AI軟體開發對全球經濟的貢獻每年可能高達3兆美元,約等於法國的GDP。

在這個「AI戰國時代」,AI應用層新創的商業模式正加速進化,單純依賴「便宜」、「無限」和「極致體驗」的時代已經結束,AI應用新創必須找到可以立足的商議模式。

純粹的按Token計費雖然經濟學上最純粹,但對用戶而言,心智負擔太重——他們不想在寫程式時還得計算token。因此,行業正在趨向採用「按次數搭配權力用戶保障」的混合模式,當用戶超過配額後,按token成本透明收費。

另一方面,在開發者社群中,AI程式碼工具出現了兩大流派的競爭與遷徙:

  • 極致體驗派(如Cursor):專注於IDE整合、卓越的自動完成速度,適合處理日常、快速的寫程式任務。
  • 強大模型能力派(如Anthropic的Claude Code):依賴大型推理模型,擅長處理複雜、需要長上下文的任務,例如跨檔案重構和系統設計。

許多開發者最終的選擇是採用「組合拳」。這表明,AI應用層必須在「模型能力、開發者體驗、成本效益、安全合規」四個維度上建立不可替代的價值。

不過對於所有AI應用層公司來說,最關鍵的還是必須證明自身提供的價值遠超過僅僅是底層AI模型的API存取費用。在AI成本仍是營運支出重要組成部分的今天,那些能夠「在保持正常用戶定價簡單性的同時,圍繞重度用戶消費建立可持續經濟模型」的公司,將成為這場巨變中的贏家。

資料來源:a16zCursorDriveTrainSaaStrSTARTUP HAKK

延伸閱讀

再完成35億募資!AI Coding「Cursor」開發團隊4大優勢讓它3年內估值翻6倍
拆解Lovable:AI工程師時代來臨,讓不懂程式的人也能成為科技創造者
「寫完程式,然後呢?」Zeabur用一鍵部署,解決AI時代開發者的最後一哩路!
AI技術到位了,但產品怎麼賣?Meta高層點出3大關鍵要素

查看原始文章

更多科技相關文章

01

紐時:貝佐斯將任AI新創公司執行長 卸亞馬遜管理職後首見

路透社
02

鴻海科技日揭AI藍圖!台廠加入AI永動機行列? 輝達公布最強財報,人工智慧還能飆多高?|今周重磅

今周刊
03

擴張AI 基礎設施 亞馬遜發美元債籌資150 億美元

路透社
04

外型超美、體驗超差?iPhone Air 成為蘋果最大翻車現場?及其他一週大事

1% STYLE
05

比特幣跌破9萬美元

路透社
06

超過1,800位投資人齊聚!台灣新創如何在歐洲最大科技展「Web Summit」創下曝光紀錄?

創業小聚
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...