智東西(公眾號:zhidxcom)
作者 | 陳駿達
編輯 | 心緣

DeepSeek漲價了。

智東西8月23日報道,8月21日,DeepSeek在其公眾號官宣了DeepSeekV3.1的正式發布,還宣布自9月6日起,DeepSeek將執行新價格表,取消了今年2月底推出的夜間優惠,推理與非推理API統一定價,輸出價格調整至12元/百萬tokens。這一決定,讓使用DeepSeek API的最低價格較過去上升了50%。

DeepSeek在業內曾有“價格屠夫”的稱號,在2024年5月憑借DeepSeek-V2,將API價格降至輸入1元/百萬tokens、輸出2元/百萬tokens的行業低價,一石激起千層浪。

僅在當月,就有智譜、字節、阿里、百度、訊飛、騰訊等廠商跟進降價,最高降幅達到80%-97%,還有部分廠商直接將輕量級模型免費開放,掀起一場持續半年多的大模型價格戰。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲2024年5月部分廠商發布的大模型降價通知

然而,在2025年,卻有越來越多的廠商選擇了停止降價。在國內,“大模型六小虎”中,已有智譜、月之暗面、MiniMax、階躍星辰4家對部分API價格進行上調,百川智能、零一萬物2家保持價格不變;阿里、字節、騰訊、百度、科大訊飛、商湯等大廠們廣泛采用階梯定價策略,或是拉開“推理”與“非推理”模式差距。行業的整體API價格趨于穩定,部分產品還出現了明顯上浮。

國際廠商雖然仍在宣稱智能將越來越便宜,但實際情況卻是,過去一年OpenAI、Anthropic、谷歌等企業的API價格基本原地踏步,甚至有小幅上漲。與此同時,訂閱方案越來越貴,頂級模型幾乎被鎖在200美元/月及以上的高價檔里,xAI甚至推出了300美元/月的訂閱方案。

在這樣的背景下,DeepSeek漲價只是更大規模行業趨勢的一個縮影:當前,大模型價格的下行速度正逐漸放緩,頂級AI服務不再無限下探,反而開始呈現趨于穩定,略有回升的態勢。

以下數據均收集于公開渠道,如有錯漏歡迎指正。

一、DeepSeek、大模型六小虎API價格普漲,但有兩家近1年沒改價

大模型價格戰,曾經是2024年國內AI圈最火的關鍵詞之一,大模型API的價格曾經一度降至每百萬tokens幾毛錢。然而,進入2025年后,這一降價趨勢卻基本停滯,尤其是對于那些最先進的模型而言。

以DeepSeek為例,去年年底DeepSeek-V3剛剛發布時,DeepSeek進行了45天的限時優惠,結束后,DeepSeek-Chat API(非推理API)中輸出價格從2元恢復到8元;這一API的價格將于今年9月份進一步上浮50%,至12元。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

Deepseek-Reason API(推理API)的價格則相對穩定,并且會在今年9月份將輸出價格從16元降至12元。不過,總體來看,DeepSeek API的價格還是呈上漲趨勢。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲DeepSeek API價格變動情況(智東西制圖)

大模型六小虎中,智譜、月之暗面、百川智能、MiniMax、階躍星辰、零一萬物的價格,在2025年1季度之后,基本沒有出現明顯的下降。

智譜上一代GLM-4模型的API定價不區分輸入輸出與輸入token數量,統一為5元/百萬tokens。而其今年7月發布的GLM-4.5模型,在去除模型發布之初的限時優惠政策后,高速推理版本(GLM-4.5-X)的輸出價格最高可達到64元/百萬tokens

即使是按照最低檔計價(使用GLM-4.5,輸出長度小于32K,輸出長度小于0.2K,推理速度為30-50tokens/秒),其輸出價格也從5元/百萬tokens變成了8元/百萬tokens。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲GLM-4.5定價情況(圖源:智譜開放平臺官網)

月之暗面2024年8月正式推出企業API,彼時在128K上下文場景中,其輸入輸出定價均為60元/百萬tokens,在業內屬于較高水平。

今年4月,月之暗面對部分API價格進行了調整,使用其最新K1.5模型的API輸出價格降至30元/百萬tokens,但在Kimi K2推出后,128K上下文場景中的高速輸出價格又回調至64元/百萬tokens

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲月之暗面Kimi大模型API定價變化,選取的數據均為最高檔次定價(智東西制圖)

百川智能已經長期沒有對API價格進行調整,旗艦模型Baichuan4的調用價格自2024年5月發布以來,一直維持在輸入輸出均為100元/百萬tokens的水平。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲百川智能API價格表(圖源:百川智能)

2024年8月,MiniMax對其當時的旗艦文本生成模型abab-6.5s進行了大幅度的降價,輸入和輸出價格均統一為1元/百萬tokens。不過,目前這一模型在其API開放平臺上已不可見。

MiniMax新一代文本生成模型MiniMax-Text-01(2025年1月發布)的定價為輸入1元/百萬tokens,輸出8元/百萬tokens;而其推理模型MiniMax-M1(2025年6月發布)的價格則采用階梯定價,最高價格為輸入2.4元/百萬token, 輸出24元/百萬token

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲MiniMax大模型API定價變化趨勢,選取的數據均為最高檔次定價(智東西制圖)

階躍星辰以多模態為特色。今年4月,該公司發布了Step-R1-V-Mini多模態推理模型,輸出價格為8元/百萬tokens。其7月發布的新一代多模態推理模型Step 3調整為階梯定價,輸入≤4k的價格基本持平或略有下調,在最高檔(4k < 輸入≤ 64k)的價格有一定上漲,輸出價格為10元/百萬tokens。同時,Step 3最大上下文窗口為64K,較Step-R1-V-Mini的100K有所縮小。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲階躍星辰大模型API定價變化趨勢,選取的數據均為最高檔次定價(智東西制圖)

零一萬物于2024年10月發布Yi-Lighting,價格為0.99元/百萬tokens,此后未再更新API中的模型價格。如今調用Yi-Lighting時,還會根據用戶輸入智能路由到DeepSeek-V3、Qwen-30B-A3B等模型。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲零一萬物大模型API定價表(圖源:零一萬物)

二、多家大廠細化定價規則,有模型輸出超300字就得加錢

更為“財大氣粗”的大廠們,也在2025年放緩了模型降價的腳步。

字節跳動在2024年5月首次推出豆包Pro家族,小于32K上下文的豆包通用模型Pro輸入價格僅為0.8元/百萬tokens,輸出價格為2元/百萬tokens。字節跳動火山引擎總裁譚待在發布會上稱,這一定價“比行業價格低99.3%”。這次發布也將大模型價格戰推至輿論的風口浪尖。

在32K上下文的場景下,2025年1月發布的豆包1.5 Pro與2025年7月的豆包1.6,維持了豆包通用模型Pro的價格水平。

不過,字節進一步細化了定價規則,根據輸入、輸出兩個變量調整定價。當模型輸出超過200個token(約為300個漢字)時,豆包1.6的輸出價變為8元/百萬tokens,輸入價不變。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲豆包1.6階梯定價細則(圖源:火山方舟)

從初代豆包Pro,到豆包1.5 Pro,再到豆包1.6,字節豆包大模型API的最高價變化趨勢如下:

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲字節跳動豆包大模型API定價變化趨勢,選取的數據均為最高檔次定價(智東西制圖)

阿里巴巴通過阿里云百煉對外提供大模型API服務,由于阿里旗下的大模型數量眾多,更新頻率較快,且有開源版與商業版之分,全部統計將略顯龐雜。智東西主要追蹤了2025年以來其主力商業API服務之一Qwen-Plus的價格變化。

可以看到,Qwen-Plus在今年4月份新版本推出,并引入思考與非思考模式的區別后,思考型輸出的價格來到了非思考輸出的4倍。

今年7月版本更新后,Qwen-Plus全面采用階梯定價的形式,128K輸入以下的調用價格與4月份定價持平,但當輸入量超過128K時,價格出現明顯上漲,最高輸出價格達到了64元/百萬tokens。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲阿里Qwen-Plus API價格變動情況(智東西制表)

2024年7月,百度宣布將其旗艦模型ERNIE 4.0降價,以輸入40元/百萬tokens、輸出120元/百萬tokens的價格對外提供服務,百度后續逐漸將ERNIE 4.0的推理價格降至業內常見的輸入4元/百萬tokens、輸出16元/百萬tokens(未查詢到這一降價的具體時間),今年3月推出的ERNIE 4.5維持了這一定價,沒有繼續下降。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲ERNIE 4.0、ERNIE 4.5模型價格(圖源:百度)

騰訊是國內幾家大廠中少數仍在逐漸下調大模型API價格的企業。2024年9月,騰訊發布了混元Turbo大模型,定價為輸入15元/百萬tokens、輸出50元/百萬tokens,在當時屬于較高水平。

不過,目前混元Turbo的價格已經降至輸入2.4元/百萬tokens、輸出9.6元/百萬tokens,2025年3月發布的混元TurboS價格則降至輸入0.8元/百萬tokens、輸出2元/百萬tokens。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲部分騰訊混元大模型的價格(圖源:騰訊云)

科大訊飛的API服務按照token包計費,不區分輸入輸出,不同套餐折合后的token單價不同。

按照價格區間的中值計算,2024年1月推出的星火3.5的價格約為25元/百萬tokens,同年6月推出的星火4.0價格約為60元/百萬tokens,同年10月發布的星火4.0 Turbo,以及2025年1月升級后的新版星火4.0 Turbo,都維持了這一價格。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲訊飛星火3.5、星火4.0、星火4.0 Turbo價格變化(智東西制圖)

不過,訊飛也推出了一款基于全國產算力訓練的深度推理大模型星火X1,其價格約為11元/百萬tokens。

商湯旗艦模型日日新系列的API價格從2024年5月的20元/百萬tokens,回落至2025年4月的9元/百萬tokens,今年7月最新發布的SenseNova-V6.5 Pro維持了這一價格。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲對應模型分別為日日新SenseChat-5-1202、SenseNova-V6-Pro、SenseNova-V6.5 Pro,均為當時商湯已發布的最先進模型(智東西制圖)

三、海外大模型廠商“說一套做一套”,訂閱方案漲至200美元級別

國際主流大模型廠商之間,雖沒有出現明顯的價格戰現象,但“鼓吹”智能的成本將不斷降低,是海外AI圈幾位大咖們最熱衷的話題之一。

今年7月,OpenAI聯合創始人、首席執行官Sam Altman說道:“智能的價格將低到無法計量,我們能將每個單位的智能的成本,每年降低至原來的1/10,至少持續5年。”

2024年9月,谷歌首席執行官Sundar Pichai分享了同樣的觀點:“在不久的將來,智能將像空氣一樣豐富,并且基本上對所有人免費。”

近期,The Information的統計數據揭示了一個與上述觀點相悖的現實,海外主要大模型廠商的API價格在2024年7月后的1年多時間里,就沒有出現明顯的下降,甚至還有輕微的漲幅。

例如,OpenAI的GPT系列模型每百萬tokens的價格,自從2024年底降至12.5美元之后,便沒有繼續大幅度下探,目前維持在11.25美元的水平。

Anthropic的Claude 3、Claude 4系列模型,自推出以來就從未降價。

谷歌的Gemini Pro模型的調用價格出現上漲,從Gemini-1.5 Pro的12.5美元/百萬tokens漲至17.5美元/百萬tokens。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲最先進的通用模型價格近期基本沒有出現下降(圖源:The Information)

過去一年中,多家海外頭部AI公司還相繼推出了月費超過200美元的高階訂閱方案。

OpenAI與Anthropic均推出了200美元/月的訂閱檔位;谷歌最新的AI Ultra捆綁包定價為249.99美元/月;xAI旗下的Grok更進一步,將其頂級訂閱方案設定為300美元/月的高價。

這些高端訂閱服務的共同特點是:用戶只有支付超高額的月費,才能使用到各家在發布會上展示的跑分最高、性能最強的旗艦模型。無論是更強的推理能力、更長的上下文窗口,還是更精準的代碼或復雜任務處理能力,均被保留在付費墻之后,高性能模型成為高付費用戶專屬的資源。

那么,究竟是什么原因,導致了過去一段時間內AI服務價格下降趨勢的明顯停滯,甚至出現逆向走高呢?

四、算力、數據、人才價格持續推高,大模型玩家們也要考慮ROI

大模型廠商們在算力、數據以及人才等方面的巨大投入,驅動了過去1年AI模型性能的飛速提升。

算力方面,GPU的租賃價格目前已經趨于穩定。智東西收集的數據顯示,2024年9月左右,AWS、微軟Azure、谷歌云等主流公有云上的H100每卡時租賃價格大約在5-11美元的區間。

今年,根據算力市場數據分析公司Silicon Data的GPU價格指數,H100已經基本穩定在每卡時租賃價格2-3美元的區間,沒有出現價格的大幅度波動。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲H100 GPU租賃價格(圖源:Silicon Data)

同時,新一代大模型無論是在訓練還是推理階段,算力需求都在不斷增加。在與相對穩定的GPU價格復合后,算力成本成為限制AI服務價格繼續下探的“硬門檻”之一。

數據也是當今大模型訓練中不可忽視的成本項。起初,由于監管缺位,大模型訓練數據的獲取成本相對較低。隨著相關訴訟增多和合規審查趨嚴,為了避免與數據所有者發生法律糾紛,廠商開始主動與企業簽訂合同,購買授權數據。

例如,據《華爾街日報》報道,OpenAI與美國出版集團News Corp簽署的5年數據使用協議金額可能高達2.5億美元;谷歌則與美國的貼吧類平臺Reddit達成AI使用內容許可協議,路透社報道稱,其每年價格約為6000萬美元。

與此同時,這些模型背后人才的價格,也在水漲船高。

在國內,獵聘大數據研究院7月份發布的《2025上半年人才供需洞察報告》顯示當前國內AI人才缺口已突破500萬,AI技術人員平均年薪為32.35萬元,50萬年薪以上的AI技術崗占比高達31.03%。AI技術人才的期望年資甚至高于如今的平均年資,為44.09萬元。

大洋彼岸,硅谷的AI人才爭奪戰打得火熱。除了那些數億美元的個別案例之外,AI人才的整體薪資水平也明顯高于其他行業。國際職場平臺Levels.FYI上的數據顯示,在舊金山灣區,ML/AI工程師的薪資中位數要比所有軟件工程師的薪資中位數高13%左右。考慮到所有軟件工程師的統計范疇內包含了ML/AI工程師,后者的薪資優勢可能更大。

大模型價格戰逆轉?深扒17家廠商最新定價,竟有超7成在漲價

▲美國舊金山灣區ML/AI工程師薪資(圖源:Levels.FYI)

五、訂閱模式面臨服務成本考驗,成本控制迫在眉睫

打造大模型的成本越來越高昂,而隨著推理模型范式的興起,以及Agent等長序列任務的出現,用戶的用量正在不斷攀升。大模型訂閱就像是一張“無限流量卡”,用戶用得越多,大模型廠商們提供服務的成本便越高,有部分廠商已經被用戶逼到了入不敷出的程度。

本月,Anthropic旗下的Claude Code編程Agent便取消了200美元/月訂閱方案的無限調用大模型權限,原因是有用戶幾乎24小時不停地使用大模型,為這些用戶提供AI服務的成本已經達到了每月數萬美元,遠超訂閱方案的定價。

Anthropic更是在發布會上宣稱,Claude 4 Opus能連續7小時工作,完成編程類任務。按照Claude 4 Opus大約50 tokens/秒的推理速度計算,這一任務大約會用掉126萬個token,成本約113.4美元。

面臨高昂的服務成本,大模型廠商們紛紛祭出各種手段來降低開支。

DeepSeek在其最新一代模型中提出了多種降本方法。例如,在對DeepSeek-V3.1進行思維鏈壓縮訓練后,模型推理時輸出token數可減少20%-50%,且各項任務的平均表現與DeepSeek-R1-0528持平。這意味著DeepSeek的聊天機器人,能在不影響

DeepSeek-V3.1還在一個模型內支持了思考模式與非思考模式,開發者可通過特定標簽控制推理的開關,進一步節省API使用成本。

騰訊混元降本的思路是架構創新。在混元TurboS上,騰訊融合了兩種架構,讓Transformer的上下文理解力與Mamba的長序列處理能力結合,實現性能與效率的平衡。

OpenAI在GPT-5上采取了“模型自動路由”的方式:判斷任務的復雜度,將相對簡單的需求分配給輕量模型處理,從而節省算力資源。托管GPT-5的微軟Azure稱,這一方式最高可將推理成本削減60%。

然而,問題的關鍵在于:大模型廠商和云服務提供商的成本下降,并不必然傳導為終端用戶與企業的使用成本下降。當前,如何在高昂的前期研發與部署投入后,將千億美元級別的AI投資真正轉化為商業價值,已成為所有大模型玩家必須回答的問題。

結論:大模型價格還有下探空間嗎?

未來,大模型價格的下降還存在幾條路徑。一方面,隨著模型平均性能的提升,未來經過優化的中低端廉價模型,也可高效解決特定任務。此外,隨著大模型、芯片領域的基礎研究不斷進步,新的技術路徑持續涌現,或許能在不犧牲效果的前提下,進一步壓縮訓練與推理的單位成本。

從產業發展的角度來看,大模型價格的階段性停滯或是回升有其價值。這為廠商回收前期巨額研發與基礎設施投入,維持可持續創新提供了緩沖期,也能推動市場加速探索明確的商業化場景和付費模式。產業有望借此機會,營造更為成熟、健康的生態。