TL;DR:
DeepSeek表面上的流量“暴跌”并非衰落,而是其将核心算力聚焦于AGI研发的战略性选择,通过Token经济学平衡性能与成本,并积极拥抱第三方分发。这一案例揭示了AI大模型正从传统软件产品向“Tokens即服务”的效用模式转型,算力稀缺与地缘政治正深刻重塑AI产业的价值链与竞争格局。
DeepSeek,这家一度以“OpenAI同等级推理能力,价格低90%”的震撼姿态闯入全球AI视野的中国大模型新贵,近期却传出其官方平台流量“暴跌”,市场份额下滑的消息,引发业界广泛关注。然而,在这一表象之下,隐藏的并非是昙花一现的衰落,而是一场由“Token经济学”驱动的、精心策划的战略转移,以及AI大模型分发模式与价值链的深层变革。
表象与真相:DeepSeek的“流量之谜”
曾几何时,DeepSeek R1的横空出世,凭借其颠覆性的性价比,迅速席卷全球AI圈,甚至一度引发西方资本市场的震动。然而,根据SemiAnalysis的最新报告,在发布超过150天后,DeepSeek自有平台的消费者应用流量和网页浏览器流量均呈现下滑趋势,其市场份额也未能跟上其他顶尖AI应用的增长步伐1。从数据上看,DeepSeek自己托管的Token流量在总份额中逐月下降,这似乎印证了其“遇冷”的说法。
然而,这仅仅是硬币的一面。报告同时揭示了另一条令人震惊的增长曲线:在第三方平台上,DeepSeek R1和V3模型的总使用量呈现爆炸性增长,自R1首次发布以来已增长近20倍。这种“墙内开花墙外香”的现象,强力驳斥了“衰落论”,并指向了AI模型分发与价值链的根本性变革。为何用户会从DeepSeek自有平台流失,转而投向其他托管其模型的第三方服务商,即便官方价格低廉?答案深藏于“Token经济学”的复杂权衡之中。
Token经济学:重塑AI价值链的关键杠杆
在AI大模型的语境下,Token是构成AI模型输入和输出的基本单元,正如英伟达CEO黄仁勋所言,它们是“AI工厂”的原材料与产出。一个AI工厂的盈利模式同样遵循传统的“P x Q”公式,即每个Token的价格(P)乘以输入和输出Token的总量(Q)。然而,与传统制造业不同的是,AI服务商可以根据多项关键性能指标(KPI)来灵活设定Token的价格,这些指标直接影响用户体验与服务成本:
- 延迟 (Latency) 或首个Token输出时间 (Time-to-First-Token):模型生成第一个Token所需时间,反映了“预填充”阶段的效率。
- 吞吐量 (Throughput) 或交互速度 (Interactivity):模型生成每个Token的速度,通常以“每个用户每秒可生成的Token数量”衡量。
- 上下文窗口 (Context Window):模型“短期记忆”中能容纳的Token数量,直接影响模型处理复杂、长程任务的能力。
DeepSeek在其R1模型服务上所做的权衡,正是导致其官方平台用户流失的关键。为了提供极低廉的单位Token价格,DeepSeek牺牲了用户体验:其自有服务的延迟远高于同等价格的其他服务商,用户往往需要等待数秒才能收到首个Token;同时,其采用的64K上下文窗口,也几乎是主流模型服务商中最小的之一,这在很大程度上限制了模型在编程等需要长时间记忆的任务中的应用。数据显示,许多第三方服务商已能实现低于5秒的延迟,或以同样的价格提供2.5倍以上的上下文窗口。
从硬件层面分析,DeepSeek实现低价的策略在于极高的“批处理”(batching)率。通过在单个GPU或GPU集群上同时处理更多用户请求,可以显著降低单位Token的总成本。然而,这种策略的直接副作用便是终端用户体验的下降——更高的延迟和更慢的吞吐量。
“Token的价格并非一个孤立的数字,而是模型提供商根据其硬件和模型配置,在对各项KPI进行决策后得出的最终结果。”1
算力稀缺下的战略抉择:从用户服务到AGI深潜
DeepSeek选择“不关心”用户体验,甚至主动放弃一部分直接用户和API收入,并非决策失误,而是一种高屋建瓴的战略选择。其核心意图并非通过聊天应用或API服务盈利,而是将尽可能多的宝贵算力资源保留在公司内部,专注于实现AGI(通用人工智能)的长期研发目标。通过高批处理量将边缘推理成本外部化,DeepSeek巧妙地将算力密集型的推理负担转移给第三方云服务商和托管平台,而自身则能心无旁骛地投入到更基础、更具战略意义的模型训练与迭代中。
此外,地缘政治因素也加速了这一战略的形成。出口管制在一定程度上限制了中国AI生态系统在模型服务方面的硬件能力。在这种背景下,DeepSeek选择开源其模型,并通过第三方平台进行分发,成为一种合乎逻辑且高效的策略:它既能有效规避算力瓶颈,又能借助全球生态系统赢得更广泛的用户认知和市场份额,同时确保核心算力服务于其AGI的终极愿景。
产业生态演进:Tokens即服务与效率至上
DeepSeek的案例并非孤例,全球AI产业正经历一场从“产品”到“效用”的深层转型。算力同样受限的Anthropic也面临类似挑战。尽管其明星产品Claude Code在编程领域表现卓越,备受开发者青睐(例如在Cursor上的持续领先1),但其API输出速度自发布以来已下降40%,根本原因同样是为应对激增的请求而被迫提高了批处理速率。
然而,Anthropic也提供了另一种优化策略:提高“每单位Token所承载的智能”。尽管Claude的生成速度相对较慢,但其回答同一个问题所需的Token数量远少于其他模型,意味着尽管生成速度不占优,用户实际感受到的端到端响应时间反而显著缩短。这种“少即是多”的效率提升,正在成为衡量模型价值的新维度。
这一趋势催生了“Tokens即服务”(Tokens-as-a-Service)商业模式的兴起。越来越多的公司开始效仿Anthropic,专注于将Token作为一种可计量的计算资源出售,而非传统意义上的月度订阅产品。Cursor、Windsurf、Replit、Perplexity等“GPT套壳”应用(更准确地说是“AI Token驱动的应用”)的流行,正是这一模式蓬勃发展的明证。这意味着,未来模型的竞争将不仅局限于智能水平,更将拓展到单位Token的效率、交付的延迟和所能提供的上下文深度。
未来图景:AI算力地缘政治与效用范式转移
DeepSeek的战略性权衡,以及Anthropic所面临的挑战,共同揭示了AI产业未来发展的几个关键趋势:
-
算力成为核心地缘战略资产:AI大模型对算力的需求是天文数字,稀缺的算力将进一步加剧全球科技竞争。国家层面的政策、出口管制以及芯片供应链的稳定性,将直接影响AI企业的核心竞争力与发展路径。DeepSeek通过外部化推理算力、专注内部研发的模式,正是对这种地缘政治现实的适应性策略。
-
“Token经济学”驱动商业模式创新:传统的软件订阅模式正在向基于用量、强调性能与效率的“Tokens即服务”模式演进。未来的AI价值将更多地体现在如何以更低的成本、更高的效率、更优的体验提供Token服务。这将促进模型服务商在延迟、吞吐量、上下文窗口等KPI上进行更精细的权衡与优化,从而满足不同应用场景的定制化需求。
-
大模型分发走向多元化与生态化:模型开发者不再拘泥于自建用户入口,而是积极拥抱第三方平台,将模型作为底层能力提供。这不仅能迅速扩大模型影响力,降低分发成本,也促进了更开放、更多元化的AI应用生态的形成。这种合作与竞争并存的生态系统,将加速AI技术的普及与创新。
-
“效率智能”成为新赛道:在通用智能水平趋同的背景下,模型如何以更少的Token输出更精准、更凝练的信息,将成为新的竞争优势。Anthropic在“每单位Token所承载的智能”上的探索,预示着未来AI的发展将从单纯的“更大、更强”转向“更高效、更精炼”,从而优化用户体验并降低成本。
DeepSeek的“流量之谜”并非其技术的瓶颈,而是其在算力稀缺、地缘政治复杂和市场模式转型的大背景下,对核心战略和资源配置的一次清晰宣示。它预示着,AI大模型正从一个追求单一“智能高度”的竞技场,转变为一个在多维度KPI上进行复杂权衡、在多元分发渠道中寻找最优解、最终服务于人类文明更深层目标的实用主义进程。这场变革的深远影响,才刚刚开始显现。