TL;DR:
DeepSeek以牺牲自家平台用户体验为代价,将算力极致压榨并倾斜至内部AGI研发,同时通过开源策略搅动市场价格战,意外成就了云计算基础设施商,展现出一种独特的、不以短期营收为目标的商业策略。这不仅重塑了AI模型市场的竞争格局,更预示着未来AI竞赛将聚焦于“每token智能”的效率之争,而非单纯的规模堆砌。
在人工智能这片沃土之上,总有出其不意的花朵绽放,但鲜有如DeepSeek这般,以一种看似“自毁长城”的方式,掀起滔天巨浪。自DeepSeek R1横空出世的短短百余日,大模型市场便经历了一场前所未有的“价格雪崩”——其中最引人注目的莫过于OpenAI在六月更新中将价格陡降至此前的两成,仿佛一夜之间,AI推理服务的“贵族”身份便被无情地剥去一层金边,化作了寻常百姓家的口粮。1
然而,在这场由DeepSeek“挑衅”引发的数字狂欢中,一个令人费解的现象悄然浮现:尽管其模型在第三方平台的托管使用量飙升了近二十倍,成就了一批云服务商的“意外之喜”,DeepSeek自家网站和API的市场份额却一路下坡,宛如一个在自家派对上被冷落的东道主。到了五月,DeepSeek模型在全网产生的token中,竟然只有可怜的**16%**来自其“亲生”平台。这一“墙内开花墙外香”的奇景,并非意外,而是DeepSeek深思熟虑后的一场豪赌。
算力与用户体验的“不可能三角”
探究DeepSeek这种“反向商业模式”的奥秘,便会发现其背后隐藏着一个残酷的算力分配哲学。根据SemiAnalysis的洞察,DeepSeek为了将推理成本压榨到极致,不惜在用户体验上做出了“战略性妥协”。想象一下,当您急切地向AI提问,却要焦躁地等待数秒才能看到第一个字跃然屏上——这便是DeepSeek官方平台常见的“首token延迟”问题。相比之下,那些价格高昂的第三方平台,往往能提供近乎零延迟的丝滑体验。例如,在Parasail或Friendli上,用户仅需支付3-4美元即可获得百万token额度,且延迟微乎其微。即便是微软Azure这样的大牌,虽然价格是DeepSeek官方的2.5倍,却能将延迟削减整整25秒,让用户免受煎熬。更有甚者,DeepSeek官方在同等延迟表现下,甚至不是自家模型服务中最经济的选择,这无疑让其用户“用脚投票”成为必然。
此外,DeepSeek在有限的推理资源下,仅提供64K的上下文窗口,在主流模型供应商中堪称“小家碧玉”。这对于需要吞吐整个代码库的软件工程师而言,简直是杯水车薪。与之形成鲜明对比的是,Lambda和Nebius等平台在相同价格下,能提供高达2.5倍以上的上下文窗口,满足了更多复杂场景的需求。这种将用户请求“打包”处理以降低每token成本的做法,固然在经济账上划算,却也无情地延长了每位用户的等待时间,使得用户的“即时满足感”成了奢望。
鲶鱼效应:市场重塑与生态共赢
DeepSeek的这些看似“反市场”的决策,并非一时兴起,而是其深远战略的冰山一角。它似乎对通过用户服务直接盈利兴趣寥寥,也无意成为一个以聊天应用或API服务提供大量token的平台。其核心目标,或者说其真正的“圣杯”,在于实现通用人工智能(AGI)。这意味着,尽可能少的算力被用于外部推理服务,而绝大部分的算力资源,都被秘密地留在内部,以供其AGI研究之用。这种“开源+寄生”的商业模式,让DeepSeek在不直接承担大规模推理服务压力的同时,通过模型的开放获取,成功赢得了广泛的影响力,并培养了一个庞大的生态系统,可谓“一石二鸟”。
DeepSeek的“鲶鱼效应”不仅限于其自身,更搅动了整个大模型行业的活水。受其影响,Anthropic旗下的Claude模型也开始调整策略,通过降低输出速度来缓解算力紧张,尽管其速度依然远超DeepSeek。更有趣的是,Claude模型被设计得更为“惜字如金”,生成更简洁的回复,相较于DeepSeek和Gemini可能要多花三倍token来回答同样问题,这揭示了行业一个更深层次的竞争维度:提升每个token的智能。在算力资源愈发稀缺且昂贵的当下,如何让每一个消耗的token都物尽其用,成为AI模型下半场竞争的关键。
逐鹿AGI:token智能与战略取舍
这场AI军备竞赛,说到底拼的还是算力资源的调配与效率。DeepSeek的策略,如同在AI淘金热中,有人选择贩卖铲子,而DeepSeek则选择将大部分“金子”深埋自家矿井,只将少量“矿渣”廉价出售,以换取更多的“勘探许可”。它挑战了硅谷巨头依赖算力堆砌的传统路径,迫使包括微软、英伟达在内的科技巨头加速适应这种新范式。2
在中国市场,DeepSeek的崛起更是让“大模型六小虎”(智谱、百川、零一、MiniMax、月之暗面、阶跃星辰)面临前所未有的压力。它们普遍面临“钱不够、卡不够、数据不够、商业化艰难”的多重挑战。3 然而,竞争并未因此停滞,反而愈发激烈:月之暗面发布Kimi-Dev-72B开源代码大模型,在SWE-bench Verified基准上以60.4%的准确率超越DeepSeek;MiniMax则推出性能比肩DeepSeek、RL训练成本仅53万美元的开源推理模型MiniMax-M1,并以百万级上下文窗口在长文本处理上击败GPT-4o和Claude 3 Opus。3 这都表明,在DeepSeek的冲击下,中国AI企业正被迫加速迭代,寻求差异化竞争优势,而其核心依然围绕着如何以更高效、更智能的方式利用有限的算力。
这场关于“每token智能”的竞赛,远不止是技术参数的较量,更是商业模式与战略愿景的博弈。当许多公司还在为短期营收与市场份额而挣扎时,DeepSeek却以一种近乎偏执的姿态,将资源集中于对AGI的终极探索。这不仅仅是一场技术革命,更是一场关于如何重新定义价值创造、如何在长期愿景与短期利益之间做出取舍的商业哲学实践。未来,那些能够以最小的算力投入,产生最大“智能密度”的模型,无疑将在AI的下一阶段竞争中占据先机,而DeepSeek,正以其独特的方式,为我们描绘着这一前景。