2025年,AI大模型在企业内部已从创新试验转变为不可或缺的战略基础设施,预算显著增长并纳入核心IT开支。企业正采纳多模型策略以平衡性能与成本,同时AI采购流程日益标准化,且由“自建”转向“采购”成熟的第三方AI原生应用,其中软件开发成为首个“杀手级”应用场景,标志着AI市场正以其特有的速度和复杂性走向成熟。
在过去的一年里,人工智能,特别是大型语言模型(LLMs),在企业中的地位发生了根本性的、静悄悄却迅猛的转变。曾几何时,它只是创新实验室里一个孤立的试验,技术部门的“新玩具”,如今却已真正渗透到核心业务系统,成为企业IT和经营预算中不可或缺的一部分。正如A16z一份基于对20多位企业买家和100位CIO深度访谈的最新报告所揭示,2025年,AI不再是“是否值得尝试”的问题,而是“如何规模化落地”的现实挑战,这面镜子映照出全球企业拥抱AI的清晰路径1。
AI部署的范式转变与预算跃升
2025年的企业AI部署,最显著的特征是其在财务优先级上的跃升。报告指出,企业对LLM的投入已大幅超出去年本就颇高的预期,并预计未来一年平均增幅将高达75%。一位CIO的惊人表述——“我2023年一整年的支出,现在一周就能用完”——生动描绘了这种预算常态化和激增的态势1。
这种增长并非盲目。它源于两股驱动力:一是企业持续发掘更多内部用例,推动员工广泛采用AI工具以提升效率;二是越来越多的企业,特别是科技创新型企业,开始部署面向客户的AI应用,其投入呈指数级扩展。更深远的意义在于,AI支出已从创新专项预算(一年前约占25%)大幅下降至7%1。这意味着AI模型和应用的费用已正式纳入常规IT与业务部门预算,标志着AI不再是探索性项目,而是业务运转的“基础设施”。正如一位CTO所言:“我们的产品正在陆续集成AI功能,相关支出也自然水涨船高。”1 这不仅是对AI技术潜力的认可,更是对其核心业务价值的肯定。
多模型策略与市场格局重塑
随着AI技术生态的日趋成熟,企业在模型选择上展现出前所未有的复杂性和策略性。“多模型组合”已成为主流,驱动力不仅仅是避免供应商锁定,更在于不同模型在特定用例中表现出的显著差异化优势1。高达37%的企业目前使用五种及以上模型,较去年明显增长。例如,Anthropic的Claude在细粒度代码补全和语言流畅性方面表现出色,而谷歌Gemini则在系统设计、架构以及复杂问答任务中更具优势1。这种“多模型最佳实践”不仅优化了性能,也有效降低了对单一厂商的依赖。
尽管市场竞争激烈,OpenAI、谷歌和Anthropic已初步确立了领先地位。OpenAI凭借其GPT-4o等模型保持市场份额领先,其中67%的用户在生产中部署了非前沿模型。谷歌则依托其GCP客户基础和品牌信任,在大型企业中表现突出,Gemini 2.5 Flash以其0.26美元/百万Token的极低成本,展现出闭源中小型模型日益明显的性价比优势1。Anthropic则在技术前沿企业和代码相关任务中备受青睐。同时,Llama和Mistral等开源模型因数据安全、合规性和可定制性,在大型企业中拥有重要地位1。值得注意的是,中国工业互联网研究院的报告指出,国内大模型如Qwen、DeepSeek等在开源领域已占据领先地位,并正在加速追赶国际顶尖水平,同时推动“AI+”行动,预计2025年端侧大模型将向行业加速渗透,尤其在消费电子领域实现广泛应用23。
有趣的是,随着模型能力的显著提升和上下文窗口的扩大,企业发现微调(fine-tuning)的重要性正在下降。高质量的Prompt工程已能达到甚至超越微调的效果,大大降低了成本,并提升了模型迁移的灵活性。尽管在某些超特定用例(如流媒体的视频搜索查询增强)微调仍不可或缺,但总体而言,大多数企业已调低了对常规场景中微调ROI的预期1。
另一方面,推理模型(Reasoning Models)正成为企业关注的新焦点。这类模型能够显著提升LLM处理复杂任务的准确性,从而拓展其应用场景。虽然多数企业仍处于测试阶段,但普遍对OpenAI的o3等推理模型持乐观态度,预示着其未来在企业应用主流程中的影响力将迅速放大1。
采购流程的成熟与应用生态的崛起
2025年,企业AI采购流程已全面借鉴传统软件采购机制,变得更加系统和规范。安全性、成本、准确性和可靠性成为核心考量,其中成本敏感度显著提升,尤其是对内部或低风险任务而言。企业与模型厂商之间的信任度也明显提升,越来越多的企业选择直接与模型提供方合作,而非一味通过现有云服务商托管1。这反映出企业对获取最新、最强模型的迫切需求,哪怕这意味着突破传统的云供应商绑定策略。
然而,随之而来的是一个新挑战:模型切换成本正在快速上涨。随着“代理式工作流”的兴起,AI应用变得更加复杂,涉及多步骤协作。企业在构建提示语、设计护栏和验证质量方面投入的巨量资源,使得随意更换模型变得不切实际。这表明,早期为了降低绑定风险而刻意保持的灵活性,正被更深层次的集成和优化所取代1。外部评估基准如LM Arena日渐成为模型采购的“第一道筛选”,尽管内部基准测试和实际试用仍是最终决策的关键1。
在应用层面,AI生态正在迅速成熟,企业从“自己开发”向“购买成品”的转变尤为明显。专业第三方AI原生应用因其持续的性能优化和调优能力,以及更快的迭代速度,正快速超越传统软件厂商的自研工具1。在客户支持场景中,超过90%的CIO表示正在测试第三方应用,这彰显了AI原生公司在产品质量和迭代速度上的优势。这种趋势也部分得益于“Prosumer”(生产者消费者融合)市场——例如ChatGPT的企业版销售,很大程度上是因为员工的熟悉度和信任度,推动了企业采购决策1。
在众多应用场景中,软件开发已成为首个“杀手级”AI应用场景,其爆发式增长得益于模型能力的显著提升、现成工具的极高质量以及直接可见的投资回报率。一家高增长SaaS公司CTO透露,其近90%的代码已由Cursor和Claude Code生成,远高于一年前GitHub Copilot的占比1。这种效率的飞跃,预示着AI在知识工作领域的巨大潜力。尽管如此,报告也指出,尽管“按结果计费”被广泛讨论,但由于结果定义模糊、归因困难和成本不可控等顾虑,多数CIO仍倾向于按使用量计费的方式,因为它更直观、可预测、可控1。这反映了在商业模式探索上,市场仍在寻求最适合AI特性的平衡点2。
展望未来:企业级AI的“试验时代”已经结束
2025年,企业部署AI的“试验时代”已然终结。它不再是可有可无的创新点,而是一项不可逆转的战略行动。预算常态化、模型选择多元化、采购流程标准化、以及AI应用的系统性落地,共同勾勒出一幅AI全面融入企业肌理的图景1。尽管产业需求和企业用例呈现碎片化,但这恰恰是企业拥抱AI的方向。
我们正目睹一个独特市场形态的形成:它愈加接近传统软件的成熟与标准化,但其变化节奏与技术复杂性却完全不同,这是AI特有的演进韵律。随着推理模型能力的增强、AI原生应用的崛起、以及成本的持续下降,AI在工业场景的应用将从探索萌芽期逐步迈入重点突破期,尤其是在研发设计、运维服务和经营管理等高附加值环节2。然而,如何将这些技术创新与复杂的商业模式进行有效融合,实现长期盈利,仍是摆在大模型企业面前的巨大挑战2。
未来的企业将不再问“是否部署AI”,而是“如何更快、更深、更有效地部署AI”。这一转变不仅将重塑技术架构和业务流程,更将深刻影响企业的组织形态、人才需求乃至全球产业的竞争格局。