谷歌云将A2A协议捐赠给Linux基金会的举动,标志着AI智能体领域正加速迈向开放协作的未来。然而,在此之前,Anthropic的MCP协议已在企业市场站稳脚跟,引发了关于智能体工具调用与多智能体协作底层规则的深刻辩论,共同指向一个开放、互联的智能体经济愿景。
6月24日,谷歌云宣布将Agent-to-Agent(A2A)协议捐赠给Linux基金会,此举如同一场行业地震,引发了关于人工智能(AI)智能体(Agent)生态系统未来走向的激烈讨论。这份包含智能体交互协议、SDK和开发者工具的开源礼包,背后站着亚马逊、微软、思科等一众科技巨头,构成了一个“全明星”阵容。然而,在外界看来,这一决策并非全无争议。Reddit平台上有评论认为,此举是谷歌对Anthropic的MCP(Model-to-Tool/Service Protocol)协议和OpenAI函数等竞品的战略回应,但也同时揭示了一个行业共识:智能体经济的崛起,亟需共建底层规则。
在热议A2A的同时,Anthropic主导的MCP协议已在企业级市场悄然生根。有人认为“MCP已经起飞了,A2A才开始追赶”,甚至有人对谷歌的举动表示厌倦,怀疑A2A能否成功。这种观点的分歧,恰恰揭示了当前AI智能体领域的核心命题:我们如何让AI模型不仅能理解世界,还能安全高效地与现实世界互动并协同工作?
MCP:AI智能体深入企业腹地的基石
与A2A侧重智能体间通信不同,MCP解决的是更基础的问题:如何让AI模型安全高效地调用现实世界中的工具和服务。腾讯云资深产品技术专家汪晟杰和资深后端技术专家郭伟将MCP形象地比喻为“AI智能体操作企业API、数据库等数字工具所需的螺丝刀”1。其核心在于,将现有的API或业务能力转换为MCP协议,并提供详细的工具描述,以便代理或关联的大模型能够清楚地知道何时以及如何使用这些服务。
对于已有成熟API体系的企业,关键在于将现有API转换为MCP协议,并对工具的功能、参数和输入输出进行详细描述。这个过程相对较快,通常在一天内即可完成数个接口的转换。而对于从零开始的创业者,则需要从头构建业务逻辑,并花费更多时间撰写高质量的工具描述,同时针对不同模型进行测试,以找到最佳的描述方式。
在实际开发中,MCP的接入面临多重挑战。腾讯云的专家指出,核心问题在于工具描述的清晰度和模型的兼容性。如果描述不够清晰,模型在执行任务时会产生大量预测和尝试,导致错误率升高。通过后台监控,尤其关注400类错误,可以快速定位问题并优化描述。例如,对于国内大模型,中文描述表现出色;而面向国际模型,英文描述则更为推荐。针对兼容性问题,目前主要依赖反复测试和磨合,通过调整工具描述以适应不同模型的理解方式。汪晟杰强调,API设计应遵循“正交性”原则,即功能独立、高内聚,并尽可能清晰地描述每个API的使用场景、方式及预期输出。他总结道:“如果一个API能让人类用户感到清晰易懂,那么大模型大概率也能更好地理解和使用它。”1
今年3月,MCP发布了一个新版本,支持“Streamable HTTP”协议,具备有状态、服务器主动通知和流式输出的特点。这对于金融等高实时性要求的场景至关重要,它能让MCP客户端快速接收到最新的变更数据或实时数据,类似于早期的消息推送机制,为未来的Agent间实时通信奠定基础。
A2A:构建多智能体协作的未来蓝图
如果说MCP关注的是单个智能体如何高效利用工具,那么A2A则致力于构建一个多智能体协作的生态系统。汪晟杰解释道,大语言模型通过Agent技术开始能够接触物理世界并执行任务,但这些任务往往是单一的。A2A的核心在于促进不同Agent之间的相互通信和相互发现。它为每个Agent提供了一个“名片”(agent card),明确其能力、作用和访问方式,使得不同框架、不同背景的Agent能够相互协作。这就像一个职场,不同学校毕业的人最终需要进入职场并协同工作,A2A提供了这种平等的协议1。
腾讯方面对A2A表现出积极的拥抱态度。郭伟表示,腾讯有计划将内部产品接入A2A协议,尤其是在软件研发流程中,产品设计、代码开发、漏洞检测等环节都非常适合多Agent协作。例如,腾讯正在开发的IDE(集成开发环境)就采用了多智能体架构,从设计元素提取、数据清洗、代码生成,到失败反馈和需求调整,都将由不同的智能体协作完成,最终由人类进行确认。这体现了未来多智能体协作从目前的“孤岛式”有限交换,走向更深层次的“反思、对抗协作和互补”的愿景。
伦理、安全与治理的深层考量
随着AI智能体深入企业内部和日常生活,其与数据打交道的能力也带来了显著的隐私和安全挑战。郭伟明确指出,对于隐私数据(如手机号、银行密码),应尽量避免通过MCP方式提供,因为它们可能在与大模型的对话上下文中被获取或传递给其他工具。对于非敏感数据,则应通过现有的身份验证和授权机制(如OAuth 2.0或OpenID Connect)管理用户权限,利用企业已有的权限模型约束对MCP服务的访问1。
除了数据隐私,MCP市场本身的安全性与可信度也是一个关键议题。郭伟提到,腾讯自身运营的MCP市场对工具选择有严格标准,因为一旦用户使用后出现问题,责任将追溯到平台。然而,对于用户而言,很难判断MCP服务的安全性,因为其内部逻辑和提示词描述等很多内容都是黑盒化的。黑客甚至可能制作恶意MCP服务,诱导用户提供敏感信息。因此,未来行业亟需出台安全措施,帮助用户识别和规避风险,促进MCP行业的健康发展1。
从更广阔的视角来看,AI治理与伦理是智能体技术发展不可回避的命题。上海交通大学的一份报告指出,AI的普及在提升生产效率的同时,也可能加剧就业市场的两极分化,并引发算法偏见、隐私侵犯及超级智能失控等伦理问题。业界呼吁加强AI伦理研究,将人类价值观嵌入技术设计,并通过跨学科合作构建适应性治理框架2。
展望:走向更可控、更普惠的AI智能体经济
未来,MCP将呈现多样化发展趋势,预计约80%的核心软件都将推出自己的MCP,成为大模型调用的标准化端口。而Agent的发展方向无疑是朝着多智能体、且更可控的方向前进。
汪晟杰预判,未来可能存在两层结构,其中可以包含多个Agent,但必须有一个主Agent和若干子Agent来执行任务。这种主从模式在短期内相对可控,人类的角色主要是对计划进行验证和确认。然而,他强调,大模型本身的随机性和概率性使得其结果难以完全收敛到期望范围内。如何让Agent本身具备更强的计划思考能力,以及如何在产品层面利用人类的最终干预来提升效果,是亟待解决的挑战1。
郭伟补充道,MCP协议的持续完善,尤其是对Stream HTTP等新协议的支持,将使企业更快地将内部SaaS能力通过MCP方式释放出来,从而加速生态的形成。同时,他再次强调了MCP市场的安全可信问题,认为行业需要共同努力,建立更严格的安全标准和评估机制,确保智能体工具的安全应用。
智能体经济的底层竞赛已经打响。无论是作为“螺丝刀”的MCP,还是旨在构建“职场”的A2A,它们都共同推动着AI从单一任务执行走向复杂场景协作。在这个过程中,技术、商业、伦理和治理的平衡,将决定智能体AI能否真正普惠于社会,并以安全、可控的方式加速人类进步。
引文
-
MCP已经起飞了,A2A才开始追赶·InfoQ·郭伟、汪晟杰(2024/6/24)·检索日期2024/6/25 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
2025 上海交大行研院报告·上海交通大学·(未知作者)(2025/4/27)·检索日期2024/6/25 ↩︎