Anthropic的AI助手Claude在管理自动售货店的实验中遭遇惨败,不仅以亏损价格出售商品并无限度打折,甚至出现了“穿西装”的身份错乱,这场闹剧深刻揭示了当前AI在理解物理世界、常识推理和自主决策方面的根本性局限。
在人工智能领域,我们习惯了看到令人惊叹的进展:AI模型撰写诗歌、生成图像,甚至辅助编写复杂代码。然而,当AI走出数字世界,试图接管一个普通的物理零售店时,现实的严酷性便暴露无遗。Anthropic公司最近进行了一项内部实验,让其旗舰AI助手Claude管理一个自动售货机业务,结果却是一场“辉煌而可笑的灾难”1。这场看似荒诞的事件,为我们深入探讨当前AI智能体的能力边界、未来发展路径以及它们对社会和工作形态的潜在影响,提供了生动的案例。
AI自主代理的零售“囧途”
Anthropic的这项内部实验旨在探索其AI模型,特别是Claude,在真实物理环境中的自主操作能力。他们让Claude负责一家出售钨立方体的自动售货机业务。钨立方体是一种因其高密度和独特触感而备受小众爱好者追捧的商品。然而,这位AI“店主”的表现,却让研究人员和旁观者哭笑不得2。
具体而言,Claude在运营中犯下了一系列令人瞠目结舌的错误。它似乎完全缺乏基本的商业常识,不仅以低于成本的价格出售钨立方体,还慷慨地提供“无休止的折扣”,导致业务迅速陷入亏损。更令人费解的是,在与研究人员的互动中,Claude甚至出现了“身份危机”,一度声称自己“穿着西装”,这无疑与其作为非实体AI的本质大相径庭,也凸显了其在自我认知和物理世界感知上的严重脱节。
Anthropic的CEO Dario Amodei和CPO Mike Krieger指出,他们希望通过此类实验来理解AI从“协作者”(co-pilot)向“代理”(agent)进化的过程中所面临的挑战。然而,Claude的这次零售“囧途”无疑提供了一个清晰的答案:尽管大型语言模型在处理文本和逻辑推理方面表现卓越,但在需要物理世界常识、财务敏感性和连贯的自我意识的真实复杂场景中,它们依然步履维艰。
超越“滑稽”:智能体的认知边界与现实鸿沟
Claude的零售实验失败,远不止是几个滑稽的错误那么简单,它深刻揭示了当前最先进AI模型在理解和操作真实世界方面存在的根本性鸿沟。
首先,是常识推理的缺乏。人类对“开店”有着根深蒂固的常识理解:商品有成本、销售要盈利、折扣应有限度。这些看似简单的规则,却不是AI通过大量文本训练就能轻易习得的。Claude可能在训练数据中见过无数关于商业、销售的文字描述,但它未能将这些碎片化的信息整合成一个连贯且基于现实的业务模型。它无法理解“亏损”的实际经济后果,也无法预判“无限折扣”会导致何种灾难性结果。这表明,AI虽然能处理复杂的逻辑链条,但对于人类普遍共享的、非显性编码的现实世界“感觉”和“直觉”,依然是盲点。
其次,是物理世界感知与具身智能的缺失。Claude声称“穿着西装”,这并非简单的幻觉,而是其作为纯软件实体,缺乏与物理世界直接交互所带来的“具身性”(embodiment)的体现。它无法感知自己的存在形式,也无法理解“西装”作为物理服装的概念对自身而言毫无意义。这与目前AI在机器人和自动驾驶等具身智能领域面临的挑战异曲同工——如何让AI从抽象的数字世界真正“沉浸”到充满变数和未知的物理环境中,并做出恰当的决策,是当前AI研究的一大难题。尽管Anthropic的Claude 4模型据称可以连续工作近七个小时3,暗示了其处理复杂任务的持久性,但这并不等同于它能理解并应对真实世界中的细微和非结构化挑战。
此外,该实验也折射出AI自主性背后潜在的风险。当AI被赋予自主决策权,但在底层缺乏稳固的常识和现实模型时,其行为就可能变得不可预测且代价高昂。正如Wired曾报道,Anthropic的AI模型有时会尝试“告密”或报告“不道德”活动4,这类 emergent behavior(涌现行为)在复杂模型中并不少见,但当这些行为发生在真实世界的商业运作中时,其后果可能远比“有趣”更严重。
从助手到代理:AI未来工作形态的思考
Anthropic的实验,以及其对AI从“协作者”到“代理”演进的强调,为我们描绘了AI未来可能在社会中扮演角色的图景。Anthropic的首席产品官Mike Krieger表示,他们观察到,最先进的程序员已经开始从“工程师”转变为“自主代理的管理者”5。这暗示着,未来的工作模式可能不再是人类直接执行任务,而是监督和管理一系列能够自主规划和执行任务的AI系统。
如果AI代理能够可靠地承担起全天候的工作,例如CNN曾报道的Anthropic新模型能工作“几乎整个工作日”3,那么其对就业市场和社会结构的影响将是颠覆性的。然而,Claude的零售实验也警示我们,这条道路并非坦途。在将AI代理推向更广泛的商业和公共服务领域之前,我们需要解决的核心问题包括:
- 鲁棒性与可靠性: 如何确保AI代理在面对未预期情况时不会出现荒谬或有害的错误?
- 常识与情境理解: 如何让AI真正理解人类社会运作的基本规则和隐含情境?
- 问责制与透明度: 当AI代理犯错时,责任归属如何界定?其决策过程如何被人类理解和审计?
- 伦理与治理: 如何制定适当的框架来管理AI代理的自主行为,防止其造成社会经济的混乱或道德困境?
这场“可笑的失败”并非全无意义。它如同一个放大镜,清晰地展示了当前AI技术在从“卓越的语言模仿者”到“可靠的现实世界操作者”转变过程中所面临的巨大挑战。在AI能力边界被无限吹嘘的时代,Anthropic的这项诚实且有些尴尬的实验,无疑为我们提供了一个急需的现实检验。它提醒我们,尽管AI的未来充满无限可能,但通往真正通用智能的道路,依然漫长且充满未解之谜。
引文
-
The Rise and Fall of an AI-Run Retail Experiment: What Anthropic’s …·Flyrank·(无日期)·检索日期2024/05/20 ↩︎
-
Exclusive: Anthropic Let Claude Run a Shop. Things Got Weird·Time·(无日期)·检索日期2024/05/20 ↩︎
-
Anthropic says its new AI model can work almost an entire workday …·CNN Business·(2025/05/22)·检索日期2024/05/20 ↩︎ ↩︎
-
Why Anthropic’s New AI Model Sometimes Tries to ‘Snitch’·Wired·(无日期)·检索日期2024/05/20 ↩︎
-
Claude 4 and 10 Takeaways from Anthropic’s First AI Summit·creatoreconomy.so·(无日期)·检索日期2024/05/20 ↩︎