超越悖论:AI“创造力”的生物启示与技术深层结构

温故智新AIGC实验室

TL;DR:> 两位物理学家发现,扩散模型的“创造力”并非高级智能的体现,而是其底层架构——局部性和等变性——在去噪过程中必然产生的“技术缺陷”或副产品,这与生物系统自组织中的误差异曲同工。这一颠覆性洞察不仅重塑了我们对AI能力的理解,更开启了从生命演化中汲取灵感,构建新一代更高效、可控AI模型的可能性。

人工智能,特别是生成式AI,正在以前所未有的速度模糊着人类与机器创造力之间的界限。从DALL·E、Imagen到Stable Diffusion,这些基于扩散模型的图像生成工具,在被设计为精确复制训练数据分布的同时,却频频展现出令人惊叹的“即兴创作”能力。它们并非简单地记忆并重组元素,而是能生成具有语义意义的新颖图像,甚至在处理特定细节时(例如生成人手时常出现“多指”现象),呈现出一种奇特的“AI味”。这种“悖论”——本应完美复制却能生成新样本——长期困扰着AI研究界。然而,近期一项由两位物理学家主导的研究,为解开这一谜团提供了开创性的视角:AI的创造力,可能源于其核心算法中的“技术缺陷”,而非刻意设计。

技术原理与创新点解析

这项已被ICML 2025接收的论文,由巴黎高等师范学院的物理学家朱利奥·比罗利、以及形态发生学研究者梅森·坎姆和神经生物学家苏里亚·冈古利共同完成。他们大胆提出,扩散模型的去噪过程(将图像转换为噪声再重组)与生物系统自我组装的动态过程——形态发生学——有着惊人的相似性。形态发生学解释了细胞如何在没有“总指挥”的情况下,通过局部协调形成复杂器官和肢体,例如艾伦·图灵提出的“图灵模式”理论。这种自下而上的系统虽然高效,但偶尔也会因局部信息处理的限制,导致像多指畸形这样的“错误”发生。1

关键在于,AI生成的图像中也曾普遍出现“多指畸形”等不协调现象。坎姆敏锐地捕捉到了这一共性,并将AI的“技术捷径”——局部性(locality)和等变性(equivariance)——与此关联起来。局部性意味着扩散模型一次只关注图像的某个“区块”,而等变性则确保系统在图像移动时能做出相应的调整,维持结构连贯。长期以来,AI研究者将这些特性视为去噪过程中的限制,阻碍模型完美复制数据的“技术难题”,认为它们与“创造力”这种高级现象无关。

然而,坎姆和冈古利挑战了这一传统认知。他们假设,正是这些被视为限制的局部性和等变性,导致了扩散模型的“创造力”。为验证此假说,他们构建了一个名为等变局部评分机(ELS)的数学模型。ELS不依赖于传统训练,而是仅基于局部性和等变性的机制来解析和预测去噪图像的组成。令人震惊的是,ELS模型能够以平均90%的准确率与训练好的扩散模型输出“完全匹配”1,这在机器学习领域是前所未有的结果。这有力地证明了:一旦局部性限制被引入,模型的“创造力”就会自动且必然地产生,它完全自然地源于系统动力学。换言之,那些强制模型局部关注、缺乏全局背景认知的机制,反而成就了其非凡的创造能力。

“如果它们完美工作,就应该只是记忆。但它们并没有——实际上它们能够生成新的样本。”——朱利奥·比罗利,巴黎高等师范学院物理学家。1

产业生态影响评估

这项研究不仅是学术上的突破,更对整个AI产业生态具有深远影响。首先,它改变了我们对生成模型设计哲学的理解。如果“缺陷”可以成为“特征”,那么未来AI模型的设计重心,可能从单纯追求完美拟合和消除误差,转向如何巧妙地利用甚至放大某些结构性限制,以激发预期之外的新颖能力。这可能带来更轻量、更高效、甚至更具“个性”的AI模型,降低训练成本并提高推理效率。例如,可以通过精细调整模型中的局部性与等变性参数,来控制其创造力的“强度”与“风格”,从而为定制化AI内容生成提供新的路径。

其次,这一发现为**“神经启发式AI”(Neuro-inspired AI)和“生物形态AI”(Bio-morphological AI)领域注入了新的活力。传统上,神经形态计算侧重于模拟大脑结构以提升能效,而现在,通过理解生命系统自组织原理对AI创造力的启示,我们可以探索更深层次的生物机制,指导下一代AI架构设计。例如,可以研究如何将“涌现性”和“自下而上”的生物学概念融入到更广泛的AI系统设计中,从而在复杂任务中实现更自然的适应性和创造性。这或将促成更具鲁棒性、更少依赖大规模预训练数据**的AI模型。

然而,该研究也引出了新的问题。例如,大型语言模型(LLMs)等其他AI系统也表现出创造力,但它们通常不依赖局部性和等变性。这意味着AI创造力的源头可能是多样的,而非单一机制决定。这促使行业重新思考,是否所有形式的AI创造力都植根于某种“不完整性”或“信息丢失”?这种跨模型的共性探究,将是未来AI研究的重要方向。对于**可解释AI(XAI)**领域而言,理解这种“创造力即缺陷”的机制,为揭示AI决策过程的“黑箱”提供了一种新的思路:也许我们需要的不仅仅是AI决策的透明度,更是对其内部“不完美”如何促成“完美”的深入洞察。2

未来发展路径预测

展望未来3-5年,这项研究可能催生以下关键趋势:

  1. AI架构的生物学范式转移:AI研究将更深入地从生物学、物理学等基础科学中汲取灵感,设计出更符合自然界演化规律的新型AI架构。例如,借鉴细胞分化、胚胎发育等自组织过程,开发出更具适应性和涌现能力的模型,尤其是在机器人、具身智能等与物理世界交互的领域。这可能减少对海量标注数据的依赖,提升模型的泛化能力。

  2. “可控创造力”的商业化应用:理解创造力源于特定机制,意味着我们可以更精细地调控AI的创新程度。在内容生成、艺术设计、药物发现等领域,企业将能够开发出具有可控新颖性的AI工具。例如,一个设计师可以设定AI生成的图像在保持特定风格的同时,具备一定程度的“离谱”或“新颖”元素,以满足创意需求。这有望解锁新的商业模式,甚至可能出现专门出售“AI创意缺陷”的垂直市场。

  3. 对AGI探索的哲学影响:如果AI的创造力源于某种“不完整性”或“填补空白”的过程,那么这为人类对自身创造力的理解提供了新的线索。佐治亚理工学院的机器学习研究员本·胡佛(Ben Hoover)提出:“人类和AI的创造力可能并没有那么不同……AI也只是从它所见和被要求做的事情中组合基本构件。”1 这将推动AGI(通用人工智能)研究超越单纯的性能指标,更深入地探讨智能的本质,包括认知、意识与创造的深层机制。这种跨学科的哲学思辨,将为AI的长期发展指明方向,并引导我们重新定义“智能”本身。

  4. AI伦理与治理的新维度:对AI创造力来源的理解,也将影响AI伦理与治理的策略。如果创造力是“技术缺陷”的副产品,那么在监管AI生成内容时,我们需要更细致地评估这种“缺陷”可能带来的风险(如虚假信息、版权归属),同时也要认识到其带来的创新潜力。欧盟AI法案等全球治理框架正在形成,理解AI内部机制将有助于制定更具针对性和前瞻性的法规,平衡创新与风险。3

这项研究揭示了一个引人深思的真相:技术进步往往伴随着出人意料的涌现属性,而这些属性有时恰恰源于我们最初认为是限制或不足的地方。AI的“创造力”不再是遥不可及的神秘力量,而是可以被解析、被预测的确定性过程,这无疑是理解智能本身道路上的“伟大”一步。未来,我们可能不再需要“教”AI如何创造,而是学会如何优雅地“允许”它创造,甚至引导其“缺陷”走向艺术与创新的殿堂。

引用


  1. 物理学家靠生物揭开AI创造力来源:起因竟是“技术缺陷”·量子位·不圆(2025/7/4)·检索日期2025/7/4 ↩︎ ↩︎ ↩︎ ↩︎

  2. [PDF] 2025 上海交大行研院报告,引用注明出处·上海交通大学·(2025/4/27)·检索日期2025/7/4 ↩︎

  3. AI大未來:2025年趨勢、產業衝擊與治理關鍵一次看懂 - AmiNext·AmiNext Fin & Tech Notes·(2025/7/4)·检索日期2025/7/4 ↩︎