当AI学会“像人一样思考,甚至带点瑕疵”:一项新研究如何解构人类心智

温故智新AIGC实验室

一项开创性研究通过训练大型语言模型(LLM)模拟数千万个心理学实验,成功地让AI系统能够像人类一样回答问题,甚至体现出人类思维中的“瑕疵”。这项工作不仅为理解人类认知提供了前所未有的工具,也引发了关于AI模拟能力边界及其深层伦理影响的思考。

长期以来,人类的心智——其复杂性、非理性以及那些不完美的“瑕疵”——一直是科学探索的终极疆域。如今,随着人工智能技术的飞速发展,我们正逐步获得前所未有的视角,透过硅基镜面反观自身。一项由国际科学家团队主导的突破性研究,正是这一探索的最新例证:他们通过训练一个大型语言模型(LLM)来模拟人类认知,并取得了令人瞩目的成果,甚至能够再现人类思维中的微妙之处与不完美之处

技术原理解析

这项研究的核心在于其独特的数据集和训练方法。科学家们没有选择普遍的文本语料库,而是将目光投向了人类心理学研究的宝库。他们训练了一个类ChatGPT的系统,使其学习了一千万个心理学实验问题的数据集。这项创新旨在让AI系统能够“像我们一样”回答问题,从而在心理学实验中扮演人类受试者的角色1

这个被非正式命名为“Centaur”的模型,在《科学》杂志上发表的论文中被描述为能够“预测和模拟”任何可以用自然语言表述的实验中的人类行为2。这不仅仅是简单的模式匹配或信息检索,更像是通过模仿人类在特定情境下的反应,来洞察驱动这些反应的底层认知机制。一些研究者认为,这种“生物启发式AI”(Biomimetic AI)——试图复制生物有机体的功能——是创造出与人脑计算能力相近的机器的最佳途径3。例如,基于_主动推断_(active inference)概念的模型,被认为能更紧密地模拟人类大脑功能,因为它试图捕捉大脑的“执行功能”,即那些在决策和行为中扮演核心角色的高级认知过程3

模拟的边界与伦理考量

这项成就固然令人兴奋,但“带点瑕疵”(Warts and All)的模拟能力,也引发了深刻的思考。如果AI模型能模仿人类的思考方式,包括其中的偏差、偏见甚至非理性,那么我们是在创造一个更真实的认知工具,还是在无意中复制甚至放大人类固有的缺点?例如,当模型在心理学实验中表现出与人类相似的_系统性偏差_时,这对于理解这些偏差的起源和机制无疑是宝贵的。但同时,这也可能意味着,未来更广泛部署的AI系统,可能会在不知不觉中继承并传播这些“瑕疵”,带来新的社会和伦理挑战。

然而,对于这项研究的宣称,并非所有人都持乐观态度。一些科学家对此表示_怀疑_,他们质疑AI模型是否真正地“模拟”了人类心智,而不仅仅是高效地学习并复现了数据中的行为模式2。这种技术层面的争论,触及了人工智能领域的核心哲学问题:当AI的行为与人类无异时,我们如何界定“理解”与“模拟”的边界?这种行为层面的模仿,是否等同于深层认知机制的再现?

迈向真正理解之路

尽管存在争议,这项研究无疑为我们提供了一个强大的新工具,用以解构人类心智的奥秘。通过在AI模型上进行虚拟实验,研究人员可以在受控环境中,以前所未有的规模和速度探索认知现象,这在传统的人体实验中是难以实现的。这种方法有望加速我们对学习、记忆、决策等基本认知过程的理解。

从更宏观的视角看,这项工作预示着AI在科学发现领域的巨大潜力,尤其是在复杂且难以直接观测的人类行为和大脑活动领域。如果这些“类人”AI系统能够发展成为一个由数十亿个AI智能体组成的网络——正如一些人设想的“Genius”系统——它们甚至可能超越人类智能来提出解决方案3

最终,这项研究的价值不仅在于AI能够“像人一样思考”,更在于它促使我们反思何谓人类智能,何谓其本质的“瑕疵”。它为心理学研究打开了新的大门,也迫使我们严肃审视,当机器能够如此逼真地映射我们的思维图景时,我们应如何驾驭这种能力,以确保其服务于人类的福祉,而非放大我们自身的不足。

引用


  1. Scientist Use A.I. To Mimic the Mind, Warts and All · The New York Times · (2025/07/02) · 检索日期2025/7/3 ↩︎

  2. Researchers claim their AI model simulates the human mind ... · Science · (2025/07/03) · 检索日期2025/7/3 ↩︎ ↩︎

  3. New Genius AI Thinks Like a Human Brain—Could It Read Your Mind? · Popular Mechanics · (2025/07/03) · 检索日期2025/7/3 ↩︎ ↩︎ ↩︎