大型视觉语言模型普遍存在的“物体幻觉”问题,即模型凭空生成图像中不存在的物体描述,长期困扰着AI应用。西安交通大学团队提出的Nullu方法,通过识别并消除模型内部的“幻觉子空间”,成功在不增加任何推理成本的前提下,显著提升了模型的真实性与可靠性,为AI的广泛部署铺平了道路。
在人工智能的快速演进中,大型视觉语言模型(LVLMs)无疑是其中最引人注目的突破之一。它们能够理解图像并生成相应的文本描述,为人类与数字世界的交互带来了前所未有的可能性。然而,伴随其惊人能力而来的,是Persistent的“幻觉”现象——模型有时会编造出图像中根本不存在的物体,这种“无中生有”的错误,不仅削弱了LVLMs的实用性,更对其可靠性和可信度构成了严重挑战。长久以来,研究人员一直在寻找既能抑制幻觉,又不牺牲模型性能或引入额外计算负担的解决方案。
理解幻觉:大型视觉语言模型的固有缺陷
LVLMs的幻觉问题并非偶然,而是其架构深层固有偏见的产物。正如西安交通大学团队在其最新研究中揭示的,这种偏见主要源于模型所基于的大型语言模型(LLMs)过强的偏好先验知识。当视觉信息模糊或不足时,这些强大的语言先验往往会“脑补”出高频或模型偏好的概念,导致生成与实际图像不符的描述。例如,一个模型可能会在一张没有人的风景照中“看到”一个人,或者将特定形状误判为它在大量文本数据中频繁关联的物体。这种现象如同人类在模棱两可的图案中看到“人脸”一样,是模式识别系统过度拟合先验知识的表现。解决这一问题,需要深入到模型内部,直接修正其“认知”偏向,而非仅仅在输出端进行修补。
Nullu的核心机制:零空间投影的精妙之处
西安交通大学团队提出的Nullu方法,正是抓住了这一核心矛盾,提出了一种高效且“零开销”的解决方案1。其创新之处在于,它并没有像许多现有方法那样依赖于额外的解码或后处理步骤,而是通过直接编辑模型权重来从根本上消除幻觉。Nullu的核心思想在于识别并利用“幻觉子空间”(HalluSpace)。
该方法分为三个关键步骤:
-
真实-幻觉数据对构建: 研究人员首先构建了特殊的“真实-幻觉”数据对。对于同一图像,他们生成两个文本描述:一个包含对图像中物体的准确描述(真实描述,GT),另一个则包含故意引入幻觉的描述(幻觉描述,HD)。例如,利用LURE数据集1,通过替换GT中易引发幻觉的高频对象来创建HD。这种数据对清晰地定义了“正确”与“错误”之间的界限。
-
HalluSpace抽取: 接下来,Nullu在LVLM的语言模型部分(特别是MLP层特征空间)中,抽取幻觉子空间。通过对比真实描述与幻觉描述输入时模型内部嵌入特征的差异,研究人员使用主成分分析(SVD分解)来识别出这些差异向量中最显著的方向。这些方向集合,正是模型特征空间中导致幻觉描述产生的关键“偏差”方向,即HalluSpace。实验证实,这些差异向量在HalluSpace中的投影分量,比随机向量高出10倍以上,有力证明了幻觉子空间的存在性及其对幻觉信息的捕捉能力。
-
基于零空间投影的模型权重编辑: 一旦HalluSpace被识别,Nullu的创新之处便凸显出来。由于HalluSpace代表了导致幻觉的核心偏差,通过将模型权重正交化,并将其投影到HalluSpace的零空间,就可以有效地“抹去”模型内部与幻觉相关的潜在信息。这类似于将一个复杂向量分解成两个正交分量,然后舍弃掉与特定 undesired 方向相关的分量。这种对模型参数的直接、一次性修改,意味着在模型加载后,所有未来的推理都将自动受益于这种修正,而不引入任何额外计算开销。这与传统的、在推理阶段增加计算量的幻觉消除方法形成了鲜明对比,使得Nullu在实际部署中更具优势。
超越技术:零开销解决方案的深远意义
Nullu的“零开销”特性,不仅仅是技术上的一个亮点,更是其在AI产业生态中具有深远意义的关键所在。在大型模型部署的现实世界中,哪怕是微小的推理延迟或计算成本增加,都可能对用户体验和运营效率造成巨大影响。通过直接修改模型权重,Nullu避免了在每次推理时重新计算或调整输出,这使其成为一个极具商业价值和可扩展性的解决方案。它允许企业在不升级硬件、不增加云服务支出的前提下,显著提升其LVLM应用的可靠性。
该研究在LLaVA-1.5、MiniGPT-4和mPLUG-Owl2等主流LVLMs上进行了广泛验证,并在CHAIR和POPE等幻觉评估数据集上取得了出色表现,同时在MME和LLaVA-Bench等通用性能测试中保持了良好水平1。这意味着Nullu在提升模型真实性的同时,并未损害其理解和生成多样化内容的能力。
此外,Nullu的理论分析也揭示了其与现有先进方法,如VCD(Visual Contrastive Decoding)和DPO(Direct Preference Optimization)之间的内在联系1。论文通过对HalluSpace内部信息的解码,发现其包含了大量语言模型的偏好先验,这与VCD通过对比视觉和语言特征来抑制偏见有异曲同工之妙。而Nullu在权重更新方式上与DPO的潜在一致性,则进一步佐证了其在优化模型行为方面的有效性。这种深度分析不仅为Nullu的有效性提供了理论支撑,也为未来的AI模型对齐和偏好优化研究提供了新的视角。
在一个越来越依赖AI系统的世界里,模型的可靠性是信任的基石。从自动驾驶到医疗诊断辅助,再到创意内容生成,LVLMs的“幻觉”能力是其广泛应用的一大障碍。Nullu提供了一种高效、实用且可部署的途径,有望使这些强大的AI工具变得更加值得信赖。它不仅仅是一个算法的进步,更是向构建更可靠、更透明、最终更符合人类预期的智能系统迈出的重要一步。随着AI技术日益渗透到社会肌理,这种从根本上解决模型“认知偏差”的方法,将为AI的伦理治理和安全部署提供坚实的技术支撑。
引用
-
零开销,消除图像幻觉,基于零空间投影挖掘正常样本特征 https://m.36kr.com/p/3354370974937736·36氪·编辑:LRST(2025/6/27)·检索日期2025/6/27 ↩︎ ↩︎ ↩︎ ↩︎