一段关于“人类在飞机上吵架看呆袋鼠”的AI生成视频迅速席卷全球社交媒体,其逼真的程度迷惑了数千万人,凸显了生成式AI在模糊现实与虚构界限方面的强大能力。这起事件不仅揭示了AI内容鉴定面临的严峻挑战,更引发了对数字时代信任基础和社会认知的深刻反思。
最近,一段超现实的视频在社交媒体平台X(前身为Twitter)上引发了轩 M 波的观看热潮,迅速突破了7000万次,而Instagram上的点赞量也超过百万。视频中,一只紧握登机牌、身姿笔挺的袋鼠,正满脸无辜地旁观着它的“主人”与一名空乘人员在登机口激烈争执。这看似荒诞却又栩栩如生的场景,迅速抓住了全球网民的注意力,被广为转发,引发了无数“这太离谱了”、“袋鼠比人类还乖”的评论。然而,这并非真实发生的一幕,而是一个由人工智能精心编织的幻象1。
逼真幻象与数字谎言的构造
这段“袋鼠登机”的视频,表面上极具迷惑性,但细察之下,AI生成的固有“缺陷”便显露无遗。最明显的“罪证”在于袋鼠手中登机牌上那些难以辨认的乱码文字,这是当前AI生成模型在处理文本信息时常出现的“幻觉”现象。此外,视频中的人类角色说着不存在的语言,空乘人员胸牌上的名字缺失,以及最令人毛骨悚然的细节——乘客无名指上的戒指凭空出现又消失,这些都是AI在处理细节连贯性时遇到的挑战所暴露的瑕疵。尽管先进的AI视频生成技术,如谷歌的Veo3,已经能够创造出高清、自然,甚至能捕捉眨眼和细微头部动作的影像,并能生成逼真的声音,但这些细微的“破绽”依然是鉴别AI生成内容的线索1。
这段视频最初来源于一个名为“InfiniteUnreality”的Instagram账号。该账号的主页充斥着一系列荒诞不经的AI动物视频,例如被绑在飞机座椅上的河马、登机的长颈鹿,以及躺在婴儿车里的小猪。这些作品无疑是对现实的超现实解构,它们的创作者在简介和视频中都包含了某种形式的AI标注——一个代表无限的“∞”符号,意图以此暗示其非现实性。然而,这种提示过于隐蔽,在社交媒体的快速传播中,绝大多数用户根本无暇或无法意会其深层含义。当像DramaAlert这样的知名转发账号在未经明确标注的情况下传播这些内容时,误判的规模效应便会指数级扩大1。
更值得深思的是,公众在其中扮演的角色。许多网友在评论区半开玩笑地互动,强化了视频“真实性”的印象,例如“这是袋鼠日常”、“袋鼠很有礼貌”。即使有少数人指出视频是AI生成,他们的声音也很快被娱乐化和玩梗的洪流所淹没。这种集体参与式的“假作真时真亦假”的现象,使得数字谎言在社交网络中获得了强大的生命力。
真与假的倒置:信任鸿沟的隐忧
AI制造的混乱并非单向度地将虚假包装成真实。一个更为复杂且反常的趋势正在浮现:真实的内容被有意无意地冒充为AI生成。例如,一段关于一位妆容怪诞的钢琴家弹唱歌曲的视频,被X平台博主@bitfalls声称是由Veo3生成,并附上了详细的提示词。其歌词内容也带有强烈的“AI整活”即视感。然而,这实际上是12年前澳大利亚音乐喜剧人Tim Minchin的真实表演片段。同样,歌手Vitas的真实演唱影像也曾被博主假冒成Veo3生成的内容1。
这种“真假倒置”的现象,使得我们赖以判断信息真伪的认知框架面临崩溃。当一个真实事件被怀疑为AI生成,而一个虚假内容却被普遍接受时,社会对信息的基本信任将遭到根本性的侵蚀。我们不仅仅是在与AI生成的内容对抗,更是在与一种认知失调和信任鸿沟作斗争。这种趋势不仅考验着个体的数字素养和批判性思维能力,也对媒体、平台和内容创作者提出了更高的伦理要求。我们面临的不再是简单的“识别虚假”,而是“如何确证真实”的全新挑战。
寻求锚点:技术鉴伪的局限与未来
面对日益混淆的真假局面,单纯依赖“肉眼”识别已变得越来越不可靠。AI生成内容的精细度已远超早期低劣的图像篡改,其在光影、细节和动作上的表现力使得直觉判断常常失灵。在这种背景下,技术层面的鉴伪工具应运而生。
Google DeepMind和Google AI Labs推出的SynthID便是其中一个代表性尝试。它是一种多模态AI内容鉴伪工具,旨在通过在AI生成或编辑的图片、视频、音频和文本中隐性嵌入数字水印,帮助用户判断内容是否来自谷歌旗下的AI模型(如Gemini、Imagen、Lyria、Veo等)。这种数字水印的特点是足够隐蔽,且能够抵抗常见的编辑操作,如滤镜、裁剪和格式转换。它的核心逻辑是:如果在内容中检测到特定指纹,则可溯源其是否为谷歌AI的产物1。
然而,SynthID也存在显著的局限性。它并非一个通用的AI鉴定器,只能识别内置其水印的内容。这意味着,如果内容是由其他未集成SynthID的AI模型(如ChatGPT、Stable Diffusion、Midjourney)生成,或者创作者通过恶意、大幅度的修改、转码甚至“重新创作”来破坏水印,SynthID便无法发挥作用。目前,该工具仍处于早期测试阶段,需要提交申请才能使用1。
长远来看,仅凭单一的技术解决方案,如数字水印,难以完全解决AI内容鉴伪的复杂挑战。AI生成与鉴伪之间的“军备竞赛”将是持续的。真正的解决之道,需要一个多维度、系统性的方法:
- 技术创新:继续研发更鲁棒、更通用的内容鉴伪技术,包括但不限于水印、元数据验证、行为模式分析等。
- 平台责任:社交媒体和内容发布平台应加强对AI生成内容的明确标注要求,并实施更严格的传播规范,避免虚假信息被无意或恶意放大。
- 立法与监管:政府和国际组织需要制定更明确的法律法规,规范AI内容的创作、传播和使用,明确责任归属。
- 公众教育:提升公众的数字素养和批判性思维能力,使其能够更理性地审视网络信息,辨别虚假内容。
AI技术的发展,正在以前所未有的速度模糊着现实与虚构的边界。从一只袋鼠的“登机插曲”到真实事件被冒充为AI创作,这不仅仅是技术炫技的产物,更是对我们社会认知框架和信任体系的深刻挑战。如何在这种“假作真时真亦假”的数字洪流中找到真相的锚点,并重建我们对信息的信心,将是未来几年人类社会必须共同面对的关键议题。