AI炼丹炉「走火」?儿童内容洪水预警,别只顾着乐子!

温故智新AIGC实验室

TL;DR:

这年头,AI不光会画美少女,还会干坏事了!CSAM这种鬼东西居然也被AI批量生产,搞得执法部门快哭了。看来,管好AI这个「熊孩子」迫在眉睫,不然就真要「赛博朋克」了。

都说2023是AI爆发元年,大模型们你方唱罢我登场,搞得世界人民都以为要跑步进入AGI时代了。结果呢?还没等我们吃上AI画的香饽饽,一盆冷水就浇了下来:AI不光能生图,还能生出那种让人看了想吐的‘暗黑作品’,而且量大管饱,搞得执法部门都快要‘躺平’了。

最近,外媒一则重磅消息直接把人干懵了:A.I.-Generated Images of Child Sexual Abuse Are Flooding the Internet。你没听错,就是那个让人闻之色变的CSAM(儿童性虐待材料),现在居然有了AI这个‘帮凶’。那些专门追踪这些阴暗角落的组织直呼‘顶不住了’,因为AI生成的图片和视频简直是指数级增长,传统执法手段根本就是‘打地鼠’,打不完,根本打不完!

数据更是触目惊心:根据Neuron Expert的报道,一家名叫IWF的机构在今年9月前的六个月里,处理了74个AI生成的CSAM实例。你可能觉得这数字不大?要知道,这可是‘逼真到足以违反英国法律’的玩意儿,而在此前一整年,这个数字才70例短短半年就超越了过去一整年的总量,这速度,简直是坐上了火箭,不,是坐上了光速列车!1

炼丹炉「走火」:AI的“暗黑魔法”是如何实现的?

那么问题来了,这些‘数字幽灵’到底是怎么冒出来的?这就要提到咱们AI圈子里炙手可热的生成式AI,以及它那个‘不听话’的小表弟——深度伪造(Deepfake)技术。以前,这些技术被拿来搞‘换脸’、‘假新闻’,顶多让你乐呵一下,或者让人社死一下。但现在,它们被玩出了新高度,直接冲破了伦理底线,变成了生产CSAM的‘高效工厂’。2

简单来说,AI可以根据一些文本描述、参考图像,凭空‘脑补’出不存在的人和场景。而且,这些生成的内容逼真到什么程度?赛博研究院的一份报告就提到,深度伪造技术甚至能篡改医院的医学图像,欺骗经验几十年的医生,欺骗率超过95%!3 你想想,连专业人士都分辨不出来,普通老百姓就更别提了。这不就是‘皇帝的新衣’数字版吗?只不过这次,‘皇帝’穿的是不存在的罪恶。

潘多拉的盒子已开,谁来为AI套上“紧箍咒”?

面对这种‘洪水猛兽’,全球执法机构已经拉响了警报。美国司法部官员表示,他们正在严厉打击通过AI技术创建的儿童性虐待图像传播。4 但问题是,这玩意儿生成太快,传播太广,而且还具有隐蔽性和匿名性,就像是‘幽灵列车’,你很难追查到它的源头。

这不仅仅是技术问题,更是赤裸裸的伦理挑战。NIST(美国国家标准与技术研究院)在《减轻生成内容风险的技术报告》中,就把CSAM和NCII(非自愿分享的私密图像)列为生成式AI的恶意内容生成风险之一。2 报告中提到,合成内容的风险可以归纳为四类,覆盖了技术滥用和社会伦理的双重挑战。

那么,我们该怎么办?总不能眼睁睁看着AI这个‘熊孩子’把世界搞得乌烟瘴气吧?好消息是,大家都在想办法给AI套上‘紧箍咒’。比如,AI安全和内容治理被提上了日程。从技术层面,要研究如何识别AI生成内容的‘水印’、‘指纹’,甚至是从根源上阻止AI生成这类非法内容。从立法层面,欧盟已经推出了《欧盟人工智能法案》5,虽然还在不断完善,但至少迈出了第一步。

总而言之,AI给我们带来了无限可能,但同时也打开了‘潘多拉的盒子’。当AI的创造力被引向邪恶,那将是人类社会无法承受之重。这场与‘数字幽灵’的较量,远比我们想象的要复杂和漫长。我们能做的,就是保持警惕,别只顾着乐子,而忘了这把双刃剑的另一面。毕竟,科技向善,才是正道。

引用


  1. AI生成的儿童虐待图像的增加达到关键水平 - Neuron Expert·Neuron Expert·(2023/10/26)·检索日期2023/10/26 ↩︎

  2. NIST《减轻生成内容风险的技术报告》深度解读:构建可信人工智能 ...·知乎·(2023/07/07)·检索日期2023/10/26 ↩︎ ↩︎

  3. [PDF] 人工智能时代数字内容治理的机遇与挑战 - 赛博研究院·赛博研究院·(2019/09/23)·检索日期2023/10/26 ↩︎

  4. 人工智能生成的儿童性虐待图像正在传播。执法部门正在加紧阻止他们·OurCoders·(2023/10/24)·检索日期2023/10/26 ↩︎

  5. [PDF] 欧盟人工智能法案: 指南·Bird & Bird·(2023/07/28)·检索日期2023/10/26 ↩︎