LEGION:AI图像伪造的“照妖镜”,还能反哺生成模型迈向超真实

LEGION:AI假图终结者?不,它还能教AI画得更真!

原文标题:从捍卫者到引路人,上交&上海AI Lab提出LEGION:不仅是AI图像伪造克星,还能反哺生成模型进化?

原文作者:机器之心

冷月清谈:

近年来,AI文生图技术飞速发展,生成图像的逼真度极高,但也带来了严重的信任危机,AI伪造图像的滥用问题日益突出。为解决这一难题,上海交通大学、上海人工智能实验室等机构联合提出了全新的 **LEGION 框架**。
该框架的核心在于构建了首个针对纯AI合成超真实图像的高质量数据集SynthScars,该数据集详细标注了各种AI生成缺陷,直击模型深层“伤疤”。在此基础上,LEGION 引入了一个多模态大模型,不仅能准确识别和定位图像中的伪造区域,还能提供详细的异常解释,指明“假”在哪里,为何是假,其检测准确性和鲁棒性均表现卓越。
更具开创性的是,LEGION 不仅仅是AI伪造图像的“捍卫者”,它还能通过“打假”反哺“造真”。通过分析伪影信息,LEGION 可以对生成模型的全局提示词进行优化,或直接对局部语义进行修复,从而显著提升AI生成图像的质量和真实感。这一研究 开辟了AI图像检测与生成相互促进的新范式,有望推动图像安全和内容创作共同发展。 此外,它以更少的参数量实现了超越大型模型的识别和解释能力,展现出高效能的潜力。

怜星夜思:

1、AI生成图像的信任危机越来越严重。除了文章提到的识别和修复功能,你们觉得像LEGION这样的工具,未来还能在哪些方面帮助我们重建信任,或者说,它对社会伦理和法律规范会有什么影响?
2、LEGION通过识别AI图像的“伤疤”来检测伪造。但AI生成技术还在飞速发展,未来的AI假图可能会更难以察从。你们认为,在“造假”与“识假”的军备竞赛中,检测技术下一步还能从哪些方向突破,才能保持优势?
3、文章提到LEGION能“反哺”生成模型,让AI画出更高质量的图。除了让图片更逼真,这项技术在实际应用中还能有哪些意想不到的价值?对普通用户或企业来说意味着什么?

原文内容


本文由上海交通大学,上海人工智能实验室、北京航空航天大学、中山大学和商汤科技联合完成。 主要作者包括上海交通大学与上海人工智能实验室联培博士生康恒锐、温子辰,上海人工智能实验室实习生文思为等。通讯作者为中山大学副教授李唯嘉和上海人工智能实验室青年科学家何聪辉。


AIGC 技术狂奔的脚印后,留下的是满地信任残骸


近年来,文生图模型(Text-to-Image Models)飞速发展,从早期的 GAN 架构到如今的扩散和自回归模型,生成图像的质量和细节表现力实现了跨越式提升。这些模型大大降低了高质量图像创作的门槛,为设计、教育、艺术创作等领域带来了前所未有的便利。然而,随着模型能力的不断增强,其滥用问题也日益严重 —— 利用 AI 生成的逼真图像进行诈骗、造谣、伪造证件等非法行为层出不穷,公众正面临一场愈演愈烈的信任危机


(图源自知乎和多家微信公众号)


不信?猜一猜下列图片中哪些是真实的,哪些则是由 AI 合成伪造的?


(左右滑动查看)


答案是:这些图像全是伪造的


若只是匆匆一瞥,你很可能会毫不察觉 —— 它们几乎天衣无缝。这正是得益于近年来文生图技术的突飞猛进,AI 生成内容已逼近真实。然而,正因如此,公众在毫无防备的情况下被误导的风险也在加剧。面对真假难辨的图像,信任成本正悄然上升,焦虑与不安也随之而来。



  • 论文标题: LEGION: Learning to Ground and Explain for Synthetic Image Detection

  • 作者团队: 上海交通大学、上海人工智能实验室、 北京航空航天大学、中山大学和商汤科技

  • 项目主页: https://opendatalab.github.io/LEGION

  • 关键词: 伪造检测、伪影定位、异常解释、引导图像优化


那么我们该如何破局?在 ICCV25 highlight paper《LEGION: Learning to Ground and Explain for Synthetic Image Detection》中,来自上海交通大学、 上海人工智能实验室等组织的研究团队从构建高质量 AI 合成图像数据集、设计可解释伪造分析模型、实现检测与生成的对立统一这三个角度给出了他们的答案。


破局基石:开创性数据集成就伪影图鉴



该团队反思了现有伪造图像数据集的局限性,并且构建了首个针对纯 AI 合成图像,可进行全面伪造分析的数据集 SynthScars,直击现有顶级生成技术的缺陷与 “伤疤”,让看似完美的 AI 图像显露真容,为图像安全研究注入新动力,主要具有以下亮点:


  • 全网顶配生成器:


部分图像来自最新的 AI 创作平台,集齐了 FLUX、SD 系列、各种商用 API 及特定 LoRA 微调后的最新文生图模型,几乎不含 “一眼假” 的老旧低质的伪造图像


  • 专杀超现实画风


系统性过滤动漫、插画等艺术风格图像,这类样本虽常见但误导性低;数据集中仅保留逼真程度高、最具欺骗性的超现实风格图像,聚焦人类最难分辨的 “视觉死角”


  • 维解剖级标


每张图像均附带伪影掩码、异常解释与伪影类型标签三类信息,系统覆盖三大伪影类型:物理矛盾、结构畸形、风格失真,支持定位、诊断与归因的全流程分析


  • 去轮廓依赖魔咒


摒弃依赖物体边界变形的传统篡改范式,专注捕捉 AI 原生生成图像中非结构性、无规则分布的伪影信号,直击深层次建模缺陷遗留的 “蛛丝马迹”


核芯武器:多模态大模型重塑分析范式



作者提出了一个基于多模态大模型(MLLMs)的图像伪造分析框架,主要由全局图像编码器、定位图像编码器、大语言模型、像素解码器和检测分类头组成,能够实现:


多任务架构统一:


伪造检测 + 伪影定位 + 异常解释三位一体,同步完成,无需零散专家拼凑实现。


伪影定位任务在 RichHF-18K 等 3 个数据集上进行了测试,结果如下:



作者指出,现有的一些通用多模态大模型,如 Qwen2-VL 在面对此任务时倾向于预测图片的绝大部分(有时是整张图片)为伪影,这是毫无意义的,这说明了现有 MLLMs 缺乏相关知识和能力


异常解释任务在 LOKI 等两个数据集上进行了测试,结果如下:



LEGION 仅用 8B 参数量就能够在异常解释任务中打败其他同等甚至更大规模的模型。作者还指出诸如 Deepseek-VL2/GPT-4o 这样的模型会输出看似全面的各种可能性,但实际上会导致答案冗杂,评分偏低。


伪造检测任务选择在 UniversalFakeDetect 基准上进行测试:



卓越的鲁棒性:


作者尝试了高斯噪声攻击、JPEG 压缩失真和高斯模糊三种干扰处理,发现 LEGION 性能相较于传统专家模型而言波动较小,具有更强的鲁棒性:



可解释性飞跃:


与传统专家模型仅给出真伪判断不同,LEGION 除此以外还利用视觉掩码直击 “造假部位”,语言能力生成 “打假报告” → 不只判真假,更说清何处假、为何假、有多假



更多的可视化示例请关注项目主页:https://opendatalab.github.io/LEGION


颠覆循环:实现检测与生成的终极共生


一直以来,合成与检测,宛如一对技术 “冤家”,在对抗中推动彼此演进。当合成跑过检测,虚假内容得以轻易伪装,真假难辨的风险骤增;当检测胜过合成,生成模型便被迫进化,朝着更高真实度与隐蔽性迈进。


因此,这篇论文创造性地提出:


LEGION 不仅可以作为图像安全的保卫者,也能是反向促进高质量生成的催化剂


为此,作者从两种不同的角度,提出了利用检测 “反哺” 生成的 pipelines:


全局提示词优化


作者指出,现有生成图片中的伪影部分来源于提示词的模糊。利用 LEGION 的异常解释文本,对全局提示词进行多轮细化后再重新生成能够有效修复一些缺陷,例如能对图片进行现实风格迁移、结构细节调整等。



局部语义修复术


另外一种思路是直接对 LEGION 检测出的伪影区域做局部修复。具体地,可以联合检测得到的伪影掩码和异常解释,利用图像修复模型针对性地消除伪影细节,这种方法的好处在于不对正常区域处理,能够最大程度的保留原图语义。



上例中,原始生成图像的伪影较为隐蔽,乍一眼看去往往会被忽略 —— 房子在水中的倒影与实际的颜色和形状不一致,这是典型的物理定律违反。通过多轮对伪影区域的局部修正,能够逐步得到更高质量、更逼真的合成图片。


此外,我们利用 HPSv2.1 模型对应用上述两种方法前后生成的图像进行了定量的人类偏好评分,能够明显发现在引导图像优化后有较大程度的提升,这说明了用 "打假" 反哺 "造真" 的可行性和有效性。




© THE END 

转载请联系本公众号获得授权

投稿或寻求报道:liyazhou@jiqizhixin.com

对于“识假”的未来,我想可以从两个方向来拓展。一是“主动防御”:LEGION已经有了反哺生成模型的能力,那我们能不能让生成模型在训练时就自我审查,避免产生那些容易被识别的“伪影”?从源头减少问题的发生。这就像疫苗一样,最好是预防。二是“多维度交叉验证”:除了图像本身,我们能不能结合更多上下文信息?比如,这张图是谁发的?在哪里发的?和其它信息源对比有没有矛盾?把图像分析和信息溯源、情报分析结合起来,形成一个立体的验证体系,而不是单单看一张图。单打独斗肯定会被淘汰,抱团才能取胜。

说到重建信任,我倒是觉得这事儿不能全指望技术。LEGION当然很厉害,能帮我们识别“假”,但人心的信任建立,还需要一套完整的系统。比如,大型平台是不是要强制接入这类检测工具?发布AI生成内容时,是不是要有明确的标识?就像食物有保质期一样,AI内容也得有个“溯源标签”吧?如果这些配套措施跟不上,光技术再强,也挡不住那些别有用心的人。再说了,我们是不是也该提高点数字素养,不能啥都信对吧?

哈哈哈,看到这个问题我脑子里就浮现出侦探片了。以后是不是犯罪现场的图片,或者法庭上的证据,都得先拿LEGION过一遍?“报告法官,这张照片有99%的概率是AI伪造,理由是边缘像素异常和光影逻辑矛盾!”想想就带感。不过玩笑归玩笑,这确实是个大问题。个人隐私、肖像权这些,在AI泛滥的时代更难保护了。如果有人用AI生成你的假图片去干坏事,LEGION能识别,但造成的影响已经有了。所以,技术是矛,也是盾,最终还得看掌握它的人怎么用,以及社会如何建立一套完善的规则来约束。

关于“识假”在“军备竞赛”中如何保持优势,我觉得最关键的是要从行为模式和生成过程的本质上去分析,而不仅仅是停留在图像表面的像素伪影。当前检测多依赖于生成模型遗留的“痕迹”,但未来的生成模型可能会更巧妙地规避这些痕迹。因此,下一步的突破可能在于结合多模态信息(例如图像与相应的文本、音频、视频流),甚至是对生成模型本身的“数字指纹”进行更深层次的学习。此外,对抗性训练和元学习(meta-learning)的进一步深入,使得检测模型具备更强的泛化能力,能够快速适应未知和新型的生成伪造,也是一个重要方向。

哈哈哈,除了让AI图更真,我觉得它可能还会催生一种新的职业:AI图像“细节优化师”!以前我们是修人像,以后是不是得修AI生成图?不过话说回来,这项技术对于那些对AI生成内容质量有高要求的行业,比如电商、文化创意、甚至虚拟试穿/试戴,都是天大的福音。想象一下,你用AI生成一件新衣服的设计图,然后LEGION告诉你,这衣服的褶皱不自然,纹理细节也有问题,然后AI自动修复。这简直就是把AI从“艺术生”培养成“工科生”,不仅有创意,还严谨!

针对“反哺”生成模型的额外价值,我认为其最大的潜力在于实现“可控性生成”和“定制化生产”。对于企业,特别是广告、游戏、影视制作等领域,这意味着能更精准地生成符合品牌调性或内容需求的图像,减少反复迭代和人工修改成本。例如,设计师可以利用LEGION的反馈,让AI生成特定风格、特定细节的图像,甚至可以精确修复图像中不符合物理规律的瑕疵,极大地提高内容生产效率和最终品质。对于普通用户而言,这项技术可以让他们创作出更符合自己想象的、高质量的个性化内容,极大地降低审美门槛,甚至让普通人也能成为“艺术家”。

唉,这不就是矛和盾的故事嘛。我觉得未来可能根本没有“保持优势”这回事,AI生成和AI检测会永远互相追赶。检测技术总是在生成技术突破后才能找到新的“伤疤”。除非…除非我们能找到一种物理定律级别的AI生成原罪,是所有生成模型都无法摆脱的固有缺陷。就像量子力学决定了粒子行为那样。但这可能么?我看悬。也许最终就是检测率从99%降到80%,然后又艰难爬回90%,无限循环。或者,就是人眼彻底放弃识别,全部依赖机器检测,那信任系统就完全数字化了。

关于“AI生成图像的信任危机”这个问题,我觉得LEGION这类技术最直接的影响就是提升了数字内容的公信力。当公众知道有可靠的工具能识别真伪,那么在使用AI图像时,就能更有依据地进行判断。这不仅限于打击谣言或诈骗,更深远的是,它会促使内容生产者更加负责任地使用AI。在法律层面,我想未来这类技术可以作为证据链的一部分,例如在版权纠纷或网络诽谤案中,帮助司法机构判断图像的来源和真实性,从而细化和完善相关的法律法规。

哇塞,这不就是AI版的“高考辅导班”嘛!学生(生成模型)考得不好(生成有瑕疵),老师(LEGION)帮你找出哪里错、为啥错,然后重点提升。除了逼真,我觉得它能赋能很多细分领域。比如,教育行业可以生成更准确、更具有说服力的示意图;医疗领域可以辅助生成更符合生理结构或病理特征的模拟图像,用来培训医生或辅助诊断;甚至在科研领域,可以生成更符合实验数据或理论模型的可视化图像,加速发现。这相当于给AI模型开了个“金手指”,让它生成的内容不仅漂亮,还更“正确”!