新型AI假新闻识别方案:CVPR2026开源项目揭露“一致性陷阱”

CVPR2026开源方案揭示AI伪造陷阱,提出MDSM数据集和AMD检测框架,有效识别AI生成的高欺骗性假新闻,提升内容安全。

原文标题:图文全对竟是假新闻!CVPR2026 开源方案识破 AI 伪造陷阱

原文作者:数据派THU

冷月清谈:

本文介绍了西安交通大学、合肥工业大学和澳门大学的研究团队在CVPR 2026上提出的针对AI大模型伪造假新闻的解决方案。该方案包含数据集构建和跨模态建模两部分,旨在解决现有技术无法识别“图文一致”的AI伪造内容的问题。

首先,研究团队指出现有假新闻检测技术无法识别AI大模型生成的高连贯、高迷惑性虚假内容,并发布了包含超过44万高质量图文对的MDSM数据集,该数据集模拟真实攻击场景,提升了检测难度。

其次,研究团队提出了AMD检测框架,该框架包含伪影预感知编码机制和面向伪造的推理模块,能够捕捉篡改内容留下的隐性痕迹,并精确定位图像中的篡改区域。实验结果表明,AMD框架在MDSM数据集上表现出色,优于现有方案,并且具有良好的泛化能力和落地潜力。

总结来说,该研究通过构建数据集和提出检测框架,为社交媒体风控、新闻真实性核验、舆情防控等场景提供了更有效的AI假新闻识别技术,有助于提升数字内容安全水平。

怜星夜思:

1、文章里提到传统方案容易被“一致性陷阱”迷惑,那么,在没有AI辅助的情况下,我们普通人应该如何提升对多模态信息的辨别能力,避免被这类信息欺骗?
2、AMD框架通过“伪影预感知编码机制”来捕捉篡改痕迹,这个思路挺有意思的。除了文章中提到的方法,大家觉得还有哪些创新的技术手段可以用来检测AI伪造的内容?
3、MDSM数据集的发布对多模态伪造检测领域意义重大。那么,各位认为未来数据集的发展方向是什么?除了扩大规模和提高质量,还有哪些方面可以进一步完善?

原文内容

图片
本文约2000字,建议阅读5分钟
本文介绍了 AI 多模态伪造陷阱、MDSM 数据集及 AMD 检测框架。


AI 换脸、AI 造谣早已无孔不入,一张篡改的图片、一段 AI 大模型写的通顺文案,就能造出一条以假乱真的新闻,搅动舆论、误导公众,可现有检测系统却常常“视而不见”?


问题核心在于:当前的假新闻检测技术,像个只会找“图文错别字”的新手——它只认图文不匹配的低级伪造,却对 AI 大模型打造的语义严丝合缝、逻辑毫无破绽的高欺骗性假内容,彻底束手无策。


政客换脸伪造的现场新闻、名人表情篡改搭配的虚假声明、真实画面搭配 AI 大模型编造的误导叙事…… 这些关键场景的识别与拦截,正是多模态内容安全的“最后一公里”痛点。


现有技术对此力不从心,急需能识破“一致性陷阱”的新一代智能检测方案。


西安交通大学、合肥工业大学和澳门大学的研究团队,在 CVPR 2026 上提出从数据集构建到跨模态建模的全流程解决方案。


论文、代码、数据集已全部开源,立即探索多模态内容安全新范式:


论文名称:

The Coherence Trap: When MLLM-Crafted Narratives Exploit Manipulated Visual Contexts

论文链接:

https://arxiv.org/abs/2505.17476

代码 & 数据集:

https://github.com/YcZhangSing/AMD


1、新挑战:AI 大模型带来的「一致性陷阱」,传统检测失灵


不止找图文不匹配,更要识破「看起来全对,实则全假」的完美骗局!


〓 新挑战——图文一致的伪造(右)与传统的图文错位的伪造(左)的⽐较


传统方案把视觉篡改和文本编辑拆成两个独立步骤,造出来的假内容满是图文错位的破绽,普通人都能一眼看穿(上图左)。


而真实世界的恶意攻击,早已用上了更隐蔽的套路:先精准篡改图像,再用 AI 大模型生成和篡改画面完全对齐、语境通顺的虚假叙事,彻底抹平所有显性破绽(上图右)。


这种“一致性陷阱”,直接戳中了现有研究的两大致命短板:


低估 AI 大模型的欺骗风险:主流方案只针对规则化的文本篡改,完全忽视了 AI 大模型能生成高连贯、高迷惑性虚假内容的能力,对新型攻击毫无防备;


与真实场景严重脱节:现有数据集大多是人工制造的图文不匹配样本,欺骗性极低,训练出的模型在真实攻防中完全“水土不服”。


2、44万+图文基准:MDSM 数据集发布!还原真实世界的 AI 假新闻


〓 新基准——大模型驱动的多模态伪造数据集(MDSM)与现有数据集的综合比较


规模空前:包含超 44.1 万高质量图文对,源数据覆盖《卫报》《纽约时报》等五大主流媒体,是目前多模态伪造检测领域规模最大的基准数据集。


高度语义对齐:业界首个全量样本实现图文语义完全对齐的基准,完美复刻真实攻击场景,检测难度指数级提升,彻底告别“过家家”式的低难度训练。


场景真实全面:涵盖人脸换脸、属性篡改、文本伪造等 5 类核心伪造类型,同时支持虚假内容检测、伪造类型识别、篡改区域定位三大核心任务。


〓 大模型驱动的多模态伪造数据集(MDSM)的构建流程


〓 大模型驱动的多模态伪造数据集(MDSM)的数据统计



3、「伪影捕手」AMD 框架:一眼看穿 AI 大模型的伪造套路


〓 操纵诊断模型 (AMD) 的框架概述



看懂“伪影”辨真假:创新设计伪影预感知编码机制,给模型装上“伪造雷达”,专门捕捉篡改内容留下的隐性痕迹,在保留海量世界知识的同时,注入极强的伪造感知能力。


“双路找茬”精准定位:采用面向伪造的推理模块,双分支交叉捕捉视觉、文本双模态的伪造线索,同时精准定位图像中的篡改区域,实现“是否造假+哪里造假+造了什么假”的端到端全流程识别。


轻量化高效率:仅用 0.27B 参数量,就实现了超百亿级通用大模型的检测效果,兼顾顶尖性能与极快推理速度,极具风控场景应用落地潜力。


4、实验结果:性能全面领跑 SOTA,效果惊艳!



核心性能拉满:如表 2 所示,在 MDSM 跨域测试中,AMD 实现平均 88.18% ACC、60.25 mAP、61.02 mIoU 的顶尖成绩,全面碾压 ViLT、HAMMER++、FKA-Owl 等现有 SOTA 方案;


通用大模型集体失灵:GPT-4o、Gemini 2.0、Qwen3-VL 等通用大模型,在该场景下零样本检测效果几乎失效,进一步印证了 AMD 的针对性优势;


超强泛化能力:如表 3 所示,在跨数据集 DGM4 测试中,AMD 依然拿下平均 74.47% ACC 的最优成绩,适配各类伪造场景,落地性拉满;



小参数高性能:如表 4 所示,仅 0.27B 参数量,在 RTX 4090 上推理速度可达 13.38 pairs/s,兼顾精度与效率。



5、为什么这很重要?


内容安全全面升级:为社交媒体风控、新闻真实性核验、舆情防控等场景装上 “AI 假新闻识别引擎”,精准拦截 AI 时代的高欺骗性虚假信息,筑牢数字内容安全防线。


行业研究破局拐点:首次系统性揭示了 AI 驱动的一致性伪造风险,填补了该领域的研究空白,MDSM 数据集更是解决了长期以来“数据与真实场景脱节”的核心瓶颈,推动整个领域的技术迭代。


落地效率倍增:轻量化、端到端的统一架构,无需复杂的多模块组合,即可实现全维度的伪造检测,大幅降低产业落地门槛,让 AI 内容安全技术真正能用、好用。


编辑:于腾凯
校对:龚力



关于我们

数据派THU作为数据科学类公众号,背靠清华大学大数据研究中心,分享前沿数据科学与大数据技术创新研究动态、持续传播数据科学知识,努力建设数据人才聚集平台、打造中国大数据最强集团军。




新浪微博:@数据派THU

微信视频号:数据派THU

今日头条:数据派THU

其实这个思路的核心在于关注“异常”。任何与原始状态不符的改变,都会留下痕迹。所以,只要是需要检测异常的场景,都可以尝试借鉴这种方法。例如,在金融风控中,检测异常交易行为,或者在工业质检中,检测产品表面的瑕疵。

图文语义对齐就像是给AI出了一道“连环套”。以前只要找到图文明显不符的地方就能判断是假的,现在图文看起来天衣无缝,AI必须深入理解语义,才能发现隐藏的逻辑漏洞。这无疑大大提升了检测的难度。

同意楼上的观点,溯源很重要!现在很多AI工具都留下了独特的“指纹”,如果能分析出这些指纹,就能追踪内容的来源,从而判断是否经过AI伪造。另外,也可以考虑利用区块链技术,对新闻内容进行认证和溯源。

我觉得还可以用在医疗影像分析上。比如,检测CT或MRI图像中是否有异常病灶,因为病灶往往会留下一些细微的伪影。通过伪影预感知编码,可以提高检测的准确率和灵敏度。

我觉得可以从两个方面入手:一是加强对AI生成内容的溯源技术研究,看看能不能通过分析生成过程来判断真伪;二是建立一个更广泛的专家审核机制,让不同领域的专家参与到假新闻的识别中,结合机器和人的力量。

在图像修复领域,伪影预感知编码可以帮助模型更好地理解图像的原始结构,从而更准确地修复损坏的部分。在版权保护方面,可以把它作为一种隐形水印,嵌入到图像中,一旦图像被篡改,水印就会显现出来,从而起到版权警示的作用。

与其完全依赖技术手段,不如从提升公众的媒介素养入手。让大家了解AI可能带来的风险,学会辨别信息来源,不轻信未经证实的消息。毕竟,技术再先进,也比不上人人都有防范意识。

未来的数据集应该更加注重多样性和真实性。一方面,要涵盖更多类型的伪造手段,比如视频篡改、音频合成等;另一方面,要尽可能采集真实世界的案例,而不是仅仅依靠人工合成,这样才能让模型更好地适应实际应用场景。

数据安全和隐私也很重要。如果能建立一个去中心化的数据集,让更多人参与贡献和标注,同时又能保护个人隐私,那将是非常理想的。此外,数据集的标注质量也至关重要,高质量的标注才能训练出更强大的模型。

对于普通开发者或者小型团队来说,MDSM数据集也是一个宝贵的资源。可以利用它来尝试各种新的检测算法,或者开发一些面向普通用户的AI假新闻识别工具。甚至可以基于这个数据集做一个开源项目,共同推动AI内容安全的发展。

“语义完全对齐”应该指的是图像和文本在含义上是完全匹配的,文本描述的就是图像的内容,图像也准确反映了文本的含义。没有出现图像描述与实际画面不符,或者文本叙述与图像内容相悖的情况。

保证语义对齐的质量,我认为可以从以下几个方面入手:

1. 人工审核:对所有图文对进行人工审核,确保语义一致。
2. 自动化验证:利用自然语言处理技术,对图文对进行自动化语义分析,排除不一致的样本。
3. 多轮迭代:在数据集构建过程中,进行多轮迭代,不断优化和完善,提高语义对齐的质量。

我的理解,“语义完全对齐”就是说,你看到一张图,然后读到一段文字,它们给你的感觉是“这事儿就该是这样的”,没有任何违和感。比如说,一张图是某明星在发布会上讲话,文字描述也是关于这次发布会的内容,而不是瞎编乱造的。

要保证质量,我觉得得“人机结合”。先用AI初步筛选,把那些明显不搭边的样本筛掉,剩下的再由人工进行严格的审核,确保万无一失。

我觉得可以考虑加入一些带有专家标注的数据,比如由专业记者或调查人员标注的假新闻案例。这些数据可以为模型提供更强的指导信号,帮助其学习更加有效的检测特征。

我平时会注意观察细节,比如图片的光影、人物的表情、新闻的时间地点等等。很多AI生成的图片在细节上会存在瑕疵,仔细观察可以发现。另外,对于那些情绪渲染过度的信息,我会更加警惕,因为这很可能是为了操纵舆论。