原创 AI“认不出”AI造假的图片?这给我们敲响了警钟
创始人
2026-01-13 20:16:41
0

众所周知,如今各种各样的AI生成图片已经随处可见,因此利用AI对图片造假,从而获取不当利益的行为也变得越来越多。

比如,拿“AI P图”将网购的商品照片修改成损坏或腐烂的样式,从而骗取退款的报道,现在就经常可以见到。

这可能是网传“AI图片造假”最有名的段子

除此之外,另一种常见的手段是通过AI生成图片,来伪造并不存在的事件、或是编造并未发布的产品,然后当作“独家”来进行病毒式营销和引流。

甚至在一些更为离谱的案例中,我们还看到了拿AI生成的“照片”作伪证,甚至是拿AI生成的产品图向管理部门申报的情况。

很显然,AI生成图片已经开始被滥用。从我们的经验来看,除非是像我们三易生活这样,本身就对相应领域(的产品)有深入了解,否则普通消费者往往会难辨真假,很容易被这些AI生成图片骗到。

那么站在消费者的立场,大家该怎么保护自己呢?

可能有的人立刻会想,自己认不出AI生成的图,让AI去辨认还不行吗,毕竟现在AI技术既然已经那么发达,那AI难道认不出AI造假的图片吗?

事实上,根据最新的一项实验结果显示,只要造假者注意几个“关键步骤”,那么AI伪造的图片就几乎不可能被其他AI“认出来”。而这个实验的步骤以及所提及的一些特殊情况,让我们对于现阶段AI“识图”的原理,以及它辨识图片是否伪造的方式,产生了很大的质疑。

在测试一开始,此次实验的设计者首先选择了谷歌的图像生成AI“Nano Banana Pro”,并用它画了一幅既有现实风格,但具体内容又略带荒诞的图像,即“一位女子手持香蕉指向天空。背景是典型的城市景观,行人漠不关心。”

根据实验设计者的说法,之所以使用谷歌的图像生成AI,是因为它“足够新”。这样一来,那些只记录了老旧模型特征的AI图像识别服务,可能就会“认不出”Nano Banana Pro在图像代码层面留下的印记(即AI隐形水印)。

但与此同时,实验者一方面并未抹除AI生成图片右下角的可见LOGO,另一方面,他们故意选择了一个略带荒诞题材的图像,也是有意想要考验这些“识别AI”,能不能仅从图像的内涵来判断它是否“真实”。

水印还在,但AI识别工具却有些“认不出”了

实验者首先对这张AI生成图片进行了格式转换(这一步是为了抹除其原始数据,避免直接“露馅”),然后把它给了6个不同的“AI图片检测工具”,来检测它的“AI生成率”。结果,有两个工具在第一个环节就直接翻了车。

只要AI生图用的模型足够新,它就已经可以骗过不少懒惰的检测平台了

要知道此时图片右下角的可见水印还保留着。这就说明,不是所有的AI图片检测平台都会“注意到”AI生成水印的存在,它们判断一张图片是否“AI生成”,靠的可能是其他技术手段。

那么去掉可见水印呢?有点作用,但影响不大

接下来,实验者使用图像编辑工具(实际上也是基于AI算法),去掉了测试图片右下角可见的AI生成Logo,再一次将它交给这些检测平台。

肉眼可见的“AI水印”,对于检测算法的干扰反而不大

这个修改产生了一点作用,之前能“认出”这是AI生成图片的其中一个平台,现在就报告图片是“非AI生成的”了,但超过半数的检测工具依然可以正确判断这是一张“AI图片”。换句话说,虽然现如今很多AI生成图片工具(特别是那些带有AI图像编辑功能的手机)都会出于“讨好用户”的目的,允许关闭可见的图像水印。但这种“给人看”的水印,反倒并不太影响AI检测工具的判断。

人为增加瑕疵,是彻底骗过AI检测的关键

最后实验人员猜测,AI图片检测的关键机制,可能在于检测图片中的“瑕疵”程度。因为真实拍摄的照片通常会带有各式各样的瑕疵,比如边缘部分的色差、抖动导致的细节重影、曝光不足导致的噪点等等。而AI生成的图片相比之下就会过于“完美”,从而使其在检测工具面前暴露。

经过人为后期修改的图片,添加了更多的“瑕疵”、但并未更改内容

为此,实验人员通过图像编辑软件,对这张AI生成图片添加了人为的噪点、边缘伪影,并增大了图片的对比度,使得其看起来更暗,更偏离一般“AI作图”常见的明亮风格。

从结果来说,经过这些修改的图片彻底“瞒过”了全部的AI检测平台。这就说明,上述这些图像特征,确实可能是现阶段各“检测AI”真正关注的重点。只要“造假者”稍微留心,在通过AI生成图片时手动略加修改,就能让图片被其他AI“识破”的几率大大降低。

这是造假者的胜利吗?其实它只是AI的耻辱

可能有的朋友看到我们这么说,会觉得这不是教人学坏吗?其实不然。请注意,在这起实验中,实验者的目的只是想要证明“AI检测”对于识别AI生成图片的无效性,并不是在教大家怎么去把“AI图片”弄得更加以假乱真。

在这个过程中,真正的关键其实就在于“一名女子神情肃穆,举着香蕉站在马路中央”的这个场景,本身就是“反常识”的。也就是说,对于正常的人类而言,哪怕没有右下角的可见AI水印,通常也能判断出“图片里所反映的事情大概不存在”。

AI图像检测工具的失败,实际上是“AI识图”脱离现实世界的证明

而“检测AI”之所以做不到这一点,恰恰说明现有的AI虽然能够“画”出以假乱真的荒诞图片,却难以真正“看懂”这些图片的荒诞性。它们只能纠结于画面的平滑度、噪点数量这些“技术性”细节,却无法真正理解内涵,进而做不到结合现实世界去判断画面的“合理程度”。

而这才是此次实验所揭露的事实,即AI本身其实根本就理解不了自己“在画什么”,它对于现实世界的理解能力,可能远低于我们的预期。

【本文图片来自网络】

相关内容