判断一张图片是不是 AI 生成,不能只靠一个"检测器分数",也不能只靠肉眼感觉。早期 AI 图经常有很明显的问题,比如手指数量不对、文字乱码、眼睛奇怪、背景糊成一团。但现在的生成模型已经进步很多(指的就是你,gpt-image-2),很多图片在第一眼看来几乎没有明显破绽。
与此同时,真实照片也不总是"干净"的。真实照片经过微信转发、社交平台压缩、截图、滤镜、美颜、裁剪、转格式之后,也会出现噪声异常、细节丢失、边缘模糊、压缩痕迹、文字不可读等现象。这些现象有时会和 AI 图片的缺陷很像。
所以,"判断 AI 图片"不是一个简单的二分类问题。
它不应该被理解成:
输入图片 → 输出 AI / 真人
更合理的理解是:
输入图片
→ 检查来源信息
→ 检查文件和像素痕迹
→ 检查视觉内容
→ 检查物理一致性
→ 检查统计模型信号
→ 检查外部来源和事实
→ 综合所有证据,给出风险判断
这篇文章的目的不是提供一个绝对可靠的"AI 图片鉴定公式",而是提供一套分析思路:当我们面对一张可疑图片时,应该从哪些角度入手,哪些信号更强,哪些信号容易误判,以及最后应该如何表达结论。
一、先看来源:真正强的证据通常不是"看起来像"
很多人判断 AI 图片,第一反应是看画面有没有异常。但在真正的分析流程里,最应该优先检查的其实是来源证据。
所谓来源证据,指的是图片文件中是否携带了能说明它来源的信息,比如:
EXIF
Metadata
C2PA / Content Credentials
相机型号
拍摄时间
编辑软件
生成软件
平台来源声明
签名信息
其中,最值得关注的是 C2PA / Content Credentials。它是一种用于记录内容来源和编辑历史的机制。如果一张图片带有经过验证的 C2PA 信息,并且其中明确声明它是由某个 AI 工具生成,或者经过生成式 AI 编辑,那么这会是非常强的 AI 来源证据。
例如,某些图片可能会记录:
created by AI tool
generated by model
edited with generative AI
produced by image generator
这种信息的价值远高于"看起来像 AI"。因为它不是从画面外观推测,而是来自图片的来源声明。
但这里有几个坑。
第一个坑是:metadata 很容易丢失。
图片经过微信、微博、X、Instagram、小红书、抖音、网页压缩、截图再保存之后,EXIF 和其他 metadata 经常会被清除。一张真实手机照片经过几次转发后,可能什么相机信息都没有了。
所以:
没有 metadata ≠ AI 生成
第二个坑是:普通 EXIF 不一定可信。
EXIF 可以被修改。一个文件里写着某个相机型号,不代表它一定是那个相机拍的。普通 EXIF 更像是一个参考信息,而不是强证明。
所以:
有相机 EXIF ≠ 一定是真实拍摄
第三个坑是:签名来源不等于最终结论。
比如一张图片的 C2PA 显示 signed by 某个大公司,这只说明这份声明由某个签名方签署。真正要看的是声明内容:它说的是相机拍摄、普通编辑、生成式编辑,还是 AI 生成。
所以来源信息的正确使用方式是分级判断:
可信 C2PA 明确声明 AI 生成
→ 强 AI 证据
可信 C2PA 明确声明相机拍摄
→ 强相机来源证据
普通相机 EXIF
→ 弱到中等真人来源信号
出现 Photoshop / Lightroom / Canva 等编辑软件
→ 说明可能被处理过,但不等于 AI
没有 metadata
→ 信息不足,不能直接下结论
换句话说,来源信息是第一优先级的证据,但它依然需要解释,不能机械使用。
二、再看文件和像素:水印、压缩、编辑痕迹只能说明一部分问题
除了来源信息,还可以检查图片文件和像素层面的痕迹。这一类分析通常包括水印、压缩痕迹、噪声模式、局部编辑痕迹等。
1. 水印:强证据和弱信号要分清
有些 AI 图像生成系统会给图片加入水印。水印大致分两类:
显式水印
隐式水印
显式水印很容易理解,就是图片角落有平台 logo、作品站标记、生成器名称,或者某些明显的标识。显式水印如果没有被裁掉,判断起来比较直接。
隐式水印更复杂。它可能隐藏在像素、频域或某些不可见特征里,人眼看不到,需要专门工具检测。例如有些 Stable Diffusion 生态工具曾经使用 invisible watermark,一些大平台也提出过自己的水印方案。
如果一个工具能够明确解码出可信的官方水印,而且水印内容和检测器来源都可靠,那么这可以是强 AI 证据。
但水印检测也很容易被误用。
很多时候,检测器并不是"确定解码出水印",而只是发现一些频率模式"像水印"。这就有误检风险。尤其在图片经过下面这些处理后:
截图
微信压缩
社交平台重编码
裁剪
缩放
转格式
加滤镜
二次保存
多次压缩
图片的频域结构会发生变化,可能破坏真正的水印,也可能产生类似水印的伪信号。
所以水印结果最好分级理解:
verified:明确解码出可信水印
probable:较可能存在水印,但证据不完全
suspected:疑似水印相似信号
not_detected:未检测到水印
unsupported:当前图片或检测器不支持
error:检测失败
只有 verified 才适合作为强证据。
如果只是 suspected,就只能算弱证据。报告里应该写:
检测到疑似水印相似信号,但置信度较低,不能单独证明图片由 AI 生成。
而不是写:
检测到水印,所以这是 AI 图。
还要注意另一个方向:
没检测到水印 ≠ 不是 AI
很多 AI 工具不加水印,很多水印会在压缩或截图中丢失,很多平台也不会开放检测方式。所以水印只能提供正向证据,不能作为排除 AI 的可靠依据。
2. 压缩和编辑痕迹:它们更像"处理痕迹",不是"AI 证据"
很多图片不是原始图,而是经过传播和编辑之后的版本。比如:
从社交平台保存
微信转发
截图再上传
从视频里截帧
经过美颜或滤镜
用 Photoshop / Lightroom / Canva 处理
从 PNG 转 JPEG
从 WebP 转 JPEG
多次重编码
这些操作都会改变图片的像素结构。
因此,可以用一些图像取证方法观察图片是否存在处理痕迹:
ELA 分析
JPEG 压缩块分析
噪声模式分析
局部重压缩检测
边缘异常检测
颜色通道异常
频域异常
如果图片某些局部区域的压缩质量、噪声水平或边缘特征和整体不一致,可能说明它被局部编辑过。
例如:
人物区域和背景区域噪声不一致
某个物体边缘附近压缩异常明显
局部区域比其他区域明显更清晰
不同区域 JPEG 质量痕迹不同
背景和前景的颗粒感不一致
这些现象可能意味着:
局部修图
拼接合成
压缩重编码
AI 扩图
AI 修复
AI 替换背景
但它们不能直接证明 AI 生成。
因为真实照片只要经历过编辑、转发、截图,也可能产生类似现象。反过来,一张 AI 生成图如果是原始导出文件,可能没有明显压缩异常。
所以压缩和编辑分析更适合回答:
这张图是否可能被处理过?
是否存在局部修改或合成痕迹?
图片传播链是否复杂?
而不适合直接回答:
这张图是不是 AI 生成?
3. 传播链越复杂,结论越应该保守
判断一张图片时,还要考虑它的传播链。
一张原始相机照片、一张从网页下载的图片、一张微信里保存的图片、一张截图再转发的图片,它们能提供的信息量完全不同。
传播链越复杂,越容易出现:
metadata 丢失
C2PA 丢失
水印被破坏
压缩痕迹变多
噪声模式变化
统计检测器分数波动
所以,如果图片明显经过截图、转发、多次压缩,任何检测结果都应该降置信度。
比较合理的判断方式是:
原始文件
→ 可以更信任文件级证据
社交平台保存图
→ metadata 和压缩分析需要降权
截图图像
→ C2PA、EXIF、水印、统计模型都要谨慎
多次重编码图片
→ 只能给风险提示,不适合高置信判断
一套成熟的分析流程,不只是给出"检测到了什么",还应该告诉用户:
由于图片经过压缩或转存,本次检测可靠性下降。
三、看画面内容:视觉异常和物理矛盾是重要线索,但不是最终裁判
在没有强来源证据时,人们最常用的方法就是看图片内容。这个方向确实有价值,但必须结构化,否则很容易变成主观感觉。
视觉层面的分析可以分成两类:
视觉语义异常
物理与场景一致性异常
1. 视觉语义异常:不要说"有 AI 味",要指出具体问题
"AI 味"是一个很模糊的说法。更好的方式是观察具体异常。
常见视觉异常包括:
人体结构异常
面部细节异常
文字和符号异常
物体融合
边缘不自然
纹理重复
背景结构混乱
人体和面部
早期 AI 图最容易在人体上翻车,尤其是手、牙齿、眼睛、耳朵、眼镜和头发。
可以观察:
手指数量是否异常
手指关节是否自然
指甲是否合理
手和物体接触是否正确
眼睛是否对称
牙齿是否糊成一片
耳朵结构是否混乱
眼镜框是否断裂
头发边缘是否异常融合
不过现在很多模型已经改善了手部和面部问题。所以"手没问题"不代表不是 AI,只能说没有发现这一类异常。
文字和符号AI 生成图片常见的另一个问题是文字。
可以观察:
路牌文字是否正常
商标是否拼错
衣服上的字是否可读
包装上的说明是否合理
书页文字是否像乱码
UI 截图里的文字是否一致
如果文字看起来像某种语言,但仔细看不可读,或者 logo 似是而非,这可能是 AI 信号。
不过,真实图片经过压缩、运动模糊、远距离拍摄,也会导致文字不可读。所以文字异常也要结合清晰度判断。
物体融合和边缘异常AI 图里有时会出现物体边界不清、结构融合的问题:
杯子和手粘在一起
耳机线消失在衣服里
椅子腿数量不对
包带突然断掉
首饰结构不连续
背景人物身体融合
建筑窗户重复变形
这类异常如果清晰可见,通常比"风格像 AI"更有价值。
纹理异常生成模型可能在大面积纹理上出现重复、过度平滑或不自然的模式。
常见区域包括:
头发
草地
树叶
墙面
织物
皮肤
水面
建筑窗户
人群背景
例如,草地看起来像重复贴图,皮肤质感过度平滑,背景人群像糊在一起,这些都可能是 AI 信号。
但同样要注意,美颜、降噪、低清压缩也可能让真实照片出现类似问题。
因此,视觉异常分析的正确表达应该是:
发现了什么具体异常?
异常位于哪里?
异常是否清晰可见?
是否可能由压缩、低清、风格化或修图造成?
而不是:
我感觉它像 AI。
2. 物理一致性:看这个"世界"是否自洽
有些 AI 图片局部细节看起来没问题,但整体物理关系不对。
物理一致性可以检查:
光源方向
阴影方向
反射关系
透视结构
物体接触关系
遮挡关系
尺度关系
重力关系
景深一致性
运动模糊
例如:
人物的阴影方向和光源方向不一致
镜子里缺少应该出现的反射
水面倒影和真实物体对不上
桌子上的物体没有接触阴影
背景透视线互相冲突
人物比例和环境尺度不协调
物体像悬浮在空中
不同物体的景深模糊不一致
这类检查对写实图片很有用。因为即使 AI 模型生成了很漂亮的局部细节,它也可能在场景整体逻辑上出错。
但物理一致性也容易误判。真实摄影里也会有:
复杂多光源
广角畸变
反射错觉
舞台灯光
运动模糊
后期修图
低清压缩
特殊拍摄角度
比如舞台照的光影可能非常复杂,玻璃反射可能让人误以为不一致,广角镜头会让透视看起来夸张。这些都不应该轻易判成 AI。
所以物理一致性适合作为中等证据。它最好和视觉异常、压缩痕迹、来源信息一起综合判断。
如果一张图片同时有:
明显手部异常
明显反射错误
统计 detector 高分
没有可信来源信息
那么 AI 风险会升高。
但如果只有一个轻微阴影疑点,就不应该给出高置信结论。
3. 非摄影图要特别小心
不是所有图片都应该按真实摄影标准判断。
比如:
二次元插画
游戏截图
UI 截图
网页截图
海报设计
漫画
表情包
Logo
图标
PPT
信息图
医学图像
卫星图
这些图片本来就不一定符合真实世界光影和摄影逻辑。
如果对二次元图检查"皮肤质感不像真人",对 UI 截图检查"没有真实阴影",对游戏截图检查"物理关系不自然",都可能产生误判。
所以在视觉和物理分析前,必须先判断图片类型。
可以简单分成:
摄影图
写实图
插画
截图
设计图
文档图
游戏图
未知类型
然后决定哪些检测适用,哪些检测需要跳过或降权。
四、不要只查图片,还要查它表达的事实
很多可疑图片的问题,不只是它是不是 AI 生成,而是它是否传达了虚假的信息。
比如:
伪造名人推文
伪造新闻截图
伪造政府公告
伪造企业声明
伪造聊天记录
伪造金融消息
旧图新传
真实照片配假文字
这类图片即使不是 AI 生成,也可能是有害的假信息。反过来,一张 AI 生成图也可能只是艺术创作,并不包含虚假事实。
所以需要区分:
AI 生成风险
内容真实性风险
1. 反向搜图:查这张图有没有出现过
反向搜图可以帮助判断图片来源。
可以查:
图片是否早已存在
是否出现在新闻网站
是否出现在摄影图库
是否出现在 AI 作品平台
是否出现在事实核查网站
是否存在更早版本
是否有不同裁剪版本
是否是旧图新传
如果一张图片出现在 AI 作品平台,并且页面里有 prompt、model、seed、workflow,这就是很强的 AI 来源证据。
如果一张图片早在很多年前就出现在摄影师作品集中,并且有完整拍摄信息,那么它不太可能是近期 AI 模型生成的。
但反向搜图也有局限:
搜不到不代表 AI
搜到相似图不代表是同一张
旧图可能被 AI 编辑过
真实图可能被错误配文传播
搜索引擎覆盖不完整
所以反向搜图是外部来源证据,但不是绝对证据。
2. 内容事实核查:查图片里说的事是否真实
如果图片中有文字、截图、新闻标题、公告、推文、聊天记录,就应该提取其中的 claim。
例如一张图片声称:
某公众人物宣布重大决定
某公司被收购
某政府发布新政策
某明星去世
某金融机构爆雷
某地发生灾害
判断时可以查:
是否有官方声明
是否有原始社交媒体链接
是否有可信媒体报道
是否有事实核查网站辟谣
截图中的账号、时间、平台样式是否一致
如果这是一个重大事件,但完全找不到官方来源或可信新闻,就应该提高内容风险。
但要注意:
内容风险高 ≠ AI 风险高
例如:
真实照片配假新闻标题
→ AI 风险低,内容风险高
伪造推文截图
→ AI 风险中等,内容风险高
AI 生成的虚假灾难现场图
→ AI 风险高,内容风险高
AI 生成的艺术头像
→ AI 风险高,内容风险低
这一区分很重要。否则系统会把所有"假的东西"都归为 AI 生成,导致判断混乱。
3. 平台截图要查原始链接
现在很多假信息会伪造成平台截图,比如:
X / Twitter 推文截图
微博截图
小红书截图
新闻网页截图
公告截图
聊天记录截图
这类图片的判断方法不是单纯看像素,而是要看它有没有原始来源。
例如推文截图,可以查:
账号 handle 是否存在
原文是否能搜索到
时间格式是否合理
UI 样式是否匹配
互动数据是否异常
是否有原始链接
是否有官方澄清
如果一张截图声称是重大消息,但没有原始链接,搜不到原帖,也没有可信报道,就应该给出内容真实性风险提示。
但依然要保守表达:
未找到原帖或可信来源,图片内容可能存在伪造或误导风险。
而不是直接说:
这是 AI 生成的。
五、统计模型可以用,但不要把分数当真相
现在有很多 AI image detector,可以输入图片,输出一个 AI-like score。
这些检测器可能基于:
CNN
ViT
CLIP
ConvNeXt
频域特征
扩散模型痕迹
二分类模型
它们的价值在于,可以捕捉到人眼不容易观察的统计特征。
比如某些生成模型可能在纹理、频率、噪声分布上留下规律,统计 detector 可能可以学习到这些差异。
但这类模型有天然局限:
训练集偏差
新模型泛化不足
压缩后分数变化
截图后分数变化
对二次元和游戏图误伤
对修图照片误伤
黑盒不可解释
不同 detector 结果不一致
比如一个 detector 可能在 Stable Diffusion 早期图片上效果很好,但对 Midjourney、Flux、Imagen、豆包、通义万相等新模型表现不稳定。另一个 detector 可能把真实的海报设计、游戏截图、二次元图误判成 AI。
所以 detector 输出的分数不能直接当成概率。
如果模型输出:
0.92
不应该解释为:
这张图有 92% 概率是 AI。
更合理的表达是:
该检测模型认为图片具有较强 AI-like 统计特征。
使用统计检测器时,最好关注:
模型训练数据覆盖哪些生成器?
是否支持当前图片类型?
对压缩和截图是否鲁棒?
对真实修图照片误伤率如何?
是否在自己的样本集上测试过?
输出分数是否经过校准?
如果没有自己的验证集,就不要把 detector 结果当作最终裁判。它应该只是综合证据中的一项。
一个成熟的系统应该允许 detector 输出:
高风险
中风险
低风险
不适用
检测失败
而不是强行把所有图片都塞进一个概率。
六、最终判断:不是给一个武断答案,而是给一份证据报告
综合判断时,最重要的是区分证据强度。
不同证据不能同等看待。
例如:
可信 C2PA 明确声明 AI 生成
和:
图片看起来有点 AI 味
不是一个级别。
可以把证据大致分为三类。
强证据
verified C2PA 明确声明 AI 生成
可信官方水印被高置信解码
图片在 AI 作品平台找到原始页面,并有 prompt / model / workflow
事实核查来源明确说明该图为 AI 生成
强证据可以显著影响结论。
中等证据
明显视觉异常
明显物理矛盾
多个区域压缩痕迹异常
统计 detector 高分
重大 claim 找不到可信来源
图片在可疑来源中传播
中等证据需要组合使用。单独出现时不应该直接下结论。
弱证据
无 metadata
低置信水印相似信号
轻微压缩异常
图片风格很像 AI
模型输出接近边界
搜索不到外部来源
弱证据只能提示风险,不能作为结论依据。
最后的判断不应该只有:
AI / Real
也不应该写成:
92% AI
更好的结果应该包括:
AI 生成风险
内容真实性风险
置信度
关键证据
反向证据
不确定因素
局限性说明
例如:
AI 生成风险:中等
内容真实性风险:低
置信度:中等
关键证据:
- 未发现可信 C2PA 来源声明
- 检测到轻微压缩不一致
- 未发现明显视觉语义异常
- 未发现可核查的重大内容 claim
解释:
当前图片存在少量处理痕迹,但没有发现决定性 AI 来源证据。该结果不能证明图片由 AI 生成,也不能证明图片为真人拍摄。
如果内容核查发现问题,可以写:
AI 生成风险:中等
内容真实性风险:高
置信度:中等
关键证据:
- 图片中包含重大公众人物声明
- 未找到对应原帖
- 未找到可信新闻来源支持
- 截图缺少可验证链接
解释:
该图片内容存在较高伪造或误导风险,但这不能单独证明图片由 AI 生成。
这种输出比"AI 概率 87%"更负责任,也更有解释力。
因为很多时候,真正重要的不是"给一个确定答案",而是告诉用户:
我们发现了什么?
这些发现意味着什么?
这些发现不能证明什么?
还有哪些信息不足?
结语
判断一张图片是否由 AI 生成,最可靠的方式不是依赖单个 detector,而是建立一套多证据分析框架。
可以按这个顺序思考:
1. 先看图片是否适合检测
2. 再看来源信息和 metadata
3. 检查水印或平台标记
4. 分析压缩、编辑和传播痕迹
5. 观察视觉语义异常
6. 检查物理与场景一致性
7. 使用统计检测模型作为辅助
8. 做反向搜图和内容事实核查
9. 区分 AI 风险和内容真实性风险
10. 按证据强度综合判断
每一种方法都有价值,也都有局限。
缺少 metadata 不代表 AI;没有水印不代表真人;检测到水印相似信号不代表已验证水印;视觉上没有异常不代表不是 AI;内容是假的也不代表图片一定是 AI;统计模型高分也不等于客观概率。
所以,真正成熟的 AI 图片判断,不是给一个漂亮但武断的百分比,而是给出一份清楚的证据分析:
我们看到了哪些证据?
这些证据有多强?
它们是否可能误判?
哪些检测不适用于当前图片?
最终只能给出怎样的风险判断?
在 AI 内容越来越多的时代,判断图片真假不只是技术问题,也是表达问题。一个负责任的系统应该学会承认不确定性,并把不确定性解释清楚。
3 个帖子 - 2 位参与者