随着人工智能技术的飞速发展,AI生成的视频内容开始在我们的日常生活中出现。OpenAI的SORA模型作为目前最先进的文生视频模型之一,虽然仍在封闭测试阶段,但其生成的视频已经足够以假乱真。本文将分享一些技巧,帮助大家识别AI生成的视频内容。
识别AI生成的内容颇具挑战。
乍一看,你可能会误以为AI生成的视频是真实的。只有当你开始深入观察时,才可能发现其中有些不对劲。
本文将要讨论的所有例子都是OpenAI旗下SORA所生成的视频,SORA是迄今为止最先进的文生视频模型。自2023年初“威尔·史密斯吃意大利面”的Reddit帖子出现以来,该领域已取得了长足的进步。截至2024年3月撰写本文时,SORA仍处于封闭测试阶段。
识别AI生成的照片和视频更像是一门艺术而非一门精确的科学。确实有一些方法可以判断照片是否由AI生成,但这些方法并不总是有效。本文旨在突出介绍一些目前可以识别AI生成内容的方法。然而,请记住,模型总是在不断进步,因此这些特征将变得越来越难以识别。有时,视频的主题和背景选择也能起到决定性作用。
注意细微的变化和“幽灵”
寻找细微的变化是识别令人信服的AI伪造品的一种方式,但这并不容易。OpenAI的SORA的一个示例描绘了一名女性在霓虹灯下的东京街头行走。对于一个文生视频工具来说,这个场景相当出色,以至于你可能错过了镜头末尾的服装变化。
开场镜头中,女子的服装是一件红色连衣裙,搭配一件全长开衫和一件皮夹克。开衫似乎与夹克融为一体,这有点奇怪,但我不是时尚达人,所以我会忽略这一点。
现在,近距离观察同一套衣服,你会发现连衣裙上现在有了深色斑块,而皮夹克的翻领变得更大且偏离中心。
这些变化非常微妙,大多数人需要多次观看镜头才能发现。这个场景内容丰富,充满了反射和背景演员,这有助于分散你对失误的注意力。
另一个需要注意的现象是“幽灵”,即物体逐渐出现和消失。OpenAI关于加利福尼亚淘金小镇的视频提供了一个很好的例子。视频中有一个相当模糊的人物,你的大脑可能将其解释为一个骑着马的男人。
然而,两秒后,这个人物完全消失了。如果你仔细观看视频,你会看到这个人物就像幽灵一样融入泥土中。
AI在手指、眼镜和细微元素方面存在困难
AI生成模型面临的一大挑战在于处理四肢和细微线条。特别是,我们需要仔细观察手部、所持物品、眼镜以及这些物品与人类特征(如帽子、头盔或头发)之间的交互方式。
与AI生成的摄影作品相比,视频中的错误更容易被发现,因为这些特征会在不同的场景间发生变化。
手指和手的位置对AI来说尤为难以处理。生成模型经常会产生比预期多或少的手指,有时看起来并不自然。手指可能非常细,或者关节过多。同样的问题也出现在所持物品上,有时看起来像是画面中的人物吸收了他们所持的物品。
注意那些看起来不对称或融入面部的眼镜。在视频中,它们可能会逐渐出现和消失,并在不同场景之间发生变化。手臂和腿的情况也类似,例如,在这个SORA关于尼日利亚拉各斯人民的视频中,我们可以看到一些明显的处理不当之处。
有时,画面中的人物似乎拥有多余的手臂,或者手臂的位置看起来非常不自然。这些都是AI在处理细微元素时遇到的困难。因此,在观察AI生成的视频时,我们需要特别留意这些细微之处,以便更准确地识别出AI生成的内容。
仔细观察图像中的背景物体
背景细节通常是AI生成视频的明显破绽,甚至比照片更容易识别。一个出色的伪造品依赖于主体足够逼真,以分散观众的注意力,从而忽略了背景并没有按照应有的方式呈现。
再次观看东京夜景视频。这个场景非常密集,容易让人一眼就接受所有内容。但仔细观察背景中行走的人物,特别是主体左侧的人物,你会发现一些不对劲的地方:
一些移动看起来并不自然。有时,一个人似乎复制了自己,出现了重影。后来,一群人似乎融合成了一个物体,好像他们都穿着同一条裙子或大衣,这明显不符合常理。在某些区域,行走动画也很奇怪,动作僵硬或不连贯。
因此,在观察AI生成的视频时,务必留意可疑的背景活动。有时,你会注意到自然物体,如树木、田野或森林,它们以奇怪的方式相互作用,显得非常不自然。此外,视角可能看起来不对劲,移动物体与动画中呈现的路径并不完全吻合,这也是一个需要警惕的破绽。
另一个例子是OpenAI的大苏尔海岸线无人机镜头。在自然界中,你很少会看到如此笔直的波浪,这很可能是AI生成的一个明显痕迹。通过仔细观察这些细微之处,我们可以更准确地识别出AI生成的内容。
光照与“AI光环”
我们在AI生成的照片中经常能看到一种特殊现象,这更多地是一种“感觉”而非客观特征。当在某些应该充满光线变化的场景中,光照却显得特别平淡且不自然时,这往往暗示着图片可能并非真实。
举例来说,像光晕、高光溢出(由于光线过多导致细节丢失)或阴影渐变(因光线不足而失去阴影细节)等常见的相机缺陷,在AI生成的照片中往往不存在。
这使得整体画面看起来有点像精心制作的音乐视频,或者像是没有采用真实光照和光线追踪技术的早期视频游戏。在某些情况下,主体甚至会在不应该完美无瑕的场景中呈现出完美的光照效果。
诡异谷效应
诡异谷效应描述的是当人类特征与非人类特征混合在一起时,给观者带来不适感的现象。安卓或类人机器人常被用作例子,因为它们外表看似人类,但本质上却并非如此。
这种效应往往只是一种主观感受。你可能会觉得有些地方不对劲,但却难以明确指出问题所在。在AI生成的照片和视频中,这种效应尤为常见。例如,在SORA的宇航员视频中,我就深切地体验到了这种感觉。
暂且忽略这位宇航员戴着的针织太空头盔,他的面部特征就让我感到有些毛骨悚然。
还有一个类似的例子,那位“令人毛骨悚然的祖母”在吹不灭生日蜡烛的瞬间,动态画面中的她显得尤为可怕。
警惕无意义内容
这似乎是最容易辨识的警示标志,但有时大脑却会为其放行。前文提到的宇航员视频就是一个典型的例子。其中有一个简短的场景,展示了一扇门、一个把手、一个杠杆或某个不明物体,它完全不合逻辑:
这是什么东西?为什么动画看起来像是倒放的?对于针织头盔我可以理解,但这个奇怪的物体从我看到它的那一刻起就让我感到困惑。
动作方面亦是如此。SORA的猫咪上床视频虽然令人印象深刻,但动作却显得不自然。养猫的人会立刻意识到这种行为很奇怪,很不符合常理。感觉猫咪的行为与情境之间存在明显的不匹配。不过,随着时间的推移,这种情况会有所改善。
杂乱无章的文本是AI生成过程中经常出错的另一个例子。在SORA的东京夜景视频中,日文字符显得杂乱无章,一些道路和商店的标志也是如此。OpenAI选择了一个大多数人无法区分日语和拙劣模仿的场景,这确实是一个明智的选择。
培养自己更好地识别这类内容的能力
培养自己识别AI生成内容能力的最佳方法是自己研究它。大多数生成模型在网络和像Reddit这样的社交媒体平台上都有活跃的社区。找到一些社区,看看人们都在创造什么。
此外,你还可以使用像Stable Diffusion这样的工具来生成自己的图像。在本文撰写时,OpenAI的SORA尚未对公众开放使用,因此你需要稍等片刻再亲自尝试。
AI生成的视频既令人印象深刻、引人入胜,又同样令人感到恐怖。随着时间的推移,随着模型克服自身的弱点,这些提示可能会变得不那么重要。因此,请系好安全带,因为你还没看到任何真正令人惊叹的东西呢。
0条评论