这个是假人没错,但网上发出来的照又有多少能代表真人?——爱范儿读者“白颜料 4 块 8” 在讨论虚拟偶像的文章 《你粉的网红可能不是人,但比流量明星好多了》下,一位爱范儿读者如此评论道。
▲ 你是否能看出哪个是虚拟偶像?
的确,释出照片前修图似乎已经成为新的“社交礼仪”,要区分内容真假变得越来越难。如果能有个万能的“恢复原图”按钮,一键让你看到层层滤镜后的本真,那是否很棒?
修图鼻祖 Adobe 最近还真的做了一个这样的 “去 PS 痕迹的”工具。
Adobe 和加州大学伯克利分校的研究人员做了一套工具,不仅可识别出人像照片中被修改过的部分,还能预估原图的模样。
目前,该算法只能识别经 Photoshop“液化”工具处理的面部照片,无法应用于用工具修出的效果。不少人会用“液化”来微调眼角、嘴角、鼻梁等小地方,修出更理想的表情效果。
为了制造这个工具,研究人员首先写了个指令码,自动用“液化”工具修了一大把人像图片,用作神经网络的训练资料。
▲ 用指令码自动生成影象
结果,训练出来的算法辨别液化痕迹的能力相当好。在用新资料测试时,人类志愿者识别出图片真伪的正确率只有 53%(接近随机猜的正确概率),算法的正确率却高达 99%。
▲ 修图后-监测到被修图之处-建议修复-原图
更难得的是,算法不仅可辨别图片是否有经过修改,落实修改过的地方,更能够恢复出一个大概的“原图”(虽然效果不完美)。
▲ 原图、修图后、算法建议“原图”对比
由于这个工具只能针对“液化”,也只能应用于人脸,因此 Adobe 暂无将其转化成公开工具的计划。不过,团队接下来仍将继续“还原按钮”研究拓展到更多领域,譬如识别出“修身”和“磨皮”等效果。
其实,这并不是 Adobe 第一次尝试研发辨别修图痕迹的工具。
去年 6 月,Adobe 公布了另一个可识别“PS 痕迹”的人工智能工具,当时仍处于“研究早期”。
▲ 算法可识别的三种处理效果,图片来自论文
当时的算法可识别图片中经“切片”(两张不同的图片拼在一起)、“复制”(在一张图内复制黏贴特定物件)和“删除”(将一样东西从图中移除)三个效果处理的痕迹。
但为什么 Adobe 要积极研发这类工具?
我们对于 Photoshop 和 Adobe 创意工具在世界上的影响力感到很自豪,但同时也意识到我们科技潜在的道德延伸影响。虚假内容已成为了一项日益紧迫的严重问题。 Adobe 在官方博文中写道。作为全球其中一个最大消费级修图工具提供者而言,提早参与到辨别伪造图片鉴别工作研究,自然是在 deepfake 时代的明智之举。
以前,所有人都可以买 Photoshop,但要真正用好得有很好的技巧,而现在技术正变得化。 Hany Farid 对《纽约客》说,他是一名图片鉴证专家。
Farid 曾遇到一个离婚案子。妻子向法庭提供了一个丈夫出轨的视讯证据,在视讯中,其丈夫伸手抚摸另一名女性的手。丈夫坚持强调这个视讯是伪造的。
我留意到,桌面上出现了他的手的倒影。以前,要把这里的几何对称做好非常难。但现在,想要在合成图片或视讯里实现这个已经变得越来越容易了。 在 Farid 看来,人类是视觉的动物,而影响一直以来都是其中一个我们相当信赖的资讯载体。因此,当你能改变影像,你就有可能可改变历史。
▲ 奥巴马和普京的影像都曾被用来制作假视讯,图自 Science News
《华尔街日报》甚至在内部成立了一个专案小组,专门培训记者如何识别 deepfake 类伪造视讯:“我们不知道未来版的 deepfake 哪天会冒出来,所以我们希望大家都能堤防虚假资讯。”
在 DARPA(美国国防部高阶研究计划局)看来,这,已经是关乎的问题。在 2016-2017 年间,DARPA 用于研发辩伪技术的资金至少达到 6800 万美元,但目前于这方面的研发结果仍不理想。
可以确定的是,辨别图片和视讯等真伪,已经成为数字鉴证中的一个重要分支。Farid 仍有自己的忧虑,他最近在接受《华盛顿邮报》的采访时表示:
我们要落后了。在影像合成领域研究和其对立方(识别伪造影像)的人数比例是 100:1。 题图来自 《纽约客》