深度造假:我们能阻止下一代人工智能造假吗?

深度造假——操纵数字数据以制造令人信服的虚假图像和视频——已成为对国家安全的重大威胁。

这是项目经理的观点国防高级研究计划局DARPA是美国国防部的“蓝天研究机构”。正如美国国防部高级研究计划局应对来自其他渠道的威胁——从导弹到电脑黑客——它现在正在研究对付深度造假的对策。

世界各地的DARPA资助的研究人员的进展揭示了DeepFake威胁的广度,以及正在快速发展的技术解决方案以及迅速地打击它。它还提供了一瞥自动DeepeFake检测的未来,只要他们的创造者将其上传到媒体平台。

deepfake威胁

媒体操纵和摄影本身一样古老。早在南北战争时期,商业摄影师就将图像结合起来创造出更有利可图的合成物。后来,电影制片厂用经过处理的电影和视频制作出越来越复杂的特效。

现在,由于可负担得起的计算能力和开源软件的崛起,几乎任何有一点技能和耐心的人都可以参与进来。包括糟糕的演员试图影响选举,操纵股价,妨碍司法公正,或者伤害女人

“一台高端游戏电脑就可以了,”DARPA项目经理马特·塔瑞克说告诉今年3月,美国国防部高级研究计划局(DARPA)在华盛顿举行了人工智能研讨会。与会者讨论了如何制造深度造假产品。“这可能需要数小时到数天的训练时间,这取决于你有多少训练数据和你的GPU的能力,”他说。

塔瑞克是美国国防部高级研究计划局媒体取证(MediFor)项目的负责人,该项目资助研究人员开发能够自动识别深度造假的软件和人工智能。

根据每天上传到互联网上的视频量-每分钟500小时仅仅在YouTube上,依靠人类的智力来识别深度造假是不可行的,即使有训练有素的专家的帮助。相反,应对措施将不得不依靠软件和人工智能来检测它们。

人工智能识别深度造假的3种方法

塔瑞克在美国国防部高级研究计划局人工智能研讨会上解释说,自动识别深度造假需要训练软件处理大量数据,以检测三个主要领域的操纵:

  • 数字完整性:未经改变的图像或视频中的所有像素都将与给定类型的相机的数字“指纹”相匹配。来自其他来源(如操作软件)的模式中断是操作的赠品。
  • 物理完整性:物理定律可能在一个被操纵的图像中被违反。例如,相邻的物体似乎从不同的光源投射阴影。
  • 语义完整性:真实视频或图像的情况将与这些情况的已知事实相匹配。例如,一个声称代表给定地点和时间的视频应该与该地点和时间的实际照明条件和天气(如果是户外)相匹配。

Adobe和加州大学伯克利分校(University of California at Berkeley)的研究人员是解决第一个挑战的人员之一,即发现受损的数字完整性。今年6月,Adobe宣布由美国国防部高级研究计划局资助的一个Adobe-UC Berkeley团队开发了一个系统,可以自动检测使用该公司流行的Photoshop产品处理过的面部表情。

此外,在意大利那不勒斯联合国大学II,DARPA资助的研究人员已经培训了软件,以识别数字“噪声”或数码相机产生的像素的模式。它们通过软件运行可疑图像以发现表现出不同噪声模式的像素集群,因此可能表示受损的数字完整性和操纵。

回到美国,马里兰大学的科学家们正与加州大学伯克利分校的同事们一起,同样得到DARPA的资助,来解决第二个挑战:验证图像和视频的物理完整性。他们的形状从阴影网络,或SfSNet,确定给定场景中脸部的光照是否一致。任何与现场其他人的灯光不匹配的面孔都可能来自其他地方。

深度假防御的未来

尽管对深度造假检测的未来持乐观态度,塔瑞克承认,深度造假检测是一个不断变化的目标。他在人工智能研讨会(AI Colloquium)上表示:“我们正在进行一场猫捉老鼠的游戏。”“我们造更好的探测器,他们造更好的操控器,我们造更好的探测器。”

一个可取之处是:在发现深度造假时引入大量的计算能力和专业知识,这大大增加了躲避检测的难度。“也许如果我们把门槛提高到足够高的程度,”Turek说,“我们将把它从单个操纵者的手中拿出来,再次把它作为更高资源操纵者的能力。”

由DARPA开发的以前的异国情调技术经常有一种方式进入主流的方式 - 例如,互联网本身,和实现自主车辆

鉴于历史,通过Medifor程序创建的检测算法很快就会使每个人都受益。“这种功能可以在互联网平台上筛选和标记,”Turek,“自动和尺度”。

2019 - 09 - 18 - t17:04:55 + 0

关于作者:

杰夫Fochtman
杰夫福富人是消费者解决方案副总裁和在希捷的全球营销副总裁。