美国总统竞
在题为《福克斯:保护隐私免受未经授权的深度学习模 型的侵害》的论文中,他们阐述了进行这项研究的技术原理及研究目的。论文的一作有两位,一位是23岁的北京小伙单思雄,正准备在芝加哥大学直博,而另一位则是芝加哥大学的博士Emiy Wenger。 他们说,之所以将这一系统命名为Fawkes,是为了表示对盖伊·福克斯面具反抗精神的致敬。 Fawkes的工作原理,是对照片进行像素级别的微小修改,以蒙蔽AI的审视。而使用者大可不必担心这种修改会像“P图”一样影响照片本身的质量,Fawkes对照片像素的改动在人眼看来几乎与原片无差别,但是这种类似“噪点”的干扰,对机器模型的影响很大。 ▲技术使用模型案例 简单来说,将自己的人像照片传到Fawkes上经过1分钟左右的加工,输出的图片与原片在肉眼上看到并无差别,但是将加工后的照片再上传到社交网站,就算是人脸识别软件想要通过照片信息来获取数据,其扫描出的照片信息也不是上传照片的本人信息。 这款系统的优点在于,它几乎可以对所有的人脸识别系统都管用。论文上写道,在旷视Face ++、微软 Azure Face、亚马逊 Rekognition 等面部识别服务上,Fawkes 取得了“100% 的成功”。 ▲Fawkes 完全“骗过”了旷视、微软、亚马逊的人脸识别 这一系统尽管存在无法对已经上传网络的图片进行修改的缺陷,但是研究小组认为对今后大量的照片隐私泄露的规避将会阻止更多隐私安全问题的发生。他们说,他们的目的是让Clearview AI这种从照片上非法收集用户人脸信息的案件不再发生。 但现状是,除了无法对已经上传的图片进行修改,有的用户还表明:加工后的图片被微信等App压缩后,再进行人脸识别测试,其结果与原图并无差异,因此这一应用的实际应用情况到底是否有效还需进一步探索。 去年,Facebook AI也有研究通过改变帧的方式对人的照片或视频进行修改,以使人的面部信息在人脸识别软件面前“隐身”。 ▲经过修改的影视片段。左:原视频;右:用 Facebook 的方法修改后的视频 Facebook AI人脸“隐身”的新架构是基于对抗式自动编码器,并与一个经过训练的人脸分类器进行耦合。通过将自动编码器的隐藏空间与人脸分类器的表征层连接到一起,能够得到一个丰富的隐藏空间,其中既嵌入了身份信息,也嵌入了表情信息。 ▲编码器网络架构 2、DeepFake检测新思路:用心跳做“信号” 除了通过照片识别人脸信息,“换脸”技术背后的逻辑也同样让人细思极恐。放到网络上的人像视频只需要经过“ZAO”“DeepFake”之类的软件加工,视频的主角就可以换成别人,同样的,自己的人脸也有很大可能会被用于其他视频。只要处理够仔细,软件足够强大,“换过脸”的视频足可以以假乱真。 ▲DeepFake进行视频“换脸”处理 最近的美国大选,就又一次把Deepfake推上了风口浪尖。针对这种“人脸和身体错乱组合”的现象,科学家们也一直在探索如何区分真假照片和视频。 以往的技术主要是根据分辨率、三维信息、眼动等来区分,因为翻拍照片的分辨率与真人采集照片有差别,并且经过DeepFake加工过的换脸视频,“假人”眨眼会非常不自然。然而这种技术在处理不同类型图片的情况下,性能不是非常稳定。 近日,宾汉姆顿大学和英特尔的研究人员开发了一种算法,号称能用视频中的生物信号检测这个视频是否是伪造的。 ▲通过“DeepFake心跳”检测伪造视频 研究人员在论文中说,DeepFake模型视频会留下独特的生物学和噪声信号,即所谓的“DeepFake心跳”。这种检测方法会从一个人脸上的32个不同点中寻找残留的生物信号,研究人员将这些生物信号称为PPG单元。 ▲用心跳做“信号”监测假视频 (编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |